WO2019003323A1 - ゲームプログラム - Google Patents
ゲームプログラム Download PDFInfo
- Publication number
- WO2019003323A1 WO2019003323A1 PCT/JP2017/023648 JP2017023648W WO2019003323A1 WO 2019003323 A1 WO2019003323 A1 WO 2019003323A1 JP 2017023648 W JP2017023648 W JP 2017023648W WO 2019003323 A1 WO2019003323 A1 WO 2019003323A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- field
- player
- game
- hand
- game program
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 33
- 238000004891 communication Methods 0.000 description 27
- 239000003550 marker Substances 0.000 description 21
- 238000001514 detection method Methods 0.000 description 20
- 230000001133 acceleration Effects 0.000 description 17
- 210000003128 head Anatomy 0.000 description 14
- 230000006399 behavior Effects 0.000 description 10
- 210000004247 hand Anatomy 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000001429 stepping effect Effects 0.000 description 8
- 210000003813 thumb Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 210000005224 forefinger Anatomy 0.000 description 3
- 206010025482 malaise Diseases 0.000 description 3
- 230000009193 crawling Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5258—Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Definitions
- the technology disclosed by the present specification relates to a game program for a game system.
- Patent Document 1 Japanese Patent Application Laid-Open No. 7-200162 (hereinafter referred to as Patent Document 1), a head-mounted display mounted on the head of a player so as to cover the player's field of view and a stepping detection unit for detecting a stepping action of the player
- a game system including a step setting unit for setting the moving direction (forward or backward) and the step of the player, a controller imitating a gun used in the game, and a computer.
- the computer causes the head mounted display to display a game screen representing a range corresponding to the view of the player in the game in the virtual three-dimensional space constituting the game. Then, the computer calculates the position and action of the player according to detection signals from the footstep detection unit, the stride detection unit, and the controller, and changes the display mode of the game screen displayed on the head mounted display in real time. Do.
- the stepping detection unit detects the stepping motion of the player, is the player virtually walking (or running) in the virtual three-dimensional space according to the setting in the stride setting unit at that time? Is displayed on the head mounted display. By stepping on the spot, the player can perceive as if walking and moving in the virtual three-dimensional space (i.e., in the game space).
- the present specification discloses a technique for providing a game system that can suppress giving a player a sense of discomfort.
- a game program for a game system includes a head mounted display mounted on the player's head so as to cover the player's field of view, an input receiving device capable of detecting the physical movement of the player, and a computer.
- the game program causes the computer to display, on the head mounted display, a game screen representing a range corresponding to the field of view of the player among the following processes, that is, the virtual three-dimensional space constituting the game.
- the virtual three-dimensional space includes a field in which an operation target object is disposed, and the display processing in the case where the input reception device detects a field change operation, the player in the game screen Field change processing is performed, which changes the display mode of the field displayed in the game screen according to the change mode indicated by the field change operation without moving the viewpoint.
- the computer when the player performs the field change operation, the computer can display the field in the game screen displayed on the head-mounted display without changing the player's view in the game screen. It can be changed in accordance with the fluctuation mode indicated by the fluctuation operation. That is, since the player's vision does not move, the player who has performed the field movement motion does not feel that he / she moves by walking etc. in the field, but feels that the player is moving the field.
- the display mode of can be changed. Therefore, the player's physical condition and the player, as compared with the conventional technology that causes the player to perceive walking and the like on the screen even though the player's body does not actually move from the spot. There is less divergence between the game screen and the game screen that can be perceived visually.
- the "player's view” includes the meanings of the player's line of sight (line of sight) in the game, the player's standing position, the player's point of view, the player's view, the player's point of view, and the like.
- the player's perspective may move at the same position on the screen, for example, in accordance with an action such as a change in the attitude of the real player.
- the input reception device may be a device capable of detecting the movement of the player's hand.
- the field change operation may include a first operation for virtually touching the field, and a second operation for virtually moving the field virtually touched by the first operation.
- the field change processing may include changing the display mode of the field in accordance with the movement direction and movement amount virtually moved in the second operation.
- the player performs the field fluctuation operation including the first operation and the second operation to virtually feel that the field is “touched (for example,“ grip ”) and moved.
- the display mode of can be changed. It is easy for the player to intuitively perceive the feeling of "touching and moving" the field, and the divergence between the real player's physical condition and the game screen that the player can perceive visually is smaller. Therefore, according to the above configuration, it is possible to realize a game system capable of more appropriately suppressing the player from feeling uncomfortable.
- the game screen may further include a hand object that virtually represents the hand of the player.
- the game program may cause the computer to execute hand object operation processing for moving the hand object in accordance with the movement of the player's hand detected by the input reception device.
- the game screen viewed by the player includes a hand object that moves in accordance with the movement of the player's hand. Therefore, for example, when the player performs a field change operation, if the hand object moves so as to grasp and move the field, the player may more intuitively perceive the feeling of "touching and moving" the field. it can.
- the virtual three-dimensional space may further include a background space.
- the field may be arranged in the background space. In the game screen, the field may be displayed in a manner in which the field is overlooked.
- a virtual three-dimensional space constituting a game includes a background space and fields arranged in the background space and is displayed in a manner such that the fields are overlooked in the game screen
- the player is moving the field "as a result of the field fluctuation operation, as compared to a game in which the player can perceive that the player stands in the field (ie the player's gaze is in the field). It is easy to get the feeling of According to the above configuration, it is possible to more appropriately suppress the player from feeling uncomfortable.
- a game system realized by the above game program, a control method for realizing the game system, and a computer readable medium storing the above game program are also novel and useful.
- FIG. 1 shows a block diagram of a game system.
- An example of a game screen is shown.
- the flowchart of the field change process which the control part of a main body performs is shown.
- the example of the game screen just before a field moves is shown.
- the example of the game screen after the field has been moved is shown.
- the game system 2 shown in FIG. 1 and FIG. 2 is a game system for making a player experience and play a game in a virtual three-dimensional space.
- the game system 2 includes an HMD (abbreviation of Head Mount Display) 10, a right controller 30R, a left controller 30L, a camera 50, and a main body 60.
- the HMD 10 and the main body 60, and the camera 50 and the main body 60 are connected to each other in a wired communication manner.
- the right controller 30R, the left controller 30L, and the main unit 60 are connected to each other in a wirelessly communicable manner.
- controller 30 when the right controller 30R and the left controller 30L are referred to without distinction, they may be simply referred to as "controller 30".
- the HMD 10 shown in FIGS. 1 and 2 is an image display device (so-called head-mounted display) used by being attached to the head of a player.
- the HMD 10 includes a frame 11, a marker 12, a display unit 13, and an operation unit 14.
- the frame 11 is an eyeglass frame-like member.
- the player can wear the HMD 10 on the head by wearing the frame 11 so as to wear the glasses from the front side of the face.
- the frame 11 may be a headband-like member, a helmet-like member, or any other frame that can be worn on the head.
- the display unit 13 is a light shielding display member. As shown in FIG. 2, when the player wears the HMD 10 on the head, the display unit 13 is disposed at a position facing the player's eyes. When the player wears the HMD 10, the display unit 13 blocks the view of the player. In the present embodiment, a game screen (see FIG. 4 and the like) represented by screen data supplied from the main body 60 is displayed on the display unit 13.
- the markers 12 are disposed at both ends of the front surface of the display unit 13.
- the marker 12 is a mark of a color (for example, bright color such as fluorescent color) different in lightness from the frame 11 and the display unit 13.
- the control unit 70 of the main body 60 can specify the position and orientation of the head of the player wearing the HMD 10 according to the position of the marker 12 in the captured image captured by the camera 50. . That is, the marker 12 is a mark for specifying the position and orientation of the HMD 10 (ie, the position and orientation of the head of the player).
- the shape of the marker 12 is substantially rectangular in FIGS. 1 and 2, in another example, the shape of the marker 12 is not limited to this and may be any shape. Further, in another example, the marker 12 may be disposed at a position different from the example of FIGS. 1 and 2.
- the operation unit 14 is provided exposed on the surface of the frame 11.
- the operation unit 14 includes a plurality of buttons, a dial, and the like.
- the player can operate the operation unit 14 to input various operations to the HMD 10.
- the operation unit 14 may be configured as a controller independent of the frame 11 (that is, provided at a distance from the frame 11). In that case, the controller may be able to communicate with the HMD 10 by wired communication or wireless communication.
- the HMD 10 further includes a wired interface 16, a control unit 20, and a memory 22.
- the three-axis acceleration sensor 24 and the position detection device 26 are illustrated by broken lines in FIG. 3, the HMD 10 of this embodiment does not include the three-axis acceleration sensor 24 and the position detection device 26.
- the three-axis acceleration sensor 24 and the position detection device 26 will be mentioned in the second embodiment described later.
- the interface will be described as "I / F".
- the wired I / F 16 is an I / F for performing wired communication with the main body 60.
- a communication cable for performing wired communication with the main body 60 is connected to the wired I / F 16.
- the control unit 20 executes various processes in accordance with the program stored in the memory 22.
- the control unit 20 executes a process of causing the display unit 13 to display a game screen (see FIG. 4) or the like represented by screen data supplied from the main body 60.
- the memory 22 is configured by a ROM, a RAM, and the like.
- the memory 22 stores programs for the control unit 20 to execute various processes.
- the right controller 30R shown in FIG. 1 and FIG. 2 is a controller for the player to input an operation related to the game.
- the right controller 30R includes a gripping unit 31R, a marker 32R, and operation units 34R and 35R.
- the gripping portion 31R is a main body of the right controller 30R and a portion for the player to grip with the right hand (see FIG. 2).
- the marker 32R is a substantially spherical member formed integrally with the gripping portion 31R at the upper end portion of the gripping portion 31R.
- the marker 32R is a mark of a color (for example, bright color such as fluorescent color) different in lightness from the grip portion 31R.
- the color of the marker 32R may be the same as the color of the marker 12 described above.
- the control unit 70 of the main body 60 specifies the position and operation of the right hand of the player gripping the right controller 30R according to the position of the marker 32R in the captured image captured by the camera 50.
- the marker 32R is a mark for specifying the position and operation of the player's right hand.
- the shape of the marker 32R is substantially spherical, but in another example, the shape of the marker 32R is not limited to this and may be any shape. Further, in another example, the marker 32R may be disposed at a position different from the example of FIGS. 1 and 2.
- the operating portions 34R, 35R are provided exposed on the surface of the gripping portion 31R.
- the operation units 34R, 35R include a plurality of buttons, levers, dials, and the like.
- the operating unit 34R is disposed at a position where it can be operated by the thumb of the right hand when the player grips the gripping unit 31R with the right hand.
- the operation unit 35R is disposed at a position where it can be operated by a finger other than the thumb of the right hand (for example, a forefinger) when the player holds the grip 31R with the right hand.
- the player can operate the operation units 34R and 35R to input various operations (in particular, operations related to a game, etc.) to the right controller 30R.
- the right controller 30R further includes a wireless I / F 36R, a control unit 40R, and a memory 42R.
- the three-axis acceleration sensor 44R and the position detection device 46R are illustrated by broken lines in FIG. 3, the right controller 30R of this embodiment does not include the three-axis acceleration sensor 44R and the position detection device 46R.
- the three-axis acceleration sensor 44R and the position detection device 46R will be mentioned in a second embodiment described later.
- the wireless I / F 36R is an I / F for performing wireless communication with the main unit 60.
- the control unit 40R executes various processes in accordance with the program stored in the memory 42R. In the present embodiment, during the game, the control unit 40 executes processing of transmitting various instruction signals indicating various operations input to the operation units 34 and 35 to the main body 60 by wireless communication.
- the memory 42R is configured of a ROM, a RAM, and the like, and stores programs for the control unit 40R to execute various processes.
- the left controller 30L has the same configuration as that of the right controller 30R except that the left controller 30L is laterally opposite to the right controller 30R.
- the left controller 30L also includes a gripping unit 31L, a marker 32L, operation units 34L and 35L, a wireless I / F 36L, a control unit 40L, and a memory 42L.
- the camera 50 shown in FIGS. 1 to 3 is a camera for mounting the HMD 10 and photographing a player holding the controller 30 (ie, a player playing a game).
- the camera 50 is disposed at a position where it is possible to shoot the entire body of the player.
- the camera 50 is connected so as to be able to execute wired communication with the main body 60 via a communication cable. In the present embodiment, during the game, the camera 50 continuously supplies the captured image to the main body 60 by wire communication.
- the main body 60 shown in FIGS. 1 to 3 is an apparatus for generating screen data showing a game screen (see FIG. 4) according to a game program.
- the main body 60 includes a wired I / F 62, a wireless I / F 64, a control unit 70, a memory 72, and a recording medium reading unit 74.
- the wired I / F 62 is an I / F for performing wired communication with the HMD 10 and the camera 50.
- a communication cable for performing wired communication with the HMD 10 and a communication cable for performing wired communication with the camera 50 are connected to the wired I / F 62.
- the wireless I / F 64 is an I / F for performing wireless communication with the controller 30.
- the control unit 70 performs various processes such as processing of generating screen data representing a game screen, field fluctuation processing of FIG. 4, and the like according to the OS program 73 stored in the memory 72 and the game program 90 read by the recording medium reading unit 74.
- Execute the process The memory 72 is configured by a ROM, a RAM, and the like.
- the memory 72 stores the OS program 73 in advance.
- the recording medium reading unit 74 is a DVD drive.
- the recording medium reading unit 74 can read the DVD ROM 80 in which the game program 90 is recorded.
- the recording medium reading unit 74 may be a reading unit capable of reading another recording medium, such as a CD ROM or a flash memory.
- the control unit 70 of the main body 60 starts the game based on the game program 90 recorded in the DVD ROM 80 read by the recording medium reading unit 74. Specifically, the control unit 70 generates screen data representing a game screen (see FIG. 4 etc.) according to the game program 90, supplies the screen data to the HMD 10 by wire communication, and transmits the screen data to the display unit 13 of the HMD 10. Perform processing to display the screen.
- this process may be referred to as "display process”.
- control unit 70 acquires, from the controller 30, operation signals indicating various operations (for example, various operations related to the game operation) input by the player to the operation units 34 and 35 of the controller 30. Furthermore, the control unit 70 continuously acquires, from the camera 50, a captured image captured by the camera 50. The control unit 70 is based on the position, the direction, and the movement of the markers 12, 32R, 32L included in the captured image of the camera 50, the behavior of the real player (head direction, head position, both hands position, both hands movement Etc.). Then, the control unit 70 identifies the motion of the player in the game based on the operation signal acquired from the controller 30 and the identified behavior of the real player. The control unit 70 changes the display mode of the game screen displayed on the display unit 13 (that is, changes the screen data) in accordance with the operation of the player in the specified game.
- the game screen 100 shown in FIG. 4 is a screen constituting a game realized by the game program 90.
- the game screen 100 is a screen representing a range corresponding to the view of the player in the game in the virtual three-dimensional space constituting the game.
- a virtual three-dimensional space constituting the game of the present embodiment includes a background space 110 and a field 120.
- the background space 110 is a space that constitutes a background in which the field 120 is disposed. In the present embodiment, the background space 110 does not change according to the progress of the game.
- a field 120 is a place where an operation target object (for example, own characters P1 to P3, enemy characters E1 to E5, etc.) is arranged, and is a place which constitutes a scene related to the progress of the game.
- the game shown in the example of FIG. 4 is an action type simulation game in which an own army having own characters P1 to P3 fights against an enemy army having enemy characters E1 to E5.
- the field 120 is a place (battlefield) where the army and the enemy army fight, and various terrains such as a pond, a forest, and a mountain are arranged.
- the field 120 is disposed in the background space 110. In the game screen 100 of FIG. 4, the field 120 is displayed in a manner in which the field 120 is hidden.
- the game screen 100 also includes hand objects 130R and 130L.
- the hand objects 130R and 130L are objects that virtually represent the player's right hand and left hand.
- the hand objects 130R and 130L are game screens according to operations of the right controller 30R and the player's right and left hands gripping the left controller 30L and various operations input to the operation units 34R, 35R, 34L, and 35L, respectively. It is moved within 100 (i.e. the display is changed). For example, when the player inputs a selection operation for selecting a character in the field 120 to the operation unit 34R of the controller 30R, the hand object 130R operates so as to point to the character to be selected. The character pointed to by the hand object 130R is in the selected state and changes to the operable state. As described above, by displaying the hand objects 130R and 130L in the game screen 100, the player can intuitively recognize the sense of participating in the game using his or her hand.
- control unit 70 repeatedly executes the above-described processes (ie, display processes). Further, the control unit 70 executes the field variation process shown in FIG. 5 in parallel with the above display process while playing the game.
- the player's view (virtual line of sight (line of sight) height, line of sight (line of sight) position, player standing position, player's point of view, player's view, player's view in the game , Etc.) is a process for changing the display mode of the field 120 in the game screen 100 in accordance with the field change operation performed by the player.
- the control unit 70 starts the process of FIG. 5 according to the game program 90.
- the control unit 70 monitors that a field gripping operation is input.
- the field holding operation is an operation for the player to virtually hold (grip) the field 120 present in the background space 110.
- the player is the operation unit 34 of the controller 30 (the operation unit 34R of the right controller 30R and the operation unit 34L of the left controller 30L.
- the operation unit 35 (the operation unit 35R of the right controller 30R, and the left controller 30L)
- a predetermined field grasping operation can be input to the operation unit 35L of (the same applies hereinafter).
- the field gripping operation is an operation in which the player simultaneously presses the buttons of the operation units 34R and 35R with the thumb and forefinger of the right hand and simultaneously presses the buttons of the operation units 34L and 35L with the thumb and forefinger of the left hand It is. That is, the field gripping operation of the present embodiment is an operation corresponding to the player actually gripping the controller 30 strongly. In the present embodiment, while the controller 30 is strongly gripped (that is, while the buttons of the operation units 34 and 35 are simultaneously pressed), a field gripping operation is input and the controller 30 is released from gripping.
- the field gripping operation is released (that is, the later-described gripping release operation is input).
- the field gripping operation may be, for example, a predetermined gesture by the player's right and left hands gripping the controller 30.
- the field gripping operation may be input by continuously pressing one of the operation units 34 and 35 for a predetermined period or more (so-called long press). In that case, the field holding operation may be released by releasing the long press.
- the control unit 70 determines YES in S10, and proceeds to S12.
- the control unit 70 changes the mode of the hand objects 130R and 130L in the game screen 100 to a mode in which the field 120 is gripped, as shown in FIG. This makes it possible to intuitively recognize that the player virtually grips the field 120 by inputting the field gripping operation.
- control unit 70 determines whether or not a field moving operation has been input.
- the field moving operation is an operation for causing the player to virtually move the field 120 virtually held (gripped) by the field holding operation.
- the player inputs the field movement operation by moving the right hand and the left hand holding the controller 30 in a desired behavior after performing the above-described field holding operation (that is, pressing the predetermined button) Can.
- the player wants to pull the field 120 forward (for example, when the player wants to see the far side of the field 120), the player stretches the right hand and the left hand with the controller 30, Move to the As a result, the hand objects 130R and 130L displayed on the game screen 100 are also moved forward (in the far side of the field) in the virtual space. Therefore, the above-described field gripping operation is performed.
- An operation in which the hand objects 130R and 130L grasp the field is displayed.
- the player pulls the right hand and the left hand holding the controller 30 from the front toward the rear. Thereby, it is possible to input a field moving operation for pulling the back side of the field 120 to the front side (see FIG. 6).
- the operation may be performed with one hand.
- the player when the player wants to push the field 120 back (for example, when the player wants to look at the near side of the field 120), the player performs an operation to push the right hand and the left hand forward from the back.
- a field movement operation can be input to send out the front side of the front side 120.
- the player when the player wants to move the field 120 away (for example, when the player wants to display the field 120 in a wide area), the player performs a field move operation to move the field 120 away by pushing down the right hand and the left hand. Can.
- the player when the player wants to rotate the field 120 (for example, when the player wants to see the field 120 from the opposite side), the player rotates the right hand and the left hand in the same rotation direction (clockwise or counterclockwise). To input a field moving operation for rotating the field 120.
- the player can input a field movement operation to move the field 120 in a desired manner by inputting a desired gesture.
- the hand objects 130R and 130L may be temporarily moved out of the game screen 100 (that is, frame out) according to the size of the gesture.
- the control unit 70 determines YES in S12 and proceeds to S14. On the other hand, if the field moving operation has not been input, the control unit 70 determines NO in S12, skips S14, and proceeds to S16.
- control unit 70 changes the display mode of the field 120 in accordance with the movement direction and movement amount instructed in the field movement operation input in S12 (see FIG. 7).
- the control unit 70 determines whether or not a grip releasing operation for releasing the gripping of the virtual field (YES in S10) is input.
- the player can input a predetermined grip release operation to the operation unit 34 of the controller 30.
- the grip release operation is an operation for releasing the pressing of the button pressed in the input of the field grip operation.
- the grip release operation may be, for example, a predetermined gesture by the player's right and left hands gripping the controller 30.
- the grip releasing operation may be, for example, releasing the long press of any of the operation units 34 and 35.
- the field 120 is fixed at the position at the time of the grip release operation. If it is determined as YES in S16, the control unit 70 returns to S10 and monitors that the field gripping operation is input again. On the other hand, when the grip release operation has not been input, the control unit 70 determines NO in S16, and returns to S12. In this case, the control unit 70 again determines whether a field movement operation has been input.
- FIG. 4 shows an example of the game screen 100 before the field gripping operation is input (NO in S10 of FIG. 5).
- the own character P1 and the enemy character E1 are in battle.
- the player operates by selecting his character P1.
- enemy characters E2 and E3 are waiting.
- own characters P2 and P3 and enemy characters E4 and E5 exist at a certain distance.
- FIG. 6 shows an example of the game screen 100 displayed after FIG.
- the own character P1 which has engaged with the enemy character E1 on the near side in FIG. 4 defeats the opponent character E1.
- the distance between the player's own characters P2 and P3 and the enemy characters E4 and E5, which were present on the back side is close, and it seems that the battle is about to start.
- the enemy characters E2 and E3 waiting near the center of the field 120 move toward the back side to add to the enemy characters E4 and E5 on the back side.
- a player who has seen this situation thinks that he / she would like to see the far side of the field 120 largely (that is, want to draw the far side of the field 120 closer to the foreground to see greatly).
- the player moves the right hand and the left hand to the back side, and inputs the field gripping operation at that position (YES in S10).
- the hand objects 130R and 130L are changed to a mode in which the field 120 is virtually held.
- the player performs an operation of pulling the right hand and the left hand to the front side, and inputs a field movement operation to draw the back side of the field 120 to the front (YES in S12).
- the player performs a grip releasing operation (YES in S16).
- FIG. 7 shows an example of the game screen 100 after the field holding operation and the field moving operation are performed.
- the back side of the field 120 is drawn to the front side and displayed large by the field holding operation and the field moving operation described above.
- the player looks over the field from the viewpoint of the game, there is no significant change in the background space 110.
- FIG. 7 the situation in which the own characters P2 and P3 and the enemy characters E4 and E5 which were present on the back side in FIG. And, a part of the enemy characters E2 and E3 which have been moved to be added to the enemy characters E4 and E5 are also displayed.
- the display mode of the field 120 is changed from the game screen 100 of FIGS. 4 and 6, but when this display mode is changed, the player's view (player (You may rephras this with your eyes, standing position, etc.). Since the player's view does not change, the player does not feel that "I move in the field 120 by walking etc.”, but the display mode of the field 120 in the sense that "I grabbed the field and pulled and moved it". It can be changed.
- the control unit 70 displays the display mode of the field 120 in the game screen 100 as the game screen 100. It is possible to change according to the variation mode indicated by the field movement operation without moving the player's perspective in the inside (see FIG. 4, FIG. 6, and FIG. 7). Since the player's view does not change, the player who performed the field gripping operation and the field moving operation does not feel that he or she moves and walks in the field 120, but he is moving the field 120.
- the display mode of the field 120 can be changed in the same manner.
- the player's physical condition and the player as compared with the conventional technology that causes the player to perceive walking and the like on the screen even though the player's body does not actually move from the spot.
- the player needs to continuously perform two operations of the field holding operation and the field moving operation because of the variation of the display mode of the field 120.
- the player can change the display mode of the field 120 while virtually feeling that the field 120 is "held” (touched). It is easy for the player to intuitively perceive the feeling of "touching and moving" the field 120, and the gap between the real player's physical condition and the game screen 100 that the player can perceive from the visual is smaller. Become. Therefore, according to the present embodiment, it is possible to realize the game system 2 capable of more appropriately suppressing the player from feeling uncomfortable.
- the game screen 100 includes hand objects 130R and 130L that virtually represent the player's hand.
- the hand objects 130R, 130L are moved in accordance with the movement of the player's hand (ie, the movement of the marker 32 of the controller 30 captured by the camera 50). Therefore, for example, when the player performs the field holding operation and the field moving operation due to the change in the display mode of the field 120, if the hand objects 130R and 130L move so as to move the field 120, the player moves. More intuitively, the user can perceive the feeling of "touching and moving" in the field 120.
- the virtual three-dimensional space constituting the game includes a background space 110 and a field 120.
- the field 120 is arranged in the background space 110 in a crawling manner.
- a virtual three-dimensional space constituting a game includes a background space 110 and a field 120 arranged in the background space 110 and displayed in a mode in which the field 120 is overlooked on the game screen 100, the player The game can be played in the same manner as looking in the field 120 from within the background space 110.
- the HMD 10 is an example of the “head-mounted display”.
- the combination of the controller 30, the camera 50, and the control unit 70 is an example of the “input reception device”.
- the control unit 70 is an example of the “computer”.
- the own characters P1 to P3 and the enemy characters E1 to E5 are examples of the “operation target object”.
- the field gripping operation and the field moving operation are examples of the "field change operation”.
- the field gripping operation is an example of the “first operation”
- the field moving operation is an example of the “second operation”.
- the game system 2 of the second embodiment will be described focusing on differences from the first embodiment.
- the game system 2 does not have the camera 50.
- the HMD 10 does not have the marker 12.
- the controller 30 also does not have the marker 32.
- the HMD 10 is provided with the three-axis acceleration sensor 24 and the position detection device 26 as illustrated by a broken line in FIG. 3.
- the right controller 30R and the left controller 30L respectively include three-axis acceleration sensors 44R and 44L and position detectors 46R and 46L.
- the three-axis acceleration sensor 24 of the HMD 10 detects accelerations in three axes of X, Y, and Z.
- the control unit 20 of the HMD 10 can specify the posture and the movement state of the HMD 10 using the detection values of the three-axis acceleration sensor 24.
- the position detection device 26 of the HMD 10 is a GPS (abbreviation of Global Positioning System) receiver.
- the position detection device 26 receives radio waves from GPS satellites and measures the current position of the HMD 10.
- the control unit 20 performs main body 60 on positional relationship information indicating the posture and motion state of the HMD 10 specified by the three-axis acceleration sensor 24 and the current position of the HMD 10 measured by the position detection device 26. Supply to
- the three-axis acceleration sensor 44R and the position detection device 46R of the right controller 30R are also similar to the above.
- the control unit 40R supplies, to the main body 60, positional relationship information indicating the posture and motion state of the right controller 30R identified by the three-axis acceleration sensor 44R and the current position of the right controller 30R measured by the position detection device 46R.
- the three-axis acceleration sensor 44L and the position detection device 46L of the left controller 30L are also similar to the above.
- the control unit 40L supplies, to the main body 60, positional relationship information indicating the posture and motion state of the left controller 30L specified by the three-axis acceleration sensor 44L and the current position of the left controller 30L measured by the position detection device 46L. Do.
- the control unit 70 of the main body 60 is based on the positional relationship information acquired from the HMD 10, the positional relationship information acquired from the right controller 30R, and the positional relationship information acquired from the left controller 30L. Identify the real player's behavior (head orientation, head position, position of both hands, movement of both hands, etc.). Then, the control unit 70 identifies the motion of the player in the game based on the operation signal acquired from the controller 30 and the identified behavior of the real player. The control unit 70 changes the display mode of the game screen displayed on the display unit 13 (that is, changes the screen data) in accordance with the operation of the player in the specified game.
- the method for identifying the actual player's behavior is different from that of the first embodiment.
- the processing of the control unit 70 other than this is common to that of the first embodiment, and thus detailed description will be omitted.
- the combination of the HMD 10 and the controller 30 of the present embodiment is an example of the “input reception device”.
- the main body 60 may be capable of communicating with an external server, another main body, or the like via a communication network (for example, the Internet).
- a communication network for example, the Internet
- the game realized by the game program 90 may be a so-called online communication game in which one game is played with another player in one virtual three-dimensional space via a communication network.
- the game program 90 is stored in advance in the DVD ROM 80 and read by the recording medium reading unit 74 of the main body 60.
- the game program may be downloaded to the main unit 60 from an external server or the like via the communication network. In that case, the downloaded game program may be stored in the memory 72.
- the method for identifying the behavior of a real player is the method described in the first and second embodiments (the method of photographing the markers 12 and 32 with the camera 50 (first embodiment), and The present invention is not limited to the method (second embodiment) using the three-axis acceleration sensors 24, 44R, 44L and the position detectors 26, 46R, 46L.
- the behavior of the real player may be identified by irradiating the real player with infrared light, photographing with an infrared camera, and analyzing the pattern of the photographed infrared light.
- the HMD 10 or the controller 30 is provided with a light receiving unit for infrared light, and the HMD 10 or the controller 30 is irradiated with infrared light, and the light receiving unit receives the infrared light. It is possible to identify the player's behavior by identifying the direction or the like. Also, for example, communication by light other than infrared light or communication by sound may be used to specify the behavior of the player.
- the main unit 60 and the HMD 10 may be able to execute wireless communication.
- the main unit 60 and the camera 50 may be capable of wireless communication.
- the main unit 60 and the controller 30 may be capable of executing wired communication.
- the player performs the field gripping operation and the field moving operation for the change of the display mode of the field 120.
- the operation for the player to virtually contact the field 120 due to the variation of the display aspect of the field 120 is not limited to the field gripping operation described above, and may be any operation.
- the player may perform field touch operation to virtually touch the field and swipe operation (or / and slide operation) to move the touched field, for variation of the display mode of the field. You may
- the virtual three-dimensional space constituting the game includes the background space 110 and the field 120, and the field 120 is the background space It is arranged in a manner to be crawled within 110.
- the aspect of the game realized by the game program is not limited to this.
- the virtual three-dimensional space in the game realized by the game program may have only the field without the background space. That is, it may be a game in which it can be perceived that the player stands in the field (that is, the player's gaze is in the field). Even in such a case, it is sufficient that the control unit 70 can execute the field variation process of FIG. 5.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
ゲームシステムのためのゲームプログラムであって、前記ゲームシステムは、プレイヤーの視界を覆うように前記プレイヤーの頭部に装着される頭部装着型ディスプレイと、前記プレイヤーの身体的な動きを検出可能な入力受付装置と、コンピュータと、を備え、前記ゲームプログラムは、前記コンピュータに、ゲームを構成する仮想3次元空間のうち、前記プレイヤーの視界に対応する範囲を表わすゲーム画面を前記頭部装着型ディスプレイに表示させる表示処理であって、前記仮想3次元空間は、操作対象オブジェクトが配置されるフィールドを含む、前記表示処理と、前記入力受付装置がフィールド変動動作を検出する場合に、前記ゲーム画面内における前記プレイヤーの視座を動かすことなく、前記ゲーム画面内に表示される前記フィールドの表示態様を、前記フィールド変動動作が示す変動態様に合わせて変更させる、フィールド変動処理と、を実行させる。
Description
本明細書によって開示される技術は、ゲームシステムのためのゲームプログラムに関する。
例えば、特開平7-200162公報(以下特許文献1という)には、プレイヤーの視界を覆うようにプレイヤーの頭部に装着される頭部装着型ディスプレイと、プレイヤーの足踏み動作を検出する足踏み検出部と、プレイヤーの移動方向(前進又は後退)及び歩幅を設定する歩幅設定部と、ゲーム内で用いられる銃などを模したコントローラと、コンピュータと、を備えるゲームシステムが開示されている。
このゲームシステムでは、コンピュータは、頭部装着型ディスプレイに、ゲームを構成する仮想3次元空間のうち、ゲーム内におけるプレイヤーの視界に相当する範囲を表わすゲーム画面を表示させる。そして、コンピュータは、足踏み検出部、歩幅検出部、コントローラのそれぞれの検出信号に応じて、プレイヤーの位置及び行動を演算し、頭部装着型ディスプレイに表示されるゲーム画面の表示態様をリアルタイムで変更する。
例えば、足踏み検出部がプレイヤーの足踏み動作を検出する場合に、その時点の歩幅設定部における設定に応じて、プレイヤーが仮想的に仮想3次元空間内で歩いて(又は走って)移動しているかのようなゲーム画面が頭部装着型ディスプレイに表示される。プレイヤーは、その場で足踏みをすることで、仮想3次元空間内(即ちゲーム空間内)を歩いて移動しているかのように知覚することができる。
しかしながら、頭部装着型ディスプレイに、プレイヤーが仮想3次元空間内を歩いて移動しているような態様のゲーム画面が表示されたとしても、実際にはプレイヤーの身体は足踏みをしている場所から動いていない。そのため、特許文献1の技術では、プレイヤーが眼から知覚するゲーム画面中のプレイヤーの動き(例えば歩行移動)と、実際のプレイヤー自身の身体の動き(即ち足踏み)との間に乖離が生じることに起因して、プレイヤーに不快感(いわゆるVR(Virtual Reality)酔い)を与える場合がある。
本明細書では、プレイヤーに不快感を与えることを抑制し得るゲームシステムを提供するための技術を開示する。
本明細書では、ゲームシステムのためのゲームプログラムを開示する。前記ゲームシステムは、プレイヤーの視界を覆うように前記プレイヤーの頭部に装着される頭部装着型ディスプレイと、前記プレイヤーの身体的な動きを検出可能な入力受付装置と、コンピュータと、を備える。前記ゲームプログラムは、前記コンピュータに、以下の各処理、即ち、ゲームを構成する仮想3次元空間のうち、前記プレイヤーの視界に対応する範囲を表わすゲーム画面を前記頭部装着型ディスプレイに表示させる表示処理であって、前記仮想3次元空間は、操作対象オブジェクトが配置されるフィールドを含む、前記表示処理と、前記入力受付装置がフィールド変動動作を検出する場合に、前記ゲーム画面内における前記プレイヤーの視座を動かすことなく、前記ゲーム画面内に表示される前記フィールドの表示態様を、前記フィールド変動動作が示す変動態様に合わせて変更させる、フィールド変動処理と、を実行させる。
この構成によると、プレイヤーがフィールド変動動作を行なうことにより、コンピュータは、頭部装着型ディスプレイに表示されるゲーム画面中のフィールドの表示態様を、ゲーム画面内におけるプレイヤーの視座を動かすことなく、フィールド変動動作が示す変動態様に合わせて変更することができる。即ち、プレイヤーの視座が動かないため、フィールド変動動作を行なったプレイヤーは、「フィールド内を自分が歩行等して移動する」という感覚はなく、「自身がフィールドを動かしている」という感覚でフィールドの表示態様を変更することができる。そのため、プレイヤーの身体が実際にはその場から動かないにも関わらず、画面内ではプレイヤーが歩行等しているように知覚させる従来の技術と比べて、現実のプレイヤーの身体の状況と、プレイヤーが視覚から知覚できるゲーム画面との間に生じる乖離が小さくなる。従って、上記のゲームプログラムによると、従来の技術に比べて、プレイヤーに不快感(例えばVR酔い等)を与えることを抑制することができるゲームシステムを実現することができる。ここで、「プレイヤーの視座」とは、ゲーム内におけるプレイヤーの目線(視線)の位置、プレイヤーの立ち位置、プレイヤーの観点、プレイヤーの視野、プレイヤーの視点、等の各意味合いを含む。なお、「プレイヤーの視座」は、例えば、現実のプレイヤーの姿勢の変更等の動作に合わせて、画面上の同じ位置で動いてもよい。
前記入力受付装置は、前記プレイヤーの手の動きを検出可能な装置であってもよい。前記フィールド変動動作は、前記フィールドに仮想的に接触するための第1動作と、前記第1動作によって仮想的に接触された前記フィールドを仮想的に移動させる第2動作と、を含んでもよい。前記フィールド変動処理は、前記第2動作において仮想的に移動された移動方向及び移動量に合わせて、前記フィールドの前記表示態様を変更させることを含んでもよい。
この構成によると、プレイヤーは、第1動作と第2動作を含むフィールド変動動作を行うことで、フィールドを仮想的に「触って(例えば“掴んで”)動かしている」という感覚を持ちながらフィールドの表示態様を変更させることができる。プレイヤーが、フィールドを「触って動かしている」という感覚を直感的に知覚し易く、現実のプレイヤーの身体の状況と、プレイヤーが視覚から知覚できるゲーム画面との間に生じる乖離がより小さくなる。従って、上記の構成によると、プレイヤーに不快感を与えることをより適切に抑制することができるゲームシステムを実現することができる。
前記ゲーム画面は、さらに、前記プレイヤーの前記手を仮想的に表す手オブジェクトを含んでもよい。前記ゲームプログラムは、前記コンピュータに、さらに、前記入力受付装置において検出される前記プレイヤーの前記手の動きに合わせて、前記手オブジェクトを動かす手オブジェクト動作処理を実行させてもよい。
この構成によると、プレイヤーが視認するゲーム画面に、プレイヤーの手の動きに合わせて動く手オブジェクトが含まれる。そのため、例えば、プレイヤーが、フィールド変動動作を行う際に、手オブジェクトがフィールドを掴んで動かすように動けば、プレイヤーがより直感的にフィールドに「触って動かしている」という感覚を知覚することができる。
前記仮想3次元空間は、さらに背景空間を含んでもよい。前記フィールドは、前記背景空間内に配置されていてもよい。前記ゲーム画面では、前記フィールドが俯瞰される態様で表示されていてもよい。
ゲームを構成する仮想3次元空間が、背景空間と、背景空間内に配置されるフィールドとを含み、ゲーム画面においてフィールドが俯瞰される態様で表示されるゲームでは、プレイヤーは、背景空間内からフィールドを俯瞰している感覚でゲームをプレイすることができる。このようなゲームでは、プレイヤーがフィールド内に立っている(即ちプレイヤーの視線がフィールド内に存在する)と知覚できるゲームに比べて、プレイヤーが、フィールド変動動作の結果「自身がフィールドを動かしている」という感覚を得やすい。上記の構成によると、プレイヤーに不快感を与えることをより適切に抑制することができる。
なお、上記のゲームプログラムによって実現されるゲームシステム、及び、ゲームシステムを実現するための制御方法、及び、上記のゲームプログラムを格納するコンピュータ読取可能媒体も、新規で有用である。
(第1実施例)
(ゲームシステム2の構成;図1~図3)
図1、図2に示すゲームシステム2は、プレイヤーに、仮想3次元空間内でのゲームを体感及びプレイさせるためのゲームシステムである。図1、図2に示すように、ゲームシステム2は、HMD(Head Mount Displayの略)10と、右コントローラ30Rと、左コントローラ30Lと、カメラ50と、本体60と、を備える。HMD10と本体60、及び、カメラ50と本体60は、それぞれ、互いに有線通信可能に接続されている。また、右コントローラ30R及び左コントローラ30Lと、本体60とは互いに無線通信可能に接続されている。以下では、右コントローラ30R及び左コントローラ30Lを区別せずに呼ぶ場合、単に「コントローラ30」と呼ぶ場合がある。
(ゲームシステム2の構成;図1~図3)
図1、図2に示すゲームシステム2は、プレイヤーに、仮想3次元空間内でのゲームを体感及びプレイさせるためのゲームシステムである。図1、図2に示すように、ゲームシステム2は、HMD(Head Mount Displayの略)10と、右コントローラ30Rと、左コントローラ30Lと、カメラ50と、本体60と、を備える。HMD10と本体60、及び、カメラ50と本体60は、それぞれ、互いに有線通信可能に接続されている。また、右コントローラ30R及び左コントローラ30Lと、本体60とは互いに無線通信可能に接続されている。以下では、右コントローラ30R及び左コントローラ30Lを区別せずに呼ぶ場合、単に「コントローラ30」と呼ぶ場合がある。
(HMD10の構成)
図1、図2に示すHMD10は、プレイヤーの頭部に装着して用いられる画像表示装置(いわゆる頭部装着型ディスプレイ)である。HMD10は、フレーム11と、マーカ12と、表示部13と、操作部14と、を備える。
図1、図2に示すHMD10は、プレイヤーの頭部に装着して用いられる画像表示装置(いわゆる頭部装着型ディスプレイ)である。HMD10は、フレーム11と、マーカ12と、表示部13と、操作部14と、を備える。
フレーム11は、眼鏡フレーム状の部材である。プレイヤーは、顔の前面側から眼鏡を装着するようにフレーム11を装着することによって、HMD10を頭部に装着することができる。他の例では、フレーム11は、ヘッドバンド状の部材、ヘルメット状の部材等、頭部に装着可能な形状のフレームであれば任意の形状のフレームであってもよい。
表示部13は、遮光性の表示部材である。図2に示すように、プレイヤーがHMD10を頭部に装着すると、プレイヤーの両眼に対向する位置に表示部13が配置される。プレイヤーがHMD10を装着すると、表示部13によってプレイヤーの視界が遮られる。本実施例では、表示部13には、本体60から供給される画面データによって表されるゲーム画面(図4等参照)が表示される。
マーカ12は、表示部13の表側の面の両端部に配置されている。マーカ12は、フレーム11及び表示部13とは明度の異なる色(例えば蛍光色等の明色)の目印である。後で詳しく説明するが、本体60の制御部70は、カメラ50が撮影する撮影画像中のマーカ12の位置等に応じて、HMD10を装着するプレイヤーの頭の位置及び向きを特定することができる。即ち、マーカ12は、HMD10の位置及び向き(即ちプレイヤーの頭の位置及び向き)を特定するための目印である。図1、図2では、マーカ12の形状は、略長方形であるが、他の例では、マーカ12の形状はこれに限らず任意の形状であってもよい。また、他の例では、マーカ12が、図1、図2の例とは異なる位置に配置されていてもよい。
操作部14は、フレーム11の表面に露出して設けられている。操作部14は、複数個のボタン、ダイヤル等を含む。プレイヤーは、操作部14を操作して、HMD10に様々な操作を入力することができる。他の例では、操作部14は、フレーム11から独立した(即ちフレーム11から離れた位置に設けられた)コントローラとして構成されていてもよい。その場合、コントローラは、有線通信あるいは無線通信によってHMD10と通信可能であってもよい。
続いて、図3を参照して、HMD10の制御構成について説明する。なお以下では、図1、図2を参照して既に説明した構成については説明を省略する。図3に示すように、HMD10は、さらに、有線インターフェース16、制御部20、及び、メモリ22を備える。なお、図3では、3軸加速度センサ24及び位置検出装置26が破線で図示されているが、本実施例のHMD10は3軸加速度センサ24及び位置検出装置26を備えない。3軸加速度センサ24及び位置検出装置26については後述の第2実施例で言及する。また、以下ではインターフェースのことを「I/F」と記載する。
有線I/F16は、本体60と有線通信を実行するためのI/Fである。有線I/F16には、本体60と有線通信するための通信ケーブルが接続される。
制御部20は、メモリ22に記憶されたプログラムに従って様々な処理を実行する。本実施例では、ゲーム中、制御部20は、本体60から供給される画面データによって表されるゲーム画面(図4参照)等を表示部13に表示させる処理を実行する。メモリ22は、ROM、RAM等によって構成される。メモリ22は、制御部20が各種処理を実行するためのプログラムを記憶している。
(右コントローラ30R、左コントローラ30Lの構成)
図1、図2に示す右コントローラ30Rは、プレイヤーがゲームに関する操作を入力するためのコントローラである。右コントローラ30Rは、把持部31Rと、マーカ32Rと、操作部34R、35Rと備える。把持部31Rは、右コントローラ30Rの本体であるとともに、プレイヤーが右手で把持するための部分である(図2参照)。マーカ32Rは、把持部31Rの上端部に把持部31Rと一体に形成されている略球状の部材である。マーカ32Rは、把持部31Rとは明度の異なる色(例えば蛍光色等の明色)の目印である。マーカ32Rの色は、上述のマーカ12の色と同じであってもよい。後で詳しく説明するが、本体60の制御部70は、カメラ50が撮影する撮影画像中のマーカ32Rの位置等に応じて、右コントローラ30Rを把持するプレイヤーの右手の位置及び動作を特定することができる。即ち、マーカ32Rは、プレイヤーの右手の位置及び動作を特定するための目印である。図1、図2では、マーカ32Rの形状は略球状であるが、他の例では、マーカ32Rの形状はこれに限らず任意の形状であってもよい。また、他の例では、マーカ32Rが、図1、図2の例とは異なる位置に配置されていてもよい。
図1、図2に示す右コントローラ30Rは、プレイヤーがゲームに関する操作を入力するためのコントローラである。右コントローラ30Rは、把持部31Rと、マーカ32Rと、操作部34R、35Rと備える。把持部31Rは、右コントローラ30Rの本体であるとともに、プレイヤーが右手で把持するための部分である(図2参照)。マーカ32Rは、把持部31Rの上端部に把持部31Rと一体に形成されている略球状の部材である。マーカ32Rは、把持部31Rとは明度の異なる色(例えば蛍光色等の明色)の目印である。マーカ32Rの色は、上述のマーカ12の色と同じであってもよい。後で詳しく説明するが、本体60の制御部70は、カメラ50が撮影する撮影画像中のマーカ32Rの位置等に応じて、右コントローラ30Rを把持するプレイヤーの右手の位置及び動作を特定することができる。即ち、マーカ32Rは、プレイヤーの右手の位置及び動作を特定するための目印である。図1、図2では、マーカ32Rの形状は略球状であるが、他の例では、マーカ32Rの形状はこれに限らず任意の形状であってもよい。また、他の例では、マーカ32Rが、図1、図2の例とは異なる位置に配置されていてもよい。
操作部34R、35Rは、把持部31Rの表面に露出して設けられている。操作部34R、35Rは、複数個のボタン、レバー、ダイヤル等を含む。操作部34Rは、プレイヤーが把持部31Rを右手で把持した際に、右手の親指で操作可能な位置に配置されている。操作部35Rは、プレイヤーが把持部31Rを右手で把持した際に、右手の親指以外の指(例えば人差し指)で操作可能な位置に配置されている。プレイヤーは、操作部34R、35Rを操作して、右コントローラ30Rに様々な操作(特に、ゲームに関連する操作等)を入力することができる。
続いて、図3を参照して、右コントローラ30Rの制御構成について説明する。なお、図1、図2を参照して既に説明した構成については説明を省略する。図3に示すように、右コントローラ30Rは、さらに、無線I/F36R、制御部40R、メモリ42Rを備える。なお、図3では、3軸加速度センサ44R及び位置検出装置46Rが破線で図示されているが、本実施例の右コントローラ30Rは3軸加速度センサ44R及び位置検出装置46Rを備えない。3軸加速度センサ44R及び位置検出装置46Rについては後述の第2実施例で言及する。
無線I/F36Rは、本体60と無線通信を実行するためのI/Fである。制御部40Rは、メモリ42Rに記憶されたプログラムに従って様々な処理を実行する。本実施例では、ゲーム中、制御部40は、操作部34、35に入力される各種操作を示す各種指示信号を、無線通信によって本体60に送信する処理を実行する。メモリ42Rは、ROM,RAM等によって構成されており、制御部40Rが各種処理を実行するためのプログラムを記憶している。
図1~図3に示すように、左コントローラ30Lは、右コントローラ30Rと左右反対であることを除いて右コントローラ30Rと同様の構成を有する。左コントローラ30Lも、把持部31L、マーカ32L、操作部34L、35L、無線I/F36L、制御部40L、及びメモリ42Lを備えている。
(カメラ50の構成)
図1~図3に示すカメラ50は、HMD10を装着し、コントローラ30を把持しているプレイヤー(即ち、ゲームプレイ中のプレイヤー)を撮影するためのカメラである。カメラ50は、プレイヤーの略全身を撮影可能な位置に配置される。カメラ50は、通信ケーブルを介して本体60と有線通信を実行可能に接続されている。本実施例では、ゲーム中、カメラ50は、撮影画像を有線通信によって本体60に継続的に供給する。
図1~図3に示すカメラ50は、HMD10を装着し、コントローラ30を把持しているプレイヤー(即ち、ゲームプレイ中のプレイヤー)を撮影するためのカメラである。カメラ50は、プレイヤーの略全身を撮影可能な位置に配置される。カメラ50は、通信ケーブルを介して本体60と有線通信を実行可能に接続されている。本実施例では、ゲーム中、カメラ50は、撮影画像を有線通信によって本体60に継続的に供給する。
(本体60の構成)
図1~図3に示す本体60は、ゲームプログラムに従って、ゲーム画面(図4参照)を示す画面データ生成する装置である。図3に示すように、本体60は、有線I/F62と、無線I/F64と、制御部70と、メモリ72と、記録媒体読取部74と、を備える。
図1~図3に示す本体60は、ゲームプログラムに従って、ゲーム画面(図4参照)を示す画面データ生成する装置である。図3に示すように、本体60は、有線I/F62と、無線I/F64と、制御部70と、メモリ72と、記録媒体読取部74と、を備える。
有線I/F62は、HMD10及びカメラ50と有線通信を実行するためのI/Fである。有線I/F62には、HMD10と有線通信するための通信ケーブル、及び、カメラ50と有線通信するための通信ケーブルが接続されている。無線I/F64は、コントローラ30と無線通信を実行するためのI/Fである。
制御部70は、メモリ72に記憶されたOSプログラム73、記録媒体読取部74において読み取られたゲームプログラム90等に従って、ゲーム画面を表わす画面データの生成処理、図4のフィールド変動処理等、様々な処理を実行する。メモリ72は、ROM、RAM等によって構成される。メモリ72は、OSプログラム73を予め記憶している。本実施例では、記録媒体読取部74は、DVDドライブである。記録媒体読取部74は、ゲームプログラム90が記録されたDVDROM80を読取可能である。他の例では、記録媒体読取部74は、例えばCDROM、フラッシュメモリ等、他の記録媒体を読取可能な読取部であってもよい。
(ゲームシステム2の動作)
続いて、ゲームシステム2を利用してプレイヤーがゲームをプレイする場合における各デバイスの動作について説明する。プレイヤーがゲームシステム2を利用してゲームをプレイする場合、まず、プレイヤーは、HMD10、コントローラ30、カメラ50、及び、本体60の電源をオンする。そして、プレイヤーは、本体60の記録媒体読取部74にゲームプログラム90が記録されたDVDROM80を読み取らせる。プレイヤーは、HMD10を頭部に装着し、コントローラ30(即ち右コントローラ30R及び左コントローラ30L)を把持する。これにより、プレイヤーがゲームをプレイする準備が完了する。
続いて、ゲームシステム2を利用してプレイヤーがゲームをプレイする場合における各デバイスの動作について説明する。プレイヤーがゲームシステム2を利用してゲームをプレイする場合、まず、プレイヤーは、HMD10、コントローラ30、カメラ50、及び、本体60の電源をオンする。そして、プレイヤーは、本体60の記録媒体読取部74にゲームプログラム90が記録されたDVDROM80を読み取らせる。プレイヤーは、HMD10を頭部に装着し、コントローラ30(即ち右コントローラ30R及び左コントローラ30L)を把持する。これにより、プレイヤーがゲームをプレイする準備が完了する。
本体60の制御部70は、記録媒体読取部74によって読み取られたDVDROM80に記録されているゲームプログラム90に基づいて、ゲームを開始する。具体的には、制御部70は、ゲームプログラム90に従って、ゲーム画面(図4等参照)を表わす画面データを生成し、その画面データを有線通信でHMD10に供給し、HMD10の表示部13にゲーム画面を表示させる処理を行う。以下ではこの処理のことを「表示処理」と呼ぶ場合がある。
また、制御部70は、プレイヤーがコントローラ30の操作部34、35に入力した各種操作(例えば、ゲーム操作に関係する各種操作)を示す操作信号を、コントローラ30から取得する。さらに、制御部70は、カメラ50から、カメラ50が撮影する撮影画像を継続的に取得する。制御部70は、カメラ50の撮影画像に含まれるマーカ12、32R、32Lの位置、向き、動きに基づいて、現実のプレイヤーの挙動(頭の向き、頭の位置、両手の位置、両手の動き等)を特定する。そして、制御部70は、コントローラ30から取得された操作信号、及び、特定された現実のプレイヤーの挙動に基づいて、ゲーム内におけるプレイヤーの動作を特定する。制御部70は、特定されたゲーム内におけるプレイヤーの動作に応じて、表示部13に表示されるゲーム画面の表示態様を変更させる(即ち、画面データを変更する)。
(ゲーム画面100;図4)
ここで、図4を参照して、本実施例において表示部13に表示されるゲーム画面100の一例について説明しておく。図4に示すゲーム画面100は、ゲームプログラム90によって実現されるゲームを構成する画面である。本実施例では、ゲーム画面100は、ゲームを構成する仮想3次元空間のうち、ゲーム中のプレイヤーの視界に対応する範囲を表わす画面である。図4に示すように、本実施例のゲームを構成する仮想3次元空間は、背景空間110と、フィールド120と、を含む。背景空間110は、フィールド120が配置される背景を構成する空間である。本実施例では、背景空間110はゲームの進行に応じて変動することはない。フィールド120は、操作対象オブジェクト(例えば、自キャラクターP1~P3、敵キャラクターE1~E5等)が配置される場所であり、ゲームの進行に関係する場面を構成する場所である。図4の例に示されるゲームは、自キャラクターP1~P3を擁する自軍が、敵キャラクターE1~E5を擁する敵軍と戦うアクション型シミュレーションゲームである。フィールド120は、自軍と敵軍とが戦う場所(戦場)であり、池、森、山など、様々な地形が配されている。図4の例に示されるように、本実施例では、フィールド120は、背景空間110内に配置されている。図4のゲーム画面100では、フィールド120が俯瞰される態様で表示される。
ここで、図4を参照して、本実施例において表示部13に表示されるゲーム画面100の一例について説明しておく。図4に示すゲーム画面100は、ゲームプログラム90によって実現されるゲームを構成する画面である。本実施例では、ゲーム画面100は、ゲームを構成する仮想3次元空間のうち、ゲーム中のプレイヤーの視界に対応する範囲を表わす画面である。図4に示すように、本実施例のゲームを構成する仮想3次元空間は、背景空間110と、フィールド120と、を含む。背景空間110は、フィールド120が配置される背景を構成する空間である。本実施例では、背景空間110はゲームの進行に応じて変動することはない。フィールド120は、操作対象オブジェクト(例えば、自キャラクターP1~P3、敵キャラクターE1~E5等)が配置される場所であり、ゲームの進行に関係する場面を構成する場所である。図4の例に示されるゲームは、自キャラクターP1~P3を擁する自軍が、敵キャラクターE1~E5を擁する敵軍と戦うアクション型シミュレーションゲームである。フィールド120は、自軍と敵軍とが戦う場所(戦場)であり、池、森、山など、様々な地形が配されている。図4の例に示されるように、本実施例では、フィールド120は、背景空間110内に配置されている。図4のゲーム画面100では、フィールド120が俯瞰される態様で表示される。
また、ゲーム画面100は、手オブジェクト130R、130Lを含む。手オブジェクト130R、130Lは、プレイヤーの右手及び左手を仮想的に表すオブジェクトである。手オブジェクト130R、130Lは、それぞれ、右コントローラ30R、左コントローラ30Lを把持するプレイヤーの右手、左手の動作、及び、操作部34R、35R、34L、35Lに入力される各種操作に応じて、ゲーム画面100内で動かされる(即ち、表示態様が変更される)。例えば、プレイヤーがコントローラ30Rの操作部34Rに、フィールド120内のキャラクターを選択する選択操作を入力する場合、手オブジェクト130Rは、選択対象のキャラクターを指さすように動作する。手オブジェクト130Rに指さされたキャラクターは選択状態となり、操作可能な状態に変わる。このように、ゲーム画面100内に手オブジェクト130R、130Lが表示されることで、プレイヤーに、自分の手を使ってゲームに参加している感覚を直感的に認知させることができる。
ゲームのプレイ中、制御部70は、上記の各処理(即ち、表示処理)を繰り返し実行している。また、制御部70は、ゲームのプレイ中、上記の表示処理とともに、さらに、図5に示すフィールド変動処理を並行して実行している。
(フィールド変動処理;図5)
図5を参照して、制御部70が実行するフィールド変動処理の内容について説明する。図5に示すフィールド変動処理は、ゲーム内におけるプレイヤーの視座(仮想的な目線(視線)の高さ、目線(視線)の位置、プレイヤーの立ち位置、プレイヤーの観点、プレイヤーの視野、プレイヤーの視点、等と言い換えてもよい)を動かすことなく、プレイヤーが行うフィールド変動動作に合わせて、ゲーム画面100中のフィールド120の表示態様を変更するための処理である。制御部70は、ゲームが開始されると、ゲームプログラム90に従って図5の処理を開始する。
図5を参照して、制御部70が実行するフィールド変動処理の内容について説明する。図5に示すフィールド変動処理は、ゲーム内におけるプレイヤーの視座(仮想的な目線(視線)の高さ、目線(視線)の位置、プレイヤーの立ち位置、プレイヤーの観点、プレイヤーの視野、プレイヤーの視点、等と言い換えてもよい)を動かすことなく、プレイヤーが行うフィールド変動動作に合わせて、ゲーム画面100中のフィールド120の表示態様を変更するための処理である。制御部70は、ゲームが開始されると、ゲームプログラム90に従って図5の処理を開始する。
S10では、制御部70は、フィールド把持操作が入力されることを監視する。フィールド把持操作は、プレイヤーが、背景空間110内に存在するフィールド120を仮想的に把持する(掴む)ための操作である。プレイヤーは、コントローラ30の操作部34(右コントローラ30Rの操作部34R、及び、左コントローラ30Lの操作部34L。以下同じ)、及び操作部35(右コントローラ30Rの操作部35R、及び、左コントローラ30Lの操作部35L。以下同じ)に所定のフィールド把持操作を入力することができる。本実施例では、フィールド把持操作は、プレイヤーが、右手の親指と人差し指とで操作部34R,35Rのボタンを同時に押すと共に、左手の親指と人差し指とで操作部34L,35Lのボタンを同時に押す操作である。即ち、本実施例のフィールド把持操作は、プレイヤーが実際にコントローラ30を強く握り込む操作をすることに対応する操作である。本実施例では、コントローラ30が強く握り込まれている間(即ち、操作部34、35のボタンが同時に押されている間)、フィールド把持操作が入力され、コントローラ30の握り込みが解除されると(即ち、操作部34、35のボタン同時押し状態が解除されると)、フィールド把持操作が解除される(即ち、後述の把持解除操作が入力される)。他の例では、フィールド把持操作は、例えば、コントローラ30を把持するプレイヤーの右手及び左手による所定のジェスチャーであってもよい。また、フィールド把持操作は、いずれかの操作部34、35を所定期間以上継続して押す(いわゆる長押しする)ことによって入力されてもよい。その場合、長押しを解除することによってフィールド把持操作が解除されてもよい。コントローラ30においてフィールド把持操作が入力されると、制御部70は、S10でYESと判断し、S12に進む。フィールド把持操作が行われると(S10でYES)、制御部70は、図6に示すように、ゲーム画面100中の手オブジェクト130R、130Lの態様を、フィールド120を掴んでいる態様に変更する。これにより、プレイヤーが、フィールド把持操作を入力したことによってフィールド120を仮想的に掴んだことを直感的に認識することができる。
S12では、制御部70は、続けてフィールド移動操作が入力されたか否かを判断する。フィールド移動操作は、プレイヤーが、上記フィールド把持操作によって仮想的に把持した(掴んだ)フィールド120を、仮想的に移動させるための操作である。プレイヤーは、上記のフィールド把持操作を行った後で(即ち、所定のボタンを押した状態で)、コントローラ30を把持した右手及び左手を所望の挙動で動かすことによって、フィールド移動操作を入力することができる。
例えば、プレイヤーがフィールド120を手前に引き寄せたい場合(例えばプレイヤーがフィールド120の奥側を見たい場合)、プレイヤーはコントローラ30を持つ右手及び左手を伸ばし、自身の前方(ゲーム画面100ではフィールドの奥側)に移動させる。これにより、ゲーム画面100に表示されている手オブジェクト130R、130Lも仮想空間における前方(フィールドの奥側)に移動する。そこで、上記したフィールド把持操作を実行する。手オブジェクト130R、130Lがフィールドを掴む動作が表示される。そのまま、プレイヤーがコントローラ30を持つ右手及び左手を、前方から後方に向けて引く動作を行う。これにより、フィールド120の奥側を手前に引き寄せるフィールド移動操作を入力することができる(図6参照)。ここでは、両手で操作をする場合について説明したが、片手で操作をしてもよい。
また、例えば、プレイヤーがフィールド120を奥側に押し出したい場合(例えばプレイヤーがフィールド120の手前側を見たい場合)、プレイヤーは右手及び左手を後方から前方に向けて押し出す動作を行うことで、フィールド120の手前側を奥に送り出すフィールド移動操作を入力することができる。
さらに、例えば、プレイヤーがフィールド120を遠ざけたい場合(例えばプレイヤーがフィールド120を広域表示させたい場合)、プレイヤーは右手及び左手を押し下げる動作を行うことで、フィールド120を遠ざけるフィールド移動操作を入力することができる。
さらに、例えば、プレイヤーがフィールド120を回転させたい場合(例えばプレイヤーがフィールド120を反対側から見たい場合)、プレイヤーは右手及び左手を互いに同じ回転方向(時計回り又は反時計回り)に回転させる動作を行うことで、フィールド120を回転させるフィールド移動操作を入力することができる。
この他にも、プレイヤーは所望のジェスチャーを入力することにより、フィールド120を所望の態様で移動させるフィールド移動操作を入力することができる。なお、フィールド移動操作が入力される場合、ジェスチャーの大きさに応じて、手オブジェクト130R、130Lが一時的にゲーム画面100外に移動(即ちフレームアウト)してもよい。フィールド移動操作が入力されると、制御部70は、S12でYESと判断してS14に進む。一方、フィールド移動操作が入力されていなければ、制御部70は、S12でNOと判断し、S14をスキップしてS16に進む。
S14では、制御部70は、S12で入力されたフィールド移動操作において指示された移動方向及び移動量に合わせて、フィールド120の表示態様を変更させる(図7参照)。
S16では、制御部70は、仮想的なフィールドの把持(S10でYES)を解除するための把持解除操作が入力されたか否かを判断する。プレイヤーは、コントローラ30の操作部34に所定の把持解除操作を入力することができる。本実施例では、把持解除操作は、フィールド把持操作の入力の際に押されたボタンの押下を解除する操作である。他の例では、把持解除操作は、例えば、コントローラ30を把持するプレイヤーの右手及び左手による所定のジェスチャーであってもよい。また、他の例では、把持解除操作は、例えば、いずれかの操作部34、35の長押しを解除することであってもよい。コントローラ30において把持解除操作が入力されると、制御部70は、S16でYESと判断する。この場合、フィールド120は、把持解除操作が行われた時点の位置で固定される。S16でYESと判断されると、制御部70は、S10に戻り、再びフィールド把持操作が入力されることを監視する。一方、把持解除操作が未入力である場合、制御部70は、S16でNOと判断し、S12に戻る。この場合、制御部70は、フィールド移動操作が入力されたか否かを再び判断する。
(フィールド120の表示態様の変更の具体例;図4、図6、図7)
図4、図6、図7を参照して、図5のフィールド変動処理の実行に伴って、ゲーム画面100内におけるフィールド120の表示態様が変更される具体例を説明する。
図4、図6、図7を参照して、図5のフィールド変動処理の実行に伴って、ゲーム画面100内におけるフィールド120の表示態様が変更される具体例を説明する。
図4は、フィールド把持操作が入力される前における(図5のS10でNO)ゲーム画面100の例を示す。このゲーム画面100中では、フィールド120の手前側において、自キャラクターP1と敵キャラクターE1とが交戦中である。プレイヤーは、自キャラクターP1を選択して操作している。フィールド120の中央付近には敵キャラクターE2、E3が待機している。フィールド120の奥側では自キャラクターP2、P3と敵キャラクターE4、E5とが、ある程度距離をおいて存在している。
図6は、図4の後で表示されるゲーム画面100の例を示す。図6の例では、図4において手前側で敵キャラクターE1と交戦していた自キャラクターP1が、相手の敵キャラクターE1を倒している。そして、奥側に存在していた自キャラクターP2、P3と、敵キャラクターE4、E5との距離が近くなり、間もなく戦闘が開始されるように見える。また、フィールド120中央付近で待機していた敵キャラクターE2、E3は、奥側の敵キャラクターE4、E5に加勢するべく奥側に向けて移動している。この状況を見たプレイヤーは、フィールド120の奥側を大きく見たい(即ち、フィールド120の奥側を手前に引き寄せて大きく見たい)と考えている。
この場合、プレイヤーは、右手及び左手を奥側に動かし、その位置で、フィールド把持操作を入力する(S10でYES)。これにより、図6に示すように、手オブジェクト130R、130Lが、フィールド120を仮想的に掴んでいる態様に変更される。続いて、プレイヤーは、図中の矢印に示すように、右手及び左手を手前側に引く動作を行ない、フィールド120の奥側を手前に引き寄せるフィールド移動操作を入力する(S12でYES)。プレイヤーは、所望の位置にフィールド120を移動させた後で(S14)、把持解除操作を行う(S16でYES)。
図7は、上記のフィールド把持操作及びフィールド移動操作が行われた後のゲーム画面100の例である。図7のゲーム画面100では、上記のフィールド把持操作及びフィールド移動操作により、フィールド120の奥側が手前側に引き寄せられて大きく表示されている。なお、本実施例では、プレイヤーは、ゲーム上の視座からフィールドを俯瞰しているので、背景空間110には大きな変化はない。図7では、図6において奥側に存在していた自キャラクターP2、P3と敵キャラクターE4、E5が交戦している様子が大きく表示されている。そして、敵キャラクターE4、E5に加勢するべく移動していた敵キャラクターE2、E3の一部も表示されている。図6において手前側に表示されていた自キャラクターP1、敵キャラクターE1はプレイヤーの視界から外れる。このように、図7のゲーム画面100では、図4、図6のゲーム画面100から、フィールド120の表示態様は変わっているが、この表示態様の変更が行われる際に、プレイヤーの視座(プレイヤーの目線、立ち位置等と言い換えてもよい)は動いていない。プレイヤーの視座が変わらないため、プレイヤーは、「フィールド120内を自分が歩行等によって移動する」という感覚ではなく、「自身がフィールドを掴んで引っ張って動かした」とう感覚でフィールド120の表示態様を変更することができる。
以上、本実施例のゲームシステム2の構成及び動作を説明した。本実施例では、プレイヤーが、フィールド把持操作及びフィールド移動操作を行うことにより(図5のS10及びS12でYES)、制御部70は、ゲーム画面100中のフィールド120の表示態様を、ゲーム画面100内におけるプレイヤーの視座を動かすことなく、フィールド移動操作が示す変動態様に合わせて変更することができる(図4、図6、図7参照)。プレイヤーの視座が変わらないため、フィールド把持操作及びフィールド移動操作を行なったプレイヤーは、「フィールド120内を自分が歩行等して移動する」という感覚ではなく、「自身がフィールド120を動かしている」という感覚でフィールド120の表示態様を変更することができる。そのため、プレイヤーの身体が実際にはその場から動かないにも関わらず、画面内ではプレイヤーが歩行等しているように知覚させる従来の技術と比べて、現実のプレイヤーの身体の状況と、プレイヤーが視覚から知覚できるゲーム画面100との間に生じる乖離が小さくなる。従って、本実施例のゲームプログラム90によると、従来の技術に比べて、プレイヤーに不快感(例えばVR酔い等)を与えることを抑制することができるゲームシステム2を実現することができる。
また、本実施例では、プレイヤーは、フィールド120の表示態様の変動のために、フィールド把持操作と、フィールド移動操作と、の2つの動作を続けて行う必要がある。これにより、プレイヤーは、フィールド120を仮想的に「掴んで(触って)動かす」という感覚を持ちながらフィールド120の表示態様を変更させることができる。プレイヤーが、フィールド120を「触って動かしている」という感覚を直感的に知覚し易く、現実のプレイヤーの身体の状況と、プレイヤーが視覚から知覚できるゲーム画面100との間に生じる乖離がより小さくなる。従って、本実施例によると、プレイヤーに不快感を与えることをより適切に抑制することができるゲームシステム2を実現することができる。
また、本実施例では、ゲーム画面100には、プレイヤーの手を仮想的に表す手オブジェクト130R、130Lが含まれる。手オブジェクト130R、130Lは、プレイヤーの手の動き(即ち、カメラ50で撮影されるコントローラ30のマーカ32の動き)に合わせて動かされる。そのため、例えば、プレイヤーが、フィールド120の表示態様の変動のために、フィールド把持操作とフィールド移動操作とを行う際に、手オブジェクト130R、130Lがフィールド120を掴んで動かすように動けば、プレイヤーがより直感的にフィールド120に「触って動かしている」という感覚を知覚することができる。
本実施例では、図4、図6、図7に示すように、ゲームを構成する仮想3次元空間は、背景空間110と、フィールド120と、を含む。フィールド120は、背景空間110内に、俯瞰される態様で配置される。ゲームを構成する仮想3次元空間が、背景空間110と、背景空間110内に配置されるフィールド120とを含み、ゲーム画面100においてフィールド120が俯瞰される態様で表示されるゲームでは、プレイヤーは、背景空間110内からフィールド120を俯瞰している感覚でゲームをプレイすることができる。このようなゲームでは、プレイヤーがフィールド内に立っている(即ちプレイヤーの視線がフィールド内に存在する)と知覚できるゲームに比べて、プレイヤーが、フィールド把持操作及びフィールド移動操作の結果「自身がフィールドを動かしている」という感覚を得やすい。本実施例によると、プレイヤーに不快感を与えることをより適切に抑制することができる。
HMD10が「頭部装着型ディスプレイ」の一例である。コントローラ30、カメラ50、及び、制御部70の組合せが「入力受付装置」の一例である。制御部70が「コンピュータ」の一例である。自キャラクターP1~P3及び敵キャラクターE1~E5が「操作対象オブジェクト」の一例である。フィールド把持操作及びフィールド移動操作が「フィールド変動動作」の一例である。また、フィールド把持操作が「第1動作」の一例であり、フィールド移動操作が「第2動作」の一例である。
(第2実施例)
第2実施例のゲームシステム2について、第1実施例と異なる点を中心に説明する。本実施例では、ゲームシステム2は、カメラ50を備えていない。それに伴い、HMD10はマーカ12を備えていない。コントローラ30もマーカ32を備えていない。ただし、本実施例では、図3において破線で図示されているように、HMD10が3軸加速度センサ24及び位置検出装置26を備える。そして、右コントローラ30R、左コントローラ30Lが、それぞれ、3軸加速度センサ44R、44L及び位置検出装置46R、46Lを備える。
第2実施例のゲームシステム2について、第1実施例と異なる点を中心に説明する。本実施例では、ゲームシステム2は、カメラ50を備えていない。それに伴い、HMD10はマーカ12を備えていない。コントローラ30もマーカ32を備えていない。ただし、本実施例では、図3において破線で図示されているように、HMD10が3軸加速度センサ24及び位置検出装置26を備える。そして、右コントローラ30R、左コントローラ30Lが、それぞれ、3軸加速度センサ44R、44L及び位置検出装置46R、46Lを備える。
HMD10の3軸加速度センサ24は、X,Y,Zの3軸の加速度を検出する。HMD10の制御部20は、3軸加速度センサ24の検出値を用いて、HMD10の姿勢、及び、運動状態を特定することができる。また、HMD10の位置検出装置26は、GPS(Global Positioning Systemの略)受信機である。位置検出装置26は、GPS衛星からの電波を受信し、HMD10の現在位置を測定する。本実施例では、制御部20は、3軸加速度センサ24によって特定されたHMD10の姿勢及び運動状態と、位置検出装置26によって測定されたHMD10の現在位置と、を示す位置関係情報を、本体60に供給する。
右コントローラ30Rの3軸加速度センサ44R、及び、位置検出装置46Rも、上記と同様である。制御部40Rは、3軸加速度センサ44Rによって特定された右コントローラ30Rの姿勢及び運動状態と、位置検出装置46Rによって測定された右コントローラ30Rの現在位置と、を示す位置関係情報を本体60に供給する。左コントローラ30Lの3軸加速度センサ44L、及び、位置検出装置46Lも、上記と同様である。制御部40Lは、3軸加速度センサ44Lによって特定された左コントローラ30Lの姿勢及び運動状態と、位置検出装置46Lによって測定された左コントローラ30Lの現在位置と、を示す位置関係情報を本体60に供給する。
本実施例では、本体60の制御部70は、HMD10から取得される位置関係情報と、右コントローラ30Rから取得される位置関係情報と、左コントローラ30Lから取得される位置関係情報と、に基づいて、現実のプレイヤーの挙動(頭の向き、頭の位置、両手の位置、両手の動き等)を特定する。そして、制御部70は、コントローラ30から取得された操作信号、及び、特定された現実のプレイヤーの挙動に基づいて、ゲーム内におけるプレイヤーの動作を特定する。制御部70は、特定されたゲーム内におけるプレイヤーの動作に応じて、表示部13に表示されるゲーム画面の表示態様を変更させる(即ち、画面データを変更する)。
このように、本実施例では、現実のプレイヤーの挙動を特定するための手法が第1実施例とは異なる。これ以外の制御部70の処理は、第1実施例と共通するため、詳しい説明を省略する。本実施例のHMD10とコントローラ30の組合せが「入力受付装置」の一例である。
以上、実施例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。
(変形例1)本体60が、通信ネットワーク(例えばインターネット)を介して、外部のサーバや他の本体等と通信可能であってもよい。その場合、ゲームプログラム90によって実現されるゲームが、通信ネットワークを介して他のプレイヤーと1つの仮想3次元空間内で1つのゲームをプレイするいわゆるオンライン通信ゲームであってもよい。
(変形例2)上記の各実施例では、ゲームプログラム90は、DVDROM80に予め記録されており、本体60の記録媒体読取部74によって読み取られる。これに限られず、ゲームプログラムは、外部のサーバ等から通信ネットワークを介して本体60にダウンロードされてもよい。その場合、ダウンロードされたゲームプログラムは、メモリ72に記憶されてもよい。
(変形例3)現実のプレイヤーの挙動を特定するための手法は、第1、第2実施例で説明した手法(カメラ50でマーカ12、32を撮影する手法(第1実施例)、及び、3軸加速度センサ24、44R、44Lと位置検出装置26、46R、46Lを用いる手法(第2実施例))には限られない。例えば、現実のプレイヤーに向かって赤外光を照射し、赤外光カメラで撮影し、撮影された赤外光のパターンを分析することによって、現実のプレイヤーの挙動を特定してもよい。また、例えば、HMD10やコントローラ30が赤外光の受光部を備えており、HMD10やコントローラ30に赤外光を照射し、受光部に赤外光を受光させることによって、HMD10やコントローラ30の位置や向き等を特定し、これによってプレイヤーの挙動を特定してもよい。また、例えば、赤外光以外の光によるによる通信、音等による通信を利用して、プレイヤーの挙動を特定してもよい。
(変形例4)上記の各実施例において、本体60とHMD10とが無線通信を実行可能であってもよい。同様に、上記の第1実施例において、本体60とカメラ50とが無線通信を実行可能であってもよい。また、上記の各実施例において、本体60とコントローラ30とが有線通信を実行可能であってもよい。
(変形例5)上記の各実施例では、プレイヤーは、フィールド120の表示態様の変動のために、フィールド把持操作とフィールド移動操作とを行う。プレイヤーがフィールド120の表示態様の変動のためにフィールド120に仮想的に接触するための操作は、上記のフィールド把持操作には限られず、任意の操作であってもよい。従って、例えば、プレイヤーは、フィールドの表示態様の変動のために、仮想的にフィールドにタッチするフィールドタッチ操作と、タッチしたフィールドを動かすためのスワイプ操作(又は/及びスライド操作)と、を行うようにしてもよい。
(変形例6)上記の各実施例では、ゲームプログラム90によって実現されるゲームでは、ゲームを構成する仮想3次元空間は、背景空間110と、フィールド120と、を含み、フィールド120は、背景空間110内に俯瞰される態様で配置される。しかしながら、ゲームプログラムによって実現されるゲームの態様は、これに限られない。ゲームプログラムによって実現されるゲームにおける仮想3次元空間が、背景空間を有さず、フィールドのみを有していてもよい。即ち、プレイヤーがフィールド内に立っている(即ちプレイヤーの視線がフィールド内に存在する)と知覚できるゲームであってもよい。そのような場合であっても、制御部70が、図5のフィールド変動処理を実行可能であればよい。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Claims (4)
- ゲームシステムのためのゲームプログラムであって、
前記ゲームシステムは、
プレイヤーの視界を覆うように前記プレイヤーの頭部に装着される頭部装着型ディスプレイと、
前記プレイヤーの身体的な動きを検出可能な入力受付装置と、
コンピュータと、を備え、
前記ゲームプログラムは、前記コンピュータに、以下の各処理、即ち、
ゲームを構成する仮想3次元空間のうち、前記プレイヤーの視界に対応する範囲を表わすゲーム画面を前記頭部装着型ディスプレイに表示させる表示処理であって、前記仮想3次元空間は、操作対象オブジェクトが配置されるフィールドを含む、前記表示処理と、
前記入力受付装置がフィールド変動動作を検出する場合に、前記ゲーム画面内における前記プレイヤーの視座を動かすことなく、前記ゲーム画面内に表示される前記フィールドの表示態様を、前記フィールド変動動作が示す変動態様に合わせて変更させる、フィールド変動処理と、
を実行させるゲームプログラム。 - 前記入力受付装置は、前記プレイヤーの手の動きを検出可能な装置であり、
前記フィールド変動動作は、前記フィールドに仮想的に接触するための第1動作と、前記第1動作によって仮想的に接触された前記フィールドを仮想的に移動させる第2動作と、を含み、
前記フィールド変動処理は、前記第2動作において仮想的に移動された移動方向及び移動量に合わせて、前記フィールドの前記表示態様を変更させることを含む、
請求項1に記載のゲームプログラム。 - 前記ゲーム画面は、さらに、前記プレイヤーの前記手を仮想的に表す手オブジェクトを含み、
前記ゲームプログラムは、前記コンピュータに、さらに、
前記入力受付装置において検出される前記プレイヤーの前記手の動きに合わせて、前記手オブジェクトを動かす手オブジェクト動作処理、
を実行させる、請求項2に記載のゲームプログラム。 - 前記仮想3次元空間は、さらに背景空間を含み、前記フィールドは、前記背景空間内に配置されており、
前記ゲーム画面では、前記フィールドが俯瞰される態様で表示される、
請求項1から3のいずれか一項に記載のゲームプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/023648 WO2019003323A1 (ja) | 2017-06-27 | 2017-06-27 | ゲームプログラム |
JP2018500812A JP6352574B1 (ja) | 2017-06-27 | 2017-06-27 | ゲームプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/023648 WO2019003323A1 (ja) | 2017-06-27 | 2017-06-27 | ゲームプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019003323A1 true WO2019003323A1 (ja) | 2019-01-03 |
Family
ID=62779931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/023648 WO2019003323A1 (ja) | 2017-06-27 | 2017-06-27 | ゲームプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6352574B1 (ja) |
WO (1) | WO2019003323A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002351309A (ja) * | 2001-05-30 | 2002-12-06 | Cad Center:Kk | 都市vr地図連動情報表示装置 |
US20160361658A1 (en) * | 2015-06-14 | 2016-12-15 | Sony Interactive Entertainment Inc. | Expanded field of view re-rendering for vr spectating |
JP2016224810A (ja) * | 2015-06-02 | 2016-12-28 | キヤノン株式会社 | システム、システムの制御方法 |
JP2017094120A (ja) * | 2016-12-26 | 2017-06-01 | グリー株式会社 | プログラム、ゲームの制御方法、及び情報処理装置 |
JP2017516186A (ja) * | 2014-03-14 | 2017-06-15 | 株式会社ソニー・インタラクティブエンタテインメント | 空間感知を備えるゲーム機 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6643776B2 (ja) * | 2015-06-11 | 2020-02-12 | 株式会社バンダイナムコエンターテインメント | 端末装置及びプログラム |
JP5980393B1 (ja) * | 2015-09-01 | 2016-08-31 | ガンホー・オンライン・エンターテイメント株式会社 | 端末装置 |
-
2017
- 2017-06-27 WO PCT/JP2017/023648 patent/WO2019003323A1/ja active Application Filing
- 2017-06-27 JP JP2018500812A patent/JP6352574B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002351309A (ja) * | 2001-05-30 | 2002-12-06 | Cad Center:Kk | 都市vr地図連動情報表示装置 |
JP2017516186A (ja) * | 2014-03-14 | 2017-06-15 | 株式会社ソニー・インタラクティブエンタテインメント | 空間感知を備えるゲーム機 |
JP2016224810A (ja) * | 2015-06-02 | 2016-12-28 | キヤノン株式会社 | システム、システムの制御方法 |
US20160361658A1 (en) * | 2015-06-14 | 2016-12-15 | Sony Interactive Entertainment Inc. | Expanded field of view re-rendering for vr spectating |
JP2017094120A (ja) * | 2016-12-26 | 2017-06-01 | グリー株式会社 | プログラム、ゲームの制御方法、及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6352574B1 (ja) | 2018-07-04 |
JPWO2019003323A1 (ja) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12072505B2 (en) | Display control apparatus, display control method, and recording medium | |
US11504609B2 (en) | Head mounted display | |
EP3469466B1 (en) | Directional interface object | |
JP7489504B2 (ja) | 表示制御プログラム、表示制御装置、及び表示制御方法 | |
JP2016158795A (ja) | 表示制御プログラム、表示制御装置、及び表示制御方法 | |
JP7138138B2 (ja) | プログラム、情報処理方法及び情報処理装置 | |
JP6479933B1 (ja) | プログラム、情報処理装置、および方法 | |
JP6352574B1 (ja) | ゲームプログラム | |
JP7192151B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP2022191240A (ja) | プログラム、方法および情報処理装置 | |
JP2019005564A (ja) | 仮想現実プログラム | |
JP2022153478A (ja) | アニメーション制作システム | |
JP6330072B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US20230249071A1 (en) | Display control program, dislay control apparatus and display control method | |
JP7218873B2 (ja) | アニメーション制作システム | |
JP2018147497A (ja) | 仮想現実を提供するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置 | |
JP2018147469A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
WO2023286191A1 (ja) | 情報処理装置および駆動データ生成方法 | |
WO2023281819A1 (ja) | オブジェクトの保持を判定する情報処理装置 | |
JP2018088019A (ja) | 仮想現実を提供するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2018500812 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17916396 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17916396 Country of ref document: EP Kind code of ref document: A1 |