[go: up one dir, main page]

JP7577014B2 - Game program, information processing device, and object display method - Google Patents

Game program, information processing device, and object display method Download PDF

Info

Publication number
JP7577014B2
JP7577014B2 JP2021057444A JP2021057444A JP7577014B2 JP 7577014 B2 JP7577014 B2 JP 7577014B2 JP 2021057444 A JP2021057444 A JP 2021057444A JP 2021057444 A JP2021057444 A JP 2021057444A JP 7577014 B2 JP7577014 B2 JP 7577014B2
Authority
JP
Japan
Prior art keywords
color
image data
setting unit
overlap
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021057444A
Other languages
Japanese (ja)
Other versions
JP2022154414A (en
Inventor
翔太郎 出口
万里奈 綾野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Games Co Ltd
Original Assignee
Koei Tecmo Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Games Co Ltd filed Critical Koei Tecmo Games Co Ltd
Priority to JP2021057444A priority Critical patent/JP7577014B2/en
Publication of JP2022154414A publication Critical patent/JP2022154414A/en
Application granted granted Critical
Publication of JP7577014B2 publication Critical patent/JP7577014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ゲームプログラム、情報処理装置、及び、オブジェクト表示方法に関する。 The present invention relates to a game program, an information processing device, and an object display method.

オブジェクトが遮蔽物の陰に隠れる場合があるゲームが知られている。例えば、仮想的な三次元空間に配置された仮想カメラを視点とするゲームでは、視界に複数のオブジェクトが存在する場合があり、プレイヤーには複数のオブジェクトが重なって見える場合がある。例えば、対戦ゲームで建物の陰に敵キャラクターが隠れていたり、木の陰にアイテムが置かれたりしているような場合がある。このよう場合、ゲームの興趣性を損なわないように、遮蔽物に隠れるオブジェクトに視覚効果を加えて表示する技術が知られている(例えば、特許文献1参照。)。 There are known games in which objects may be hidden behind obstructions. For example, in a game in which the viewpoint is a virtual camera placed in a virtual three-dimensional space, there may be multiple objects in the field of view, and the player may see multiple objects overlapping. For example, in a fighting game, an enemy character may be hiding behind a building, or an item may be placed in the shade of a tree. In such cases, a technique is known that adds visual effects to objects hidden behind obstructions so as not to diminish the interest of the game (see, for example, Patent Document 1).

特許文献1には、キャラクターが遮蔽物に隠れたらシルエット、矢印、又は、枠線等で目印表示する技術が公開されている。 Patent document 1 discloses a technology that displays a silhouette, arrow, or frame as a marker when a character is hidden by an obstacle.

特許第3637031号公報Patent No. 3637031

しかしながら、従来の技術では、ゲームの興趣性が低下するおそれがあるという問題があった。例えば、第一のオブジェクトに隠れた第二のオブジェクトがシルエット等で表示された場合、プレイヤーが第二のオブジェクトの存在に気づきにくく、興趣性がそがれる場合がある。 However, conventional technology has a problem in that it may reduce the interest of the game. For example, if a second object hidden by a first object is displayed as a silhouette, it may be difficult for the player to notice the existence of the second object, which may reduce the interest of the game.

本発明は、上記課題に鑑み、ゲームの興趣性を向上させたゲームプログラムを提供することを目的とする。 In view of the above problems, the present invention aims to provide a game program that improves the entertainment value of the game.

上記課題に鑑み、本発明は、情報処理装置を、仮想空間内に配置された複数のオブジェクトを仮想カメラが撮影した画像データを生成する画像データ生成部と、複数の前記オブジェクトの位置情報及び形状情報を記憶した記憶部を参照して、前記仮想カメラから見て、第一のオブジェクトと第二のオブジェクトの少なくとも一部とが重なるかどうかを判定する判定部と、前記第一のオブジェクトと、前記第一のオブジェクトより奥側に存在する前記第二のオブジェクトの少なくとも一部とが重なる場合、前記画像データにおいて、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更する色設定部、として機能させるためのゲームプログラムを提供する。 In view of the above problem, the present invention provides a game program for causing an information processing device to function as an image data generating unit that generates image data of a plurality of objects arranged in a virtual space photographed by a virtual camera, a determination unit that determines whether a first object and at least a portion of a second object overlap as viewed from the virtual camera by referring to a storage unit that stores position information and shape information of the plurality of objects, and a color setting unit that changes the color of at least a portion of the portion of the image data where the second object and the first object overlap when the first object and at least a portion of the second object that is located behind the first object overlap.

ゲームの興趣性を向上させたゲームプログラムを提供することができる。 It is possible to provide a game program that improves the entertainment value of the game.

ゲーム世界において仮想カメラに投影される怪獣のオブジェクトを示す図の一例である。11 is an example of a diagram showing a monster object projected onto a virtual camera in a game world. ゲームシステムの構成図の一例である。FIG. 1 is a diagram illustrating an example of a configuration of a game system. 情報処理装置のハードウェア構成図の一例である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing device. 情報処理装置の機能をブロック状に分けて説明する機能ブロック図の一例である。FIG. 2 is an example of a functional block diagram illustrating functions of an information processing device divided into blocks. オブジェクトの属性の一例を示す図である。FIG. 11 is a diagram illustrating an example of an attribute of an object. 撮影画像の生成方法を説明する図である。FIG. 2 is a diagram illustrating a method for generating a captured image. スキャンラインによるポリゴンのラスタ化を説明する図である。FIG. 2 is a diagram illustrating rasterization of polygons by scanlines. Zバッファとフレームバッファを模式的に示す。1 shows a schematic diagram of a Z-buffer and a frame buffer. 隠面消去の処理を説明するフローチャート図の一例である。FIG. 13 is a flowchart illustrating an example of a hidden surface removal process. 色設定部が第二のオブジェクトと第一のオブジェクトとが重なる部分の少なくとも一部を色によって強調する手順を示すフローチャート図の一例である。11 is a flowchart illustrating an example of a procedure in which a color setting unit emphasizes, by using a color, at least a part of an overlapping portion between a second object and a first object; FIG. 第二のオブジェクトの外縁のみに色が設定された撮影画像の一例である。13 is an example of a captured image in which color is set only to the outer edge of a second object. 第二のオブジェクトの表示例を示す図である。FIG. 11 is a diagram showing a display example of a second object.

以下、本開示のゲームプログラムを実施するための形態について図面を参照して説明する。なお、本明細書及び図面において、実質的に同一の構成については、同一の符号を付することにより重複した説明を省く。 Below, a description will be given of an embodiment of the game program disclosed herein with reference to the drawings. Note that in this specification and the drawings, substantially identical configurations will be denoted by the same reference numerals to avoid redundant description.

<本実施形態のゲームシステムの概略動作>
まず、図1を参照して、本実施形態のゲームシステムの概略動作について説明する。図1は、仮想空間(例えば仮想的な三次元空間)において仮想カメラ10により撮影される怪獣のオブジェクト21を示す。なお、実際には、プレイヤー自身が操作するプレイヤーキャラクターがゲーム世界に存在する場合が多いが、図1では省略した。
<Overview of Operation of the Game System of the Present Embodiment>
First, the general operation of the game system of this embodiment will be described with reference to Fig. 1. Fig. 1 shows a monster object 21 photographed by a virtual camera 10 in a virtual space (e.g., a virtual three-dimensional space). In reality, a player character operated by the player himself often exists in the game world, but this is omitted in Fig. 1.

仮想カメラ10の視点に対し、怪獣のオブジェクト21よりも手前に壁のオブジェクト11がある。ゲーム世界のオブジェクトを仮想カメラ10に撮影した画像(以下、撮影画像という)では、怪獣のオブジェクト21が壁のオブジェクト11に隠れてしまう。このため、ゲームのプレイヤーが怪獣の存在に気づけない。 From the viewpoint of the virtual camera 10, there is a wall object 11 in front of the monster object 21. In an image of the objects in the game world captured by the virtual camera 10 (hereinafter referred to as a captured image), the monster object 21 is hidden by the wall object 11. For this reason, the game player cannot notice the presence of the monster.

従来から、遮蔽物に隠れたオブジェクトの存在をプレイヤーに知らせる技術として、遮蔽物上にオブジェクトのシルエットを表示する技術や、遮蔽物を透過させてオブジェクトを表示する技術が知られている。しかし、シルエットを表示する技術では遮蔽物に隠れたオブジェクトをプレイヤーが気づきにくい場合があり、透過させる技術ではオブジェクトを見にくい場合があった。 Traditionally, known techniques for informing players of the presence of objects hidden behind obstructions include a technique for displaying the silhouette of the object on the obstruction, and a technique for displaying the object through the obstruction. However, using the technique for displaying a silhouette can make it difficult for players to notice objects hidden behind obstructions, while using the technique for displaying through the obstruction can make it difficult for players to see the object.

そこで、本実施形態のゲームプログラムは、隠れているオブジェクトを色で強調し、更に、少なくとも遮蔽物越しに隠れているオブジェクトを視認可能に表示する。 The game program of this embodiment therefore highlights hidden objects with a colour, and furthermore displays objects that are hidden at least through obstructions so that they can be seen.

図1(b)は撮影画像の一例である。図1(b)の撮影画像では壁のオブジェクト11上に、怪獣のオブジェクト21が表示されている。怪獣のオブジェクト21の色は、少なくとも壁のオブジェクト11とは異なり、好ましくは怪獣のオブジェクト21の存在を強調できる色であるとよい。例えば、怪獣のオブジェクト21の色は、隠れていない場合よりも赤の濃度が強調される。強調される色は、青、緑、黄、金色など、どのような色でもよい。また、壁のオブジェクト11が半透明となり、色が強調された怪獣のオブジェクト21が透けて見えてもよい。 Figure 1 (b) is an example of a captured image. In the captured image of Figure 1 (b), a monster object 21 is displayed on a wall object 11. The color of the monster object 21 is at least different from that of the wall object 11, and is preferably a color that can emphasize the presence of the monster object 21. For example, the color of the monster object 21 is emphasized with a higher density of red than when it is not hidden. The emphasized color may be any color, such as blue, green, yellow, or gold. Also, the wall object 11 may be semi-transparent, allowing the monster object 21, whose color is emphasized, to be seen through it.

こうすることで、遮蔽物に隠れたオブジェクトの視認性を向上させ、ゲームプログラムの興趣性を高めることができる。 This improves the visibility of objects hidden behind obstructions, making the game program more interesting.

<用語について>
本実施形態のゲームプログラムは、壁のオブジェクト11に隠れた怪獣のオブジェクト21の視認性を向上させるため、怪獣のオブジェクト21を色で強調する。プレイヤーの視覚としては、画像データにおいて、壁のオブジェクト11と怪獣のオブジェクト21とが重なる部分の少なくとも一部の色がその周囲とは異なっているように見える。また、画像処理としては、怪獣のオブジェクト21と重なっている部分の壁のオブジェクト11の色を変更する処理が行われる。
<Terminology>
The game program of this embodiment emphasizes the color of the monster object 21 in order to improve the visibility of the monster object 21 hidden by the wall object 11. Visually, the player sees in the image data that at least a part of the overlapping portion between the wall object 11 and the monster object 21 is a different color from the surroundings. Also, as image processing, a process is performed to change the color of the wall object 11 in the overlapping portion with the monster object 21.

<ゲームシステム>
次に、図2を参照して、ゲームシステムの構成例を説明する。図2は、本実施形態のゲームシステム1の構成を示す図である。ゲームシステム1は、情報処理装置3と、ゲームコントローラ5と、表示装置7とを有する。ゲームコントローラ5及び表示装置7の各々は、情報処理装置3と有線又は無線により通信可能に接続されている。
<Game System>
Next, an example of the configuration of a game system will be described with reference to Fig. 2. Fig. 2 is a diagram showing the configuration of a game system 1 according to this embodiment. The game system 1 includes an information processing device 3, a game controller 5, and a display device 7. Each of the game controller 5 and the display device 7 is connected to the information processing device 3 so as to be able to communicate with each other via wire or wirelessly.

情報処理装置3は、例えば据え置き型のゲーム専用機である。但し、これに限定されるものではなく、情報処理装置3は、例えば入力部や表示部等を一体に備えた携帯型のゲーム機でもよい。 The information processing device 3 is, for example, a stationary game console. However, this is not limited to this, and the information processing device 3 may be, for example, a portable game console that is equipped with an input unit, a display unit, etc.

また、情報処理装置3はゲーム専用機でなくてよく、例えば、コンピュータ、デスクトップ型コンピュータ、ノート型コンピュータ、タブレット型コンピュータ等のように、コンピュータとして製造、販売等されているものや、スマートフォン、携帯電話等のように、電話機として製造、販売等されているものでもよい。これらの装置は、普段は汎用的な情報処理端末として利用されるが、プレイヤーがインストールされたゲームプログラムを実行すると、ゲーム専用機と同様、プレイヤーがゲームを進行できるようになる。 In addition, the information processing device 3 does not have to be a dedicated game machine, and may be, for example, a computer, desktop computer, notebook computer, tablet computer, etc. that is manufactured and sold as a computer, or a smartphone, mobile phone, etc. that is manufactured and sold as a telephone. These devices are usually used as general-purpose information processing terminals, but when a player executes the installed game program, the player can progress through the game just like a dedicated game machine.

情報処理装置3には、本実施形態のゲームプログラムがインストールされる。ゲームプログラムはCD-ROMなどの光記憶媒体やUSBメモリなどの半導体メモリに記憶された状態で配布されたり、サーバーからダウンロードされたりする形態で配布される。 The game program of this embodiment is installed in the information processing device 3. The game program is distributed in a state stored on an optical storage medium such as a CD-ROM or a semiconductor memory such as a USB memory, or is distributed by being downloaded from a server.

プレイヤーは、ゲームコントローラ5を用いて各種の操作入力を行う。図2に示す例では、ゲームコントローラ5は例えば十字キー9や複数のボタン8等を有する。なお、ゲームコントローラ5は上記に代えて又は加えて、例えばジョイスティックやタッチパッド等を有してもよい。また、ゲームコントローラ5がマイクを備え、音声操作が可能でもよい。ゲームコントローラ5がジャイロセンサや加速度センサ等を備え、プレイヤーがゲームコントローラ5の姿勢を変えることで操作が可能でもよい。 The player uses the game controller 5 to perform various operational inputs. In the example shown in FIG. 2, the game controller 5 has, for example, a cross key 9 and a plurality of buttons 8. Note that the game controller 5 may have, for example, a joystick or a touchpad instead of or in addition to the above. The game controller 5 may also have a microphone, allowing voice operation. The game controller 5 may also have a gyro sensor, an acceleration sensor, etc., allowing operation by the player changing the attitude of the game controller 5.

また、情報処理装置3が更にネットワーク上のサーバーと通信してもよい。この場合、同じゲームプログラムを実行する複数の情報処理装置3がサーバーに接続するので、いわゆるオンラインゲームが可能になる。オンラインゲームとは、例えば、多人数で同じゲームプログラムを協調して操作できるゲームをいう。オンラインゲームのサーバーは、他のプレイヤーの位置や操作コマンドを受け付け、他のプレイヤーの情報処理装置3に送信するという最低限の処理を行う。情報処理装置3では各プレイヤーの描画や操作コマンドの反映処理など実際のゲーム処理を行う。 In addition, the information processing device 3 may further communicate with a server on the network. In this case, multiple information processing devices 3 executing the same game program connect to the server, making so-called online games possible. An online game is, for example, a game in which multiple players can operate the same game program in a cooperative manner. The server of an online game performs the minimum processing of accepting the positions and operation commands of other players and transmitting them to the information processing devices 3 of the other players. The information processing device 3 performs the actual game processing, such as drawing each player and reflecting the operation commands.

また、ゲームシステム1は、情報処理装置3が別の情報処理装置3と通信するいわゆるP2P(Peer To Peer)方式でもよい。 The game system 1 may also be of the so-called P2P (Peer To Peer) type, in which an information processing device 3 communicates with another information processing device 3.

また、ゲームシステム1はいわゆるクラウドゲームでもよい。 The game system 1 may also be a so-called cloud game.

以下では、主に図2の構成を用いて本実施形態のゲームシステム1について説明する。 The following describes the game system 1 of this embodiment, mainly using the configuration in Figure 2.

<情報処理装置のハードウェア構成例>
図3は、情報処理装置3のハードウェア構成図の一例である。図3に示すように、情報処理装置3は、例えば、CPU501と、ROM502と、RAM503と、GPU504と、例えばASIC又はFPGA等の特定の用途向けに構築された専用集積回路505と、入力装置506と、出力装置507と、記録装置508と、ドライブ509と、接続ポート510と、通信装置511を有する。これらの構成は、バス513や入出力インターフェース514等を介し相互に信号を伝達可能に接続されている。
<Example of hardware configuration of information processing device>
Fig. 3 is an example of a hardware configuration diagram of the information processing device 3. As shown in Fig. 3, the information processing device 3 includes, for example, a CPU 501, a ROM 502, a RAM 503, a GPU 504, a dedicated integrated circuit 505 constructed for a specific purpose such as an ASIC or an FPGA, an input device 506, an output device 507, a recording device 508, a drive 509, a connection port 510, and a communication device 511. These components are connected to each other via a bus 513, an input/output interface 514, etc. so as to be able to transmit signals to each other.

ゲームプログラムは、例えば、ROM502やRAM503、記録装置508等に記録しておくことができる。 The game program can be recorded, for example, in ROM 502, RAM 503, recording device 508, etc.

CPU501は、例えば、上記記録装置508からゲームプログラムを、直接読み出して実行してもよく、RAM503に一旦ロードした上で実行してもよい。更にCPU501は、例えば、ゲームプログラムを通信装置511やドライブ509、接続ポート510を介し受信する場合、受信したゲームプログラムを記録装置508に記録せずに直接実行してもよい。 The CPU 501 may, for example, directly read and execute the game program from the recording device 508, or may first load the game program into the RAM 503 and then execute it. Furthermore, when the CPU 501 receives the game program via the communication device 511, the drive 509, or the connection port 510, for example, the CPU 501 may directly execute the received game program without recording it in the recording device 508.

また、CPU501は、必要に応じて、前述のゲームコントローラ5を含む、例えばマウス、キーボード、マイク等(図示せず)の入力装置506から入力する信号や情報に基づいて各種の処理を行ってもよい。 In addition, the CPU 501 may perform various processes based on signals and information input from an input device 506, such as a mouse, keyboard, microphone, etc. (not shown), including the aforementioned game controller 5, as necessary.

GPU504は、CPU501からの指示に応じて例えばレンダリング処理などの画像表示のための処理を行う。 The GPU 504 performs image display processing, such as rendering processing, in response to instructions from the CPU 501.

そして、CPU501及びGPU504は、上記の処理を実行した結果を、例えば前述の表示装置7や音声出力部を含む、出力装置507から出力する。CPU501及びGPU504は、必要に応じてこの処理結果を通信装置511や接続ポート510を介し送信してもよく、上記記録装置508や記録媒体512に記録させてもよい。 The CPU 501 and GPU 504 then output the results of the above processing from an output device 507, which may include, for example, the display device 7 and audio output unit described above. If necessary, the CPU 501 and GPU 504 may transmit the results of this processing via a communication device 511 or a connection port 510, or may record the results in the recording device 508 or recording medium 512.

なお、サーバー又は汎用的な情報処理装置のハードウェア構成は、情報処理装置3と同様か、又は、異なっても本実施形態の説明の都合上、支障がないものとする。 The hardware configuration of the server or general-purpose information processing device may be the same as that of the information processing device 3, or may be different, but for the sake of convenience in explaining this embodiment, it will not cause any problems.

<ゲームの概略内容>
本実施形態における遮蔽物に隠れたオブジェクトの表示方法は、ゲームの種類(ジャンル)に関わらず適用できる。すなわち、遮蔽物にオブジェクトが隠れる可能性があるゲームであればよい。なお、この遮蔽物もゲームプログラム上はオブジェクトである。以下では、遮蔽物を「第一のオブジェクト」、遮蔽物に隠れたオブジェクトを「第二のオブジェクト」という場合がある。
<Game Overview>
The method of displaying an object hidden by an obstruction in this embodiment can be applied regardless of the type (genre) of the game. That is, any game in which an object may be hidden by an obstruction can be applied. Note that this obstruction is also an object in the game program. Hereinafter, the obstruction may be referred to as a "first object" and the object hidden by the obstruction may be referred to as a "second object."

例えば、ゲームの種類には、アクションゲーム、シューティングゲーム、シミュレーションゲーム、レーシングゲーム、アドベンチャーゲーム、ロールプレイングゲーム、及び、スポーツゲーム、等がある。また、これらの複数の要素を備えたゲームも多い。 For example, game types include action games, shooting games, simulation games, racing games, adventure games, role-playing games, and sports games. There are also many games that combine multiple of these elements.

また、ゲームに登場するオブジェクトは、例えば人間の男性キャラクター、女性キャラクター又はその他に限定されるものではなく、人間以外の動物、人間や動物以外の生物、仮想的な生物(例えば怪獣、妖怪、宇宙人等)、ロボット、山や海などの自然物、物品や物体なども含む。本実施形態ではゲームに登場しうるオブジェクトであれば、第一のオブジェクト又は第二のオブジェクトとなり得る。 In addition, the objects that appear in the game are not limited to, for example, human male characters, female characters, or others, but also include non-human animals, creatures other than humans and animals, virtual creatures (e.g., monsters, spirits, aliens, etc.), robots, natural objects such as mountains and oceans, goods and objects, etc. In this embodiment, any object that can appear in the game can be a first object or a second object.

<情報処理装置の機能について>
図4は、情報処理装置3の機能をブロック状に分けて説明する機能ブロック図の一例である。図4に示すように、情報処理装置3は、オブジェクト生成部31、オブジェクト管理部32、画像データ生成部33、色設定部34、表示制御部35、及び、判定部36を有している。情報処理装置3が有するこれら各機能部は、図3に示したCPU501が、RAM503に展開されたゲームプログラムを実行することで実現される機能又は手段である。
<Functions of the information processing device>
Fig. 4 is an example of a functional block diagram for explaining functions of the information processing device 3 in blocks. As shown in Fig. 4, the information processing device 3 has an object generation unit 31, an object management unit 32, an image data generation unit 33, a color setting unit 34, a display control unit 35, and a determination unit 36. Each of these functional units of the information processing device 3 is a function or means realized by the CPU 501 shown in Fig. 3 executing a game program expanded in the RAM 503.

まず、本実施形態では、仮想空間に配置された仮想カメラ10に、複数のオブジェクトが撮影された画像が得られる。オブジェクトも三次元の立体物である。このため、この画像では、第二のオブジェクトが第一のオブジェクトに重なっていることが想定されている。コンピュータグラフィックでは、三次元のオブジェクトはポリゴン(又は三次元点の集まり)で構成される。ポリゴンとは、3点以上の頂点を結んでできた多角形データであり、曲面を構成する最小単位である。 First, in this embodiment, an image of multiple objects is obtained by a virtual camera 10 placed in a virtual space. The objects are also three-dimensional solid objects. Therefore, in this image, it is assumed that a second object is overlapping a first object. In computer graphics, three-dimensional objects are composed of polygons (or a collection of three-dimensional points). A polygon is polygonal data made up of three or more vertices, and is the smallest unit that makes up a curved surface.

オブジェクト生成部31は、仮想空間に各種のオブジェクトを配置する。オブジェクト生成部31はローカル座標系で作成したオブジェクトを、ゲーム世界を表すワールド座標に変換して配置する。更に、オブジェクト生成部31は、各オブジェクトにビュー座標変換を行う。ビュー座標変換は、仮想カメラ10が原点になるようにオブジェクトの座標を変換し、それに伴う影響(移動や回転)をオブジェクトに反映させる処理をいう。 The object generation unit 31 places various objects in the virtual space. The object generation unit 31 converts objects created in a local coordinate system into world coordinates that represent the game world and places them. Furthermore, the object generation unit 31 performs view coordinate transformation on each object. View coordinate transformation is a process that transforms the coordinates of an object so that the virtual camera 10 becomes the origin, and reflects the associated effects (movement and rotation) on the object.

オブジェクト管理部32は、オブジェクトに関する情報をオブジェクトデータ記憶部39において管理する。図5を参照して説明する。 The object management unit 32 manages information about objects in the object data storage unit 39. This will be explained with reference to Figure 5.

図5(a)はオブジェクトの属性の一例を示す図である。オブジェクトの属性とは、各オブジェクトの特性を示す情報である。属性は、ゲームプログラムによって様々であり、図5(a)は一例に過ぎない。 Figure 5(a) shows an example of object attributes. Object attributes are information that indicates the characteristics of each object. Attributes vary depending on the game program, and Figure 5(a) is merely one example.

以下、各項目を説明する。
・オブジェクトIDは、ゲーム世界で重複しないオブジェクトの識別情報である。
・オブジェクト種類は、どのようなオブジェクトであるかを示す。オブジェクト種類はゲームジャンルによって様々であるが、例えば人間やアイテムの他、ロボット、動物などがあってよい。
・性別は、ゲームプログラム上のキャラクターの性別である。
・味方/敵は、複数のプレイヤーで戦闘するようなゲームを進行する場合に、各プレイヤーに対応するキャラクターが敵か味方かを示す。
・レア度は、アイテムの入手のしづらさを示す。例えばS、A、B、Cの順にレア度が高いとする。レア度は所定の値の一例である。
・HP(Hit Point)は、オブジェクトがキャラクターの場合の残りの体力である。通常、HPがゼロになるとキャラクターが死亡する。HPは所定の値の一例である。
・MP(Magic Point)は、オブジェクトがキャラクターの場合の残りの魔法力である。通常、MPがゼロになるまで、プレイヤーは魔法の種類に応じたMPを消費して魔法を使うことができる。MPは所定の値の一例である。
・武器は、キャラクターが携帯する武器の種類である。
・薬草は、キャラクターが携帯する回復アイテムの1つである。薬草はHPを一定量回復させる。
Each item will be explained below.
- Object ID is identification information of an object that is unique in the game world.
The object type indicates what kind of object it is. Object types vary depending on the game genre, but may include, for example, humans, items, robots, animals, etc.
・Gender is the gender of the character in the game program.
- Ally/Enemy indicates whether the character corresponding to each player is an ally or enemy when playing a game in which multiple players are fighting.
The rarity level indicates how difficult it is to obtain an item. For example, the rarity levels are S, A, B, and C in descending order. The rarity level is an example of a predetermined value.
- HP (Hit Point) is the remaining physical strength when the object is a character. Normally, when HP reaches zero, the character dies. HP is an example of a predetermined value.
- MP (Magic Points) is the remaining magical power when the object is a character. Usually, the player can use magic by consuming MP according to the type of magic until MP becomes zero. MP is an example of a predetermined value.
Weapon is the type of weapon the character carries.
Medicinal herbs are one of the recovery items carried by characters. They restore a certain amount of HP.

図5(b)は、オブジェクトの位置情報と形状情報の一例を示す図である。オブジェクトデータ記憶部39は、オブジェクトごとにオブジェクトの位置情報と形状情報を記憶している。オブジェクトはポリゴンによって形成されるので、図5(b)ではオブジェクトが有する各ポリゴンの3つの座標(ワールド座標系)が示されている。なお、各ポリゴンは図示するほか、法線ベクトル、頂点のカラー情報、ブレンディングウェイト(各頂点のカラーの合成比率)、等を有している。 Figure 5(b) is a diagram showing an example of the position information and shape information of an object. The object data storage unit 39 stores the position information and shape information of the object for each object. Since objects are formed from polygons, Figure 5(b) shows three coordinates (world coordinate system) of each polygon that the object has. In addition to being shown in the figure, each polygon also has normal vectors, vertex color information, blending weights (combining ratio of colors at each vertex), etc.

図4に戻って説明する。画像データ生成部33は、仮想カメラ10を視点としたゲーム世界のオブジェクトを撮影画像(画像データ)に変換する。詳細は図6にて説明する。 Returning to FIG. 4, the image data generation unit 33 converts objects in the game world viewed from the virtual camera 10 into a captured image (image data). Details will be described in FIG. 6.

判定部36は、仮想カメラ10から見て、第一のオブジェクトと、第一のオブジェクトより奥側に存在する第二のオブジェクトの少なくとも一部とが重なるか否かを判定する。判定部36は、複数のオブジェクトの位置情報及び形状情報を記憶したオブジェクトデータ記憶部39を参照して、オブジェクトの位置情報及び形状情報に基づき、重なる2以上のオブジェクトが存在するかを判定する。詳細は図6にて説明する。 The determination unit 36 determines whether or not a first object overlaps with at least a portion of a second object that is located behind the first object as viewed from the virtual camera 10. The determination unit 36 refers to an object data storage unit 39 that stores position information and shape information of multiple objects, and determines whether or not there are two or more overlapping objects based on the object position information and shape information. Details are described in FIG. 6.

色設定部34は、第二のオブジェクトと第一のオブジェクトとが重なる部分の少なくとも一部を色によって強調する。簡単にいうと、色設定部34は、第一のオブジェクトに色を設定することで、第一のオブジェクトに隠れて見えないはずの第二のオブジェクトをプレイヤーが視認できるようにする。画像処理としては、仮想カメラ10からの視点に対し、第一のオブジェクトに少なくとも一部が隠れる第二のオブジェクトがある場合、撮影画像における第一のオブジェクトの領域において、第二のオブジェクトの少なくとも一部と重なる部分の色を第一のオブジェクトとは異なる色に変更する。詳細は図7以下にて説明する。 The color setting unit 34 emphasizes at least a part of the overlapping portion between the second object and the first object by using a color. In simple terms, the color setting unit 34 sets a color for the first object, allowing the player to see the second object that would otherwise be hidden by the first object. In terms of image processing, when there is a second object that is at least partially hidden by the first object with respect to the viewpoint from the virtual camera 10, the color of the portion of the first object's area in the captured image that overlaps at least a part of the second object is changed to a color different from that of the first object. Details are described in FIG. 7 and subsequent pages.

表示制御部35は、画像データ生成部33が生成し、色設定部34が第二のオブジェクトの視認性を向上した撮影画像を表示装置7に表示する。 The display control unit 35 displays on the display device 7 the captured image generated by the image data generation unit 33 and in which the color setting unit 34 has improved the visibility of the second object.

<撮影画像の生成について>
図6は撮影画像の生成方法を説明する図である。図6に示すように、仮想空間内に仮想カメラ10が置かれる。この仮想カメラ10の位置が視点203、仮想カメラ10の向きが光軸206、視点203と仮想スクリーン202の頂点の四隅を結んだ4本の直線が作る領域が視界204となる。視点203から光軸206の方向に向かって一定の近距離にある位置に、仮想スクリーン202が置かれる。
<About generating captured images>
Fig. 6 is a diagram for explaining a method for generating a captured image. As shown in Fig. 6, a virtual camera 10 is placed in a virtual space. The position of this virtual camera 10 is a viewpoint 203, the direction of the virtual camera 10 is an optical axis 206, and the area formed by four straight lines connecting the viewpoint 203 and the four corners of the vertices of a virtual screen 202 is a field of view 204. A virtual screen 202 is placed at a certain short distance from the viewpoint 203 in the direction of the optical axis 206.

視界204の範囲で、視点203から光軸206の方向に向かって一定の近距離に前方クリップ面205が設定され、一定の遠距離に後方クリップ面207が設定される。視界204の範囲内において前方クリップ面205から後方クリップ面207までの範囲が、透視投影変換により画像が描画される範囲である視野空間208として定められる。ただし、画像処理上、前方クリップ面は0,後方クリップ面は1.0に正規化される。 Within the field of view 204, a front clipping plane 205 is set at a fixed short distance from the viewpoint 203 in the direction of the optical axis 206, and a rear clipping plane 207 is set at a fixed long distance. The range from the front clipping plane 205 to the rear clipping plane 207 within the field of view 204 is defined as the visual field space 208, which is the range in which the image is rendered by perspective projection transformation. However, for image processing purposes, the front clipping plane is normalized to 0 and the rear clipping plane is normalized to 1.0.

このように、仮想スクリーン202上に画像を投影するために用いられる座標系(ビュー座標変換後の座標系)が視点座標系(X',Y',Z')であり、光軸206の方向が視点座標系のZ'軸となる。ワールド座標系(X,Y,Z)の座標(ローカル座標系の座標から変換された座標を含む)は、視点座標系の座標に変換されている。 In this way, the coordinate system used to project an image onto the virtual screen 202 (the coordinate system after view coordinate transformation) is the viewpoint coordinate system (X', Y', Z'), and the direction of the optical axis 206 is the Z' axis of the viewpoint coordinate system. The coordinates of the world coordinate system (X, Y, Z) (including coordinates transformed from coordinates of the local coordinate system) are transformed into coordinates of the viewpoint coordinate system.

画像データ生成部33は透視投影の処理を行うが、このとき、Zバッファを用いた隠面消去の処理が行われる。色設定部34は、隠面消去の後、第二のオブジェクトの視認性を向上させるために、第一のオブジェクトに色を設定する。 The image data generation unit 33 performs perspective projection processing, during which hidden surface removal processing using a Z-buffer is performed. After hidden surface removal, the color setting unit 34 sets a color for the first object in order to improve the visibility of the second object.

なお、透視投影変換には座標変換行列(不図示)が使用される。座標変換行列には、視野角、アスペクト比、ニアクリップ値、ファークリップ値があればよい。視野角は視界204の半分(光軸から右半分又は左半分の角度)である。アスペクト比は撮影画像が表示される画面の縦横の比率である。例えば、表示装置7又はウィンドウのサイズ(縦横比)が使用される。ニアクリップ値とファークリップ値は前方クリップ面205と後方クリップ面207のZ'座標である。これらの値はゲームプログラムに設定されていたり、ゲームで発生したりしたイベントなどで動的に設定されてよい。 Note that a coordinate transformation matrix (not shown) is used for the perspective projection transformation. The coordinate transformation matrix only needs to include the viewing angle, aspect ratio, near clip value, and far clip value. The viewing angle is half the field of view 204 (the right or left half angle from the optical axis). The aspect ratio is the aspect ratio of the screen on which the captured image is displayed. For example, the size (aspect ratio) of the display device 7 or window is used. The near clip value and far clip value are the Z' coordinates of the front clip plane 205 and rear clip plane 207. These values may be set in the game program or may be dynamically set by events that occur in the game.

<隠面消去と色変更>
次に、図7~図10を参照して、隠面消去と色変更について説明する。まずは、隠面消去について説明する。
<Hidden surface removal and color change>
Next, hidden surface removal and color change will be described with reference to Figures 7 to 10. First, hidden surface removal will be described.

図7は、スキャンラインによるポリゴン300のラスタ化を説明する図である。画像データ生成部33は、オブジェクトを構成する全てのポリゴン300について、スキャンライン301による走査を行い、撮影画像に変換する(ラスタ化する)画素を決定する。スキャンライン301はカメラ座標系のX'軸に水平な直線であり、間隔dは撮影画像の解像度によって決まっている。ポリゴン300の三辺とスキャンライン301との交点A,Bの間にある画素がポリゴン内の画素である。図7のポリゴン300はXY平面に投影されているため、スキャンライン301との交点A,Bが求められる(仮想空間でスキャンライン301とポリゴン300の辺が交差するかどうかは問わない)。なお、交点Aと交点Bの間における画素の座標は求める必要がない。後の説明のため、交点Aの座標を(xa,ya)とし、交点Bの座標を(xb,yb)とする。なお、スキャン時点では、z座標は求められなくてよい。 Figure 7 is a diagram for explaining the rasterization of polygon 300 by scan line. The image data generating unit 33 scans all polygons 300 constituting an object with scan line 301 to determine pixels to be converted (rasterized) into the captured image. Scan line 301 is a straight line horizontal to the X' axis of the camera coordinate system, and the interval d is determined by the resolution of the captured image. The pixels between intersections A and B of the three sides of polygon 300 and scan line 301 are pixels within the polygon. Since polygon 300 in Figure 7 is projected onto the XY plane, intersections A and B with scan line 301 can be obtained (it does not matter whether scan line 301 and the sides of polygon 300 intersect in virtual space). Note that it is not necessary to obtain the coordinates of the pixels between intersections A and B. For the sake of later explanation, the coordinates of intersection A are (xa, ya) and the coordinates of intersection B are (xb, yb). Note that the z coordinate does not need to be obtained at the time of scanning.

画像データ生成部33は、図8に示すようなZバッファ311と、フレームバッファ312を用意する。Zバッファ311とフレームバッファ312のマスは撮影画像の各画素を表す。画素の座標は(i,j)で特定される。 The image data generating unit 33 prepares a Z buffer 311 and a frame buffer 312 as shown in FIG. 8. The squares in the Z buffer 311 and the frame buffer 312 represent each pixel in the captured image. The coordinates of a pixel are specified by (i, j).

Zバッファ311には撮影画像の各画素に対応するオブジェクトまでの距離が格納される。すなわち、図6のZ'軸の値が格納される。フレームバッファ312には各画素の色が格納される。このため、フレームバッファ312はRGBごとに用意される。画像データ生成部33は、毎フレームごとにZバッファ311を初期化する。初期値は最大値(例えばファークリップ値の1.0)である。画像データ生成部33は毎フレームごとにフレームバッファ312を背景色(何もない場合に表示される色)に初期化する。 The Z buffer 311 stores the distance to the object corresponding to each pixel in the captured image. In other words, the value of the Z' axis in Figure 6 is stored. The frame buffer 312 stores the color of each pixel. For this reason, a frame buffer 312 is prepared for each RGB. The image data generation unit 33 initializes the Z buffer 311 for each frame. The initial value is the maximum value (for example, the far clip value of 1.0). The image data generation unit 33 initializes the frame buffer 312 to the background color (the color displayed when nothing is present) for each frame.

図9は、隠面消去の処理を説明するフローチャート図の一例である。上記のように、画像データ生成部33はZバッファ311とフレームバッファ312を初期化する(S1)。 Figure 9 is an example of a flowchart explaining the hidden surface removal process. As described above, the image data generation unit 33 initializes the Z buffer 311 and the frame buffer 312 (S1).

次に、画像データ生成部33は、視野空間208にある全てのオブジェクトから、ポリゴン300を1つずつ取り出す(S2)。取り出す順番は、オブジェクト単位でもよいし、オブジェクトに関係なくポリゴンの座標でソートした順番でもよい。 Next, the image data generating unit 33 extracts polygons 300 one by one from all objects in the visual field space 208 (S2). The order of extraction may be on an object-by-object basis, or may be sorted by polygon coordinates regardless of object.

画像データ生成部33はポリゴン300を透視投影変換することで撮影画像に変換する(S3)。ここでの変換はポリゴン300の頂点だけでよい。これにより、ポリゴン300が有する各頂点の撮影画像における座標(i,j)が求まる。 The image data generating unit 33 converts the polygon 300 into a captured image by performing perspective projection transformation (S3). Only the vertices of the polygon 300 need to be transformed here. This allows the coordinates (i, j) of each vertex of the polygon 300 in the captured image to be determined.

また、画像データ生成部33はポリゴン300をスキャンライン301で走査することで、ポリゴン300とスキャンライン301との交点A,Bを求める(S4)。Zバッファ311及びフレームバッファ312において図8のようにポリゴン300が投影された三角形が、透視投影変換で得られている。この三角形の左側の辺を形成する画素(i,j)が交点Aである。同様に三角形の右側の辺を形成する画素(i,j)が交点Bである。 The image data generating unit 33 also scans the polygon 300 with the scan line 301 to determine intersections A and B between the polygon 300 and the scan line 301 (S4). A triangle onto which the polygon 300 is projected is obtained by perspective projection transformation in the Z buffer 311 and the frame buffer 312 as shown in FIG. 8. The pixel (i, j) that forms the left side of this triangle is intersection A. Similarly, the pixel (i, j) that forms the right side of the triangle is intersection B.

画像データ生成部33は、ポリゴン内部の各画素(交点A,B、及び、交点Aと交点Bの間の画素)についてZ値を算出する(S5)。導出は省略するが、Z値は式(1)により算出される。 The image data generating unit 33 calculates the Z value for each pixel inside the polygon (intersections A and B, and the pixels between intersections A and B) (S5). Although the derivation is omitted, the Z value is calculated using formula (1).

Figure 0007577014000001
Figure 0007577014000001

補足すると、(xi,yi,zi)はポリゴン300の3つの頂点のいずれかの頂点の座標である。ポリゴン300の法線ベクトル(nx.ny,nz)は既知である。したがって、情報処理装置3がdを計算できる。式(1)のx、yに交点Aの仮想空間の座標(xa,ya)を代入すればZ'軸における交点AのZ値が得られる。交点Bの仮想空間の座標(xb,yb)を代入すればZ'軸における交点BのZ値が得られる。交点Aと交点Bの間の画素については、画像データ生成部33が交点A,BのZ値の差を、交点Aと交点Bの間の画素数で割って按分する。 Additionally, (xi, yi, zi) are the coordinates of one of the three vertices of polygon 300. The normal vector (nx, ny, nz) of polygon 300 is known. Therefore, information processing device 3 can calculate d. Substituting the virtual space coordinates (xa, ya) of intersection A for x and y in formula (1) gives the Z value of intersection A on the Z' axis. Substituting the virtual space coordinates (xb, yb) of intersection B gives the Z value of intersection B on the Z' axis. For pixels between intersections A and B, image data generation unit 33 divides the difference in the Z values of intersections A and B by the number of pixels between intersections A and B to apportion the difference.

次に、画像データ生成部33は、Zバッファ311の(i,j)に格納されている値が算出したZ値より小さいか否かを判断する(S6)。 Next, the image data generation unit 33 determines whether the value stored at (i, j) in the Z buffer 311 is smaller than the calculated Z value (S6).

Zバッファ311の値が算出したZ値より小さい場合、ポリゴン300がより手前にあるので画像データ生成部33は、フレームバッファ312の(i,j)に、ポリゴンの色を格納する(S7)。画像データ生成部33は、RGBそれぞれのフレームバッファ312にポリゴン300の色を格納する。 If the value of the Z buffer 311 is smaller than the calculated Z value, the polygon 300 is closer, so the image data generation unit 33 stores the color of the polygon at (i, j) in the frame buffer 312 (S7). The image data generation unit 33 stores the color of the polygon 300 in each of the RGB frame buffers 312.

また、画像データ生成部33はZバッファ311の値を、ステップS5で算出されたZ値で更新する(S8)。これは、次以降のポリゴン300のZ値と比較するためである。 The image data generating unit 33 also updates the value of the Z buffer 311 with the Z value calculated in step S5 (S8). This is to compare with the Z value of the next and subsequent polygons 300.

画像データ生成部33は1つのポリゴン300の処理が終了したか否かを判断する(S9)。1つのポリゴン300が終了していない場合、画像データ生成部33はステップS5から繰り返す。 The image data generating unit 33 determines whether processing of one polygon 300 is complete (S9). If processing of one polygon 300 is not complete, the image data generating unit 33 repeats from step S5.

1つのポリゴン300の処理が終了した場合、画像データ生成部33は視野空間208の全てのポリゴン300について処理が終わったか否かを判断する(S10)。 When processing of one polygon 300 is completed, the image data generation unit 33 determines whether processing has been completed for all polygons 300 in the visual field space 208 (S10).

全てのポリゴン300の処理が終了していない場合、画像データ生成部33はステップS2から繰り返す。 If processing of all polygons 300 has not been completed, the image data generation unit 33 repeats from step S2.

以上の処理で、撮影画像(フレームバッファ312の画素値を有する)には各画素において最も手前のオブジェクトの画素値(RGB)が表示された状態となる。例えば、図9が終了した時点では、撮影画像は図10に示す状態となる。 As a result of the above processing, the captured image (which has pixel values from frame buffer 312) displays the pixel values (RGB) of the foreground object for each pixel. For example, when Figure 9 is completed, the captured image will be in the state shown in Figure 10.

なお、図9の隠面消去方法はあくまで一例であり、仮想空間のオブジェクトをどのように撮影画像に変換してもよい。 Note that the hidden surface removal method shown in Figure 9 is merely an example, and objects in virtual space can be converted into captured images in any manner.

隠面消去が行われると、撮影画像は壁のオブジェクト11のみが表示された状態となる。 Once hidden surface removal is performed, only the wall object 11 is displayed in the captured image.

<第一のオブジェクトの色の変更>
次に、色設定部34は、強調表示したい属性を有するオブジェクトについて、そのZ値を求め、Zバッファ311の値よりも大きい場合には(オブジェクトが奥にある)、フレームバッファ312に第二のオブジェクトの視認性を向上するための色を設定する。
<Changing the color of the first object>
Next, color setting unit 34 calculates the Z value of the object having the attribute to be highlighted, and if it is greater than the value in Z buffer 311 (the object is at the back), sets a color in frame buffer 312 to improve the visibility of the second object.

図10は、色設定部34が第二のオブジェクトと第一のオブジェクトとが重なる部分の少なくとも一部を色によって強調する手順(オブジェクト表示方法)を示すフローチャート図の一例である。判定部36と色設定部34はオブジェクトごとに図10の処理を行う。 Figure 10 is an example of a flowchart showing a procedure (object display method) in which the color setting unit 34 highlights at least a part of the overlapping portion between the second object and the first object by using a color. The determination unit 36 and the color setting unit 34 perform the process of Figure 10 for each object.

まず、判定部36は、第二のZバッファを用意し、最大値(例えば1.0)に初期化し、第二のフレームバッファを背景色に初期化する(S11)。なお、説明のため、図9で使用したZバッファ311を第一のZバッファといい、図9で使用したフレームバッファ312を第一のフレームバッファという。 First, the determination unit 36 prepares a second Z buffer, initializes it to a maximum value (e.g., 1.0), and initializes the second frame buffer to the background color (S11). For the sake of explanation, the Z buffer 311 used in FIG. 9 is referred to as the first Z buffer, and the frame buffer 312 used in FIG. 9 is referred to as the first frame buffer.

判定部36は、視認性を向上させたい所定の属性のオブジェクトが有する全てのポリゴン300についてZ値を算出する(S12)。所定の属性のオブジェクトは、例えばキャラクターや所定のアイテムなどのオブジェクトである。このオブジェクトが有する複数のポリゴン300において互いに重なるポリゴン300については、最も手前のポリゴン300のZ値が第二のZバッファに格納される。Z値の算出方法は図9と同様であり、各ポリゴン300の座標(i,j)とZ値が算出される。判定部36はこのZ値を第二のZバッファに格納し、第二のフレームバッファにポリゴンの色を格納する。 The determination unit 36 calculates Z values for all polygons 300 of an object with a specified attribute for which visibility is to be improved (S12). The object with the specified attribute is, for example, an object such as a character or a specified item. For the polygons 300 of the object that overlap each other, the Z value of the foreground polygon 300 is stored in the second Z buffer. The method of calculating the Z value is the same as in FIG. 9, and the coordinates (i, j) and Z value of each polygon 300 are calculated. The determination unit 36 stores this Z value in the second Z buffer, and stores the color of the polygon in the second frame buffer.

判定部36は、第二のZバッファと第一のZバッファの同じ座標(i,j)の値を比較して、第二のZバッファに第一のZバッファよりも大きいZ値があるか否かを判断する(S13)。つまり、第二のオブジェクトが第一のオブジェクト等で隠れているかどうかを判断する。ここではZバッファが使用されているが、判定部36は、複数のオブジェクトの位置情報及び形状情報を記憶したオブジェクトデータ記憶部39を参照して、オブジェクトの位置情報及び形状情報に基づき、重なる2以上のオブジェクトが存在するかを判定している。 The determination unit 36 compares the values of the same coordinates (i, j) in the second Z buffer and the first Z buffer to determine whether the second Z buffer has a larger Z value than the first Z buffer (S13). In other words, it determines whether the second object is hidden by the first object or the like. Although a Z buffer is used here, the determination unit 36 refers to the object data storage unit 39 that stores the position information and shape information of multiple objects, and determines whether there are two or more overlapping objects based on the object position information and shape information.

ステップS13の判断がYesの場合、所定の属性のオブジェクトは本実施形態でいう第二のオブジェクトである。色設定部34は第一のフレームバッファの各画素のうち、第二のオブジェクトが存在する座標に色を設定する(S14)。以上で、図1(b)のような撮影画像が得られる。このように、色設定部34は第二のオブジェクトの形状に基づいて第一のオブジェクトの色を変更できる。 If the determination in step S13 is Yes, the object with the specified attribute is what is referred to as the second object in this embodiment. The color setting unit 34 sets a color to the coordinates of each pixel in the first frame buffer where the second object exists (S14). In this way, a captured image such as that shown in FIG. 1(b) is obtained. In this way, the color setting unit 34 can change the color of the first object based on the shape of the second object.

例えば、色設定部34は、第二のオブジェクトの赤を強調することができる。この場合、色設定部34は、第二のフレームバッファのR,G,Bのうち、R値を増大し、G値とB値を下げる。第二のフレームバッファに設定された色は、通常、第一のフレームバッファの第一のオブジェクトの色とは異なることが担保される。つまり、色設定部34は、第二のオブジェクトと第一のオブジェクトとが重なる部分の色を変更する(第二のオブジェクトの色からも第一のオブジェクトの色からも変更する)。 For example, the color setting unit 34 can emphasize the red of the second object. In this case, the color setting unit 34 increases the R value and decreases the G and B values of the R, G, and B of the second frame buffer. The color set in the second frame buffer is usually guaranteed to be different from the color of the first object in the first frame buffer. In other words, the color setting unit 34 changes the color of the portion where the second object and the first object overlap (changing it from both the color of the second object and the color of the first object).

また、色設定部34は、第二のオブジェクトの色の彩度を向上又は低下させたり、輝度を向上又は低下させたりしてもよい。このように、色設定部34は、第二のオブジェクトの色を用いて第一のオブジェクトの色を変更する。 The color setting unit 34 may also increase or decrease the saturation or the brightness of the color of the second object. In this way, the color setting unit 34 changes the color of the first object using the color of the second object.

そして、色設定部34は第二のフレームバッファの変更後の色を、第一のフレームバッファの同じ画素に設定する。色設定部34はこの変更後の色を単に第一のフレームバッファに格納するのでなく、第一のフレームバッファの色と所定の比率で合成してよい。プレイヤーには第一のオブジェクトを透過したように第二オブジェクトが見える。 Then, the color setting unit 34 sets the changed color of the second frame buffer to the same pixel of the first frame buffer. The color setting unit 34 may not simply store this changed color in the first frame buffer, but may combine it with the color of the first frame buffer at a predetermined ratio. The player sees the second object as if it is transparent to the first object.

なお、第二のフレームバッファに設定された色が、第一のフレームバッファの第一のオブジェクトの色と同じであった場合、色設定部34は、第二のフレームバッファに設定された色をその補色に変更する等の処理を行う。 If the color set in the second frame buffer is the same as the color of the first object in the first frame buffer, the color setting unit 34 performs processing such as changing the color set in the second frame buffer to its complementary color.

また、色設定部34は、単に、予め定められている色を第一のフレームバッファに設定してもよい。例えば、色設定部34が赤を設定する場合、(R、G、B)=(255,0,0)を、第一のフレームバッファのうち第二のオブジェクトが存在する座標に設定する。色設定部34は、青を設定する場合、(R、G、B)=(0,0,255)を、第一のフレームバッファのうち第二のオブジェクトが存在する座標に設定する。色設定部34は、緑を設定する場合、(R、G、B)=(0,255,0)を第一のフレームバッファのうち第二のオブジェクトが存在する座標に設定する。色設定部34は、黄を設定する場合、(R、G、B)=(255,255,0)を、第一のフレームバッファのうち第二のオブジェクトが存在する座標に設定する。 Also, the color setting unit 34 may simply set a predetermined color in the first frame buffer. For example, when the color setting unit 34 sets red, it sets (R, G, B) = (255, 0, 0) to the coordinates of the first frame buffer where the second object is located. When the color setting unit 34 sets blue, it sets (R, G, B) = (0, 0, 255) to the coordinates of the first frame buffer where the second object is located. When the color setting unit 34 sets green, it sets (R, G, B) = (0, 255, 0) to the coordinates of the first frame buffer where the second object is located. When the color setting unit 34 sets yellow, it sets (R, G, B) = (255, 255, 0) to the coordinates of the first frame buffer where the second object is located.

このように、色設定部34は第一のオブジェクトに色を設定することで、第一のオブジェクトに隠れて見えないはずの第二のオブジェクトの視認性を向上できる。第二のオブジェクトが第一のオブジェクトに隠れていることを示すため、変更した色の輝度や彩度を下げることもできる。輝度の変更方法は、RGBで表される画素値を輝度に変換し(例えばYUV色空間のY)、輝度を下げた後、再度、RGBに変換する。彩度の変更方法は、RGBで表される画素値を彩度に変換し(例えばHSV色空間のS)、彩度を下げた後、再度、RGBに変換する。 In this way, the color setting unit 34 can improve the visibility of the second object that would otherwise be hidden by the first object, by setting a color to the first object. To indicate that the second object is hidden by the first object, the brightness or saturation of the changed color can also be reduced. The brightness is changed by converting the pixel value represented by RGB to brightness (e.g., Y in the YUV color space), reducing the brightness, and then converting back to RGB. The saturation is changed by converting the pixel value represented by RGB to saturation (e.g., S in the HSV color space), reducing the saturation, and then converting back to RGB.

<撮影画像のその他の表示例>
色設定部34は図1(b)のように第二のオブジェクトの全体に色を付与するのでなく、第二のオブジェクトの外縁のみに色を設定してもよい。
<Other display examples of captured images>
The color setting unit 34 may set a color only to the outer edge of the second object, instead of applying a color to the entire second object as in FIG. 1B.

図11は、第二のオブジェクトの外縁のみに色が設定された撮影画像の一例である。図11のような強調方法では、プレイヤーは外縁320で強調された第二のオブジェクトに気づくことができ、形状が強調されるので第二のオブジェクトが何であるかを判断しやすい。 Figure 11 is an example of a captured image in which color is set only to the outer edge of the second object. With the emphasis method shown in Figure 11, the player can notice the second object that is emphasized by the outer edge 320, and since the shape is emphasized, it is easy to determine what the second object is.

このような表示方法は第二のZバッファを利用して生成できる。図10のステップS12で第二のZバッファに第二のオブジェクトのZ値が設定されている。第二のオブジェクトのZ値は、第二のオブジェクトの初期値よりも小さい(手前)にある。したがって、色設定部34が外枠のみのエッジを検出するフィルターを第二のZバッファにかければ、第二のオブジェクトの外縁が得られる。 Such a display method can be generated by using a second Z buffer. In step S12 of FIG. 10, the Z value of the second object is set in the second Z buffer. The Z value of the second object is smaller (closer) than the initial value of the second object. Therefore, if the color setting unit 34 applies a filter that detects edges of only the outer frame to the second Z buffer, the outer edge of the second object can be obtained.

また、第二のオブジェクトの一部のみが第一のオブジェクトに隠れている場合がある。この場合、色設定部34は、第一のオブジェクトによって隠れている部分のみを色で強調してもよいし、第一のオブジェクトに隠れていない部分を含めて色で強調してもよい。 In addition, there may be cases where only a portion of the second object is hidden by the first object. In this case, the color setting unit 34 may highlight with color only the portion hidden by the first object, or may highlight with color the portion that is not hidden by the first object as well.

図12(a)は、第二のオブジェクトと重なる部分のみを色で強調した場合の撮影画像の一例である。壁のオブジェクト11(第一のオブジェクト)のうち怪獣のオブジェクト21が隠れている部分だけに色が設定されている。 Figure 12 (a) is an example of a captured image in which only the portion overlapping with the second object is highlighted with color. Only the portion of the wall object 11 (first object) where the monster object 21 is hidden is colored.

図12(a)のような表示方法は、図10で使用した、第二のZバッファにおいて、第一のZバッファの値よりも大きいZ値(ただし、初期値である最大値は含まない)がある第一のフレームバッファの画素にだけ、色設定部34が色を設定すればよい。なお、第二のオブジェクトのうち第一のオブジェクトに隠れていない部分については、通常表示でよい。図9の処理が終わった段階で、第二のオブジェクトのうち第一のオブジェクトに隠れていない部分には第二のオブジェクト本来の色が設定されている。また、図12(a)においても、色設定部34は外縁のみに色を設定できる。 In the display method shown in FIG. 12(a), the color setting unit 34 only needs to set colors to pixels in the first frame buffer that have a Z value in the second Z buffer used in FIG. 10 that is greater than the value in the first Z buffer (however, not including the maximum value, which is the initial value). Note that the parts of the second object that are not hidden by the first object may be displayed normally. When the processing in FIG. 9 is completed, the original color of the second object is set to the parts of the second object that are not hidden by the first object. Also, in FIG. 12(a), the color setting unit 34 can set color only to the outer edge.

図12(b)は、第一のオブジェクトによって隠れていない第二のオブジェクトの部分にも色を設定した場合の撮影画像の一例である。第二のオブジェクトの全体に色が設定されている。 Figure 12 (b) is an example of a captured image in which color is set to the parts of the second object that are not hidden by the first object. Color is set to the entire second object.

図12(b)のような表示方法は、図10のステップS14と同様に、第二のフレームバッファでポリゴンの色が設定されている座標と同じ座標の第一のフレームバッファに色を設定すればよい。なお、図12(b)においても、色設定部34は外縁のみに色を設定できる。 The display method shown in FIG. 12(b) can be achieved by setting a color in the first frame buffer at the same coordinates as the coordinates at which the color of the polygon is set in the second frame buffer, similar to step S14 in FIG. 10. Note that, even in FIG. 12(b), the color setting unit 34 can set a color only to the outer edge.

<属性に応じた色の変更>
以下では、色設定部34がオブジェクトの属性に応じて、第二のオブジェクトの存在を強調するための色を変更した撮影画像を説明する。
<Change color according to attributes>
In the following, a captured image in which the color setting unit 34 changes the color to emphasize the presence of a second object according to the attribute of the object will be described.

例えば、色設定部34は、キャラクターの性別で色を変更してよい。女性キャラクターは、例えば、赤が設定されているか、又は、赤が強調される。男性キャラクターは、例えば、青が設定されているか、又は、青が強調される。その他の性別のキャラクターは、例えば、黄が設定されているか、又は、黄が強調される。 For example, the color setting unit 34 may change the color depending on the gender of the character. For female characters, for example, red is set or red is emphasized. For male characters, for example, blue is set or blue is emphasized. For characters of other genders, for example, yellow is set or yellow is emphasized.

性別に応じて第二のオブジェクトの色が変わるので、プレイヤーは第一のオブジェクトに隠れているキャラクターが女性か男性かを判断しやすい。 The color of the second object changes depending on the gender, making it easier for players to determine whether the character hiding behind the first object is female or male.

また、色設定部34は、キャラクターが味方か敵かで色を変更してよい。味方キャラクターは、例えば、緑が設定されているか、又は、緑が強調される。敵キャラクターは、例えば、赤が設定されているか、又は、赤が強調される。 The color setting unit 34 may also change the color depending on whether the character is an ally or enemy. For example, green may be set for an ally character, or green may be emphasized. For example, red may be set for an enemy character, or red may be emphasized.

敵か味方に応じて第二のオブジェクトの色が変わるので、プレイヤーは味方キャラクターなら接近し、敵キャラクターなら接近しないような対応が可能になる。 The color of the second object changes depending on whether it's an ally or enemy, allowing the player to approach if it's an ally character and avoid approaching if it's an enemy character.

また、色設定部34は、オブジェクトのレア度に応じて色を変更してよい。レア度が高いオブジェクトは、例えば、黄が設定されているか、又は、黄が強調される。レア度が低いオブジェクトは、例えば、青が設定されているか、又は、青が強調される。 The color setting unit 34 may change the color depending on the rarity of the object. For example, an object with a high rarity may be set to yellow or the yellow may be emphasized. For example, an object with a low rarity may be set to blue or the blue may be emphasized.

レア度に応じて第二のオブジェクトの色が変わるので、プレイヤーは第二のオブジェクトを取りに行くかどうかを判断しやすい。 The color of the second object changes depending on its rarity, making it easier for players to decide whether or not to go for the second object.

これらの他、色設定部34は、第二のオブジェクト(味方キャラクター)のHPに応じて色を変更してもよい。HPが残りわずかで味方からの支援を待っているキャラクターがいれば、プレイヤーが積極的に薬草などアイテムを渡すことができる。 In addition to these, the color setting unit 34 may change the color according to the HP of the second object (ally character). If there is a character with little HP remaining and waiting for support from an ally, the player can proactively give the character an item such as a medicinal herb.

また、色設定部34は、第二のオブジェクト(味方キャラクター)が武器を有しているか否かに応じて色を変更してもよい。武器がないキャラクターがいれば、プレイヤーが武器を手渡すなどの対応をしやすくなる。 The color setting unit 34 may also change the color depending on whether or not the second object (ally character) is carrying a weapon. If there is a character without a weapon, it becomes easier for the player to take action such as handing over the weapon.

また、色設定部34は、第二のオブジェクト(味方キャラクター)が回復アイテムを有しておらずHPが残りわずかか否かに応じて色を変更してもよい。回復アイテムがなくHPが少ないキャラクターがいれば、プレイヤーが回復アイテムを手渡すなどの対応をしやすくなる。 The color setting unit 34 may also change the color depending on whether the second object (ally character) does not have a recovery item and has little HP remaining. If there is a character with no recovery item and little HP remaining, it becomes easier for the player to take action such as handing over a recovery item.

<主な効果>
本実施形態のゲームシステムによれば、遮蔽物で隠れたオブジェクトの位置や形状を視認可能に表示できる。また、当該オブジェクトの属性もプレイヤーが認知することが可能なる。
<Major Effects>
According to the game system of the present embodiment, the position and shape of an object hidden by an obstruction can be visibly displayed, and the player can also recognize the attributes of the object.

<その他の適用例等>
なお、本発明は、上記の実施形態に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。
<Other application examples>
The present invention is not limited to the above-described embodiment, and various modifications are possible without departing from the spirit and technical concept of the present invention.

例えば、情報処理装置3は、第一のオブジェクトに穴をあけて第二のオブジェクトの色をそのまま又は変更して表示してもよい。穴を空けるとは、第一のオブジェクトの穴の部分の色をフレームバッファで使用しないことをいう。情報処理装置3は、例えば、透明な円形状のオブジェクトを第一のオブジェクトよりも手前に配置することで実現できる。 For example, the information processing device 3 may make a hole in the first object and display the second object with the same color or with a different color. Making a hole means that the color of the hole in the first object is not used in the frame buffer. The information processing device 3 can achieve this by, for example, placing a transparent circular object in front of the first object.

また、本実施形態では、第二のオブジェクトと第一のオブジェクトとが重なる部分の少なくとも一部を色によって強調したが、第二のオブジェクトの形状でグラデーションを行ってもよい。また、情報処理装置3は、第二のオブジェクトの形状をモザイク状に分割して、第二のオブジェクトの色を強調してもよい。また、第二のオブジェクトの形状に関係なく丸や四角などで第一のオブジェクトの色を強調してもよい。丸や四角の位置は、第二のオブジェクトの重心や最上部などどこでもよい。 In addition, in this embodiment, at least a part of the overlapping portion between the second object and the first object is emphasized by color, but a gradation may also be applied to the shape of the second object. The information processing device 3 may also divide the shape of the second object into a mosaic pattern to emphasize the color of the second object. The color of the first object may also be emphasized by a circle or a square, regardless of the shape of the second object. The position of the circle or square may be anywhere, such as the center of gravity or the top of the second object.

また、色設定部34は、静止している状態の第二のオブジェクトについてのみ、本実施形態の色による強調処理を行ってもよい。静止しているオブジェクトにはプレイヤーが気づきにくいためである。色設定部34は、移動している第二のオブジェクトについて、シルエット表示を行い、静止したら本実施形態の色による強調処理を行う。 The color setting unit 34 may also perform the color highlighting process of this embodiment only on second objects that are stationary. This is because stationary objects are difficult for a player to notice. The color setting unit 34 displays a silhouette of a moving second object, and when the object comes to a standstill, performs the color highlighting process of this embodiment.

また、本実施形態では、隠面消去の後に第二のオブジェクトの強調処理が行われたが、隠面消去と第二のオブジェクトの強調処理は並行して行われてもよい。 In addition, in this embodiment, the process of highlighting the second object is performed after hidden surface removal, but the process of highlighting the second object and the process of removing hidden surfaces may be performed in parallel.

また、図4などの構成例は、情報処理装置3による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。情報処理装置3の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 The configuration examples in FIG. 4 and the like are divided according to main functions to facilitate understanding of the processing by the information processing device 3. The present invention is not limited by the manner in which the processing units are divided or the names of the processing units. The processing by the information processing device 3 can be divided into even more processing units depending on the processing content. It can also be divided so that one processing unit includes even more processes.

また、本実施形態ではゲームプログラムが行うとした処理の一部又は全体を、ASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)等のハード的な処理回路が行ってもよい。 In addition, in this embodiment, some or all of the processing performed by the game program may be performed by hardware processing circuits such as an ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), or FPGA (field programmable gate array).

1 ゲームシステム
3 情報処理装置
5 ゲームコントローラ
7 表示装置
33 画像データ生成部
34 色設定部
REFERENCE SIGNS LIST 1 Game system 3 Information processing device 5 Game controller 7 Display device 33 Image data generating unit 34 Color setting unit

Claims (10)

情報処理装置を、
仮想空間内に配置された複数のオブジェクトを仮想カメラが撮影した画像データを生成する画像データ生成部と、
複数の前記オブジェクトの位置情報及び形状情報を記憶した記憶部を参照して、前記仮想カメラから見て、第一のオブジェクトと第二のオブジェクトの少なくとも一部とが重なるかどうかを判定する判定部と、
前記第一のオブジェクトと、前記第一のオブジェクトより奥側に存在する前記第二のオブジェクトの少なくとも一部とが重なる場合、
前記画像データにおいて、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更する色設定部、
として機能させ
前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、前記第二のオブジェクトの形状に基づいて変更し、
前記第二のオブジェクトの一部のみが前記第一のオブジェクトに隠れている場合、
前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の色を変更し、更に、前記第一のオブジェクトと重なっていない前記第二のオブジェクトの部分を、変更した前記第一のオブジェクトと同じ色に変更するゲームプログラム。
An information processing device,
an image data generating unit that generates image data of a plurality of objects arranged in a virtual space photographed by a virtual camera;
a determination unit that determines whether or not a first object and a second object at least partially overlap with each other as viewed from the virtual camera by referring to a storage unit that stores position information and shape information of a plurality of the objects;
When the first object and the second object located behind the first object overlap with each other at least in part,
a color setting unit that changes a color of at least a part of an overlapping portion between the second object and the first object in the image data;
Functioning as a
the color setting unit changes a color of at least a part of an overlapping portion between the second object and the first object based on a shape of the second object ;
If only a portion of the second object is obscured by the first object,
The color setting unit changes the color of an overlapping portion of the second object and the first object, and further changes the color of a portion of the second object that does not overlap with the first object to the same color as the changed first object.
情報処理装置を、
仮想空間内に配置された複数のオブジェクトを仮想カメラが撮影した画像データを生成する画像データ生成部と、
複数の前記オブジェクトの位置情報及び形状情報を記憶した記憶部を参照して、前記仮想カメラから見て、第一のオブジェクトと第二のオブジェクトの少なくとも一部とが重なるかどうかを判定する判定部と、
前記第一のオブジェクトと、前記第一のオブジェクトより奥側に存在する前記第二のオブジェクトの少なくとも一部とが重なる場合、
前記画像データにおいて、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更する色設定部、
として機能させ、
前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、前記第二のオブジェクトの色、及び前記第一のオブジェクトの色を用いて変更するゲームプログラム。
An information processing device,
an image data generating unit that generates image data of a plurality of objects arranged in a virtual space photographed by a virtual camera;
a determination unit that determines whether or not a first object and a second object at least partially overlap with each other as viewed from the virtual camera by referring to a storage unit that stores position information and shape information of a plurality of the objects;
When the first object and the second object located behind the first object overlap with each other at least in part,
a color setting unit that changes a color of at least a part of an overlapping portion between the second object and the first object in the image data;
Functioning as a
The color setting unit changes the color of at least a portion of an overlapping portion between the second object and the first object using the color of the second object and the color of the first object .
前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、前記第二のオブジェクトの色を用いて変更した変更後の色を前記第一のオブジェクトの色と予め定められている比率で合成した色に変更する、請求項2に記載のゲームプログラム。The game program according to claim 2, wherein the color setting unit changes the color of at least a portion of the overlapping area between the second object and the first object to a color obtained by combining the modified color obtained by using the color of the second object with the color of the first object in a predetermined ratio. 前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、予め定められている色に設定する請求項1に記載のゲームプログラム。 The game program according to claim 1, wherein the color setting unit sets the color of at least a portion of the overlapping portion between the second object and the first object to a predetermined color. 前記色設定部は、前記第二のオブジェクトが有する属性に応じて、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更する請求項1~のいずれか1項に記載のゲームプログラム。 The game program according to any one of claims 1 to 4 , wherein the color setting unit changes the color of at least a portion of the overlapping area between the second object and the first object in accordance with an attribute of the second object. 前記色設定部は、前記画像データにおいて、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の彩度を変更する請求項1~のいずれか1項に記載のゲームプログラム。 The game program according to any one of claims 1 to 5 , wherein the color setting unit changes saturation of a portion of the image data where the second object and the first object overlap. 仮想空間内に配置された複数のオブジェクトを仮想カメラが撮影した画像データを生成する画像データ生成部と、
複数の前記オブジェクトの位置情報及び形状情報を記憶した記憶部を参照して、前記仮想カメラから見て、第一のオブジェクトと第二のオブジェクトの少なくとも一部とが重なるかどうかを判定する判定部と、
前記第一のオブジェクトと、前記第一のオブジェクトより奥側に存在する前記第二のオブジェクトの少なくとも一部とが重なる場合、
前記画像データにおいて、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更する色設定部、
を有し、
前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、前記第二のオブジェクトの形状に基づいて変更し、
前記第二のオブジェクトの一部のみが前記第一のオブジェクトに隠れている場合、
前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の色を変更し、更に、前記第一のオブジェクトと重なっていない前記第二のオブジェクトの部分を、変更した前記第一のオブジェクトと同じ色に変更する、情報処理装置。
an image data generating unit that generates image data of a plurality of objects arranged in a virtual space photographed by a virtual camera;
a determination unit that determines whether or not at least a part of a first object and a second object overlap with each other as viewed from the virtual camera by referring to a storage unit that stores position information and shape information of a plurality of the objects;
When the first object and the second object located behind the first object overlap with each other at least in part,
a color setting unit that changes a color of at least a part of an overlapping portion between the second object and the first object in the image data;
having
the color setting unit changes a color of at least a part of an overlapping portion between the second object and the first object based on a shape of the second object;
If only a portion of the second object is obscured by the first object,
The color setting unit changes the color of the portion where the second object and the first object overlap, and further changes the portion of the second object that does not overlap with the first object to the same color as the changed first object .
仮想空間内に配置された複数のオブジェクトを仮想カメラが撮影した画像データを生成する画像データ生成部と、an image data generating unit that generates image data of a plurality of objects arranged in a virtual space photographed by a virtual camera;
複数の前記オブジェクトの位置情報及び形状情報を記憶した記憶部を参照して、前記仮想カメラから見て、第一のオブジェクトと第二のオブジェクトの少なくとも一部とが重なるかどうかを判定する判定部と、a determination unit that determines whether or not a first object and a second object at least partially overlap with each other as viewed from the virtual camera by referring to a storage unit that stores position information and shape information of a plurality of the objects;
前記第一のオブジェクトと、前記第一のオブジェクトより奥側に存在する前記第二のオブジェクトの少なくとも一部とが重なる場合、When the first object and the second object located behind the first object overlap with each other at least in part,
前記画像データにおいて、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更する色設定部、a color setting unit that changes a color of at least a part of an overlapping portion between the second object and the first object in the image data;
を有し、having
前記色設定部は、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、前記第二のオブジェクトの色、及び前記第一のオブジェクトの色を用いて変更する、情報処理装置。The color setting unit changes a color of at least a part of an overlapping portion between the second object and the first object by using a color of the second object and a color of the first object.
情報処理装置が、仮想空間内に配置された複数のオブジェクトを仮想カメラが撮影した画像データを生成するステップと、
前記情報処理装置が、複数の前記オブジェクトの位置情報及び形状情報を記憶した記憶部を参照して、前記仮想カメラから見て、第一のオブジェクトと第二のオブジェクトの少なくとも一部とが重なるかどうかを判定するステップと、
前記第一のオブジェクトと、前記第一のオブジェクトより奥側に存在する前記第二のオブジェクトの少なくとも一部とが重なる場合、
前記画像データにおいて、前記情報処理装置が、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更するステップと、
を有し、
前記変更するステップは、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、前記第二のオブジェクトの形状に基づいて変更するステップにおいて、
前記第二のオブジェクトの一部のみが前記第一のオブジェクトに隠れている場合、
前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の色を変更し、更に、前記第一のオブジェクトと重なっていない前記第二のオブジェクトの部分を、変更した前記第一のオブジェクトと同じ色に変更するステップを含む、オブジェクト表示方法。
A step in which an information processing device generates image data obtained by capturing images of a plurality of objects arranged in a virtual space with a virtual camera;
a step of the information processing device referring to a storage unit that stores position information and shape information of a plurality of the objects and determining whether or not at least a part of a first object and a second object overlap as viewed from the virtual camera;
When the first object and the second object located behind the first object overlap with each other at least in part,
changing a color of at least a part of an overlapping portion between the second object and the first object in the image data by the information processing device ;
having
In the changing step, a color of at least a part of an overlapping portion between the second object and the first object is changed based on a shape of the second object,
If only a portion of the second object is obscured by the first object,
The object display method includes a step of changing a color of an overlapping portion of the second object and the first object, and further changing a portion of the second object that does not overlap with the first object to the same color as the changed first object .
情報処理装置が、仮想空間内に配置された複数のオブジェクトを仮想カメラが撮影した画像データを生成するステップと、A step in which an information processing device generates image data obtained by capturing images of a plurality of objects arranged in a virtual space with a virtual camera;
前記情報処理装置が、複数の前記オブジェクトの位置情報及び形状情報を記憶した記憶部を参照して、前記仮想カメラから見て、第一のオブジェクトと第二のオブジェクトの少なくとも一部とが重なるかどうかを判定するステップと、a step of the information processing device referring to a storage unit that stores position information and shape information of a plurality of the objects and determining whether or not at least a part of a first object and a second object overlap as viewed from the virtual camera;
前記第一のオブジェクトと、前記第一のオブジェクトより奥側に存在する前記第二のオブジェクトの少なくとも一部とが重なる場合、When the first object and the second object located behind the first object overlap with each other at least in part,
前記画像データにおいて、前記情報処理装置が、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を変更するステップと、changing a color of at least a part of an overlapping portion between the second object and the first object in the image data by the information processing device;
を有し、having
前記変更するステップは、前記第二のオブジェクトと前記第一のオブジェクトとが重なる部分の少なくとも一部の色を、前記第二のオブジェクトの色、及び前記第一のオブジェクトの色を用いて変更するステップを含む、オブジェクト表示方法。The object display method, wherein the changing step includes a step of changing the color of at least a portion of the overlapping area between the second object and the first object using the color of the second object and the color of the first object.
JP2021057444A 2021-03-30 2021-03-30 Game program, information processing device, and object display method Active JP7577014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021057444A JP7577014B2 (en) 2021-03-30 2021-03-30 Game program, information processing device, and object display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057444A JP7577014B2 (en) 2021-03-30 2021-03-30 Game program, information processing device, and object display method

Publications (2)

Publication Number Publication Date
JP2022154414A JP2022154414A (en) 2022-10-13
JP7577014B2 true JP7577014B2 (en) 2024-11-01

Family

ID=83557296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057444A Active JP7577014B2 (en) 2021-03-30 2021-03-30 Game program, information processing device, and object display method

Country Status (1)

Country Link
JP (1) JP7577014B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290550A (en) 2002-04-03 2003-10-14 Nintendo Co Ltd Game device and game program
JP2013066561A (en) 2011-09-21 2013-04-18 Konami Digital Entertainment Co Ltd Game device, method of controlling game device, and program
JP2018110659A (en) 2017-01-10 2018-07-19 任天堂株式会社 Information processing program, information processing method, information processing system, and information processor
JP2020189064A (en) 2019-05-24 2020-11-26 株式会社カプコン Game program and game device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290550A (en) 2002-04-03 2003-10-14 Nintendo Co Ltd Game device and game program
JP2013066561A (en) 2011-09-21 2013-04-18 Konami Digital Entertainment Co Ltd Game device, method of controlling game device, and program
JP2018110659A (en) 2017-01-10 2018-07-19 任天堂株式会社 Information processing program, information processing method, information processing system, and information processor
JP2020189064A (en) 2019-05-24 2020-11-26 株式会社カプコン Game program and game device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
[Unity]LWRPで、壁で遮られて見えないキャラクターをシルエット表示するのが超簡単にできた,テラシュールブログ[online],2019年04月15日,インターネット URL https://tsubakit1.hateblo.jp/entry/2019/04/15/234935,[2024年7月11日検索]

Also Published As

Publication number Publication date
JP2022154414A (en) 2022-10-13

Similar Documents

Publication Publication Date Title
JP4177381B2 (en) Image generation method, image generation apparatus, and image generation program
EP1350545B1 (en) Game machine and game program
US8212813B2 (en) Image generating apparatus, method of generating image, program, and recording medium
US8471850B2 (en) Image generating apparatus, method of generating image, program, and recording medium
US20090244064A1 (en) Program, information storage medium, and image generation system
US7277571B2 (en) Effective image processing, apparatus and method in virtual three-dimensional space
JP4180065B2 (en) Image generation method, image generation apparatus, and image generation program
JP2010033298A (en) Program, information storage medium, and image generation system
JP4412715B2 (en) Program, information storage medium, and image generation system
US20050003891A1 (en) Image processor and game device with image processor
JP3990648B2 (en) Program, information storage medium, and image generation apparatus
JP2005032140A (en) Image generation system, program, and information storage medium
JP2008027064A (en) Program, information recording medium, and image forming system
JP7577014B2 (en) Game program, information processing device, and object display method
JP5088972B2 (en) Image processing apparatus, image processing method, computer program, recording medium, and semiconductor device
JP4728721B2 (en) Program, information storage medium, and image generation system
JP2010231364A (en) Image generation system, program and information recording medium
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP4749064B2 (en) Program, information storage medium, and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP2003036450A (en) Image processing method
JP5558008B2 (en) Program, information storage medium, and game system
JP4073031B2 (en) Program, information storage medium, and image generation system
JP2005275795A (en) Program, information storage medium and image generation system
JP2005216235A (en) Program, information storage medium and shielding judgement processing apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241022

R150 Certificate of patent or registration of utility model

Ref document number: 7577014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150