JP7762413B2 - Computer program, and image display method and image display system using the same - Google Patents
Computer program, and image display method and image display system using the sameInfo
- Publication number
- JP7762413B2 JP7762413B2 JP2021202650A JP2021202650A JP7762413B2 JP 7762413 B2 JP7762413 B2 JP 7762413B2 JP 2021202650 A JP2021202650 A JP 2021202650A JP 2021202650 A JP2021202650 A JP 2021202650A JP 7762413 B2 JP7762413 B2 JP 7762413B2
- Authority
- JP
- Japan
- Prior art keywords
- card
- color information
- image
- computer program
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、カード状のオブジェクトの画像の表現に関して、ホログラムシート状の変化を生じさせるためのコンピュータプログラム等に関する。 The present invention relates to a computer program for causing hologram sheet-like changes in the representation of an image of a card-like object.
ゲーム画面に表示されるカード状のオブジェクトの表現に関して、現実世界における物理的なカードに見られるようなホログラムシート状の色変化を与える試みがなされている。例えば、特許文献1には、光の反射を疑似的に表現した白色部分を有する複数のシートをそれらの表示態様が差別化されるようにして予め用意し、ユーザの端末装置の傾きの検出値に応じてシートを適宜に選択し、選択されたシートをキャラクタ等の画像と重ね合わせることにより、端末装置の傾きに応じた色変化を与える技術が開示されている。特許文献2には、カード状のオブジェクトの背景部分に重ね合わされる色変化画像内の色を、端末装置の姿勢(傾き)及び画像内の表示位置をパラメータに含んだ三角関数に従って変化させることにより、カードの背景部分の表現をホログラムシート状に変化させる技術が開示されている。 Attempts have been made to render card-like objects displayed on a game screen with hologram-sheet-like color changes, similar to those seen on physical cards in the real world. For example, Patent Document 1 discloses a technology in which multiple sheets with white areas that simulate light reflection are prepared in advance so that their display modes are differentiated, and a sheet is appropriately selected based on the detected tilt of the user's terminal device. The selected sheet is then overlaid on an image of a character or the like, thereby rendering a color change that corresponds to the tilt of the terminal device. Patent Document 2 discloses a technology in which the color of a color-changing image overlaid on the background of a card-like object is changed according to a trigonometric function whose parameters include the orientation (tilt) of the terminal device and the display position within the image, thereby changing the rendering of the background of the card to resemble a hologram sheet.
従来の技術は、端末の姿勢の変化に応じて背景領域等の表現に一定の変化を生じさせるに過ぎない。一方、現実のカードのホログラムシート部分は、ユーザがこれを観察する方向のみならず、光の当たり具合に応じても見え方が変化する。従来の技術は、光の当たり方に応じた変化を必ずしも十分に表現できておらず、改善の余地がある。 Conventional technology only produces certain changes in the representation of background areas, etc., in response to changes in the device's orientation. Meanwhile, the appearance of the hologram sheet portion of a real card changes not only depending on the direction from which the user views it, but also on the amount of light hitting it. Conventional technology does not necessarily adequately represent changes that occur in response to the amount of light hitting it, and there is room for improvement.
そこで、本発明は、カード状のオブジェクトの少なくとも一部の領域の表現をホログラムシート状に変化させる場合に好適なコンピュータプログラム等を提供することを目的とする。 The present invention therefore aims to provide a computer program or the like that is suitable for changing the representation of at least a partial area of a card-like object into a hologram sheet-like representation.
本発明の一態様に係るコンピュータプログラムは、カード状のオブジェクトの画像をユーザ装置に表示させる処理を所定のコンピュータに実行させるためのコンピュータプログラムであって、前記オブジェクトに含まれる対象領域の色情報を決定するために必要な基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、前記検出された基準方向の変化に伴って前記対象領域の表現がホログラムシート状に変化するように、前記基準方向と関連付けて前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させるように構成され、前記色情報を決定するステップでは、前記対象領域に入射する光の入射方向と、前記対象領域に関する前記ユーザ装置のユーザの視線方向との少なくともいずれか一方の方向を前記基準方向と関連付けて変化させつつ、前記入射方向及び前記視線方向を参照して前記色情報を決定するものである。 A computer program according to one aspect of the present invention is a computer program for causing a specified computer to execute a process for displaying an image of a card-like object on a user device. The computer program is configured to cause the computer to execute the following steps: detect a reference direction required for determining color information of a target area included in the object based on output from a sensor on the user device; and determine the color information of the target area in association with the reference direction so that the representation of the target area changes in the form of a hologram sheet as the detected reference direction changes. In the step of determining the color information, the color information is determined by changing at least one of the incident direction of light incident on the target area and the line of sight direction of the user of the user device relative to the target area in association with the reference direction, while the incident direction and the line of sight direction are referenced.
本発明の他の態様に係るコンピュータプログラムは、カード状のオブジェクトの画像をユーザ装置に表示させる処理を所定のコンピュータに実行させるコンピュータプログラムであって、前記オブジェクトに含まれる対象領域の色情報を決定するために必要な基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、前記検出された基準方向の変化に伴って前記対象領域の表現がホログラムシート状に変化するように、前記基準方向と関連付けて前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させるように構成され、前記色情報を決定するステップでは、前記対象領域に入射する光の入射方向を前記基準方向と関連付けて変化させつつ、前記入射方向を参照して前記色情報を決定するものである。 A computer program according to another aspect of the present invention is a computer program that causes a specified computer to execute a process for displaying an image of a card-like object on a user device. The computer is configured to cause the computer to execute the following steps: detect a reference direction required for determining color information of a target area included in the object based on output from a sensor on the user device; and determine the color information of the target area in association with the reference direction so that the representation of the target area changes in the form of a hologram sheet as the detected reference direction changes. In the step of determining the color information, the incident direction of light incident on the target area is changed in association with the reference direction, and the color information is determined by referring to the incident direction.
本発明の一態様に係る画像表示方法は、カード状のオブジェクトの画像をユーザ装置に表示させる処理を所定のコンピュータに実行させる画像表示方法であって、上記態様のコンピュータプログラムに従って、前記基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させるものである。 An image display method according to one aspect of the present invention is an image display method that causes a predetermined computer to execute processing to display an image of a card-like object on a user device, and causes the computer to execute the steps of detecting the reference direction based on the output of a sensor on the user device and determining color information for the target area in accordance with the computer program of the above aspect.
本発明の一態様に係る画像表示システムは、カード状のオブジェクトの画像をユーザ装置に表示させる処理を所定のコンピュータに実行させる画像表示システムであって、上記態様のコンピュータプログラムに従って、前記基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させるものである。 An image display system according to one aspect of the present invention is an image display system that causes a predetermined computer to execute a process for displaying an image of a card-like object on a user device, and causes the computer to execute the steps of detecting the reference direction based on the output of a sensor on the user device and determining color information for the target area in accordance with the computer program of the above aspect.
図1は本発明の一形態に係るゲームシステムの一例を示している。図1のゲームシステム1は、画像表示システムの一例であって、ゲーム機2と、所定のネットワークNTを介してゲーム機2と通信可能なサーバ3とを含むネットワークシステムとして構成されている。ゲーム機2は、本発明が適用される対象となるユーザ装置の一例である。ゲーム機2は、サーバ3に対する端末装置として機能し、サーバ3と、又はサーバ3を介して他のゲーム機2と通信することにより所定のゲームをユーザに実行させる。ただし、ゲーム機2はサーバ3との通信を伴わないスタンドアローン型のゲーム機であってもよい。その場合、ゲーム機2が単独でゲームシステムを構成する。 Figure 1 shows an example of a game system according to one embodiment of the present invention. The game system 1 in Figure 1 is an example of an image display system, configured as a network system including a game machine 2 and a server 3 that can communicate with the game machine 2 via a predetermined network NT. The game machine 2 is an example of a user device to which the present invention is applied. The game machine 2 functions as a terminal device for the server 3, and allows users to play a predetermined game by communicating with the server 3 or with other game machines 2 via the server 3. However, the game machine 2 may also be a standalone game machine that does not communicate with the server 3. In that case, the game machine 2 alone constitutes the game system.
ゲーム機2は、本体4と、一対のコントローラ5A、5Bとを含む。本体4は、ゲームを提供するための各種の処理を実行し、コントローラ5A、5Bは、ユーザの操作を検出して本体4に操作情報を提供する入力手段の一例として機能する。本体4には、出力手段、あるいは表示手段の一例としてのモニタ6が一体的に設けられている。モニタ6に代えて、又は加えて、ゲーム機2とは別体のモニタがゲーム画面の表示に用いられてもよい。コントローラ5A、5Bのそれぞれは、本体4に対して一体的に又は着脱可能に設けられ、本体4と有線又は無線で接続されることにより、ゲーム機2における入力手段の一例として機能する。以下では、コントローラ5A及びコントローラ5Bを「コントローラ5」と代表して表記する一方、両者を第1コントローラ5A及び第2コントローラ5Bと区別して表記することがある。 The game console 2 includes a main unit 4 and a pair of controllers 5A and 5B. The main unit 4 executes various processes for providing a game, and the controllers 5A and 5B function as an example of input means that detects user operations and provides operation information to the main unit 4. A monitor 6 is integrally provided on the main unit 4 and serves as an example of output means or display means. Instead of, or in addition to, the monitor 6, a monitor separate from the game console 2 may be used to display the game screen. Each of the controllers 5A and 5B is provided integrally or detachably with the main unit 4, and functions as an example of input means for the game console 2 by being connected to the main unit 4 via a wired or wireless connection. Hereinafter, the controllers 5A and 5B will be collectively referred to as "controllers 5," and the two will sometimes be referred to separately as the first controller 5A and the second controller 5B.
各コントローラ5には、ユーザによって操作可能な操作部として、押釦スイッチ7a、方向指示キー7b等の操作部7が設けられている。各コントローラ5からは、操作部7の操作状態に応じた信号が本体4に向けて出力される。各コントローラ5には、そのコントローラ5の姿勢(傾き)に応じた信号を出力するセンサの一例として、ジャイロセンサ8が内蔵されている。ジャイロセンサ8は、ゲーム機2に関して設定された直交3軸(Gx軸、Gy軸及びGz軸)の回りの回転運動(例えば角加速度)に対応した信号を、コントローラ5の姿勢を示す信号として出力する。検出軸Gx、Gy、Gzの方向は、現実空間における姿勢の変化を検出できる限りにおいて適宜に定められてよい。一例として、モニタ6の画面の法線方向がGz軸として設定され、同画面の短辺方向及び長辺方向をそれぞれGx軸及びGy軸として設定されてよい。この場合、ゲーム機2と正対するユーザから見て、Gx軸回りの回転がロール、Gy軸回りの回転がピッチ、Gz軸回りの回転がヨーに相当する。 Each controller 5 is provided with an operation unit 7, such as a push button switch 7a and directional indicator keys 7b, that can be operated by the user. Each controller 5 outputs a signal corresponding to the operation state of the operation unit 7 to the main unit 4. Each controller 5 incorporates a gyro sensor 8, an example of a sensor that outputs a signal corresponding to the attitude (tilt) of the controller 5. The gyro sensor 8 outputs a signal corresponding to rotational movement (e.g., angular acceleration) around three orthogonal axes (Gx-axis, Gy-axis, and Gz-axis) established with respect to the game console 2, as a signal indicating the attitude of the controller 5. The directions of the detection axes Gx, Gy, and Gz may be determined appropriately as long as they can detect changes in attitude in real space. As an example, the normal direction to the screen of the monitor 6 may be set as the Gz-axis, and the directions of the short and long sides of the screen may be set as the Gx-axis and Gy-axis, respectively. In this case, from the perspective of a user facing the game console 2, rotation around the Gx-axis corresponds to roll, rotation around the Gy-axis corresponds to pitch, and rotation around the Gz-axis corresponds to yaw.
ゲーム機2では、カードを利用したゲームがユーザに提供される。図2は、そのゲームにおいて、モニタ6に表示されるゲーム画面の一例を示している。図2のゲーム画面10は、例えばユーザが獲得したキャラクタやアイテム等のカードを図鑑のごとく閲覧させる場合に表示される画面の一例である。ゲーム画面10は、カードのキャラクタ等を象徴するアイコン画像11がマトリクス状に並べて表示される一覧表示部12と、カーソル13にて選択されたアイコン画像11に対応するキャラクタ等のカード画像14が表示されるカード表示部15とを含む。一覧表示部12では、ユーザが獲得済のキャラクタ等のアイコン画像11がハイライト表示される一方、未取得のキャラクタ等のアイコン画像11はグレー表示されるといったごとく、ユーザによる獲得の有無に応じてアイコン画像11の表示態様が差別化されてよい。あるいは、ユーザによって獲得されたキャラクタ等に対応するアイコン画像11のみが表示されることとしてもよい。 The game machine 2 provides the user with a card-based game. Figure 2 shows an example of a game screen displayed on the monitor 6 in this game. The game screen 10 in Figure 2 is an example of a screen displayed when the user is allowed to view cards such as characters and items that they have acquired, like an illustrated book. The game screen 10 includes a list display section 12 in which icon images 11 symbolizing card characters, etc. are displayed in a matrix, and a card display section 15 in which a card image 14 of a character, etc. corresponding to an icon image 11 selected with a cursor 13 is displayed. In the list display section 12, the display manner of the icon images 11 may be differentiated depending on whether or not the user has acquired a character, such as by highlighting icon images 11 of characters, etc. that the user has already acquired, while graying out icon images 11 of characters, etc. that the user has not yet acquired. Alternatively, only icon images 11 corresponding to characters, etc. that the user has acquired may be displayed.
一方、図3に拡大して示すように、カード画像14は、キャラクタ等の外観態様を示すメイン画像16と、カードを装飾するフレーム画像17と、背景画像18とをさらに含む。フレーム画像17は、キャラクタ等の名前、カードのランク等を示す文字列その他の情報部17aをさらに含む。背景画像18はカード画像14の装飾性、演出性を高めるものである。本形態では、ジャイロセンサ8が検出する姿勢の変化と関連付けて背景画像18の表現がホログラムシート状に変化するようにカード画像14が描画される。したがって、背景画像18は対象領域の一例に相当する。図3では、図面表現上の制約から、背景画像18が比較的明るく表現される場合を同図(a)に、背景画像18が比較的暗く表現される場合を同図(b)に例示する。背景画像18の変化は、同図(a)、(b)の状態のいずれかの2段階に限って生じるものではなく、コントローラ5の姿勢の変化に応じて連続的に、あるいは無段階で生じるものである。 As shown enlarged in FIG. 3, the card image 14 further includes a main image 16 showing the appearance of the character, a frame image 17 decorating the card, and a background image 18. The frame image 17 further includes text and other information 17a indicating the name of the character, the rank of the card, etc. The background image 18 enhances the decorativeness and dramatic effect of the card image 14. In this embodiment, the card image 14 is rendered so that the appearance of the background image 18 changes like a hologram sheet in association with changes in posture detected by the gyro sensor 8. Therefore, the background image 18 corresponds to an example of a target area. Due to limitations in the representation of the drawing, FIG. 3(a) illustrates an example in which the background image 18 is rendered relatively bright, and FIG. 3(b) illustrates an example in which the background image 18 is rendered relatively dark. The change in the background image 18 is not limited to two stages, as shown in FIGS. 3(a) and 3(b), but occurs continuously or steplessly in response to changes in the posture of the controller 5.
背景画像18の変化に関しては、現実の物理的なホログラムシートのそれと同様に、ユーザが観察する方向(視線方向)、及び光が当たる方向(入射方向)が考慮される。つまり、コントローラ5の姿勢と関連付けて視線方向及び入射方向の少なくともいずれか一方の方向が変化したものと見做されて背景画像18が描画される。なお、2つのコントローラ5A、5Bのそれぞれにジャイロセンサ8が内蔵されているため、いずれか一方のコントローラ5、例えば第1コントローラ5Aのジャイロセンサ8の出力が背景画像18を描画する際の基準として利用されてよい。コントローラ5が本体4と一体化され、又は本体4に装着された状態にある場合、いずれのコントローラ5のジャイロセンサ8を利用しても、その出力はゲーム機2の姿勢を示すものとなる。コントローラ5が本体4から分離されている場合には、いずれか一方のコントローラ5のジャイロセンサ8の出力信号を、ゲーム機2の姿勢を代表する示す出力信号として利用してよい。つまり、本体4の姿勢は不変であっても、いずれか一方のコントローラ5の姿勢の変化をもってゲーム機2の姿勢が変化したものと見做す。本体4にジャイロセンサが内蔵されている場合には、そのジャイロセンサの出力信号と関連付けて背景画像18の表現を変化させてもよい。いずれにしても、背景画像18の表現を変化させるための基準となる方向の変化を検出するジャイロセンサは適宜に定められてよい。以下では、いずれか一方のコントローラ5のジャイロセンサ8の出力を、ゲーム機2の姿勢の変化を代表する出力であると見做して説明を続ける。 Changes in the background image 18 take into account the direction from which the user views the image (the line of sight) and the direction from which light strikes the image (the incident direction), just as with a physical hologram sheet. In other words, the background image 18 is rendered by regarding at least one of the line of sight and the incident direction as having changed in relation to the orientation of the controller 5. Because each of the two controllers 5A and 5B has a built-in gyro sensor 8, the output of the gyro sensor 8 of either controller 5, for example, the first controller 5A, may be used as the reference for rendering the background image 18. When the controllers 5 are integrated with or attached to the main unit 4, the output of the gyro sensor 8 of either controller 5 indicates the orientation of the game console 2. When the controllers 5 are separated from the main unit 4, the output signal of the gyro sensor 8 of either controller 5 may be used as the output signal representative of the orientation of the game console 2. In other words, even if the attitude of the main body 4 remains unchanged, a change in the attitude of one of the controllers 5 is considered to be a change in the attitude of the game console 2. If the main body 4 has a built-in gyro sensor, the representation of the background image 18 may be changed in association with the output signal of that gyro sensor. In either case, the gyro sensor that detects changes in direction that serve as a reference for changing the representation of the background image 18 may be determined appropriately. In the following explanation, the output of the gyro sensor 8 of one of the controllers 5 is considered to be an output that represents a change in the attitude of the game console 2.
次に、図4~図8を参照して、背景画像18の表現をホログラムシート状に変化させるための処理の一例を説明する。カード画像14を描画する処理では、背景画像18の領域とそれ以外の領域(図3の例では、メイン画像16及びフレーム画像17の領域)とが区別して特定される。背景画像18は、画像処理用の所定のシェーダプログラムを利用して描画され、それ以外の領域は、予め定められたテクスチャ画像をそのまま利用して描画される。メイン画像16等の描画は、一例としてシェーダプログラムのテクスチャ画像の色情報をシェーダプログラムにてそのまま利用するように処理されてもよい。あるいは、背景画像18の描画とは異なるレイヤに別プロセスで描画して、背景画像18上に重ね合わせるようにしてもよい。以下では、背景画像18を描画するための処理を中心に説明する。 Next, with reference to Figures 4 to 8, an example of processing for changing the representation of the background image 18 into a hologram sheet will be described. In the processing for drawing the card image 14, the area of the background image 18 and other areas (in the example of Figure 3, the areas of the main image 16 and frame image 17) are identified separately. The background image 18 is drawn using a predetermined shader program for image processing, while other areas are drawn using a predetermined texture image as is. As an example, the drawing of the main image 16, etc. may be processed so that the color information of the texture image of the shader program is used directly in the shader program. Alternatively, the main image 16 may be drawn in a separate process on a layer different from the drawing of the background image 18, and then overlaid on the background image 18. The processing for drawing the background image 18 will be mainly described below.
図4に示すように、所定の仮想3次元空間VS内に、カード画像14に対応するオブジェクトとしてのカード20と、カード20を撮影する仮想カメラ21とが配置された状態を仮定する。仮想3次元空間VSには3軸直交座標系としてのワールド座標系(Wx-Wy-Wz)が設定され、カード20には3軸直交座標系としてのオブジェクト座標系(OxーOy-Oz)が設定される。各座標系の原点、及び各軸の方向の取り方は適宜でよい。図4では、オブジェクト座標系に関し、一例としてカード20の法線方向にZ軸を、カード20の短辺方向及び長辺方向にX軸及びY軸がそれぞれ設定されるものとする。 As shown in Figure 4, assume that a card 20, which serves as an object corresponding to a card image 14, and a virtual camera 21 that photographs the card 20 are placed within a predetermined virtual three-dimensional space VS. A world coordinate system (Wx-Wy-Wz) is set as a three-axis Cartesian coordinate system in the virtual three-dimensional space VS, and an object coordinate system (Ox-Oy-Oz) is set as a three-axis Cartesian coordinate system for the card 20. The origin of each coordinate system and the direction of each axis may be determined as appropriate. In Figure 4, as an example, the object coordinate system is set with the Z axis normal to the card 20, and the X and Y axes in the directions of the short and long sides of the card 20, respectively.
仮想カメラ21は適宜の位置に適宜の向きで設定することが可能である。ただし、図2及び図3で示したカード画像14は、ゲーム機2の姿勢に関わりなく、ユーザから見て常に正対する向きで、かつ形状及び大きさが不変の画像として表示される。したがって、図4の例において、仮想カメラ21はカード20を法線方向から一定の画角で撮影するように設定される。つまり、仮想カメラ21によるカード20の撮影方向Cは、カード20の法線方向と一致する。仮想カメラ21の撮影光軸は、一例としてカード20の中心を通るように設定される。撮影光軸は、カード20の全面を撮影範囲に含めることが可能である限り、必ずしもカード20の中心を通るように設定されることを要しない。 The virtual camera 21 can be set in any position and orientation. However, the card image 14 shown in Figures 2 and 3 is always displayed facing the user, regardless of the attitude of the game machine 2, as an image with a constant shape and size. Therefore, in the example of Figure 4, the virtual camera 21 is set to photograph the card 20 from a fixed angle of view from the normal direction. In other words, the photographing direction C of the card 20 by the virtual camera 21 coincides with the normal direction of the card 20. As an example, the photographing optical axis of the virtual camera 21 is set to pass through the center of the card 20. The photographing optical axis does not necessarily have to be set to pass through the center of the card 20, as long as it is possible to include the entire surface of the card 20 in the photographing range.
仮想3次元空間VSでは、カード20に対する環境光の入射方向Lも設定される。例えば、所定の光源22からカード20に向けて光が照射されるものと仮定して、その光の方向が入射方向Lとして設定される。環境光はカード20に当たる光であり、自然光又は照明光のいずれであってもよい。図4の光源22は、環境光の方向を示すために描かれているものであって、仮想3次元空間VS内に、仮想的なオブジェクトとして光源22が配置されることは必須ではない。例えば、環境光が太陽光のような平行光であるとした場合、光源22は特定方向に無限遠の位置にあるものと見做してよい。その場合、環境光の入射方向Lを設定すれば足り、光源22それ自体を仮想3次元空間VSに配置することは必要ではない。この点は、後述する図5~図8及び図14で示した光源22に関しても同様である。一方、平行光を照射する照明装置が光源22として仮想3次元空間VS内の特定位置に設定されてもよい。点光源からの照明光のように一定に広がる環境光を設定する場合には、光源22の位置を定める必要がある。環境光の設定に関しては、その方向に加えて、強度(明るさ)、色温度、波長分布といった各種の特性が併せて設定されてもよい。それらの特性は背景画像18の描画に適宜に反映されてよい。 In the virtual three-dimensional space VS, the incident direction L of ambient light relative to the card 20 is also set. For example, assuming that light is irradiated toward the card 20 from a specific light source 22, the direction of that light is set as the incident direction L. Ambient light is light that strikes the card 20 and may be either natural light or illumination light. The light source 22 in Figure 4 is depicted to indicate the direction of ambient light; it is not necessary for the light source 22 to be placed as a virtual object within the virtual three-dimensional space VS. For example, if the ambient light is parallel light such as sunlight, the light source 22 may be considered to be located at infinity in a specific direction. In this case, it is sufficient to set the incident direction L of the ambient light; it is not necessary to place the light source 22 itself in the virtual three-dimensional space VS. This also applies to the light sources 22 shown in Figures 5 to 8 and 14 described below. On the other hand, a lighting device that irradiates parallel light may be set as the light source 22 at a specific position within the virtual three-dimensional space VS. If ambient light is set to spread uniformly, such as illumination light from a point light source, the position of the light source 22 must be determined. When setting the ambient light, various characteristics such as intensity (brightness), color temperature, and wavelength distribution may be set in addition to the direction. These characteristics may be reflected appropriately in the rendering of the background image 18.
次に、図5を参照して、ゲーム機2の姿勢と、カード20に対する視線方向及び入射方向との関係の一例を説明する。図5は、ゲーム機2の姿勢の変化に対応して環境光の入射方向Lを変化させる場合の例である。この例では、光源22がゲーム機2の姿勢の変化に応じて仮想3次元空間内で向きを変えると仮定し、光源22が想像線の位置から矢印Aで示すごとく実線の位置に移動したものとする。カード20は不動である。図2のゲーム画面10において、カード画像14は常に正対した状態、すなわちカード20を正面から観察した状態で表示されるため、仮想カメラ21もカード20と同様に不動である。つまり、カード20と仮想カメラ21との相対的な位置関係は不変である。 Next, referring to Figure 5, an example of the relationship between the attitude of the game machine 2 and the line of sight and incident direction relative to the card 20 will be described. Figure 5 shows an example of changing the incident direction L of ambient light in response to changes in the attitude of the game machine 2. In this example, it is assumed that the light source 22 changes direction in virtual three-dimensional space in response to changes in the attitude of the game machine 2, and that the light source 22 moves from the position indicated by the imaginary line to the position indicated by the solid line, as shown by arrow A. The card 20 is stationary. On the game screen 10 of Figure 2, the card image 14 is always displayed facing forward, i.e., with the card 20 observed from the front, so the virtual camera 21, like the card 20, is also stationary. In other words, the relative positional relationship between the card 20 and the virtual camera 21 is unchanged.
また、図5において、ユーザは、仮想カメラ21による撮影方向Cと同一方向からカード20を観察するものとする。例えば、仮想カメラ21の位置(結像面の位置)にユーザの目23があると仮定する。したがって、カード20に対するユーザの視線方向Eは仮想カメラ21の撮影方向Cと一致し、カード20に対する視線方向Eはゲーム機2の姿勢の変化に関わらず一定である。したがって、カード20と入射方向Lとの関係がゲーム機2の姿勢に応じて変化する。 In addition, in Figure 5, the user is assumed to observe the card 20 from the same direction as the shooting direction C of the virtual camera 21. For example, assume that the user's eye 23 is located at the position of the virtual camera 21 (position of the imaging plane). Therefore, the user's line of sight E with respect to the card 20 coincides with the shooting direction C of the virtual camera 21, and the line of sight E with respect to the card 20 remains constant regardless of changes in the attitude of the game device 2. Therefore, the relationship between the card 20 and the incident direction L changes depending on the attitude of the game device 2.
背景画像18を描画するためのシェーダプログラムは、ユーザの視線方向E及び環境光の入射方向Lをパラメータとして背景画像18の各ピクセルの色情報を決定する。図5の例では、視線方向Eがカード20に対して一定に維持される一方、環境光の入射方向Lがカード20に対して変化する。したがって、モニタ6にはカード20を正面から観察した状態で示すようにカード画像14を表示させつつ、その背景画像18の表現を、カード20に対する光の当たり方が変化した場合と同様に変化させることが可能である。現実のホログラムシートの見え方は、これを観察する方向及び光が当たる方向に応じて多様に変化し、観察する方向が変わらなくとも、光が当たる方向が変われば見え方も変化する。図5の例では、そのような変化を再現することが可能である。 The shader program for rendering the background image 18 determines the color information for each pixel of the background image 18 using the user's line of sight E and the direction of incident ambient light L as parameters. In the example of Figure 5, the line of sight E remains constant relative to the card 20, while the direction of incident ambient light L changes relative to the card 20. Therefore, while the monitor 6 displays the card image 14 as if the card 20 were observed from the front, it is possible to change the representation of the background image 18 in the same way as if the way the light hits the card 20 changes. The appearance of a real hologram sheet varies in a variety of ways depending on the direction from which it is observed and the direction from which the light hits it; even if the direction from which it is observed remains the same, the appearance changes if the direction from which the light hits it changes. In the example of Figure 5, such changes can be reproduced.
図5の例では、ゲーム機2の姿勢の変化に応じて光源22、すなわち入射方向Lが変化するものとしたが、ゲーム機2の姿勢の変化に応じてカード20及び仮想カメラ21を一体的に移動させる一方で、光源22を不動としても、カード20に対して入射方向Lを変化させることができる。つまり、光源22を移動させる一方で、カード20及び仮想カメラ21を不動とする場合も、カード20及び仮想カメラ21を一体的に移動させる一方で光源22を不動とする場合でも、カード20及び仮想カメラ21と、光源22との位置関係は相対的に変化し、カード20に対する入射方向Lが変化することに変わりはない。なお、図5の例では、カード20及び仮想カメラ21を光源22に対してカード20の法線方向の軸線回りに相対的に回転させた場合でも入射方向Lが変化して背景画像18の見え方が変わることとなる。例えば、図1のジャイロ軸Gzがモニタ6の法線方向であり、そのジャイロ軸Gzの回りのヨー運動が仮想3次元空間におけるカード20の法線方向の回りの回転運動と対応付けられるものとすれば、ジャイロセンサ8がジャイロ軸Gzの回りのヨー運動のみを検出し、ジャイロ軸Gx、Gyの回りのロール運動及びピッチ運動は検出されない場合でも、カード20に対する入射方向Lが変化し、それに伴って背景画像18の見え方が変化することとなる。視線方向E及び入射方向Lに応じて背景画像18にホログラムシート状の変化を生じさせる手法は、既存のシェーダプログラムによる処理と同様でよいが、その手法の一例は後述する。撮影方向C及び視線方向Eは、カード20の位置に応じて厳密には相違する。しかしながら、その差が無視できる程度であれば、撮影方向C及び視線方向Eはカード20の全域でそれぞれ一定であるとみなしてよい。ただし、カード20の位置に応じて撮影方向C及び視線方向Eを変化させてもよい。 In the example of Figure 5, the light source 22, i.e., the incident direction L, changes in response to changes in the attitude of the game machine 2. However, the incident direction L relative to the card 20 can be changed by moving the card 20 and virtual camera 21 together in response to changes in the attitude of the game machine 2 while keeping the light source 22 stationary. In other words, whether the light source 22 is moved while the card 20 and virtual camera 21 are kept stationary, or the card 20 and virtual camera 21 are moved together in a unified manner while keeping the light source 22 stationary, the relative positional relationship between the card 20 and virtual camera 21 and the light source 22 changes, and the incident direction L relative to the card 20 changes. Note that in the example of Figure 5, even if the card 20 and virtual camera 21 are rotated relative to the light source 22 around an axis normal to the card 20, the incident direction L changes, and the appearance of the background image 18 changes. For example, if the gyro axis Gz in FIG. 1 is the normal direction of the monitor 6 and yaw motion around the gyro axis Gz corresponds to rotational motion around the normal direction of the card 20 in virtual three-dimensional space, even if the gyro sensor 8 detects only yaw motion around the gyro axis Gz and not roll motion or pitch motion around the gyro axes Gx and Gy, the incident direction L relative to the card 20 will change, and the appearance of the background image 18 will change accordingly. A method for causing a hologram sheet-like change in the background image 18 depending on the line of sight E and the incident direction L may be similar to processing using an existing shader program, and an example of this method will be described later. The shooting direction C and the line of sight E strictly differ depending on the position of the card 20. However, if the difference is negligible, the shooting direction C and the line of sight E may be considered to be constant throughout the entire card 20. However, the shooting direction C and the line of sight E may also be changed depending on the position of the card 20.
図6は、ゲーム機2の姿勢の変化に対応して視線方向Eを変化させる場合の例である。図6の例においても、カード20はゲーム機2の姿勢の変化に関わらず不動であり、仮想カメラ21も不動であるとする。また、図5の例では、仮想3次元空間内で光源22が移動するものとしたが、図6の例では、光源22も不動であり、カード20に対する環境光の入射方向Lは一定に維持される。 Figure 6 shows an example in which the line of sight direction E changes in response to changes in the attitude of the game machine 2. In the example of Figure 6, the card 20 remains stationary regardless of changes in the attitude of the game machine 2, and the virtual camera 21 also remains stationary. Furthermore, while in the example of Figure 5 the light source 22 moves within the virtual three-dimensional space, in the example of Figure 6 the light source 22 also remains stationary, and the incident direction L of the ambient light relative to the card 20 remains constant.
一方、図6の例では、ゲーム機2の姿勢の変化に伴って、ユーザの目23が仮想3次元空間内で移動するものと仮定する。つまり、カード20を法線方向から仮想カメラ21で撮影したカード画像14がモニタ6に表示されるが、そのモニタ6に表示されるカード画像14をユーザが観察する方向がゲーム機2の姿勢に応じて変化するものと仮定する。例えば目23が想像線の位置から矢印Aで示すごとく実線の位置へ移動したと仮定する。したがって、背景画像18の描画に関して考慮されるべき視線方向Eは仮想カメラ21による撮影方向Cと一致せず、カード20に対して変化する方向となる。その視線方向Eの変化が背景画像18に反映される。この例では、現実のホログラムシートに関して、光が当たる方向が一定でかつ観察する方向が変わる場合の見え方の変化を再現することができる。なお、図6の例において、目23の位置を不変とし、ゲーム機2の姿勢の変化に伴ってカード20、仮想カメラ21及び光源22を一体的に移動させると仮定してもカード20に対する視線方向Eを変化させることが可能である。 In the example of Figure 6, on the other hand, it is assumed that the user's eyes 23 move within virtual three-dimensional space as the attitude of the game console 2 changes. That is, a card image 14 captured by the virtual camera 21 from the normal direction of the card 20 is displayed on the monitor 6, but the direction from which the user views the card image 14 displayed on the monitor 6 changes depending on the attitude of the game console 2. For example, it is assumed that the eyes 23 move from the imaginary line position to the solid line position as indicated by arrow A. Therefore, the line of sight E that should be considered when rendering the background image 18 does not coincide with the shooting direction C captured by the virtual camera 21, but rather changes relative to the card 20. This change in line of sight E is reflected in the background image 18. In this example, it is possible to reproduce the change in appearance of a real hologram sheet when the direction of light incidence is constant and the viewing direction changes. Note that in the example of Figure 6, even if the position of the eyes 23 remains unchanged and the card 20, virtual camera 21, and light source 22 move together as the attitude of the game console 2 changes, it is possible to change the line of sight E relative to the card 20.
図7は、ゲーム機2の姿勢の変化に伴って、カード20に対する視線方向E及び入射方向Lの両者を変化させる場合の例である。この例でも、ゲーム機2の姿勢の変化に関わりなくカード20及び仮想カメラ21は不動である。一方、光源22及びユーザの目23はゲーム機2の姿勢の変化に応じて仮想3次元空間内で移動すると仮定する。例えば、光源22及び目23が想像線の位置から矢印Aで示すごとく実線の位置へと移動したものとする。この場合、視線方向Eと入射方向Lとの相互の関係はゲーム機2の姿勢の変化に関わりなく一定に維持されるが、カード20に対しては視線方向E及び入射方向Lの両者が一体的に変化する。よって、視線方向E及び入射方向Lの両者の変化を背景画像18の表現に反映させることができる。 Figure 7 shows an example in which both the line of sight E and the incident direction L relative to the card 20 change as the attitude of the game machine 2 changes. In this example, the card 20 and virtual camera 21 remain stationary regardless of changes in the attitude of the game machine 2. Meanwhile, it is assumed that the light source 22 and the user's eye 23 move within the virtual three-dimensional space in response to changes in the attitude of the game machine 2. For example, assume that the light source 22 and the eye 23 move from the imaginary line position to the solid line position as indicated by arrow A. In this case, the relationship between the line of sight E and the incident direction L remains constant regardless of changes in the attitude of the game machine 2, but both the line of sight E and the incident direction L change together with respect to the card 20. Therefore, changes in both the line of sight E and the incident direction L can be reflected in the representation of the background image 18.
図8は、ゲーム機2の姿勢と、カード20に対する視線方向及び入射方向との関係のさらに他の例を示す。図8の例において、カード20はゲーム機2の姿勢の変化に応じて仮想3次元空間内でその向きを変え、それに伴って仮想カメラ21から見たときのカード20の向きも変化するものとする。一例として、変化前のカード20の一例を想像線で示し、矢印Aのごとく向きを変えたカード20の一例を実線で示す。一方、図8の例において、仮想カメラ21及び光源22は、ゲーム機2の姿勢に関わりなく、仮想3次元空間内で一定位置に一定の向きで配置されていると仮定される。ユーザの目23も仮想カメラ21の位置にあると仮定される。したがって、カード20の向きが変化すれば、それに伴ってカード20に対する視線方向E及び環境光の入射方向Lの両者が変化する。 Figure 8 shows yet another example of the relationship between the attitude of the game machine 2 and the line of sight and incident direction relative to the card 20. In the example of Figure 8, the card 20 changes its orientation in the virtual three-dimensional space in response to changes in the attitude of the game machine 2, and the orientation of the card 20 as seen from the virtual camera 21 also changes accordingly. As an example, an example of the card 20 before the change is shown by imaginary lines, and an example of the card 20 after the orientation has changed as indicated by arrow A is shown by solid lines. Meanwhile, in the example of Figure 8, the virtual camera 21 and light source 22 are assumed to be positioned in a fixed position and in a fixed orientation in the virtual three-dimensional space, regardless of the attitude of the game machine 2. The user's eyes 23 are also assumed to be located at the position of the virtual camera 21. Therefore, if the orientation of the card 20 changes, both the line of sight E relative to the card 20 and the incident direction L of the ambient light change accordingly.
図8の例では、図2のゲーム画面10のように、カード20を常に正対した状態で観察したカード画像14を表示することはできない。ゲーム機2の姿勢を変化させると、それに応じてカード20が適宜に向きを変えるような画像が表示される。その場合でも、カード20に対する視線方向E及び入射方向Lが変化するため、その変化に伴って背景画像18の表現を、ホログラムシート状に変化させることが可能である。 In the example of Figure 8, it is not possible to display a card image 14 in which the card 20 is always viewed facing forward, as is the case with the game screen 10 of Figure 2. When the attitude of the game device 2 is changed, an image is displayed in which the card 20 changes orientation accordingly. Even in this case, because the line of sight direction E and incident direction L relative to the card 20 change, it is possible to change the representation of the background image 18 in the form of a hologram sheet in accordance with these changes.
次に、図9を参照して、背景画像18の表現を、視線方向及び入射方向と関連付けてホログラムシート状に変化させるための手法の一例を説明する。図9に示すように、背景画像18を描画するために利用される情報の一例を示す。背景画像18の描画には、一例として、バンプマップ30と、そのバンプマップ30に対応する色情報31とが利用される。 Next, referring to Figure 9, an example of a method for changing the representation of the background image 18 in the form of a hologram sheet in association with the line of sight and incident direction will be described. Figure 9 shows an example of information used to render the background image 18. As an example, a bump map 30 and color information 31 corresponding to the bump map 30 are used to render the background image 18.
バンプマップ30は、背景画像18の各ピクセルにおける法線方向を指定する情報である。例えば、背景画像18上の任意のピクセルPijにおける法線方向が適宜の座標系の値を用いた法線ベクトルNij(Xij、Yij、Zij)として指定される。法線ベクトルは一例として単位ベクトルとして定義されてよく、以下では法線方向を法線ベクトルNと同義として表現することがある。法線ベクトルNは、一例として、オブジェクト座標系に従って表現されてよいが、カード20に対して一義的、あるいは固有的に定まる座標系であれば他の座標系で定義されてもよい。図9では、バンプマップ30にて指定される法線方向の相違を周期的な濃淡のパターンとして便宜的に示すが、バンプマップ30は、背景画像18にホログラムシート状の変化を生じさせるに適した法線ベクトルが各ピクセルに設定される限りにおいて適宜に設定されてよい。一例として、カード20の表面にホログラムシートと同様の微細な凹凸が形成されているものと見做して、バンプマップ30の各ピクセルの法線ベクトルが差別化される。つまり、バンプマップ30は、カード20に対して、現実のホログラムシートと同様の微細な凹凸を疑似的に付与するものである。 The bump map 30 is information that specifies the normal direction at each pixel of the background image 18. For example, the normal direction at any pixel Pij on the background image 18 is specified as a normal vector Nij (Xij, Yij, Zij) using values in an appropriate coordinate system. The normal vector may be defined as a unit vector, for example, and the normal direction may be expressed synonymously with the normal vector N below. The normal vector N may be expressed according to the object coordinate system, for example, but may also be defined in other coordinate systems that are uniquely or inherently determined for the card 20. While Figure 9 conveniently illustrates the differences in normal direction specified in the bump map 30 as a periodic shading pattern, the bump map 30 may be set as appropriate, as long as a normal vector appropriate for generating a hologram sheet-like change in the background image 18 is set for each pixel. As an example, the normal vectors of each pixel in the bump map 30 are differentiated by assuming that the surface of the card 20 has minute irregularities similar to those of a hologram sheet. In other words, the bump map 30 artificially imparts minute irregularities to the card 20 similar to those of an actual hologram sheet.
色情報31は、背景画像18の各ピクセルに与えるべき色情報の初期値を指定するための情報である。色情報31は、一例として、スペキュラマップ32、ディフューズマップ33及びエミッションマップ34とを含む。スペキュラマップ32は、背景画像18に鏡面反射効果を与えるための色情報を、デュフーズマップ33は背景画像18に拡散反射効果を与えるための色情報を、エミッションマップ34は背景画像18にエミッション効果を与えるための色情報をそれぞれピクセル単位で指定する情報である。例えば、スペキュラマップ32では、任意のピクセルPijにおける色情報Cijとして、そのピクセルPijに与えるべきRGBの各値Rij、Gij及びBijが指定される。他のマップ33、4も同様にして色情報が指定されてよい。 Color information 31 is information for specifying the initial value of color information to be assigned to each pixel of background image 18. Color information 31 includes, as an example, a specular map 32, a diffuse map 33, and an emission map 34. Specular map 32 is information that specifies, on a pixel-by-pixel basis, color information for imparting a specular reflection effect to background image 18, diffuse map 33 is information that specifies color information for imparting a diffuse reflection effect to background image 18, and emission map 34 is information that specifies color information for imparting an emission effect to background image 18. For example, in specular map 32, the RGB values Rij, Gij, and Bij to be assigned to any pixel Pij are specified as color information Cij for that pixel Pij. Color information may be specified in the other maps 33 and 4 in a similar manner.
図9に示したピクセルPijにおける法線ベクトルNijと、視線方向E及び入射方向Lとの関係から明らかなように、カード20に対して視線方向E及び入射方向Lが一定であったとしても、各ピクセルの法線ベクトルNの方向を基準とした場合の視線方向E及び入射方向Lはピクセルごとに相違する。背景画像18を描画するシェーダは、各ピクセルに対して色情報31で指定された色情報を、各ピクセルにおける法線ベクトルNと、視線方向E及び入射方向Lとをパラメータとして取り込んだ演算則(関数)に従って補正し、演算結果に従って各ピクセルの最終的な色情報を決定する。そのような処理により、背景画像18の各ピクセルの色情報は、色情報31で指定された初期値に対して、法線ベクトルN、視線方向E及び入射方向Lに応じて多様に変化する。それにより、背景画像18に表現をホログラムシート状に表示させることができる。しかも、視線方向E及び入射方向Lの少なくともいずれか一方の方向は、上記で例示したようにゲーム機2の姿勢に応じて変化する。したがって、ゲーム機2の姿勢を変化させると、それに伴って、背景画像18の表現も、あたかも視線方向や光の入射方向が変化したかのごとく変化する。よって、現実のホログラムシートと同様に背景画像18の表現を変化させることが可能である。 As is clear from the relationship between the normal vector Nij at pixel Pij and the line of sight E and incident direction L shown in Figure 9, even if the line of sight E and incident direction L are constant relative to the card 20, the line of sight E and incident direction L, when based on the direction of the normal vector N of each pixel, differ for each pixel. The shader that renders the background image 18 corrects the color information specified in the color information 31 for each pixel according to a calculation rule (function) that incorporates the normal vector N, line of sight E, and incident direction L for each pixel as parameters, and determines the final color information for each pixel based on the calculation results. Through this processing, the color information for each pixel of the background image 18 varies in various ways depending on the normal vector N, line of sight E, and incident direction L, relative to the initial value specified in the color information 31. This allows the background image 18 to be displayed in a hologram sheet-like manner. Furthermore, at least one of the line of sight E and incident direction L changes depending on the orientation of the game console 2, as illustrated above. Therefore, when the attitude of the game console 2 is changed, the representation of the background image 18 also changes, as if the line of sight or the direction of incident light had changed. This makes it possible to change the representation of the background image 18 in the same way as with an actual hologram sheet.
次に、ゲーム機2の制御系、及びその処理の一例について、カード画像14の描画に関わる部分を中心に説明する。図10は、ゲーム機2の制御系の概略構成の一例を示す。ゲーム機2は、制御ユニット50と記憶ユニット51とを備えている。制御ユニット50はマイクロプロセッサとしてのCPU、GPU及びそれらの動作に必要な内部記憶装置、例えばキャッシュメモリ、RAM、フレームメモリ等を含んだコンピュータとして構成されている。記憶ユニット51は制御ユニット50に対する外部記憶装置として機能する磁気記憶媒体、フラッシュメモリ等の不揮発性記憶媒体を用いた記憶装置である。制御ユニット50には、コントローラ5A、5Bの操作部7及びジャイロセンサ8、モニタ6が接続される。制御ユニット50は、音源制御ユニット、ネットワーク制御ユニット等がさらに含まれてよい。 Next, an example of the control system of the game machine 2 and its processing will be described, focusing on the portion related to drawing the card image 14. Figure 10 shows an example of the schematic configuration of the control system of the game machine 2. The game machine 2 comprises a control unit 50 and a storage unit 51. The control unit 50 is configured as a computer including a CPU and GPU as microprocessors, and internal storage devices required for their operation, such as cache memory, RAM, and frame memory. The storage unit 51 is a storage device that uses non-volatile storage media such as magnetic storage media and flash memory, and functions as an external storage device for the control unit 50. The operation units 7, gyro sensors 8, and monitor 6 of the controllers 5A and 5B are connected to the control unit 50. The control unit 50 may further include a sound source control unit, a network control unit, etc.
記憶ユニット51には、ゲームを提供するためのゲームプログラムPg、ゲームデータDg、及びプレイデータDpが記録される。ゲームプログラムPgは、制御ユニット50の基本的な動作を制御するオペレーティングシステム、あるいはGPUに画像描画処理を実行させるために予め制御ユニット50に実装される画像描画用のプログラム等と協働して、ゲームに必要な各種の演算処理及び動作制御を制御ユニット50に実行させるためのアプリケーションプログラムである。ゲームプログラムPgは、ゲーム処理プログラムPg1及び画像処理プログラムPg2をさらに含む。ゲーム処理プログラムPg1は、ゲーム機2にて提供されるゲームをユーザの選択に応じて進行させるために必要な各種の処理を制御ユニット50に実行させるためのコンピュータプログラムである。画像処理プログラムPg2は、ゲームの進行状況に応じた画像を描画してモニタ6に表示させるためのコンピュータプログラムである。上述したカード画像14を描画するためのシェーダプログラムも画像処理プログラムPg2の一部を構成する。 The storage unit 51 stores a game program Pg, game data Dg, and play data Dp for providing a game. The game program Pg is an application program that causes the control unit 50 to execute various arithmetic processes and operational controls required for the game, in cooperation with an operating system that controls the basic operations of the control unit 50, or an image rendering program pre-installed in the control unit 50 to cause the GPU to execute image rendering processes. The game program Pg further includes a game processing program Pg1 and an image processing program Pg2. The game processing program Pg1 is a computer program that causes the control unit 50 to execute various processes required to progress the game provided by the game machine 2 in accordance with the user's selections. The image processing program Pg2 is a computer program that draws images corresponding to the game's progress and displays them on the monitor 6. The shader program for drawing the card images 14 described above also constitutes part of the image processing program Pg2.
ゲームデータDgは、ゲームの制御において適宜に参照されるべきデータである。カード画像14を描画するために必要な各種のデータ、例えば、図9に示したバンプマップ30及び色情報31、さらには、カード画像14にて表現されるべきメイン画像16、フレーム画像17等の各種のテクスチャのデータがゲームデータDgに含まれてよい。プレイデータDpは、ゲーム機2のユーザによるゲームのプレイと関連付けられたユーザごとのデータである。例えば、ユーザのプレイ履歴、ステータスといった情報がプレイデータDpに含まれてよい。ゲームプログラムPg、及びゲームデータDgは、サーバ3からゲーム機2に適宜に配信されて記憶ユニット51に保存される。ただし、それらのデータは、ゲーム機2が読み込み可能な記憶媒体を介して提供されてもよい。 The game data Dg is data that should be referenced as appropriate when controlling the game. The game data Dg may include various data necessary to render the card image 14, such as the bump map 30 and color information 31 shown in FIG. 9, as well as various texture data such as the main image 16 and frame image 17 that should be expressed in the card image 14. The play data Dp is data for each user associated with the user's game play on the game machine 2. For example, information such as the user's play history and status may be included in the play data Dp. The game program Pg and game data Dg are distributed from the server 3 to the game machine 2 as appropriate and stored in the storage unit 51. However, these data may also be provided via a storage medium readable by the game machine 2.
制御ユニット50がゲームプログラムPgを読み取ることにより、制御ユニット50には、ゲーム処理部52及び画像処理部53が設けられる。ゲーム処理部52は、制御ユニット50のCPUとゲーム処理プログラムPg1とが協働することにより実現される論理的装置であり、画像処理部53は制御ユニット50のGPUと画像処理プログラムPg2とが協働することにより実現される論理的装置である。ゲーム処理部52は、ゲーム処理プログラムPg1に従ってゲームを制御する。画像処理部53は、ゲーム処理部52によるゲームの進行状況に応じた画像を描画し、モニタ6に表示させるための処理を実行する。なお、3次元オブジェクトの画像を描画するための汎用的な画像処理を制御ユニット50のGPUに実行させるためのコンピュータプログラム、例えば汎用的なシェーダプログラム等が予めゲーム機2に実装される場合、画像処理プログラムPg2はその汎用的なコンピュータプログラムと連携して画像処理部53が実現されるように構成されてよい。 When the control unit 50 reads the game program Pg, the control unit 50 is provided with a game processing unit 52 and an image processing unit 53. The game processing unit 52 is a logical device realized by the control unit 50's CPU and the game processing program Pg1 working together, and the image processing unit 53 is a logical device realized by the control unit 50's GPU and the image processing program Pg2 working together. The game processing unit 52 controls the game in accordance with the game processing program Pg1. The image processing unit 53 performs processing to draw images according to the progress of the game played by the game processing unit 52 and display them on the monitor 6. Note that if a computer program for causing the control unit 50's GPU to execute general-purpose image processing for drawing images of three-dimensional objects, such as a general-purpose shader program, is pre-installed in the game console 2, the image processing program Pg2 may be configured to implement the image processing unit 53 in conjunction with that general-purpose computer program.
図11は、ゲーム機2の制御ユニット50が背景画像18を描画するために実行する処理手順の一例を示している。この例は、図5で示したように、ゲーム機2の姿勢の変化に対応して入射方向Lを変化させ、視線方向Eをカード20に対して不変として背景画像18を描画する場合の処理の一例である。ゲーム機2でプレイされるゲームがカード画像14を表示させる状態である場合、背景画像18を描画するために図11の処理が開始される。図11の処理が開始されると、まずゲーム処理部52は、ジャイロセンサ8の出力に基づいてゲーム機2の現在の姿勢を検出し、これをセットする(ステップS11)。ゲーム機2の姿勢は、ゲーム機2が特定の姿勢にある状態を初期の姿勢とし、その初期の姿勢におけるジャイロセンサ8の出力と、現在のジャイロセンサ8の出力との差分として検出されてよい。初期の姿勢は、一例としてカード画像14の表示を開始する時点でのゲーム機2の姿勢とすることができるが、これに限らず、ゲームを起動した時点や特定のモードに遷移した時点でのゲーム機2の姿勢を初期の姿勢とすることができる。ステップS11にて検出される姿勢は、ゲーム機2がどのような方向にあるかを示すものであって、その方向が、背景画像18の色情報を決定するために必要な基準方向の一例に相当する。 11 shows an example of a processing procedure executed by the control unit 50 of the game machine 2 to draw the background image 18. This example is an example of processing in which the incident direction L is changed in response to changes in the attitude of the game machine 2, as shown in FIG. 5, and the background image 18 is drawn while the line of sight direction E remains unchanged relative to the card 20. When the game being played on the game machine 2 is in a state in which a card image 14 is being displayed, the processing of FIG. 11 is initiated to draw the background image 18. When the processing of FIG. 11 is initiated, the game processing unit 52 first detects and sets the current attitude of the game machine 2 based on the output of the gyro sensor 8 (step S11). The attitude of the game machine 2 may be detected as the difference between the output of the gyro sensor 8 in the initial attitude, with the state in which the game machine 2 is in a specific attitude being defined as the initial attitude, and the current output of the gyro sensor 8. The initial attitude may be the attitude of the game machine 2 at the time when display of the card image 14 begins, for example, but is not limited thereto. Alternatively, the initial attitude may be the attitude of the game machine 2 at the time when the game is started or when the game transitions to a specific mode. The orientation detected in step S11 indicates the orientation of the game console 2, and this orientation corresponds to an example of the reference direction required to determine the color information of the background image 18.
次に、ゲーム処理部52は、カード20を仮想3次元空間にセットする(ステップS12)。一例として、ゲーム処理部52は、仮想3次元空間内の所定位置にカード20をポリゴンモデルとして配置する。さらに、ゲーム処理部52は、背景画像18を描画するために用意されたバンプマップ30、色情報31等のテクスチャをセットし(ステップS13)、続いて、背景画像18を描画するためのシェーダをセットする(ステップS14)。この場合のシェーダは、背景画像18を描画するためにプログラムされたプログラマブルシェーダであってよく、画像処理プログラムPg2の一部として制御ユニット50に提供されるものであってよい。ステップS14の処理を終えると、ゲーム処理部52は、ステップS11~S14でセットした情報を背景画像18の描画のための情報として画像処理部53に渡し、背景画像18の描画を開始させる(ステップS15)。その後、ゲーム処理部52は図11の処理を終える。 Next, the game processing unit 52 sets the card 20 in the virtual three-dimensional space (step S12). As an example, the game processing unit 52 places the card 20 as a polygon model at a predetermined position within the virtual three-dimensional space. Furthermore, the game processing unit 52 sets textures such as a bump map 30 and color information 31 prepared for rendering the background image 18 (step S13), and then sets a shader for rendering the background image 18 (step S14). In this case, the shader may be a programmable shader programmed for rendering the background image 18, and may be provided to the control unit 50 as part of the image processing program Pg2. After completing the processing of step S14, the game processing unit 52 passes the information set in steps S11 to S14 to the image processing unit 53 as information for rendering the background image 18, and starts rendering the background image 18 (step S15). Thereafter, the game processing unit 52 completes the processing of FIG. 11.
一方、画像処理部53は、ステップS15の処理に対応して図11の処理を開始する。画像処理部53は、まずゲーム処理部52から与えられた情報に基づいて、ステップS21の頂点シェーダ処理、ステップS22のピクセルシェーダ処理、及びステップS23のポストエフェクト処理を順次実行して背景画像18を描画し、さらには、ゲーム画面10の他の画像を加えた最終的な画像を描画してモニタ6に表示させる。頂点シェーダ処理は、カード20を構成するポリゴンの各頂点の仮想3次元空間における座標を2次元のスクリーン座標系に変換する処理であり、ピクセルシェーダ処理は、スクリーン座標系内における各ピクセルの色情報を決定する処理であり、ポストエフェクト処理は各ピクセルの色情報を所定の条件に従ってさらに補正する処理である。これらの処理は、一般的なシェーダプログラムと同様に行われてよいが、背景画像18の処理に関しては、各ピクセルの法線方向、視線方向、及び環境光の入射方向に基づく処理が含まれ、かつ入射方向にはゲーム機2の姿勢の変化が反映される。それらの処理内容の一例を図11に付記するが、以下に要点を説明する。 Meanwhile, the image processing unit 53 initiates the processing of FIG. 11 in response to the processing of step S15. Based on information provided by the game processing unit 52, the image processing unit 53 first sequentially executes vertex shader processing in step S21, pixel shader processing in step S22, and post-effect processing in step S23 to draw the background image 18. It then adds other images from the game screen 10 to draw a final image and displays it on the monitor 6. The vertex shader processing converts the coordinates of each vertex of the polygons constituting the card 20 in the virtual three-dimensional space into a two-dimensional screen coordinate system. The pixel shader processing determines the color information of each pixel in the screen coordinate system. The post-effect processing further corrects the color information of each pixel in accordance with predetermined conditions. These processes may be performed in the same manner as a typical shader program. However, the processing of the background image 18 includes processing based on the normal direction of each pixel, the viewing direction, and the incident direction of ambient light, and the incident direction reflects changes in the attitude of the game console 2. An example of these processes is shown in FIG. 11, but the main points are explained below.
まず、ステップS21の頂点シェーダ処理では、ステップS11でセットされたゲーム機2の姿勢、言い換えればジャイロセンサ8の出力に基づいて検出される基準方向に従ってカード20に対する環境光の入射方向が決定される。ただし、基準方向の変化と、入射方向の変化との量的(角度的)な対応関係は、必ずしも1対1の関係に設定されることを要しない。例えば、所定のジャイロ軸の回りに関してジャイロセンサ8が検出した回転角がX°であった場合、同軸回りに入射方向が変化した角度が2倍の2X°に変換されるといったように、基準方向の変化量に対して、入射方向の変化量を一定比率で増加させてもよい。その場合には、ゲーム機2の姿勢の変化に対する背景画像18の変化の程度を拡大して、ホログラムシート状の変化をユーザにより強く印象付けることが可能である。ただし、基準方向の変化量に対して入射方向の変化量を一定比率で縮小させてもよい。1対1の関係ではゲーム機2の姿勢の変化に対して背景画像18の変化が不自然に大きい場合等にそのような縮小関係が設定されてもよい。 First, in the vertex shader processing of step S21, the incident direction of ambient light relative to the card 20 is determined according to the orientation of the game console 2 set in step S11, in other words, the reference orientation detected based on the output of the gyro sensor 8. However, the quantitative (angular) correspondence between changes in the reference orientation and changes in the incident orientation does not necessarily need to be set one-to-one. For example, if the rotation angle detected by the gyro sensor 8 around a specific gyro axis is X°, the angle by which the incident orientation changes around the same axis is doubled to 2X°. The amount of change in the incident orientation may be increased by a fixed ratio relative to the amount of change in the reference orientation. In this case, the degree of change in the background image 18 relative to changes in the orientation of the game console 2 is increased, making it possible to more strongly impress the user with the changes in the hologram sheet. However, the amount of change in the incident orientation may also be reduced by a fixed ratio relative to the amount of change in the reference orientation. Such a reduction relationship may be set when, for example, a one-to-one relationship would result in an unnaturally large change in the background image 18 relative to changes in the orientation of the game console 2.
頂点シェーダ処理では、ステップS12でセットされたカード20のポリゴンモデルを仮想3次元空間に配置し、各ポリゴンの仮想3次元空間における頂点座標を、仮想カメラの結像面に対応する2次元のスクリーン座標系における座標値に変換する処理も行われる。図5の例では、仮想カメラ21がカード20を法線方向から撮影するように配置され、カード20と仮想カメラ21との位置関係は不変である。したがって、仮想3次元空間におけるカード20の位置及び向きに関わりなく、座標変換後のスクリーン座標系における各ポリゴンの頂点座標は一定である。 The vertex shader process also places the polygon model of card 20 set in step S12 in virtual three-dimensional space and converts the vertex coordinates of each polygon in virtual three-dimensional space into coordinate values in a two-dimensional screen coordinate system corresponding to the imaging plane of the virtual camera. In the example of Figure 5, virtual camera 21 is positioned to photograph card 20 from the normal direction, and the positional relationship between card 20 and virtual camera 21 remains unchanged. Therefore, regardless of the position and orientation of card 20 in virtual three-dimensional space, the vertex coordinates of each polygon in the screen coordinate system after coordinate conversion remain constant.
上述したように、カード20に入射する環境光が平行光であれば、仮想3次元空間に光源22を配置して入射方向を特定しなくとも、ジャイロセンサ8の出力に基づいて特定される基準方向から、入射方向を一義的に求めることができる。また、カード20と仮想カメラ21との対応関係も一定である。そのため、頂点シェーダ処理を省略し、スクリーン座標系における各ポリゴンの頂点座標を直接的に特定し、バンプマップ30や色情報31における座標を特定することも可能である。しかしながら、一般に、シェーダプログラムは仮想3次元空間にポリゴンモデルを配置し、ポリゴンの各頂点の3次元座標をスクリーン座標系の2次元座標に変換する頂点シェーダ処理を実施し、その処理結果を利用してピクセルシェーダ処理を実施するように構成される。よって、カード20のポリゴンモデルを仮想3次元空間に一旦配置し、スクリーン座標系における頂点座標を求める手順を採用すれば、既存のプログラマブルシェーダの応用が可能となり、好都合である。なお、図8に示したように、仮想3次元空間内でカード20と仮想カメラ21との位置関係を変化させる場合には、頂点シェーダ処理による座標変換処理が必要である。 As described above, if the ambient light incident on the card 20 is parallel light, the incident direction can be uniquely determined from the reference direction determined based on the output of the gyro sensor 8, without having to place a light source 22 in virtual three-dimensional space to determine the incident direction. Furthermore, the correspondence between the card 20 and the virtual camera 21 is also constant. Therefore, it is possible to omit the vertex shader processing and directly determine the vertex coordinates of each polygon in the screen coordinate system, thereby determining the coordinates in the bump map 30 and color information 31. However, shader programs are generally configured to place a polygon model in virtual three-dimensional space, perform vertex shader processing to convert the three-dimensional coordinates of each polygon vertex into two-dimensional coordinates in the screen coordinate system, and then use the results of this processing to perform pixel shader processing. Therefore, by first placing the polygon model of the card 20 in virtual three-dimensional space and then employing a procedure to determine the vertex coordinates in the screen coordinate system, existing programmable shaders can be applied, which is convenient. As shown in Figure 8, when changing the positional relationship between the card 20 and the virtual camera 21 in the virtual three-dimensional space, coordinate transformation processing using vertex shader processing is required.
ステップS22のピクセルシェーダ処理では、一例として、スペキュラ処理、ディフューズ処理、及びエミッション処理を経て背景画像18上の各ピクセルの最終色が決定される。この処理において、バンプマップ30で指定される各ピクセルの法線ベクトルN、カード20に対する環境光の入射方向L、及び視線方向Eをパラメータとして参照した演算が行われる。なお入射方向L及び視線方向Eはそれらの方向を持つ単位ベクトルとして表現されて演算に取り込まれる。以下では、入射方向L及び視線方向Eはいずれもベクトルを意味するものとする。 In the pixel shader processing of step S22, as an example, the final color of each pixel on the background image 18 is determined through specular processing, diffuse processing, and emission processing. In this processing, calculations are performed using the normal vector N of each pixel specified in the bump map 30, the incident direction L of ambient light on the card 20, and the line of sight E as parameters. Note that the incident direction L and line of sight E are expressed as unit vectors having those directions and incorporated into the calculations. In the following, the incident direction L and line of sight E will both refer to vectors.
スペキュラ処理は、カード20上での鏡面反射が背景画像18の各ピクセルの色情報に与える影響を演算する処理である。例えば、入射方向L及び視線方向Eを加算してハーフベクトルHが求められる。次に、各ピクセルの法線ベクトルNとハーフベクトルHの内積(N・H)に対する所定乗数aのべき乗によって各ピクセルにおける鏡面反射の強さが演算される。さらに、各ピクセルのスペキュラ(鏡面反射)を考慮した色情報としてのスペキュラSpが、スペキュラ色と強さとの乗算によって求められる。スペキュラ色は、一例として、スペキュラマップ32によって指定される各ピクセルの色情報でよい。この処理では、視線方向Eと入射方向Lとのずれが小さく、かつそれらの方向と法線ベクトルNとのずれが小さいほど鏡面反射の強さが増加し、結果としてスペキュラSpは、白色側、換言すればより明るくなる側に変化する。カード20を正面から観察する方向をカード20の全体としての法線方向とすれば、その法線方向に対する入射方向L及び視線方向Eのずれが小さいほど、背景画像18の鏡面反射による明るさが増す一方で、各ピクセルの法線ベクトルNに対する入射方向L及び視線方向Eとのずれに応じて鏡面反射の強さに差が生じることとなる。 Specular processing calculates the effect of specular reflection on the card 20 on the color information of each pixel in the background image 18. For example, the incident direction L and the line of sight E are added together to obtain a half vector H. Next, the strength of specular reflection at each pixel is calculated by raising a predetermined multiplier a to the inner product (N·H) of each pixel's normal vector N and half vector H. Furthermore, specular Sp, which is color information that takes into account the specular (specular reflection) of each pixel, is calculated by multiplying the specular color and intensity. For example, the specular color may be the color information of each pixel specified by the specular map 32. In this process, the smaller the deviation between the line of sight E and the incident direction L, and the smaller the deviation between these directions and the normal vector N, the greater the strength of specular reflection. As a result, the specular Sp shifts toward white, or in other words, becomes brighter. If the direction in which card 20 is observed from the front is considered to be the normal direction of card 20 as a whole, the smaller the deviation of the incident direction L and viewing direction E from that normal direction, the brighter the specular reflection of background image 18 will be, while the intensity of the specular reflection will vary depending on the deviation of the incident direction L and viewing direction E from the normal vector N of each pixel.
ディフューズ処理は、カード20上での反射によって生じる拡散光が背景画像18の各ピクセルの色情報に与える影響を演算する処理である。例えば、入射方向Lと各ピクセルの法線ベクトルNとの内積により各ピクセルにおける拡散光の強さが求められる。次いで、各ピクセルのディフューズ(拡散反射)を考慮した色情報としてのディフューズDfが、ディフューズ色と強さとの乗算によって求められる。ディフューズ色は、一例として、ディフューズマップ33によって指定される各ピクセルの色情報でよい。この処理では、入射方向Lと法線ベクトルNとのずれが小さいほど拡散反射の強さが増加し、結果としてディフューズDfは、白色側、換言すればより明るくなる側に変化する。つまり、各ピクセルの法線ベクトルNに対する入射方向Lとのずれに応じて拡散反射の強さに差が生じることとなる。 Diffuse processing is a process that calculates the effect that diffuse light generated by reflection on the card 20 has on the color information of each pixel in the background image 18. For example, the intensity of diffuse light at each pixel is calculated by taking the dot product of the incident direction L and the normal vector N of each pixel. Next, diffuse Df, which is color information that takes into account the diffusion (diffuse reflection) of each pixel, is calculated by multiplying the diffuse color and intensity. As an example, the diffuse color may be the color information of each pixel specified by the diffuse map 33. In this process, the smaller the deviation between the incident direction L and the normal vector N, the greater the intensity of diffuse reflection, and as a result, the diffuse Df changes toward white, or in other words, becomes brighter. In other words, the intensity of diffuse reflection varies depending on the deviation between the incident direction L and the normal vector N of each pixel.
エミッション処理は、背景画像18の色情報をさらに補正するための処理である。スペキュラ処理及びディフューズ処理によって得られる色情報に対して、背景画像18を少なくとも一部の明るさを一様に増加させたい、といったように、色情報を適宜に補正したい場合、その補正量としてエミッションマップ34で指定されたエミッション色をエミッションEmとして設定する。例えば、カード20に対して逆光、つまりはカード20の背後から環境光が当たるような状況をスペキュラ処理及びディフューズ処理で再現すると、カード20での反射がほぼ生じないこととなり、背景画像18が一様に黒又はこれに近い暗色で表現される場合がある。そのような場合、エミッションEmを設定して全体的な明るさを増加させる、といった場合にエミッションEmが設定されてよい。その他にも、背景画像18の明るさが上限又は下限を超えないように色情報を補正するといった処理が適用されてもよい。ただし、エミッションEmは省略されてもよい。 Emission processing is a process for further correcting the color information of the background image 18. When appropriate color information correction is required, such as uniformly increasing the brightness of at least a portion of the background image 18 relative to the color information obtained by specular processing and diffuse processing, the emission color specified in the emission map 34 is set as the amount of correction as emission Em. For example, when specular processing and diffuse processing are used to reproduce a situation in which the card 20 is backlit, that is, where ambient light is shining from behind the card 20, reflection from the card 20 is almost nonexistent, and the background image 18 may be rendered uniformly as black or a dark color close to black. In such cases, emission Em may be set to increase overall brightness. Other processes may be applied, such as correcting color information so that the brightness of the background image 18 does not exceed an upper or lower limit. However, emission Em may be omitted.
ピクセルシェーダ処理では、上記のように求められたスペキュラSp、ディフューズDf及びエミッションEmを加算することにより、各ピクセルの最終的な色情報が演算される。得られる色情報は、背景画像18の各ピクセルの色情報を、各ピクセルにおける法線ベクトルNに対する入射方向L及び視線方向Eの関係に応じた鏡面反射及び拡散反射をパラメータとして参照して変化させたものとなる。したがって、バンプマップ30にて指定される各ピクセルの法線ベクトルNを現実のホログラムシートの微細な凹凸に倣って変化させることにより、ホログラムシート状の色分布を表現することができる。しかも、ゲーム機2の姿勢の変化に対応して入射方向Lを変化させることにより、光が当たる方向に応じて背景画像18が変化する様子をホログラムシート状のそれと同様に表現することが可能である。 In pixel shader processing, the specular Sp, diffuse Df, and emission Em calculated as described above are added together to calculate the final color information for each pixel. The resulting color information is obtained by modifying the color information for each pixel of the background image 18 using parameters such as specular reflection and diffuse reflection, which correspond to the relationship between the incident direction L and the line of sight E relative to the normal vector N at each pixel. Therefore, by modifying the normal vector N of each pixel specified in the bump map 30 in accordance with the minute irregularities of an actual hologram sheet, it is possible to express a color distribution similar to that of a hologram sheet. Furthermore, by changing the incident direction L in response to changes in the attitude of the game console 2, it is possible to express the way the background image 18 changes depending on the direction of light, in a manner similar to that of a hologram sheet.
ステップS23のポストエフェクト処理は、ピクセルシェーダ処理によって決定された背景画像18の各ピクセルの最終色に対して、さらなる視覚効果を追加するために行われる処理である。一例として、輝度が所定の明るさ以上となるピクセルといったように特定の条件を満たすピクセルを抽出し、抽出されたピクセルに対して、ぼかし効果が生じるように色情報を補正するといった処理が行われてよい。ただし、ポストエフェクト処理も適宜に省略可能である。 The post-effect processing in step S23 is performed to add further visual effects to the final color of each pixel of the background image 18 determined by the pixel shader processing. As an example, pixels that meet certain conditions, such as pixels with a luminance equal to or greater than a predetermined brightness, may be extracted, and the color information of the extracted pixels may be corrected to create a blurring effect. However, the post-effect processing may also be omitted as appropriate.
以上では、図5の例、すなわち、ゲーム機2の姿勢の変化に対して入射方向Lを変化させる場合に対して図11の処理が適用されるものとしたが、図6、図7又は図8の例であっても、同様に図11の処理が適用されてよい。すなわち、ゲーム機2の姿勢の変化に対して、視線方向Eを変化させれば図6の例を実現することができ、視線方向E及び入射方向Lの両者を変化させれば図7の例を実現することができる。また、ゲーム機2の姿勢の変化に対して仮想3次元空間内でカード20及び仮想カメラ21を移動させるものとすれば、図8の例を実現することが可能である。 In the above, the processing of FIG. 11 is applied to the example of FIG. 5, i.e., when the incident direction L is changed in response to a change in the attitude of the game machine 2. However, the processing of FIG. 11 may also be applied to the examples of FIG. 6, FIG. 7, or FIG. 8. That is, the example of FIG. 6 can be realized by changing the line of sight E in response to a change in the attitude of the game machine 2, and the example of FIG. 7 can be realized by changing both the line of sight E and the incident direction L. Furthermore, the example of FIG. 8 can be realized by moving the card 20 and virtual camera 21 within virtual three-dimensional space in response to a change in the attitude of the game machine 2.
本発明は上述した形態に限定されず、適宜の変形又は変更が施された形態にて実施されてよい。例えば、上述したようにカード20を常に正対した状態で撮影した画像をカード画像14として表示する場合、仮想3次元空間にポリゴンモデルとしてカード20を配置し、各ポリゴンの3次元の頂点座標を、仮想カメラ21のスクリーン座標系に変換する処理は必ずしも必要ではない。また、スクリーン座標系に射影されたカード20の各位置の座標もそのような座標変換を経ずとも特定可能であって、バンプマップ30や色情報31の座標との対応関係も一義的に定まる。しかも、ゲーム機2の姿勢の変化と、入射方向L又は視線方向Eとの対応関係に関しても、必ずしも仮想3次元空間におけるシーン構築を要せずして特定することが可能である。したがって、カード20を2次元のスクリーン座標系に配置し、これに対してステップS22以下の処理を行うことも可能である。 The present invention is not limited to the above-described embodiment and may be implemented in various modified or altered forms. For example, when displaying an image of the card 20 photographed while always facing forward as the card image 14 as described above, it is not necessarily necessary to place the card 20 as a polygon model in a virtual three-dimensional space and convert the three-dimensional vertex coordinates of each polygon into the screen coordinate system of the virtual camera 21. Furthermore, the coordinates of each position of the card 20 projected onto the screen coordinate system can be identified without such coordinate conversion, and the correspondence with the coordinates of the bump map 30 and color information 31 is also uniquely determined. Furthermore, the correspondence between changes in the attitude of the game machine 2 and the incident direction L or the line of sight E can also be identified without necessarily constructing a scene in a virtual three-dimensional space. Therefore, it is also possible to place the card 20 in a two-dimensional screen coordinate system and perform the processing from step S22 onwards.
一方、図11の処理は、カード画像14のうち、背景画像18の部分を描画するために必要な処理を抜き出して示したものであって、メイン画像16等の他の画像については適宜の手法で描画されてよい。メイン画像16やフレーム画像17の少なくとも一部を対象として陰影を付すといった処理を行う場合には、それに適したシェーダプログラムを用意し、図11の処理の前後において、適宜の順序で処理を連ねるようにしてもよい。さらに、メイン画像16等の一部を背景画像18と同様にホログラムシート状に変化させる場合には、その部分にも図11の処理が適用されてよい。メイン画像16、フレーム画像17及び背景画像18を別々の処理で描画する場合でも、Zバッファを用いればその処理の順序は不問であり、背後の画像ほど先に処理することは必須ではない。 On the other hand, the processing in Figure 11 shows only the processing required to draw the background image 18 portion of the card image 14, and other images such as the main image 16 may be drawn using any appropriate method. When performing processing such as shading at least a portion of the main image 16 or frame image 17, an appropriate shader program may be prepared, and the processing may be performed in any appropriate order before or after the processing in Figure 11. Furthermore, when a portion of the main image 16, etc. is to be transformed into a hologram sheet like the background image 18, the processing in Figure 11 may also be applied to that portion. Even when the main image 16, frame image 17, and background image 18 are drawn using separate processes, the order of processing does not matter as long as a Z-buffer is used, and it is not necessary to process the images in the background first.
図11で示した画像処理部53の処理内容は一例であって、ゲーム機2の姿勢の変化に伴って入射方向L及び視線方向Eの少なくともいずれか一方を変化させ、その変化が背景画像18の表現に対してホログラムシート状の変化を与えるものであれば適宜に変更されてよい。 The processing content of the image processing unit 53 shown in Figure 11 is one example, and may be modified as appropriate as long as at least one of the incident direction L and the line of sight direction E is changed in accordance with a change in the attitude of the game device 2, and the change results in a hologram sheet-like change in the representation of the background image 18.
図11の処理では、ピクセルシェーダ処理において入射方向L及び視線方向Eのいずれもパラメータとして考慮して色情報を決定したが、入射方向Lの変化を背景画像18の表現に反映させる限りにおいては、視線方向Eをパラメータとして考慮せず、入射方向Lと法線ベクトルNとの関係から各ピクセルの色情報を決定するといった簡易的な処理が適用されてもよい。その場合でも、法線ベクトルNと入射方向Lとの関係の変化を背景画像18の表現に反映させて、光が当たる方向の変化に対応した背景画像18の変化を表現することが可能である。すなわち、背景画像18の色情報を決定するために必要な基準方向をゲーム機2のセンサの出力に基づいて検出し、検出された基準方向と関連付けて入射方向Lを変化させつつ、その入射方向をパラメータとして参照して、背景画像18の表現がホログラムシート状に変化するように各ピクセルの色情報を決定してもよい。 In the process of Figure 11, color information was determined by taking into account both the incident direction L and the line of sight direction E as parameters in the pixel shader process. However, as long as changes in the incident direction L are reflected in the representation of the background image 18, a simpler process may be applied in which the line of sight direction E is not considered as a parameter and the color information of each pixel is determined from the relationship between the incident direction L and the normal vector N. Even in this case, it is possible to reflect changes in the relationship between the normal vector N and the incident direction L in the representation of the background image 18, thereby representing changes in the background image 18 corresponding to changes in the direction in which light strikes. In other words, the reference direction required to determine the color information of the background image 18 may be detected based on the output of a sensor in the game console 2, and the incident direction L may be changed in relation to the detected reference direction, while the incident direction may be referenced as a parameter to determine the color information of each pixel so that the representation of the background image 18 changes like a hologram sheet.
上記の形態では、ジャイロセンサ8の出力を利用して基準方向を検出し、その基準方向の変化に応じて入射方向L及び視線方向Eの少なくともいずれか一方の方向を変化させたが、基準方向の検出に用いるセンサは、ジャイロセンサ8による例に限らない。方向の情報を含んだ信号を出力可能なセンサであれば、基準方向の検出に適宜に用いることが可能である。また、基準方向はゲーム機2の姿勢と関連付けて設定される例に限らない。基準方向は、背景画像18の表現に変化を与えるように変化する方向であって、入射方向Lや視線方向Eを特定するための基準となるものであればよく、ゲーム機2の姿勢を代表する方向であることを必ずしも要しない。 In the above embodiment, the reference direction was detected using the output of the gyro sensor 8, and at least one of the incident direction L and the line of sight direction E was changed in response to changes in the reference direction. However, the sensor used to detect the reference direction is not limited to the example using the gyro sensor 8. Any sensor that can output a signal containing directional information can be used appropriately to detect the reference direction. Furthermore, the reference direction is not limited to the example in which it is set in association with the attitude of the game console 2. The reference direction is a direction that changes so as to change the representation of the background image 18, and can serve as a reference for identifying the incident direction L and the line of sight direction E, and does not necessarily have to be a direction that represents the attitude of the game console 2.
例えば、図12に示したように、ゲーム機2に設けられたカメラ60を利用してユーザの周囲の外界を撮影し、得られた画像から現実世界における光源(太陽の場合も含む。)61からの環境光の入射方向Lrを検出し、これを基準方向としてカード20に対する入射方向Lを決定してもよい。この場合、カメラ60が基準方向を検出するためのセンサの一例として機能する。現実世界の環境光の方向を基準方向として検出すれば、その方向の変化をカード20に対する入射方向Lの変化に反映させることができる。それにより、ゲーム機2の周囲の環境光の方向の変化に応じて背景画像18の表現を変化させることが可能である。 For example, as shown in FIG. 12, a camera 60 provided on the game machine 2 may be used to capture an image of the external environment surrounding the user, and the incident direction Lr of ambient light from a light source (including the sun) 61 in the real world may be detected from the obtained image, and the incident direction L relative to the card 20 may be determined using this as a reference direction. In this case, the camera 60 functions as an example of a sensor for detecting the reference direction. If the direction of ambient light in the real world is detected as the reference direction, changes in this direction can be reflected in changes in the incident direction L relative to the card 20. This makes it possible to change the appearance of the background image 18 in accordance with changes in the direction of ambient light around the game machine 2.
現実の入射方向Lrの検出はカメラ60に限らず、入射方向Lrと相関する信号が得られるものであればよい。例えば、ゲーム機2の周囲の現実世界の明暗を明るさセンサで検出する場合、明度の変化を手がかりとして現実世界における入射方向Lrを判別し得る。複数の明るさセンサを、入射方向Lrに応じた出力差が生じるようにゲーム機2に設け、それらの明るさセンサの出力に基づいて入射方向Lrを検出してもよい。例えば、複数の明るさセンサをそれぞれが感度を有する方向を差別化して配置すれば、各センサが検出する明るさの差を手掛かりとして入射方向Lrを判別し得る。なお、図12において光源61は便宜的に示したものである。光源61は必ずしもカメラ60の撮影範囲PAに含まれていることを要しない。 Detection of the real incident direction Lr is not limited to the camera 60, and any device that can obtain a signal correlated with the incident direction Lr will do. For example, if a brightness sensor detects the brightness of the real world around the game console 2, the incident direction Lr in the real world can be determined using changes in brightness as a clue. Multiple brightness sensors may be provided on the game console 2 so that they generate output differences according to the incident direction Lr, and the incident direction Lr can be detected based on the outputs of these brightness sensors. For example, if multiple brightness sensors are arranged so that they are each sensitive to a different direction, the incident direction Lr can be determined using the difference in brightness detected by each sensor as a clue. Note that the light source 61 is shown in Figure 12 for convenience's sake. The light source 61 does not necessarily need to be included in the shooting range PA of the camera 60.
視線方向Eに関しても、図13に示すようにカメラ60の画像からユーザの現実の目62の位置を判別し、その判別結果からユーザの現実の視線方向Erを検出し、これを基準方向としてカード20に対する視線方向Eを決定してもよい。この場合もカメラ60が基準方向の検出に利用されるセンサの一例として機能する。現実の視線方向Erに従ってカード20に対する視線方向Eを決定する手法は、図6のようにカード20に対して視線方向Eを相対的に変化させる場合に適用可能である。その場合、現実の視線方向Erをカード20に対する視線方向Eに反映させることができる。さらに、カメラ60による現実の入射方向Lrを併せて基準方向として検出し、現実の入射方向Lr及び視線方向Erの変化と関連付けてカード20に対する入射方向L及び視線方向Eを変化させてもよい。このような手法は、図7の例のようにゲーム機2の姿勢の変化に対して入射方向L及び視線方向Eの両者を変化させる場合に好適に用いることができる。入射方向L及び視線方向Eを現実世界の入射方向Lr及び視線方向Erに反映させることが可能である。ユーザの現実の目62の位置を判別する方法は既知の方法によることができる。 Regarding the gaze direction E, as shown in FIG. 13, the position of the user's real eyes 62 may be determined from the image captured by the camera 60, and the user's real gaze direction Er may be detected from the determination result. This may then be used as the reference direction to determine the gaze direction E relative to the card 20. In this case, the camera 60 also functions as an example of a sensor used to detect the reference direction. The method of determining the gaze direction E relative to the card 20 based on the real gaze direction Er is applicable when the gaze direction E relative to the card 20 is changed relative to the card 20, as shown in FIG. 6. In this case, the real gaze direction Er can be reflected in the gaze direction E relative to the card 20. Furthermore, the real incident direction Lr captured by the camera 60 may also be detected as the reference direction, and the incident direction L and gaze direction E relative to the card 20 may be changed in relation to changes in the real incident direction Lr and gaze direction Er. This method is suitable for use when both the incident direction L and gaze direction E are changed in response to changes in the attitude of the game console 2, as in the example of FIG. 7. The incident direction L and gaze direction E can be reflected in the real-world incident direction Lr and gaze direction Er. The position of the user's actual eyes 62 can be determined using known methods.
上記の形態では、カード20が平板状のオブジェクトであることを前提としたが、カード20をコントローラ5の姿勢に対応して曲げ変形させてもよい。例えば、図1のゲーム機2において、コントローラ5A、5Bが本体4から分離可能である場合には、各コントローラ5A、5Bのそれぞれが互いに異なる姿勢を取り得る。よって、例えば左の第1コントローラ5Aが左側に傾けられ、右の第2コントローラ5Bが右側に傾けられた場合、これをカード20の曲げ操作であると見做して、図14に示すようにカード20の左右を曲げ変形させてもよい。この場合、バンプマップ30で指定される法線ベクトルNをカード20の曲げの程度に応じて変化させれば、カード20の曲げに応じて入射方向L及び視線方向Eを相対的に変化させ、その変化に応じて背景画像18の表現を変化させることが可能である。なお、図14ではカード20の左右端を下方に曲げ変形させた状態を例示するが、コントローラ5A、5Bを上記と逆方向に傾けた場合にはカード20の左右端を上方に変位させることも可能である。さらには、コントローラ5A、5Bを前方又は後方にそれぞれ相反的に傾けた場合に、カード20の上下端を曲げ変形させることも可能である。 While the above embodiment assumes that the card 20 is a flat object, the card 20 may be bent or deformed in response to the orientation of the controller 5. For example, in the game console 2 of FIG. 1, if the controllers 5A and 5B are detachable from the main body 4, the controllers 5A and 5B may assume different orientations. Therefore, for example, if the left first controller 5A is tilted leftward and the right second controller 5B is tilted rightward, this may be considered a bending operation of the card 20, and the left and right sides of the card 20 may be bent or deformed as shown in FIG. 14. In this case, by changing the normal vector N specified in the bump map 30 according to the degree of bending of the card 20, the incident direction L and the line of sight direction E can be relatively changed according to the bending of the card 20, and the appearance of the background image 18 can be changed accordingly. Note that while FIG. 14 illustrates an example in which the left and right ends of the card 20 are bent or deformed downward, the left and right ends of the card 20 may also be displaced upward if the controllers 5A and 5B are tilted in the opposite direction. Furthermore, when the controllers 5A and 5B are tilted forward or backward, respectively, it is possible to bend and deform the top and bottom ends of the card 20.
上記の形態では、カード画像14の背景画像18の表現をホログラムシート状に変化させるものとしたが、本発明よってホログラムシート状の表現が適用される対象領域は背景画像18に限らない。カード状のオブジェクトの適宜の領域が対象領域として設定されてよい。カード状のオブジェクトは、ゲームにて利用されるカードに限定されない。本発明は、各種のカード状のオブジェクトの少なくとも一部を対象領域として、その表現をホログラムシート状に変化させる用途に適用可能である。 In the above embodiment, the representation of the background image 18 of the card image 14 is changed to a hologram sheet-like representation, but the target area to which the hologram sheet-like representation is applied according to the present invention is not limited to the background image 18. Any appropriate area of a card-like object may be set as the target area. Card-like objects are not limited to cards used in games. The present invention is applicable to applications in which at least a portion of various card-like objects is used as the target area and the representation thereof is changed to a hologram sheet-like representation.
本発明におけるユーザ装置は、ゲーム機に限らず、ユーザによって操作される各種の装置、例えばスマートフォン、タブレット、モバイルPC等であってもよい。また、本発明は、ユーザ装置とは異なるコンピュータに処理を実行させ、その処理結果に応じた画像をユーザ装置に表示出力させるものであってもよい。例えば、ユーザ装置をサーバ、リモートアクセス先のコンピュータ等の他のコンピュータに対する遠隔入出力端末装置として機能させ、カード状のオブジェクトを描画するための処理を他のコンピュータにて実行し、処理結果をユーザ装置に表示させるようにしてもよい。 The user device in the present invention is not limited to a game console, but may be any device operated by a user, such as a smartphone, tablet, or mobile PC. The present invention may also involve having a computer different from the user device execute processing and displaying an image corresponding to the processing results on the user device. For example, the user device may function as a remote input/output terminal device for another computer, such as a server or a remotely accessed computer, and the other computer may execute processing for drawing a card-shaped object and display the processing results on the user device.
上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面に図示された対応する構成要素を括弧書きにて付記するが、それにより本発明が図示の形態に限定されるものではない。 Various aspects of the present invention derived from the above-described embodiments and variations are described below. In the following description, corresponding components shown in the accompanying drawings are noted in parentheses to facilitate understanding of each aspect of the present invention, but this does not mean that the present invention is limited to the illustrated forms.
本発明の一態様に係るコンピュータプログラムは、カード状のオブジェクト(20)の画像(14)をユーザ装置(2)に表示させる処理を所定のコンピュータ(50)に実行させるためのコンピュータプログラム(Pg)であって、前記オブジェクトに含まれる対象領域の色情報を決定するために必要な基準方向(一例としてゲーム機2の姿勢を示す方向)を前記ユーザ装置のセンサ(8;60)の出力に基づいて検出するステップ(S11)と、前記検出された基準方向の変化に伴って前記対象領域の表現がホログラムシート状に変化するように、前記基準方向と関連付けて前記対象領域の色情報を決定するステップ(S21~S23)と、を前記コンピュータに実行させるように構成され、前記色情報を決定するステップでは、前記対象領域に入射する光の入射方向(L)と、前記対象領域に関する前記ユーザ装置のユーザの視線方向(E)との少なくともいずれか一方の方向を前記基準方向と関連付けて変化させつつ、前記入射方向及び前記視線方向を参照して前記色情報を決定するものである。 A computer program according to one aspect of the present invention is a computer program (Pg) for causing a predetermined computer (50) to execute a process for displaying an image (14) of a card-like object (20) on a user device (2). The computer program is configured to cause the computer to execute the following steps: a step (S11) of detecting a reference direction (e.g., a direction indicating the orientation of the game console 2) required for determining color information of a target area included in the object based on output from a sensor (8; 60) of the user device; and steps (S21-S23) of determining the color information of the target area in association with the reference direction so that the representation of the target area changes in the form of a hologram sheet as the detected reference direction changes. In the step of determining the color information, the color information is determined by referring to the incident direction (L) of light incident on the target area and the line of sight direction (E) of the user of the user device relative to the target area, while changing at least one of the incident direction and the line of sight direction in association with the reference direction.
上記態様によれば、対象領域の色情報を決定するにあたって入射方向及び視線方向を参照することにより、オブジェクトにどの方向から光が当たり、かつオブジェクトをどの方向から観察しているか、を対象領域の表現に反映させることができる。しかも、ユーザ装置のセンサの出力に基づいて検出する基準方向の変化と関連付けて入射方向及び視線方向の少なくともいずれか一方を変化させることにより、対象領域の表現を、現実のホログラムシートのように、光が当たる方向や観察する方向に応じて多様に変化させることができる。 According to the above aspect, by referring to the incident direction and viewing direction when determining the color information of the target area, the direction from which light strikes the object and the direction from which the object is being observed can be reflected in the representation of the target area. Furthermore, by changing at least one of the incident direction and viewing direction in association with changes in the reference direction detected based on the output of the sensor in the user device, the representation of the target area can be varied in a variety of ways depending on the direction from which light strikes and the direction from which it is observed, just like a real hologram sheet.
上記態様において、前記色情報を決定するステップでは、前記入射方向を前記基準方向に応じて変化させる一方で、前記視線方向を一定に維持して前記色情報を決定してもよい(一例として図5参照)。あるいは、前記色情報を決定するステップでは、前記視線方向を前記基準方向に応じて変化させる一方で、前記入射方向を一定に維持して前記色情報を決定してもよい(一例として図6参照)。さらに、前記色情報を決定するステップでは、前記視線方向及び前記入射方向のそれぞれを前記基準方向に応じて変化させつつ前記色情報を決定してもよい(一例として図7参照)。いずれの場合でも、オブジェクトの対象領域に対する光の入射方向又は視線方向のいずれか、又は両者を、ユーザ装置のセンサを用いて検出した基準方向の変化と関連付けて変化させて対象領域の表現をホログラムシート状に変化させることが可能である。 In the above aspect, in the step of determining the color information, the incident direction may be changed according to the reference direction while the line of sight direction is kept constant to determine the color information (see FIG. 5 for an example). Alternatively, in the step of determining the color information, the line of sight direction may be changed according to the reference direction while the incident direction is kept constant to determine the color information (see FIG. 6 for an example). Furthermore, in the step of determining the color information, the color information may be determined while changing each of the line of sight direction and the incident direction according to the reference direction (see FIG. 7 for an example). In either case, it is possible to change the representation of the target area in the form of a hologram sheet by changing either the incident direction or the line of sight direction of light with respect to the target area of the object, or both, in association with changes in the reference direction detected using a sensor in the user device.
上記態様において、前記色情報を決定するステップでは、前記対象領域を複数のピクセルの集合として定義したときの各ピクセルの法線方向(N)を記述したバンプマップ(30)の情報に基づいて、各ピクセルにおける法線方向を判別し、判別された法線方向と前記入射方向及び前記視線方向との関係に応じて色情報が変化するようにして各ピクセルの色情報を決定してもよい。これによれば、バンプマップの情報にて各ピクセルの法線方向を種々変化させることにより、対象領域に疑似的な凹凸を付与し、法線方向と光の入射方向や視線方向との関係に応じて色情報を適宜に変化させることが可能である。 In the above aspect, the step of determining the color information may involve determining the normal direction of each pixel based on information in a bump map (30) that describes the normal direction (N) of each pixel when the target area is defined as a collection of multiple pixels, and determining the color information for each pixel by changing the color information depending on the relationship between the determined normal direction and the incident direction and the line of sight. In this way, by varying the normal direction of each pixel using the bump map information, it is possible to impart pseudo-unevenness to the target area and appropriately change the color information depending on the relationship between the normal direction and the light incident direction and line of sight.
本発明の他の態様に係るコンピュータプログラムは、カード状のオブジェクト(20)の画像(14)をユーザ装置(2)に表示させる処理を所定のコンピュータ(50)に実行させるコンピュータプログラム(Pg)であって、前記オブジェクトに含まれる対象領域の色情報を決定するために必要な基準方向(一例としてゲーム機2の姿勢を示す方向)を前記ユーザ装置のセンサ(8;60)の出力に基づいて検出するステップ(S11)と、前記検出された基準方向の変化に伴って前記対象領域の表現がホログラムシート状に変化するように、前記基準方向と関連付けて前記対象領域の色情報を決定するステップ(S21~S23)と、を前記コンピュータに実行させるように構成され、前記色情報を決定するステップでは、前記対象領域に入射する光の入射方向(L)を前記基準方向と関連付けて変化させつつ、前記入射方向を参照して前記色情報を決定するものである。 A computer program according to another aspect of the present invention is a computer program (Pg) that causes a predetermined computer (50) to execute a process for displaying an image (14) of a card-like object (20) on a user device (2). The computer program is configured to cause the computer to execute the following steps: a step (S11) of detecting a reference direction (e.g., a direction indicating the attitude of the game console 2) required for determining color information of a target area included in the object based on the output of a sensor (8; 60) of the user device; and steps (S21-S23) of determining the color information of the target area in association with the reference direction so that the representation of the target area changes in the form of a hologram sheet as the detected reference direction changes. In the step of determining the color information, the incident direction (L) of light incident on the target area is changed in association with the reference direction, and the color information is determined by referring to the incident direction.
上記態様によれば、対象領域の色情報を決定するにあたって入射方向を参照することにより、オブジェクトにどの方向から光が当たっているか、を対象領域の表現に反映させることができる。しかも、ユーザ装置のセンサの出力に基づいて検出する基準方向の変化と関連付けて入射方向を変化させることにより、対象領域の表現を、現実のホログラムシートのように、光が当たる方向に応じて多様に変化させることができる。 According to the above aspect, by referring to the incident direction when determining the color information of the target area, the direction from which light is hitting the object can be reflected in the representation of the target area. Furthermore, by changing the incident direction in association with changes in the reference direction detected based on the output of the sensor in the user device, the representation of the target area can be varied in a variety of ways depending on the direction from which light hits, just like a real hologram sheet.
上記の各態様においては、前記オブジェクトが前記ユーザ装置にてプレイされるゲームにて表示されるべきカードであってもよい。この場合、前記対象領域が、前記カードの背景の少なくとも一部であってもよい。これによれば、ゲームに用いられるカードの少なくとも一部、さらにはカードの背景の少なくとも一部に関して、その表現をホログラムシート状に変化させることにより、カードの装飾性、演出性を高め、ユーザの所有欲、あるいは獲得意欲を高め、ひいてはゲームの興趣を高めることができる。 In each of the above aspects, the object may be a card to be displayed in a game played on the user device. In this case, the target area may be at least a part of the background of the card. By changing the representation of at least a part of the card used in the game, and even at least a part of the card's background, to a hologram sheet, the decorativeness and presentation of the card can be enhanced, increasing the user's desire to own or acquire it, and ultimately increasing the enjoyment of the game.
上記各態様において、前記センサは、前記ユーザ装置の姿勢に応じた信号を出力するものであってもよい。これによれば、ユーザ装置の姿勢の変化に応じてオブジェクトの対象領域の表現をホログラムシート状に変化させることが可能である。 In each of the above aspects, the sensor may output a signal corresponding to the posture of the user device. This makes it possible to change the representation of the target area of the object in the form of a hologram sheet in response to changes in the posture of the user device.
なお、本発明の一態様に係るコンピュータプログラムは、記憶媒体に記憶された状態で提供されてもよい。この記憶媒体を用いれば、例えばコンピュータに本発明に係るコンピュータプログラムをインストールして実行することにより、そのコンピュータを利用して本発明のシステムを実現することができる。コンピュータプログラムを記憶した記憶媒体は、CDROM等の非一過性の記憶媒体であってもよい。 Note that a computer program according to one aspect of the present invention may be provided in a state stored on a storage medium. By using this storage medium, for example, the computer program according to the present invention can be installed on a computer and executed, thereby enabling the system of the present invention to be realized using the computer. The storage medium storing the computer program may be a non-transitory storage medium such as a CD-ROM.
本発明は、カード状のオブジェクト(20)の画像(14)をユーザ装置(2)に表示させる処理を所定のコンピュータ(50)に実行させる画像表示方法であって、上記態様のコンピュータプログラム(Pg)に従って、前記基準方向を前記ユーザ装置のセンサ(8)の出力に基づいて検出するステップ(S11)と、前記対象領域の色情報を決定するステップ(S21~S23)と、を前記コンピュータに実行させる画像表示方法の態様として構成されてもよい。また、本発明は、カード状のオブジェクト(20)の画像(14)をユーザ装置(2)に表示させる処理を所定のコンピュータ(50)に実行させる画像表示システム(1)であって、上記態様のコンピュータプログラム(Pg)に従って、前記基準方向を前記ユーザ装置のセンサ(8)の出力に基づいて検出するステップ(S11)と、前記対象領域の色情報を決定するステップ(S21~S23)と、を前記コンピュータに実行させる画像表示システムの態様として構成されてもよい。これらの画像表示方法及び画像表示システムによれば、上記態様のコンピュータプログラムに従って、カード状のオブジェクトの少なくとも一部の領域の表現をホログラムシート状に変化させることが可能である。 The present invention may be configured as an image display method that causes a predetermined computer (50) to execute a process to display an image (14) of a card-like object (20) on a user device (2), and may be configured as an image display method that causes the computer to execute a step (S11) of detecting the reference direction based on the output of a sensor (8) of the user device and steps (S21-S23) of determining color information of the target area in accordance with the computer program (Pg) of the above-mentioned aspect. The present invention may also be configured as an image display system (1) that causes a predetermined computer (50) to execute a process to display an image (14) of a card-like object (20) on a user device (2), and may be configured as an image display system that causes the computer to execute a step (S11) of detecting the reference direction based on the output of a sensor (8) of the user device and steps (S21-S23) of determining color information of the target area in accordance with the computer program (Pg) of the above-mentioned aspect. These image display methods and systems make it possible to change the representation of at least a partial area of a card-like object to a hologram sheet in accordance with the computer program of the above aspect.
1 ゲームシステム(画像表示システム)
2 ゲーム機(ユーザ装置)
8 ジャイロセンサ
14 カード画像
18 背景画像(対象領域)
20 カード(オブジェクト)
30 バンプマップ
50 制御ユニット
60 カメラ
E 視線方向
L 入射方向
N 法線ベクトル(法線方向)
1. Game system (image display system)
2. Game console (user device)
8 Gyro sensor 14 Card image 18 Background image (target area)
20 Cards (Objects)
30 Bump map 50 Control unit 60 Camera E View direction L Incident direction N Normal vector (normal direction)
Claims (11)
前記オブジェクトに含まれる対象領域の色情報を決定するために必要な基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、
前記検出された基準方向の変化に伴って前記対象領域の表現がホログラムシート状に変化するように、前記基準方向と関連付けて前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させるように構成され、
前記色情報を決定するステップでは、前記対象領域に入射する光の方向として仮想的に設定される入射方向と、前記対象領域を前記ユーザ装置のユーザが観察する方向として仮想的に設定される視線方向との少なくともいずれか一方の方向を前記基準方向と関連付けて変化させつつ、前記入射方向及び前記視線方向を参照して前記色情報を決定する、コンピュータプログラム。 A computer program for causing a predetermined computer to execute a process of displaying an image of a card-like object on a user device,
detecting a reference direction necessary for determining color information of a target region included in the object based on an output of a sensor of the user device;
determining color information of the target area in relation to the reference direction such that the representation of the target area changes on the hologram sheet as the detected reference direction changes;
In the step of determining the color information, a computer program is provided which determines the color information by referring to an incident direction and a line-of-sight direction , while changing at least one of the incident direction, which is virtually set as the direction of light incident on the target area, and the line-of-sight direction, which is virtually set as the direction in which a user of the user device observes the target area, in relation to the reference direction.
前記オブジェクトに含まれる対象領域の色情報を決定するために必要な基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、
前記検出された基準方向の変化に伴って前記対象領域の表現がホログラムシート状に変化するように、前記基準方向と関連付けて前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させるように構成され、
前記色情報を決定するステップでは、前記対象領域に入射する光の方向として仮想的に設定される入射方向を前記基準方向と関連付けて変化させつつ、前記入射方向を参照して前記色情報を決定する、コンピュータプログラム。 A computer program that causes a predetermined computer to execute a process of displaying an image of a card-like object on a user device,
detecting a reference direction necessary for determining color information of a target region included in the object based on an output of a sensor of the user device;
determining color information of the target area in relation to the reference direction such that the representation of the target area changes on the hologram sheet as the detected reference direction changes;
A computer program, in which in the step of determining the color information, an incident direction that is virtually set as the direction of light incident on the target area is changed in relation to the reference direction, and the color information is determined by referring to the incident direction.
請求項1~9のいずれか一項のコンピュータプログラムに従って、前記基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させる画像表示方法。 An image display method for causing a predetermined computer to execute a process for displaying an image of a card-like object on a user device, comprising:
An image display method that causes a computer to execute the steps of: detecting the reference direction based on the output of a sensor of the user device; and determining color information of the target area in accordance with the computer program of any one of claims 1 to 9.
請求項1~9のいずれか一項のコンピュータプログラムに従って、前記基準方向を前記ユーザ装置のセンサの出力に基づいて検出するステップと、前記対象領域の色情報を決定するステップと、を前記コンピュータに実行させる画像表示システム。 An image display system that causes a predetermined computer to execute a process of displaying an image of a card-like object on a user device,
An image display system that causes a computer to execute the steps of detecting the reference direction based on the output of a sensor of the user device and determining color information of the target area in accordance with the computer program of any one of claims 1 to 9.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021202650A JP7762413B2 (en) | 2021-12-14 | 2021-12-14 | Computer program, and image display method and image display system using the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021202650A JP7762413B2 (en) | 2021-12-14 | 2021-12-14 | Computer program, and image display method and image display system using the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023088034A JP2023088034A (en) | 2023-06-26 |
| JP7762413B2 true JP7762413B2 (en) | 2025-10-30 |
Family
ID=86899788
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021202650A Active JP7762413B2 (en) | 2021-12-14 | 2021-12-14 | Computer program, and image display method and image display system using the same |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7762413B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20250014893A (en) * | 2023-07-21 | 2025-02-03 | 삼성전자주식회사 | Electronic apparatus and method for controlling thereof |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000214751A (en) | 1999-01-26 | 2000-08-04 | Dainippon Printing Co Ltd | Computer hologram and method for producing the same |
| JP2002024857A (en) | 2000-07-04 | 2002-01-25 | Square Co Ltd | Computer-readable recording medium recorded program for displaying light source on game screen and its program, and method and device for displaying the game screen |
| JP2008077410A (en) | 2006-09-21 | 2008-04-03 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
| JP2008077304A (en) | 2006-09-20 | 2008-04-03 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
| JP2010200188A (en) | 2009-02-27 | 2010-09-09 | National Institute Of Information & Communication Technology | Multi-viewpoint image generation apparatus, multi-viewpoint image generation method, and multi-viewpoint image generation program |
| JP2012155558A (en) | 2011-01-26 | 2012-08-16 | Sony Computer Entertainment Inc | Portable terminal, display method, and computer program |
| JP5661835B2 (en) | 2013-03-06 | 2015-01-28 | ヤフー株式会社 | Terminal device, display processing method, and display processing program |
| JP6723895B2 (en) | 2016-10-25 | 2020-07-15 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
-
2021
- 2021-12-14 JP JP2021202650A patent/JP7762413B2/en active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000214751A (en) | 1999-01-26 | 2000-08-04 | Dainippon Printing Co Ltd | Computer hologram and method for producing the same |
| JP2002024857A (en) | 2000-07-04 | 2002-01-25 | Square Co Ltd | Computer-readable recording medium recorded program for displaying light source on game screen and its program, and method and device for displaying the game screen |
| JP2008077304A (en) | 2006-09-20 | 2008-04-03 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
| JP2008077410A (en) | 2006-09-21 | 2008-04-03 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
| JP2010200188A (en) | 2009-02-27 | 2010-09-09 | National Institute Of Information & Communication Technology | Multi-viewpoint image generation apparatus, multi-viewpoint image generation method, and multi-viewpoint image generation program |
| JP2012155558A (en) | 2011-01-26 | 2012-08-16 | Sony Computer Entertainment Inc | Portable terminal, display method, and computer program |
| JP5661835B2 (en) | 2013-03-06 | 2015-01-28 | ヤフー株式会社 | Terminal device, display processing method, and display processing program |
| JP6723895B2 (en) | 2016-10-25 | 2020-07-15 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023088034A (en) | 2023-06-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11694392B2 (en) | Environment synthesis for lighting an object | |
| US8139059B2 (en) | Object illumination in a virtual environment | |
| CN105993167B (en) | Image generation system, image generating method and information storage medium | |
| CN108525298B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
| US20090244064A1 (en) | Program, information storage medium, and image generation system | |
| JP2010033296A (en) | Program, information storage medium, and image generation system | |
| US20070139408A1 (en) | Reflective image objects | |
| CN111563966A (en) | Virtual content display method and device, terminal equipment and storage medium | |
| CN109427089B (en) | Mixed reality object rendering based on ambient lighting conditions | |
| JP2024178215A (en) | Animation Production System | |
| JP7762413B2 (en) | Computer program, and image display method and image display system using the same | |
| CN117036444A (en) | Three-dimensional model output method, device, equipment and computer-readable storage medium | |
| JP2011053737A (en) | Program, information storage medium and image generation device | |
| CN114299207B (en) | Virtual object rendering method, device, readable storage medium and electronic device | |
| JP2001028064A (en) | Image processing method of game machine and storage part stored with program capable of implementing the method | |
| US20050068313A1 (en) | Game software and game machine | |
| JP5146054B2 (en) | Generation control program of sound generated from sound source in virtual space | |
| JP7614280B2 (en) | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD | |
| JP4161613B2 (en) | Image processing method | |
| JP2024071379A (en) | Computer program, information processing terminal, and control method thereof | |
| JP7546400B2 (en) | Animation Production System | |
| JP4827250B2 (en) | Program, information storage medium, and image generation system | |
| JPH11328437A (en) | Game machine and image processing method of game machine | |
| JP2008027064A (en) | Program, information recording medium, and image generation system | |
| US20240416235A1 (en) | Non-transitory storage medium, game apparatus, game system, and game method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240327 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250422 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250613 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250930 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251010 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7762413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |