[go: up one dir, main page]

JP5701637B2 - Program and image generation system - Google Patents

Program and image generation system Download PDF

Info

Publication number
JP5701637B2
JP5701637B2 JP2011032668A JP2011032668A JP5701637B2 JP 5701637 B2 JP5701637 B2 JP 5701637B2 JP 2011032668 A JP2011032668 A JP 2011032668A JP 2011032668 A JP2011032668 A JP 2011032668A JP 5701637 B2 JP5701637 B2 JP 5701637B2
Authority
JP
Japan
Prior art keywords
image
area
movement
unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011032668A
Other languages
Japanese (ja)
Other versions
JP2012173820A (en
Inventor
高弘 柿沢
高弘 柿沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2011032668A priority Critical patent/JP5701637B2/en
Publication of JP2012173820A publication Critical patent/JP2012173820A/en
Application granted granted Critical
Publication of JP5701637B2 publication Critical patent/JP5701637B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来から、立体視を実現する画像生成システムが知られている(例えば、特許文献1)。例えば、2眼式の立体視画像生成システムでは、左眼用画像と右眼用画像を生成する。そして、立体視用の眼鏡や、視差バリア或いはレンチキュラ等の光学素子を用いて、プレーヤの左眼には左眼用画像のみが見え、右眼には右眼用画像のみが見えるようにすることで、立体視を実現する。   Conventionally, an image generation system that realizes stereoscopic viewing is known (for example, Patent Document 1). For example, in a binocular stereoscopic image generation system, a left-eye image and a right-eye image are generated. Then, using a stereoscopic eyeglass or an optical element such as a parallax barrier or lenticular, the player's left eye can see only the left eye image, and the right eye can see only the right eye image. Thus, stereoscopic viewing is realized.

特開2004−126902号公報JP 2004-126902 A

立体視画像生成システムでは、画面よりも奥側に引っ込んでいるように見える奥行き空間と、画面よりも手前側に飛び出しているように見える飛び出し空間とを再現することができ、このうちプレーヤが立体視感をより強く感じるのは飛び出し空間である。従って、この飛び出し空間を有効に活用して効果的な飛び出し演出を行うことが望まれる。   The stereoscopic image generation system can reproduce a depth space that appears to be retracted to the back side of the screen and a pop-up space that appears to protrude to the front side of the screen. It is the jump-out space that makes you feel more visually. Therefore, it is desirable to effectively utilize this pop-out space and perform an effective pop-out effect.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、より効果的な立体視の飛び出し演出を行うことが可能なプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a program, an information storage medium, and an image generation system capable of performing a more effective stereoscopic effect. It is to provide.

(1)本発明に係るプログラムは、
オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記オブジェクトの立体視用画像を生成する画像生成部としてコンピュータを機能させ、
前記移動制御部は、
前記オブジェクトが前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置する場合に、前記オブジェクトが前記投影面よりも視点から見て奥側の第2のエリアに位置する場合に比べて、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行い、
前記投影面は、前記投影面に位置するオブジェクトの画像の視差が無くなる面である、プログラムに関する。
(1) The program according to the present invention is:
A movement control unit that performs control to move the object in the object space;
Causing the computer to function as an image generating unit that generates a stereoscopic image of the object;
The movement control unit
When the object is located in a first area closer to the projection plane than the projection plane in the object space, the object is located in a second area behind the projection plane from the viewpoint. Compared with the case of performing the control to reduce the amount of movement of the object in the image generated by the image generation unit,
The projection plane relates to a program that is a plane that eliminates parallax of an image of an object located on the projection plane.

また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体に関する。また本発明は、上記各部を含む画像生成システムに関する。   The present invention also relates to an information storage medium that can be read by a computer and stores a program for causing the computer to function as each of the above-described units. The present invention also relates to an image generation system including the above-described units.

本発明によれば、オブジェクトが第1のエリアに位置する場合にオブジェクトの移動量を少なくする制御を行うことで、より効果的な立体視の飛び出し演出を行うことができる。   According to the present invention, when the object is located in the first area, it is possible to perform a more effective stereoscopic effect by performing control to reduce the amount of movement of the object.

(2)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記移動制御部は、
前記第2のエリアから前記第1のエリアに向けて移動する前記オブジェクトが、前記投影面を通過した場合に、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。
(2) In the program, information storage medium, and image generation system according to the present invention,
The movement control unit
Control that reduces the amount of movement of the object in the image generated by the image generation unit when the object moving from the second area toward the first area passes through the projection plane. You may make it perform.

本発明によれば、より効果的な立体視の飛び出し演出を行うことができる。   According to the present invention, it is possible to perform a more effective stereoscopic effect.

(3)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記移動制御部は、
前記第2のエリアから前記第1のエリアに向けて移動する前記オブジェクトが、前記投影面と接触したか否かを判断し、接触したと判断した場合に、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。
(3) In the program, information storage medium, and image generation system according to the present invention,
The movement control unit
An image generated by the image generation unit when it is determined whether or not the object moving from the second area toward the first area is in contact with the projection surface. Control may be performed to reduce the amount of movement of the object inside.

本発明によれば、より効果的な立体視の飛び出し演出を行うことができる。   According to the present invention, it is possible to perform a more effective stereoscopic effect.

(4)本発明に係るプログラムは、
オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記オブジェクトの立体視用画像を生成する画像生成部としてコンピュータを機能させ、
前記移動制御部は、
前記オブジェクトに対する視差角に基づいて、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行う、プログラムに関する。
(4) The program according to the present invention is:
A movement control unit that performs control to move the object in the object space;
Causing the computer to function as an image generating unit that generates a stereoscopic image of the object;
The movement control unit
The present invention relates to a program for performing control to reduce the amount of movement of the object in an image generated by the image generation unit based on a parallax angle with respect to the object.

また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体に関する。また本発明は、上記各部を含む画像生成システムに関する。   The present invention also relates to an information storage medium that can be read by a computer and stores a program for causing the computer to function as each of the above-described units. The present invention also relates to an image generation system including the above-described units.

本発明によれば、オブジェクトに対する視差角に基づきオブジェクトの移動量を少なくする制御を行うことで、より効果的な立体視の飛び出し演出を行うことができる。   According to the present invention, by performing control to reduce the amount of movement of an object based on the parallax angle with respect to the object, a more effective stereoscopic effect can be produced.

(5)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記移動制御部は、
前記オブジェクトに対する視差角が負の値になった場合に、前記オブジェクトに対する視差角が正の値である場合に比べて、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。
(5) In the program, information storage medium, and image generation system according to the present invention,
The movement control unit
When the parallax angle for the object is a negative value, the amount of movement of the object in the image generated by the image generation unit is smaller than when the parallax angle for the object is a positive value. Control may be performed.

本発明によれば、オブジェクトに対する視差角が負の値になった場合に、オブジェクトの移動量を少なくする制御を行うことで、より効果的な立体視の飛び出し演出を行うことができる。   According to the present invention, when the parallax angle with respect to the object becomes a negative value, it is possible to perform a more effective stereoscopic effect by performing control to reduce the amount of movement of the object.

(6)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記移動制御部は、
前記オブジェクトの速度、加速度、及びオブジェクトの物理演算に用いられるパラメータの少なくとも1つを変更することで、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。
(6) In the program, the information storage medium, and the image generation system according to the present invention,
The movement control unit
By changing at least one of the speed and acceleration of the object and the parameters used for the physical calculation of the object, control is performed to reduce the amount of movement of the object in the image generated by the image generation unit. May be.

(7)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記移動制御部は、
前記オブジェクトの単位時間当たりの移動演算回数を減らすことで、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。
(7) In the program, the information storage medium, and the image generation system according to the present invention,
The movement control unit
Control may be performed such that the amount of movement of the object in the image generated by the image generation unit is reduced by reducing the number of movement calculations per unit time of the object.

(8)また本発明に係るプログラム及び情報記憶媒体では、
前記オブジェクトが、前記オブジェクト空間内の基準面よりも視点から見て手前側の第3のエリアに位置する場合に、前記オブジェクトをぼかすぼかし処理を行うぼかし処理部として更にコンピュータを機能させ、
前記基準面は、前記投影面よりも視点から見て手前側に位置する面であってもよい。
(8) In the program and information storage medium according to the present invention,
When the object is located in a third area on the near side as viewed from the viewpoint with respect to the reference plane in the object space, the computer further functions as a blur processing unit that performs blur processing to blur the object,
The reference plane may be a plane positioned on the near side as viewed from the viewpoint with respect to the projection plane.

また本発明に係る画像生成システムでは、
前記オブジェクトが、前記オブジェクト空間内の基準面よりも視点から見て手前側の第3のエリアに位置する場合に、前記オブジェクトをぼかすぼかし処理を行うぼかし処理部を更に含み、
前記基準面は、前記投影面よりも視点から見て手前側に位置する面であってもよい。
In the image generation system according to the present invention,
A blur processing unit that performs a blur process to blur the object when the object is located in a third area on the near side as viewed from the viewpoint of the reference plane in the object space;
The reference plane may be a plane positioned on the near side as viewed from the viewpoint with respect to the projection plane.

本発明によれば、オブジェクトが第3のエリアに位置する場合に、オブジェクトをぼかすための処理を行うことで、プレーヤの目の負担を軽減することが可能な立体視の飛び出し演出を行うことができる。   According to the present invention, when an object is located in the third area, a stereoscopic projection effect that can reduce the burden on the player's eyes can be performed by performing processing for blurring the object. it can.

本実施形態の画像生成システムの機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the image generation system of this embodiment. 立体視用画像を生成する手法について説明するための図。The figure for demonstrating the method of producing | generating the image for stereoscopic vision. ゲーム画像の一例を示す図。The figure which shows an example of a game image. オブジェクトの速度制御とぼかし処理について説明するための図。The figure for demonstrating the speed control and blurring process of an object. 図5(A)、図5(B)は、オブジェクトの速度制御について説明するための図。FIG. 5A and FIG. 5B are diagrams for explaining object speed control. 図6(A)、図6(B)は、オブジェクトのぼかし処理について説明するための図。FIGS. 6A and 6B are diagrams for explaining object blurring processing. オブジェクトの視差角について説明するための図。The figure for demonstrating the parallax angle of an object. 図8(A)、図8(B)は、オブジェクトの視差角について説明するための図。8A and 8B are diagrams for explaining the parallax angle of an object. 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment. 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.機能ブロック図
図1に第1の実施の形態の画像生成システム(画像生成装置)の機能ブロック図の一例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Functional Block Diagram FIG. 1 shows an example of a functional block diagram of the image generation system (image generation apparatus) according to the first embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作情報(操作データ)を入力するためのものであり、ユーザの操作情報を処理部100に出力する。操作部160の機能は、ボタン、方向キー(十字キー)、方向入力可能なコントロールスティック(アナログキー)、レバー、キーボード、マウス、タッチパネル型ディスプレイ、加速度センサや傾きセンサ等を内蔵するコントローラなどのハードウェアにより実現することができる。   The operation unit 160 is for a player to input operation information (operation data), and outputs user operation information to the processing unit 100. The function of the operation unit 160 includes hardware such as a button, a direction key (cross key), a control stick (analog key) capable of inputting a direction, a lever, a keyboard, a mouse, a touch panel display, a controller incorporating an acceleration sensor, a tilt sensor, and the like. It can be realized by hardware.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶される描画バッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 of the present embodiment includes a main storage unit 172 used as a work area, a drawing buffer 174 that stores final display images and the like, and an object data storage unit that stores model data of objects. 176, a texture storage unit 178 that stores textures for each object data, and a Z buffer 179 that stores Z values during object image generation processing. Note that some of these may be omitted.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の処理部100の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the processing unit 100 according to the present embodiment (a program for causing a computer to execute the processing of each unit).

表示部190は、本実施形態により生成された画像(オブジェクト空間を所与の視点から見た画像)を出力するものであり、その機能は、CRT、LCD、或いはタッチパネル型ディスプレイなどにより実現できる。   The display unit 190 outputs an image (an image obtained by viewing the object space from a given viewpoint) generated according to the present embodiment, and the function can be realized by a CRT, LCD, touch panel display, or the like.

本実施形態の表示部190は、立体視画像を表示する。例えば、裸眼方式では、表示部190は、有限個の画素からなるLCDの前面又は背面に、パララックスバリアやレンチキュラ等の光学素子が配置される。例えば、垂直バリアまたは垂直レンチキュラによる2眼式の場合には、表示部190に、1枚(1フレーム)の左眼用画像を表示するための表示領域と、1枚の右眼用画像を表示するための表示領域とが、短冊状に左眼用短冊画像表示領域及び右眼用短冊画像表示領域として交互に配置されている。パララックスバリアが配置される場合、その隙間からは、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、レンチキュラが配置される場合、各短冊集合画像に対応したレンズの光屈折効果により、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、偏光眼鏡方式では、表示部190の奇数ラインと偶数ラインに偏光方向の異なる偏光フィルタ(例えば、左円偏光を透過する偏光フィルタと、右円偏光を透過する偏光フィルタ)が交互に配置され、表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば、左眼に左円偏光を透過する偏光フィルタ、右眼に右円偏光を透過する偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。また、ページフリップ方式では、表示部190に左眼用画像と右眼用画像を所定時間毎(例えば、1/120秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。   The display unit 190 of the present embodiment displays a stereoscopic image. For example, in the naked eye method, the display unit 190 includes optical elements such as a parallax barrier and a lenticular on the front or back of an LCD composed of a finite number of pixels. For example, in the case of a two-lens system using a vertical barrier or a vertical lenticular, a display area for displaying one (one frame) image for the left eye and one image for the right eye are displayed on the display unit 190. Display areas for the left eye are alternately arranged in a strip shape as a left eye strip image display area and a right eye strip image display area. When a parallax barrier is placed, the left eye strip image displayed in the left eye strip image display area for the player's left eye and the right eye strip image display area for the right eye are displayed from the gap. Only the strip image for the right eye to be displayed is visible. When the lenticular is arranged, the left eye strip image displayed in the left eye strip image display area is displayed on the left eye of the player and the right eye is displayed on the right eye due to the photorefractive effect of the lens corresponding to each strip aggregate image. Only the right eye strip image displayed in the right eye strip image display area is visible. Further, in the polarizing glasses method, polarizing filters having different polarization directions (for example, a polarizing filter that transmits left circularly polarized light and a polarizing filter that transmits right circularly polarized light) are alternately arranged on the odd and even lines of the display unit 190. The left-eye image and the right-eye image are alternately displayed on the odd-numbered line and the even-numbered line of the display unit 190, and this is displayed on the polarizing glasses (for example, the polarizing filter that transmits the left circularly polarized light to the left eye, Stereoscopic viewing is realized by viewing with glasses with a polarizing filter that transmits polarized light. In the page flip method, the left-eye image and the right-eye image are alternately displayed on the display unit 190 every predetermined time (for example, every 1/120 seconds). In conjunction with the switching of the display, the left and right liquid crystal shutters of the glasses with the liquid crystal shutter are alternately opened and closed to realize stereoscopic viewing.

通信部196は他の画像生成システムやサーバとの間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with other image generation systems and servers, and the function can be realized by hardware such as various processors or a communication ASIC, a program, or the like.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲームシステムを機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the game system is functioned by receiving the program or data as described above is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データ、通信部196を介して受信したデータやプログラムなどに基づいて、ゲーム処理、画像生成処理、音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, and sound generation processing based on operation data from the operation unit 160, data and programs received via the communication unit 196, and the like. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a game is ended when a game end condition is satisfied. There is processing. The processing unit 100 performs various processes using the main storage unit 172 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部118、画像生成部120、音生成部130を含む。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 118, an image generation unit 120, and a sound generation unit 130.

オブジェクト空間設定部110は、キャラクタ(プレーヤキャラクタ、ノンプレーヤキャラクタ)、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (polygons, free-form surfaces or subdivision surfaces) representing display objects such as characters (player characters, non-player characters), buildings, stadiums, cars, trees, pillars, walls, maps (terrain). The object is configured to place and set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

移動・動作処理部112(移動制御部)は、オブジェクト(キャラクタ等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間(ゲーム空間)内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒又は1/30秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。また移動・動作処理部112は、ネットワークを介して接続された他の画像生成システム(ゲーム装置)から通信部196を介して受信したオブジェクト(他のプレーヤに対応するオブジェクト)の移動情報や動作情報に基づき当該オブジェクトの移動情報や動作情報を更新する処理を行うようにしてもよい。また移動・動作処理部112は、他のゲーム装置から通信部196を介して受信した操作データ等に基づき、当該オブジェクトの移動・動作演算を行うようにしてもよい。   The movement / motion processing unit 112 (movement control unit) performs movement / motion calculation (movement / motion simulation) of an object (such as a character). That is, an object is moved in the object space (game space) based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, etc. Performs processing to move the object (motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part constituting the object) are stored in one frame (1/60 seconds or 1/30). The simulation process is sequentially performed every second). A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. The movement / motion processing unit 112 also includes movement information and motion information of an object (an object corresponding to another player) received via the communication unit 196 from another image generation system (game device) connected via a network. Based on the above, the process of updating the movement information and motion information of the object may be performed. Further, the movement / motion processing unit 112 may perform movement / motion calculation of the object based on operation data received from another game device via the communication unit 196.

特に本実施形態の移動・動作処理部112は、オブジェクトが前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置する場合に、前記オブジェクトが前記投影面よりも視点から見て奥側の第2のエリアに位置する場合に比べて、前記画像生成部により生成される画像中の前記オブジェクトの1フレーム毎(画像生成毎)の移動量が少なくなる制御を行う。ここで、投影面とは、前記投影面に位置するオブジェクトの画像の視差が無くなる面である。   In particular, the movement / motion processing unit 112 according to the present embodiment is configured so that, when an object is located in a first area on the near side as viewed from the viewpoint of the projection plane in the object space, the object is viewed from the viewpoint of the projection plane. As compared with the case where the object is located in the second area on the back side, the control is performed so that the movement amount of each frame of the object (every image generation) in the image generated by the image generation unit is reduced. Here, the projection plane is a plane where the parallax of the image of the object located on the projection plane is eliminated.

また、移動・動作処理部112は、前記第2のエリアから前記第1のエリアに向けて移動する前記オブジェクトが、前記投影面を通過した場合に、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。   In addition, the movement / motion processing unit 112 is configured to display an image in the image generated by the image generation unit when the object moving from the second area toward the first area passes through the projection plane. Control may be performed to reduce the amount of movement of the object.

また、移動・動作処理部112は、前記第2のエリアから前記第1のエリアに向けて移動する前記オブジェクトが、前記投影面と接触したか否かを判断し、接触したと判断した場合に、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。   In addition, the movement / motion processing unit 112 determines whether the object moving from the second area toward the first area is in contact with the projection surface. Further, control may be performed so that the amount of movement of the object in the image generated by the image generation unit is reduced.

また、移動・動作処理部112は、前記オブジェクトに対する視差角(前記オブジェクトの画像の視差角)に基づいて、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。   In addition, the movement / motion processing unit 112 performs control to reduce the amount of movement of the object in the image generated by the image generation unit based on the parallax angle with respect to the object (parallax angle of the image of the object). You may do it.

また、移動・動作処理部112は、前記オブジェクトに対する視差角が負の値になった場合に、前記オブジェクトに対する視差角が正の値である場合に比べて、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。   In addition, the movement / motion processing unit 112 may generate an image generated by the image generation unit when the parallax angle with respect to the object has a negative value, compared to when the parallax angle with respect to the object has a positive value. Control may be performed to reduce the amount of movement of the object inside.

また、移動・動作処理部112は、前記オブジェクトに対する視差角に基づき、前記オブジェクトが第1のエリアに位置するか否か(或いは、前記第2のエリアから前記第1のエリアに向けて移動する前記オブジェクトが前記投影面を通過したか否か)を判断して、第1のエリアに位置する(或いは、前記投影面を通過した)と判断した場合に、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。   Further, the movement / motion processing unit 112 determines whether or not the object is located in the first area based on the parallax angle with respect to the object (or moves from the second area toward the first area). An image generated by the image generation unit when it is determined that the object has passed through the projection plane and is located in the first area (or has passed through the projection plane). Control may be performed to reduce the amount of movement of the object inside.

また、移動・動作処理部112は、前記オブジェクトの速度、加速度、及びオブジェクトの物理演算に用いられるパラメータの少なくとも1つを変更することで、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。   Further, the movement / motion processing unit 112 changes at least one of the parameters used for the speed, acceleration, and physics of the object to change the object in the image generated by the image generation unit. You may make it perform control which decreases a movement amount.

また移動・動作処理部112は、前記オブジェクトの単位時間当たりの移動演算回数を減らすことで、前記画像生成部により生成される画像中の前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。例えば、前記オブジェクトの移動演算をNフレーム(Nは2以上の整数)に1回の割合で行うことで、前記オブジェクトの移動量が少なくなる制御を行うようにしてもよい。   Further, the movement / motion processing unit 112 may perform control to reduce the amount of movement of the object in the image generated by the image generation unit by reducing the number of movement calculations per unit time of the object. Good. For example, the object movement calculation may be performed once every N frames (N is an integer equal to or greater than 2), thereby controlling the amount of movement of the object.

仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データ或いはプログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)又は光軸の方向(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度等)を制御する処理を行う。要するに、視点位置、仮想カメラの向き、画角を制御する処理を行う。   The virtual camera control unit 118 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, based on operation data or a program (movement / motion algorithm) input by the player through the operation unit 160, the position (X, Y, Z) of the virtual camera in the world coordinate system or the direction of the optical axis (for example, , X, Y, and Z axes, a rotation angle when rotating clockwise as viewed from the positive direction, and the like. In short, processing for controlling the viewpoint position, the orientation of the virtual camera, and the angle of view is performed.

また、2眼式の立体視方式により立体視画像を表示する場合には、仮想カメラ制御部118は、左眼用仮想カメラ及び右眼用仮想カメラの位置、向き及び画角を制御する。また、仮想カメラ制御部118は、左眼用仮想カメラと右眼用仮想カメラを設定するための基準となる基準仮想カメラ(センターカメラ)の制御を行い、基準仮想カメラの位置、向き及び左眼用及び右眼用仮想カメラ間の距離情報に基づいて、左眼用及び右眼用仮想カメラの位置、向きを制御するようにしてもよい。
処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。
When a stereoscopic image is displayed by the binocular stereoscopic method, the virtual camera control unit 118 controls the position, orientation, and angle of view of the left-eye virtual camera and the right-eye virtual camera. The virtual camera control unit 118 also controls a reference virtual camera (center camera) serving as a reference for setting the left-eye virtual camera and the right-eye virtual camera, and the position, orientation, and left eye of the reference virtual camera. The positions and orientations of the left-eye and right-eye virtual cameras may be controlled based on distance information between the left and right-eye virtual cameras.
A drawing process is performed based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting it to the display unit 190.

いわゆる3次元画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   When generating a so-called three-dimensional image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object is input. Based on the vertex data included in the input object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted). To do. Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object data storage unit 176.

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.

ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

そして描画部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs texture mapping, hidden surface removal processing, α blending, and the like when drawing the object.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). For example, in normal α blending, a process for obtaining a color obtained by combining two colors by performing linear interpolation with the α value as the strength of synthesis is performed. The α value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information indicating the luminance of each RGB color component. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

特に本実施形態の画像生成部120は、立体視画像を表示部190に出力する。例えば、立体視方式が2眼式の場合であれば、画像生成部120は、左眼用画像生成部124と右眼用画像生成部126を含む。左眼用画像生成部124は、オブジェクト空間内において左眼用仮想カメラから見える画像である左眼用画像を生成し、右眼用画像生成部126は、オブジェクト空間内において右眼用仮想カメラから見える画像である右眼用画像を生成する。具体的には、左眼用画像生成部124は、オブジェクト空間内の投影面に対してオブジェクトを左眼用仮想カメラの視点で透視投影して描画することで左眼用画像を生成し、右眼用画像生成部126は、投影面に対してオブジェクトを右眼用仮想カメラの視点で透視投影して描画することで右眼用画像を生成する。   In particular, the image generation unit 120 of this embodiment outputs a stereoscopic image to the display unit 190. For example, if the stereoscopic method is a twin-lens system, the image generation unit 120 includes a left-eye image generation unit 124 and a right-eye image generation unit 126. The left-eye image generating unit 124 generates a left-eye image that is an image seen from the left-eye virtual camera in the object space, and the right-eye image generating unit 126 is from the right-eye virtual camera in the object space. A right-eye image that is a visible image is generated. Specifically, the left-eye image generation unit 124 generates a left-eye image by perspectively projecting and drawing an object on the projection plane in the object space from the viewpoint of the left-eye virtual camera. The eye image generation unit 126 generates a right eye image by perspectively projecting and drawing an object on the projection plane from the viewpoint of the right eye virtual camera.

画像生成部120は、ぼかし処理部122を含む。ぼかし処理部122は、前記オブジェクトが、前記オブジェクト空間内の基準面よりも視点から見て手前側の第3のエリアに位置する場合に、前記オブジェクトをぼかすぼかし処理を行う。ここで、基準面とは、前記投影面よりも視点から見て手前側に位置する面である。   The image generation unit 120 includes a blur processing unit 122. The blur processing unit 122 performs blur processing to blur the object when the object is located in a third area on the near side as viewed from the viewpoint of the reference plane in the object space. Here, the reference plane is a plane positioned on the near side as viewed from the viewpoint with respect to the projection plane.

また、ぼかし処理部122は、前記ぼかし処理として、被写界深度処理、モーションブラー処理、ブリンク処理、又は半透明処理を行うようにしてもよい。すなわち、オブジェクトの画像が不明瞭となるようなぼかし処理であればどのような処理を採用してもよい。   In addition, the blur processing unit 122 may perform depth of field processing, motion blur processing, blink processing, or translucent processing as the blur processing. In other words, any process may be employed as long as the blurring process makes the object image unclear.

また、ぼかし処理部122は、前記基準面よりも視点から見て奥側のエリアから前記第3のエリアに向けて移動する前記オブジェクトが、前記基準面を通過した場合に、前記ぼかし処理を行うようにしてもよい。   Further, the blurring processing unit 122 performs the blurring process when the object moving from the back side area to the third area as viewed from the viewpoint of the reference plane passes through the reference plane. You may do it.

また、ぼかし処理部122は、前記基準面よりも視点から見て奥側のエリアから前記第3エリアに向けて移動する前記オブジェクトが、前記基準面と接触したか否かを判断し、接触したと判断した場合に、前記ぼかし処理を行うようにしてもよい。   Further, the blurring processing unit 122 determines whether or not the object moving from the back side area toward the third area when viewed from the viewpoint of the reference plane is in contact with the reference plane. If it is determined, the blurring process may be performed.

また、ぼかし処理部122は、前記オブジェクトに対する視差角に基づいて、前記ぼかし処理を行うようにしてもよい。   Further, the blur processing unit 122 may perform the blur processing based on the parallax angle with respect to the object.

また、ぼかし処理部122は、前記オブジェクトの画像の視差角に基づき、前記オブジェクトが第3のエリアに位置するか否か(或いは、前記基準面よりも視点から見て奥側のエリアから前記第3のエリアに向けて移動する前記オブジェクトが前記基準面を通過したか否か)を判断して、第3のエリアに位置する(或いは、前記基準面を通過した)と判断した場合に、前記ぼかし処理を行うようにしてもよい。   Further, the blurring processing unit 122 determines whether the object is located in the third area based on the parallax angle of the image of the object (or from the back area from the viewpoint of the reference plane). When the object moving toward the area 3 passes through the reference plane), and when it is determined that the object moves in the third area (or passes through the reference plane) Blur processing may be performed.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

また、音生成部130は、オブジェクトの位置に応じて音像定位が変化する音を生成してもよい。例えば、オブジェクトが前記第1のエリアに位置することで該オブジェクトが画面よりも手前側に飛び出して見える場合には、該オブジェクトに対応する音の音像定位を画面よりも手前側の位置に設定し、オブジェクトが前記第2のエリアに位置することで該オブジェクトが画面よりも奥側に引っ込んで見える場合には、該オブジェクトに対応する音の音像定位を画面よりも奥側の位置に設定してもよい。また、オブジェクトの移動に連動して音像定位の位置を移動させるようにしてもよい。すなわち、オブジェクトの速度を遅くする制御を行った場合に、該オブジェクトに対応する音の音像定位の移動速度も遅くする制御を行ってもよい。   The sound generation unit 130 may generate a sound whose sound image localization changes according to the position of the object. For example, if the object is located in the first area and the object appears to jump out of the screen, the sound image localization corresponding to the object is set to a position in front of the screen. If the object is located in the second area and the object appears to be retracted from the screen, the sound image localization corresponding to the object is set to the position behind the screen. Also good. Further, the position of the sound image localization may be moved in conjunction with the movement of the object. That is, when the control for reducing the speed of the object is performed, the control for reducing the moving speed of the sound image localization of the sound corresponding to the object may be performed.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他の画像生成システム(ゲーム装置)とデータを送受信してゲーム処理を行うようにしてもよいし、1つの画像生成システムが、複数の操作部からの操作情報に基づいて処理を行うようにしてもよい。   Note that the image generation system according to the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. For example, when controlling in the multiplayer mode, game processing may be performed by transmitting / receiving data to / from another image generation system (game device) via a network. Processing may be performed based on operation information from the operation unit.

また、本実施形態の画像生成システムをサーバシステムとして構成してもよい。サーバシステムは、1又は複数のサーバ(認証サーバ、ゲーム処理サーバ、通信サーバ、課金サーバ、データベースサーバ等)により構成することができる。この場合には、サーバシステムは、ネットワークを介して接続された1又は複数の端末装置(例えば、据え置き型ゲーム装置、携帯型ゲーム装置、プログラム実行可能な携帯電話等)から送信された操作情報に基づき各種処理を行って、立体視用画像を生成するための画像生成用データを生成し、生成した画像生成用データを各端末装置に対して送信する。ここで、画像生成用データとは、本実施形態の手法により生成された立体視用画像を各端末装置において表示するためのデータであり、画像データそのものでもよいし、各端末装置が立体視用画像を生成するために用いる各種データ(オブジェクトデータ、ゲーム処理結果データ等)であってもよい。   Further, the image generation system of the present embodiment may be configured as a server system. The server system can be composed of one or a plurality of servers (authentication server, game processing server, communication server, billing server, database server, etc.). In this case, the server system uses the operation information transmitted from one or more terminal devices (for example, a stationary game device, a portable game device, a mobile phone capable of executing a program, etc.) connected via the network. Various processes are performed based on this to generate image generation data for generating a stereoscopic image, and transmit the generated image generation data to each terminal device. Here, the image generation data is data for displaying a stereoscopic image generated by the method of the present embodiment on each terminal device, and may be image data itself, or each terminal device may be used for stereoscopic viewing. It may be various data (object data, game process result data, etc.) used to generate an image.

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2−1.立体視用画像の生成手法
まず、立体視用画像を生成する手法について説明する。図2に示すように、2眼式の立体視方式では、プレーヤの両眼の幅に対応する距離だけ離れた左眼用仮想カメラVCLと右眼用仮想カメラVCRをオブジェクト空間に設定する。そして、左眼用仮想カメラVCLに対応して左眼用ビューボリュームVVLが設定され、右眼用仮想カメラVCRに対応して右眼用ビューボリュームVVRが設定される。
2-1. Method for Generating Stereoscopic Image First, a method for generating a stereoscopic image will be described. As shown in FIG. 2, in the binocular stereoscopic method, the left-eye virtual camera VCL and the right-eye virtual camera VCR that are separated by a distance corresponding to the width of both eyes of the player are set in the object space. Then, a left-eye view volume VVL is set corresponding to the left-eye virtual camera VCL, and a right-eye view volume VVR is set corresponding to the right-eye virtual camera VCR.

左眼用、右眼用ビューボリュームVVL、VVRは、左眼用、右眼用仮想カメラVCL、VCRの位置、向き、画角及び投影面SPの位置によって上下左右の構成面が決定される視錐台の領域である。投影面SPは、表示部190の画面に対応する面であり、プレーヤの視点位置に相当する左眼用、右眼用仮想カメラVCL、VCRの位置及び向きと、プレーヤの視点位置と表示部190の画面との位置関係とに基づき設定される。なお、図2において、NPL、FPLは、それぞれ左眼用ビューボリュームVVLのニアクリップ面、ファークリップ面であり、NPR、FPRは、それぞれ右眼用ビューボリュームVVRのニアクリップ面、ファークリップ面である。   The left-eye and right-eye view volumes VVL and VVR are determined by the left, right, and right-eye virtual cameras VCL and VCR. This is the frustum region. The projection plane SP is a plane corresponding to the screen of the display unit 190, the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR corresponding to the viewpoint position of the player, the viewpoint position of the player, and the display unit 190. It is set based on the positional relationship with the screen. In FIG. 2, NPL and FPL are the near clip plane and the far clip plane of the left eye view volume VVL, respectively. NPR and FPR are the near clip plane and the far clip plane of the right eye view volume VVR, respectively. is there.

左眼用仮想カメラVCLから見える画像である左眼用画像は、左眼用ビューボリュームVVL内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。同様に、右眼用仮想カメラVCRから見える画像である右眼用画像は、右眼用ビューボリュームVVR内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。   An image for the left eye, which is an image that can be seen from the left-eye virtual camera VCL, is generated by perspectively projecting an object existing in the left-eye view volume VVL onto the projection plane SP and drawing it. Similarly, an image for the right eye, which is an image that can be viewed from the virtual camera for right eye VCR, is generated by perspectively projecting an object that exists in the view volume for right eye VVR onto the projection plane SP and drawing it.

ここで、オブジェクトが投影面SP上に位置する場合には、左眼用画像でのオブジェクトの描画位置と右眼用画像でのオブジェクトの描画位置は一致し、オブジェクトの画像の視差は無くなる。この場合、プレーヤからはオブジェクトが表示部190の画面上に存在するように見える。また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側のエリア(投影面SPとニアクリップ面NPL、NPRに挟まれたエリア)である第1のエリアAR1に位置する場合には、図8(A)に示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して右側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも手前側に飛び出しているように見える。また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて奥側のエリア(投影面SPとファークリップ面FPL、FPRに挟まれたエリア)である第2のエリアAR2に位置する場合には、図8(B)に示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して左側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも奥側に引っ込んでいるように見える。   Here, when the object is located on the projection plane SP, the drawing position of the object in the left-eye image and the drawing position of the object in the right-eye image match, and the parallax of the object image disappears. In this case, it appears to the player that the object exists on the screen of the display unit 190. The object is a first area (an area sandwiched between the projection plane SP and the near clip planes NPL and NPR) as viewed from the left-eye and right-eye virtual cameras VCL and VCR with respect to the projection plane SP. When positioned in the area AR1, as shown in FIG. 8A, the drawing position of the object OBL in the left-eye image is shifted to the right with respect to the drawing position of the object OBR in the right-eye image. From the player, it seems that the object is projected to the near side of the screen of the display unit 190. The object is a second area (an area sandwiched between the projection plane SP and the far clip planes FPL and FPR) as viewed from the left-eye and right-eye virtual cameras VCL and VCR with respect to the projection plane SP. When located in the area AR2, as shown in FIG. 8B, the drawing position of the object OBL in the left-eye image is shifted to the left with respect to the drawing position of the object OBR in the right-eye image. From the player, it appears that the object is retracted further back than the screen of the display unit 190.

本実施形態では、画面よりも手前側に飛び出しているように見える飛び出し空間を再現する第1のエリアAR1にオブジェクトが位置する場合に、オブジェクトが第2のエリアAR2に位置する場合に比べて、画像中の前記オブジェクトの移動量が少なくなる制御(例えば、オブジェクトの速度を遅くする制御)を行う。このようにすると、より効果的な立体視の飛び出し演出を行うことができる。   In the present embodiment, when the object is located in the first area AR1 that reproduces the pop-out space that appears to protrude to the near side of the screen, compared to the case where the object is located in the second area AR2, Control for reducing the amount of movement of the object in the image (for example, control for reducing the speed of the object) is performed. In this way, a more effective stereoscopic effect can be performed.

また、本実施形態では、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側の位置(投影面SPとニアクリップ面NPL、NPR間の位置)に基準面RPを設定し、基準面RPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側のエリア(基準面RPとニアクリップ面NPL、NPRに挟まれたエリア)である第3のエリアAR3にオブジェクトが位置する場合に、該オブジェクトに対してぼかし処理を施す。このようにすると、プレーヤの目の負担を軽減することが可能な立体視の飛び出し演出を行うことができる。   In the present embodiment, the reference plane RP is placed at a position closer to the front side (position between the projection plane SP and the near clip planes NPL and NPR) than the projection plane SP as viewed from the left-eye and right-eye virtual cameras VCL and VCR. A third area AR3 that is an area on the near side of the left and right eye virtual cameras VCL and VCR (area sandwiched between the reference plane RP and the near clip planes NPL and NPR) from the reference plane RP. When an object is located at the position, blur processing is performed on the object. In this way, it is possible to perform a stereoscopic projection effect that can reduce the burden on the eyes of the player.

2−2.ゲームの概要
本実施形態は、レーシングゲームのための立体視用画像生成処理に関するものである。図3は、本実施形態で生成されるゲーム画像GIの一例を示す図である。
2-2. Outline of Game This embodiment relates to stereoscopic image generation processing for a racing game. FIG. 3 is a diagram illustrating an example of the game image GI generated in the present embodiment.

図3に示すように、プレーヤは、コースCS上を走行する自動車PCを背後から見たゲーム画像GIを見ながら操作部160を操作することで、自動車PC(プレーヤキャラクタ)をコース上CSで走行させて、他の自動車EC(他のプレーヤのプレーヤキャラクタ、或いはNPC(ノンプレーヤキャラクタ))と競うゲームを行うことができる。   As shown in FIG. 3, the player runs the automobile PC (player character) on the course CS by operating the operation unit 160 while viewing the game image GI when the automobile PC running on the course CS is viewed from behind. Thus, a game for competing with another automobile EC (a player character of another player or NPC (non-player character)) can be played.

なお、ゲーム画像GIには、自動車同士の接触や自動車PCと壁等との接触により生じた火花を表すパーティクルオブジェクトPOが描画される。また、ゲーム画像GIには、コースCS上に点在するポールやガードレール、標識等を表すオブジェクトであって、走行中の自動車PCが跳ね飛ばすことが可能な破壊可能オブジェクトDOが描画される。パーティクルオブジェクトPOと破壊可能オブジェクトDOは、画面奥側(自動車PCの進行方向側)から画面手前側に向かって移動し、画面よりも手前側に飛び出して見えるように描画される。本実施形態では、このようなパーティクルオブジェクトPOと破壊可能オブジェクトDOとを、速度を遅くする制御とぼかし処理の対象としている。   In the game image GI, a particle object PO representing a spark generated by contact between automobiles or contact between an automobile PC and a wall is drawn. In the game image GI, a destructible object DO, which is an object representing a pole, a guardrail, a sign, or the like scattered on the course CS and can be skipped by the traveling vehicle PC, is drawn. The particle object PO and the destructible object DO are drawn so as to move from the rear side of the screen (the traveling direction side of the automobile PC) toward the front side of the screen and appear to pop out toward the front side of the screen. In the present embodiment, such a particle object PO and a destructible object DO are subjected to control for slowing down and blurring processing.

2−3.オブジェクトの速度制御
図4は、破壊オブジェクトDOについての速度制御とぼかし処理について説明するための図である。
2-3. Object Speed Control FIG. 4 is a diagram for explaining speed control and blurring processing for the destructive object DO.

図4に示すように、仮想カメラVC(左眼用、右眼用仮想カメラVCL、VCR)は自動車PCの背後に配置され、自動車PCの走行に追従して移動する。また、自動車PCは第2のエリアAR2に配置され、自動車PCが走行するコースCS上にはポールを表す破壊可能オブジェクトDOが配置されている。   As shown in FIG. 4, the virtual camera VC (left-eye and right-eye virtual cameras VCL, VCR) is arranged behind the automobile PC and moves following the running of the automobile PC. Further, the automobile PC is arranged in the second area AR2, and a destructible object DO representing a pole is arranged on the course CS on which the automobile PC runs.

自動車PCが破壊可能オブジェクトDOと衝突すると、破壊可能オブジェクトDOは、第2のエリアAR2から第1のエリアAR1に向かう方向(−Z軸方向、仮想カメラVCに向かう方向)への移動を開始する。そして、移動する破壊可能オブジェクトDOが投影面SPを通過して第1のエリアAR1に到達すると、破壊可能オブジェクトDOの速度を遅くする制御(画像中の破壊可能オブジェクトDOの移動量が少なくなる制御の一例)が行われる。すなわち、図4に示すように、移動する破壊可能オブジェクトDOが第1のエリアAR1に位置するときの単位時間(例えば、1フレーム)あたりの移動量Δdを、破壊可能オブジェクトDOが第2のエリアAR2に位置するときの移動量Δdよりも小さくする制御をしている。   When the automobile PC collides with the destructible object DO, the destructible object DO starts moving in the direction from the second area AR2 toward the first area AR1 (the −Z axis direction, the direction toward the virtual camera VC). . Then, when the moving destructible object DO passes through the projection plane SP and reaches the first area AR1, the control for reducing the speed of the destructible object DO (the control for reducing the movement amount of the destructible object DO in the image). Example) is performed. That is, as shown in FIG. 4, when the destructible object DO that moves is located in the first area AR1, the movement amount Δd per unit time (for example, one frame) is represented by the destructible object DO in the second area. Control is performed to make it smaller than the amount of movement Δd when it is positioned at AR2.

ここで、移動する破壊可能オブジェクトDOが投影面SPを通過したか否かの判断は、破壊可能オブジェクトDOの座標値と投影面SPの座標値とに基づき判断することができる。また、第2のエリアAR2から第1のエリアARに向けて移動する破壊可能オブジェクトDOが、投影面SPと接触したか否かの判断(ヒットチェック)を行って、接触したと判断した場合に速度を遅くする制御を行うようにしてもよい。   Here, whether or not the moving destructible object DO has passed the projection plane SP can be determined based on the coordinate value of the destructible object DO and the coordinate value of the projection plane SP. Further, when it is determined that the destructible object DO moving from the second area AR2 to the first area AR has contacted the projection surface SP (hit check) and determines that it has contacted You may make it perform control which makes speed slow.

また、破壊可能オブジェクトDOの速度を遅くする制御は、破壊可能オブジェクトDOの速度及び加速度の少なくとも一方の値を小さくする(すなわち、破壊可能オブジェクトDOの速度ベクトルの長さを短くする)ことで実現することができる。また、移動制御を物理演算で行う場合には、破壊可能オブジェクトDOの物理演算で用いられるパラメータ(例えば、初速度、加速度、質量、空気抵抗、摩擦係数)を変更することで破壊可能オブジェクトDOの速度を遅くする制御を行うようにしてもよい。例えば、破壊可能オブジェクトDOの質量を大きくすることで、水平方向(Z軸方向)の速度を遅くすることができる。   The control for reducing the speed of the destructible object DO is realized by reducing at least one of the speed and acceleration of the destructible object DO (that is, shortening the length of the speed vector of the destructible object DO). can do. When the movement control is performed by physical calculation, the parameters (for example, initial speed, acceleration, mass, air resistance, friction coefficient) used in the physical calculation of the destructible object DO are changed to change the destructible object DO. You may make it perform control which makes speed slow. For example, by increasing the mass of the destructible object DO, the speed in the horizontal direction (Z-axis direction) can be reduced.

また、破壊可能オブジェクトDOの単位時間当たりの移動演算回数を減らすことで、破壊可能オブジェクトDOの速度を遅くするようにしてもよい。例えば、破壊可能オブジェクトDOの移動演算を、破壊可能オブジェクトDOが第2のエリアAR2に位置する場合には毎フレーム行い、破壊可能オブジェクトDOが第1のエリアAR1に位置する場合にはNフレーム(Nは正の整数)に1回の割合で行うことで、画像中の破壊可能オブジェクトDOの移動量が少なくなるようにしてもよい。例えば、破壊可能オブジェクトDOの移動演算を2フレームに1回の割合で行うことで、破壊可能オブジェクトDOの見た目の速度を1/2にすることができる。   Further, the speed of the destructible object DO may be reduced by reducing the number of times of the movement calculation per unit time of the destructible object DO. For example, the movement calculation of the destructible object DO is performed every frame when the destructible object DO is located in the second area AR2, and when the destructible object DO is located in the first area AR1, N frames ( N is a positive integer), and the amount of movement of the destructible object DO in the image may be reduced. For example, the apparent speed of the destructible object DO can be halved by performing the movement calculation of the destructible object DO once every two frames.

なお、図5(A)に示すように、破壊可能オブジェクトDOを等速度で移動させ、投影面SPを通過した場合に速度のみを小さくする制御を行ってもよいし、図5(B)に示すように、破壊可能オブジェクトDOを正の加速度を与えて移動させ、投影面SPを通過した場合に速度と加速度を小さくする制御を行ってもよい。等速度運動を行う物体は現実世界には殆ど存在しないため、図5(A)に示すように、破壊可能オブジェクトDOを等速度で移動させる場合よりも、図5(B)に示すように、破壊可能オブジェクトDO加速度を与えて移動させた場合の方が、プレーヤにとってはより自然に移動しているように見える。 As shown in FIG. 5A, the destructible object DO may be moved at a constant speed, and control may be performed to reduce only the speed when passing through the projection plane SP. As shown, the destructible object DO may be moved with a positive acceleration, and control may be performed to reduce the speed and acceleration when passing through the projection plane SP. Since there are almost no objects that perform uniform motion in the real world, as shown in FIG. 5A, as shown in FIG. 5B, rather than moving the destructible object DO at constant speed, When the destructible object DO is moved with acceleration, it appears to move more naturally for the player.

なお、図3に示すパーティクルオブジェクトPOについても同様の速度制御を行う。すなわち、第2のエリアAR2にパーティクルの発生源を設定し、自動車同士の接触や自動車PCと壁等との接触といったイベントが発生した場合に、この発生源から、第2のエリアAR2から第1のエリアAR1に向かう方向に移動する複数のパーティクルオブジェクトPOを発生させる。そして、投影面SPを通過して第1のエリアAR1に位置するパーティクルオブジェクトPOの速度を遅くする制御を行う。   Similar speed control is performed for the particle object PO shown in FIG. That is, when a generation source of particles is set in the second area AR2, and an event such as contact between automobiles or contact between the automobile PC and a wall or the like occurs, from the generation area, the first to the first area AR2 A plurality of particle objects PO moving in the direction toward the area AR1 are generated. Then, control is performed to slow down the speed of the particle object PO located in the first area AR1 through the projection plane SP.

このように、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクトが投影面SPを通過した場合に該オブジェクトの速度を遅くする制御を行うことで、通常の移動演算を行う場合に比べて、オブジェクトが第1のエリアAR1(飛び出し空間)に滞在する時間を長くすることができる。すなわち、移動するオブジェクトが画面よりも手前側に飛び出しているように見える時間をより長くすることができ、より効果的な立体視の飛び出し演出を行うことができる。   As described above, when an object moving from the second area AR2 toward the first area AR1 passes through the projection plane SP, a control for reducing the speed of the object is performed to perform a normal movement calculation. As compared with the above, it is possible to lengthen the time during which the object stays in the first area AR1 (pop-out space). That is, it is possible to extend the time during which it appears that the moving object is popping out to the near side of the screen, and to perform a more effective stereoscopic pop-out effect.

2−4.オブジェクトのぼかし処理
また本実施形態では、図4に示すように、第2のエリアAR2から第1のエリアAR1に向けて移動する破壊可能オブジェクトDOが基準面SPを通過して第3のエリアAR3に到達すると、この破壊可能オブジェクトDOをぼかすぼかし処理が行われる。図4においては、ぼかし処理が行われる破壊可能オブジェクトDOを点線で示している。
2-4. In this embodiment, as shown in FIG. 4, the destructible object DO moving from the second area AR2 toward the first area AR1 passes through the reference plane SP and the third area AR3. When reaching, a blurring process for blurring the destructible object DO is performed. In FIG. 4, the destructible object DO on which the blurring process is performed is indicated by a dotted line.

ここで、移動する破壊可能オブジェクトDOが基準面RPを通過したか否かの判断は、破壊可能オブジェクトDOの座標値と基準面RPの座標値とに基づき判断することができる。また、第2のエリアAR2から第1のエリアARに向けて移動する破壊可能オブジェクトDOが、基準面RPと接触したか否かの判断(ヒットチェック)を行って、接触したと判断した場合にぼかし処理を行うようにしてもよい。   Here, whether or not the moving destructible object DO has passed the reference plane RP can be determined based on the coordinate value of the destructible object DO and the coordinate value of the reference plane RP. Further, when it is determined that the destructible object DO moving from the second area AR2 toward the first area AR is in contact with the reference plane RP (hit check), and is determined to be in contact Blur processing may be performed.

破壊可能オブジェクトDOのぼかし処理は、被写界深度処理やモーションブラー処理、ブリンク処理、半透明処理などにより実現することができる。例えば、基準面RPよりも仮想カメラVCから見て奥側の領域を焦点が合う領域として設定し、基準面RPよりも手前側の第3のエリアAR3を焦点が合わない領域として設定して、ぼかしフィルタ(ブラーフィルタ)などを用いて、第3のエリアAR3に位置するオブジェクトの画像(第3のエリアAR3に相当するZ値を有するピクセル)をぼかす処理を行ってもよい。また、第3のエリアAR3に位置する破壊可能オブジェクトDOをモーションブラー処理によりぼかすようにしてもよい。例えば、1フレーム前の時間tから微小時間Δtだけ進めて破壊可能オブジェクトDOの画像を描画して合成する処理を繰り返すモーションブラー処理を行ってもよいし、破壊可能オブジェクトDOの各頂点を引き伸ばすモーションブラー処理を行ってもよい。また、第3のエリアAR3に位置する破壊可能オブジェクトDOの表示・非表示を所定期間毎に繰り返すブリンク処理(点滅処理)を行ってもよい。また、第3のエリアAR3に位置する破壊可能オブジェクトDOの各頂点のα値を変更して描画する半透明処理を行ってもよい。   The blur processing of the destructible object DO can be realized by depth-of-field processing, motion blur processing, blink processing, translucent processing, and the like. For example, a region on the back side when viewed from the virtual camera VC with respect to the reference plane RP is set as a focused region, and a third area AR3 on the near side with respect to the reference surface RP is set as a non-focused region, A blurring filter (blur filter) or the like may be used to blur the object image (pixel having a Z value corresponding to the third area AR3) located in the third area AR3. Further, the destructible object DO located in the third area AR3 may be blurred by motion blur processing. For example, a motion blur process may be performed in which the process of drawing and compositing the image of the destructible object DO is advanced by a minute time Δt from the time t one frame before, or the motion for stretching each vertex of the destructible object DO Blur processing may be performed. Moreover, you may perform the blink process (flashing process) which repeats display / non-display of the destructible object DO located in the 3rd area AR3 for every predetermined period. Moreover, you may perform the translucent process which changes and draws the alpha value of each vertex of the destructible object DO located in the 3rd area AR3.

また、図6に示すように、ぼかし処理におけるぼかし量(透明度を含む)を、第3のエリアAR3において急激に大きくするようにしてもよいし、基準面RPからの距離に応じて徐々に大きくするようにしてもよい。   Further, as shown in FIG. 6, the blurring amount (including transparency) in the blurring process may be increased rapidly in the third area AR3, or gradually increased in accordance with the distance from the reference plane RP. You may make it do.

なお、図3に示すパーティクルオブジェクトPOについても同様のぼかしを行う。すなわち、第2のエリアAR2から第1のエリアAR1に向かう方向に移動するパーティクルオブジェクトPOが基準面RPを通過して第3のエリアAR3に位置した場合に、該パーティクルオブジェクトPOをぼかすぼかし処理を行う。   Note that the same blur is performed on the particle object PO shown in FIG. That is, when the particle object PO moving in the direction from the second area AR2 toward the first area AR1 passes through the reference plane RP and is positioned in the third area AR3, a blurring process for blurring the particle object PO is performed. Do.

上述したように、オブジェクトが第1のエリアAR1に位置する場合には、オブジェクトが画面よりも手前側に飛び出して見える。しかしながら、オブジェクトが第1のエリアAR1内のニアクリップ面NPに近いところに位置する場合(オブジェクトの飛び出し量が大きい場合)、プレーヤが該オブジェクトを立体画像として見ることができずに、単に左右の画像がブレただけの画像として見てしまう可能性があり、また、プレーヤの目に負担を与える恐れがある。   As described above, when the object is located in the first area AR1, the object appears to jump out from the screen. However, when the object is located near the near clip plane NP in the first area AR1 (when the amount of popping out of the object is large), the player cannot view the object as a stereoscopic image and simply There is a possibility that the image will be seen as a blurred image, and there is a risk of placing a burden on the eyes of the player.

そこで、本実施形態では、第1のエリアAR1内の基準面RPよりも仮想カメラVCから見て手前側の第3のエリアAR3を設定し、第3のエリアAR3に位置するオブジェクトをぼかすぼかし処理を行っている。このようにすると、プレーヤの目に近い位置にあるものは焦点が合わずにぼやけて見える、というプレーヤの目に見える実際の映像に近い状態を作り出すことができ、飛び出し量の大きなオブジェクトについても違和感のない立体画像としてプレーヤに知覚させつつ、プレーヤの目の負担を軽減することができる。例えば、図3に示すゲーム画像GIにおいて、プレーヤの目の焦点が、画面より奥側に引っ込んで見える自動車PCにあるとすると、最も飛び出して見える第3のエリアAR3に位置するオブジェクト(破壊可能オブジェクトDOやパーティクルオブジェクトPO)については焦点が合っていないためぼやけて見えるはずである。従って、第3のエリアAR3に位置するオブジェクトに対してぼかし処理を施すことで、プレーヤの目に見える実際の映像に近い状態を作り出すことができる。   Therefore, in the present embodiment, a blurring process for setting a third area AR3 in front of the reference plane RP in the first area AR1 when viewed from the virtual camera VC and blurring an object located in the third area AR3. It is carried out. In this way, it is possible to create a state close to the actual image that can be seen by the player, such that an object that is close to the player's eye looks out of focus and blurs. This makes it possible to reduce the burden on the player's eyes while allowing the player to perceive the image as a stereoscopic image having no image. For example, in the game image GI shown in FIG. 3, if the focus of the player's eyes is on the automobile PC that appears to be retracted from the screen, the object (destructible object) located in the third area AR3 that appears to protrude the most. DO and particle object PO) should be blurred because they are out of focus. Therefore, by performing blurring processing on the object located in the third area AR3, it is possible to create a state close to the actual video that can be seen by the player.

また、オブジェクトが第3のエリアAR3に位置するときに、該オブジェクトの速度を速くする制御や、該オブジェクトの移動方向を該オブジェクトがビューボリューム外に出る方向へと変化させる制御を行うようにしてもよい。このようにしても、オブジェクトが第3のエリアAR3に滞在する時間を短くすることができ、プレーヤの目の負担を軽減することができる。   Further, when the object is located in the third area AR3, control for increasing the speed of the object and control for changing the moving direction of the object to a direction in which the object goes out of the view volume are performed. Also good. Even in this case, the time during which the object stays in the third area AR3 can be shortened, and the burden on the eyes of the player can be reduced.

また、第3のエリアAR3を、仮想カメラVCから見て奥側に位置する第3のエリアと、手前側に位置する第4のエリアとに分割し、オブジェクトが第3のエリアに位置する場合に、該オブジェクトをぼかすぼかし処理を行い、オブジェクトが第4のエリアに位置する場合に、該オブジェクトの速度を速くする制御や、該オブジェクトの移動方向を変化させる制御を行うようにしてもよい。このとき、オブジェクトが第3のエリアと第4のエリアとを隔てる面を通過した場合や接触したと判断した場合に、該オブジェクトの速度を速くする制御や、該オブジェクトの移動方向を変化させる制御を行うようにしてもよい。   Further, the third area AR3 is divided into a third area located on the back side when viewed from the virtual camera VC and a fourth area located on the near side, and the object is located in the third area. In addition, blur processing for blurring the object may be performed, and when the object is located in the fourth area, control for increasing the speed of the object or control for changing the moving direction of the object may be performed. At this time, when the object passes through the surface separating the third area and the fourth area or when it is determined that the object has contacted, control for increasing the speed of the object or control for changing the moving direction of the object May be performed.

2−5.オブジェクトの視差角に基づく処理
なお、オブジェクト(破壊可能オブジェクトDOやパーティクルオブジェクトPO)の視差角に基づいて、該オブジェクトの速度制御とぼかし処理を行うようにしてもよい。
2-5. Processing based on the parallax angle of the object Note that the speed control and blurring processing of the object may be performed based on the parallax angle of the object (destructible object DO or particle object PO).

図7に示すように、左眼用、右眼用仮想カメラVCL、VCR(プレーヤの視点に相当)から投影面SP(表示部190の画面に相当)を見たときの輻輳角をαとし、左眼用、右眼用仮想カメラVCL、VCRからオブジェクトを見たときの輻輳角をβとすると、オブジェクトの視差角θは、θ=α−βで表すことができる。従って、オブジェクトが第1のエリアARに位置する場合(例えば、図中Aに位置する場合)には、α<βとなるため、オブジェクトの視差角θは負の値となり、オブジェクトが第2のエリアARに位置する場合(例えば、図中Bに位置する場合)には、α>βとなるため、オブジェクトの視差角θは正の値となる。   As shown in FIG. 7, the convergence angle when viewing the projection plane SP (corresponding to the screen of the display unit 190) from the left-eye and right-eye virtual cameras VCL and VCR (corresponding to the viewpoint of the player) is α, If the convergence angle when viewing the object from the left-eye and right-eye virtual cameras VCL and VCR is β, the parallax angle θ of the object can be expressed as θ = α−β. Therefore, when the object is located in the first area AR (for example, when located in A in the figure), since α <β, the parallax angle θ of the object is a negative value, and the object is in the second area When located in the area AR (for example, located in B in the figure), α> β, so the parallax angle θ of the object is a positive value.

そこで、第2のエリアAR2から第1のエリアAR1に向かう方向に移動するオブジェクト視差角θを算出し、視差角θが正の値から負の値となった場合に、該オブジェクトの速度を遅くする制御を行うようにしてもよい。   Therefore, the object parallax angle θ that moves in the direction from the second area AR2 toward the first area AR1 is calculated, and when the parallax angle θ changes from a positive value to a negative value, the speed of the object is decreased. You may make it perform control to perform.

また、オブジェクトが基準面RP上に位置するときのオブジェクトの視差角をθ(θ<0)として、第2のエリアAR2から第1のエリアAR1に向かう方向に移動するオブジェクトの視差角θがθ<θ或いはθ≦θの条件を満たした場合に、該オブジェクトが第3のエリアR3に位置すると判断して、該オブジェクトをぼかすぼかし処理を行うようにしてもよい。 Further, the parallax angle θ of the object moving in the direction from the second area AR2 toward the first area AR1 is θ RR <0) when the object is positioned on the reference plane RP. May satisfy the condition of θ <θ R or θ ≦ θ R , it may be determined that the object is located in the third area R3 and blur processing for blurring the object may be performed.

また、オブジェクトの視差角θは、左眼用画像でのオブジェクトの描画位置と右眼用画像でのオブジェクトの描画位置とに基づいて求めることもできる。すなわち、図8(A)に示すように、左眼用画像でのオブジェクトOBLの描画位置が右眼用画像でのオブジェクトOBRの描画位置に対して右側にずれる場合には、オブジェクトが第1のエリアAR1に位置すると判断することができ、オブジェクトの視差角θが負の値であると判断することができる。例えば、描画位置を検出するための基準マーカをオブジェクトに設定しておき、左眼用画像での基準マーカMKLの描画位置と右眼用画像での基準マーカMKRの描画位置との位置関係によりオブジェクトの視差角θが負の値であるか否かを判断してもよい。また、左眼用画像での基準マーカMKLの描画位置と右眼用画像での基準マーカMKRの描画位置間の距離dと位置関係に基づいて、オブジェクトの視差角θを求め、求めた視差角θがθ<θ或いはθ≦θを満たすか否かを判断してもよい。 Also, the parallax angle θ of the object can be obtained based on the drawing position of the object in the left-eye image and the drawing position of the object in the right-eye image. That is, as shown in FIG. 8A, when the drawing position of the object OBL in the left-eye image is shifted to the right with respect to the drawing position of the object OBR in the right-eye image, the object is the first It can be determined that the object is located in the area AR1, and it can be determined that the parallax angle θ of the object is a negative value. For example, a reference marker for detecting the drawing position is set in the object, and the object is determined by the positional relationship between the drawing position of the reference marker MKL in the left-eye image and the drawing position of the reference marker MKR in the right-eye image. It may be determined whether or not the parallax angle θ is a negative value. Further, the parallax angle θ of the object is obtained based on the distance d and the positional relationship between the drawing position of the reference marker MKL in the left-eye image and the drawing position of the reference marker MKR in the right-eye image, and the obtained parallax angle It may be determined whether θ satisfies θ <θ R or θ ≦ θ R.

3.処理
次に、本実施形態の画像生成システムの処理の一例について図9、図10のフローチャートを用いて説明する。図9は、オブジェクトの速度と加速度を変更することで画像中のオブジェクトの移動量を少なくする処理の一例を示すフローチャート図である。
3. Processing Next, an example of processing of the image generation system of this embodiment will be described with reference to the flowcharts of FIGS. 9 and 10. FIG. 9 is a flowchart illustrating an example of processing for reducing the amount of movement of an object in an image by changing the speed and acceleration of the object.

まず、処理部100は、左眼用、右眼用仮想カメラVCL、VCRの位置、向きに基づき投影面SPと基準面RPを設定する(ステップS10)。これにより、投影面SPよりも手前側の第1のエリアAR1と、基準面SPよりも手前側の第3のエリアAR3が設定される。   First, the processing unit 100 sets the projection plane SP and the reference plane RP based on the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR (step S10). Thereby, a first area AR1 on the near side of the projection plane SP and a third area AR3 on the near side of the reference plane SP are set.

次に、移動・動作処理部112(移動制御部)は、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクト(破壊可能オブジェクトDOやパーティクルオブジェクトPO)が投影面SPを通過したか否かを判断する(ステップS12)。オブジェクトが投影面SPを通過したと判断した場合(ステップS12のY)には、オブジェクトの速度、加速度を小さくする処理を行う(ステップS14)。例えば、オブジェクトの加速度Aと、1フレーム前のオブジェクトの速度Vを、次式のように、それぞれΔV、ΔAだけ減算する処理を行う。 Next, the movement / motion processing unit 112 (movement control unit) passes an object (destructible object DO or particle object PO) moving from the second area AR2 toward the first area AR1 through the projection plane SP. Whether or not (step S12). If it is determined that the object has passed through the projection plane SP (Y in step S12), processing for reducing the speed and acceleration of the object is performed (step S14). For example, a process of subtracting ΔV and ΔA, respectively, from the acceleration A of the object and the velocity V 0 of the object one frame before is performed as follows.

←V−ΔV
A←A−ΔA
次に、移動・動作処理部112は、オブジェクトの位置、向きを演算する移動演算を行う(ステップS16)。例えば、1フレーム前のオブジェクトの位置をPとすると、オブジェクトの速度Vとオブジェクトの位置Pを、
V=V+AΔt (1)
P=P+VΔt (2)
により演算する。ここでΔtは単位時間であり、1フレームの時間(例えば、1/60秒)である。また、オブジェクトが投影面SPを通過していない(既に投影面SPを通過していて、速度の減算処理を行った場合を含む)と判断した場合(ステップS12のN)には、オブジェクトの速度、加速度を減算せずに、ステップS16の移動演算を行う。
V 0 ← V 0 −ΔV
A ← A−ΔA
Next, the movement / motion processing unit 112 performs a movement calculation for calculating the position and orientation of the object (step S16). For example, if the position of the object one frame before is P 0 , the object speed V and the object position P are
V = V 0 + AΔt (1)
P = P 0 + VΔt (2)
Calculate by Here, Δt is a unit time, and is a time of one frame (for example, 1/60 seconds). If it is determined that the object has not passed the projection plane SP (including the case where the object has already passed the projection plane SP and the speed subtraction process has been performed) (N in step S12), the speed of the object The movement calculation in step S16 is performed without subtracting the acceleration.

次に、移動・動作処理部112は、オブジェクトが第3のエリアAR3に位置するか否かを判断する(ステップS18)。   Next, the movement / motion processing unit 112 determines whether or not the object is located in the third area AR3 (step S18).

オブジェクトが第3のエリアAR3に位置しないと判断された場合(ステップS18のN)には、左眼用画像生成部124、右眼用画像生成部126は、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS20)。   If it is determined that the object is not located in the third area AR3 (N in step S18), the left-eye image generation unit 124 and the right-eye image generation unit 126 perspectively project the object onto the projection plane SP. The left-eye image and the right-eye image that are visible from the left-eye and right-eye virtual cameras VCL and VCR are generated (step S20).

また、オブジェクトが第3のエリアAR3に位置すると判断された場合(ステップS18のY)には、ぼかし処理部122、左眼用画像生成部124、右眼用画像生成部126は、オブジェクトをぼかすばかし処理を行いつつ、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS22)。   If it is determined that the object is located in the third area AR3 (Y in step S18), the blur processing unit 122, the left-eye image generation unit 124, and the right-eye image generation unit 126 blur the object. By performing perspective projection and drawing the object on the projection plane SP while performing the process, the left-eye image and the right-eye image that can be seen from the left-eye and right-eye virtual cameras VCL and VCR are generated (step S22). ).

次に、処理部100は、処理を続けるか否かを判断し(ステップS24)、処理を続ける場合には、ステップS10の処理に戻り、ステップS10以降の処理を1フレーム毎に繰り返す。
図10は、オブジェクトの速度と加速度を変更することで画像中のオブジェクトの移動量を少なくする処理の一例を示すフローチャート図である。
Next, the processing unit 100 determines whether or not to continue the processing (step S24). When the processing is continued, the processing unit 100 returns to the processing of step S10 and repeats the processing after step S10 for each frame.
FIG. 10 is a flowchart illustrating an example of processing for reducing the amount of movement of an object in an image by changing the speed and acceleration of the object.

まず、処理部100は、変数Nに0を設定する(ステップS30)。次に、処理部100は、左眼用、右眼用仮想カメラVCL、VCRの位置、向きに基づき投影面SPと基準面RPを設定する(ステップS32)。   First, the processing unit 100 sets 0 to the variable N (step S30). Next, the processing unit 100 sets the projection plane SP and the reference plane RP based on the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR (step S32).

次に、移動・動作処理部112(移動制御部)は、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクト(破壊可能オブジェクトDOやパーティクルオブジェクトPO)が第1のエリアAR1に位置するか否かを判断する(ステップS34)。   Next, the movement / motion processing unit 112 (movement control unit) moves objects (destructible objects DO and particle objects PO) moving from the second area AR2 toward the first area AR1 in the first area AR1. It is determined whether or not it is located (step S34).

オブジェクトが第1のエリアAR1に位置しないと判断した場合(ステップS34のN)には、移動・動作処理部112は、式(1)、(2)により、オブジェクトの位置、向きを演算する移動演算を行う。   When it is determined that the object is not located in the first area AR1 (N in step S34), the movement / motion processing unit 112 moves to calculate the position and orientation of the object according to equations (1) and (2). Perform the operation.

また、オブジェクトが第1のエリアAR1に位置すると判断した場合(ステップS34のN)には、処理部100は、変数Nの値を1だけ加算し(ステップS38)、変数Nの値が所定の値Nmaxに達したか否かを判断し(ステップS40)、達していない場合には、ステップS36の移動演算処理をスキップしてステップS44に処理に進む。また、変数Nの値が所定値Nmaxに達したと判断した場合には、変数Nに0を設定し(ステップS42)、ステップS36の移動演算処理に進む。このようにすることで、オブジェクトが投影面SPを通過した以降、オブジェクトの移動演算をNmaxフレームに1回の割合で行うことができる。 If it is determined that the object is located in the first area AR1 (N in step S34), the processing unit 100 adds 1 to the variable N (step S38), and the value of the variable N is a predetermined value. It is determined whether or not the value N max has been reached (step S40). If not, the movement calculation process in step S36 is skipped and the process proceeds to step S44. On the other hand, if it is determined that the value of the variable N has reached the predetermined value Nmax , the variable N is set to 0 (step S42), and the process proceeds to the movement calculation process of step S36. In this way, after the object passes through the projection plane SP, the movement calculation of the object can be performed once every N max frames.

次に、移動・動作処理部112は、オブジェクトが第3のエリアAR3に位置するか否かを判断する(ステップS44)。   Next, the movement / motion processing unit 112 determines whether or not the object is located in the third area AR3 (step S44).

オブジェクトが第3のエリアAR3に位置しないと判断された場合(ステップS44のN)には、左眼用画像生成部124、右眼用画像生成部126は、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS46)。   If it is determined that the object is not located in the third area AR3 (N in step S44), the left-eye image generation unit 124 and the right-eye image generation unit 126 perspectively project the object onto the projection plane SP. The left-eye image and the right-eye image that can be seen from the left-eye and right-eye virtual cameras VCL and VCR are generated (step S46).

また、オブジェクトが第3のエリアAR3に位置すると判断された場合(ステップS44のY)には、ぼかし処理部122、左眼用画像生成部124、右眼用画像生成部126は、オブジェクトをぼかすばかし処理を行いつつ、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS48)。   If it is determined that the object is located in the third area AR3 (Y in step S44), the blur processing unit 122, the left-eye image generation unit 124, and the right-eye image generation unit 126 blur the object. By performing perspective projection and drawing the object on the projection plane SP while performing the process, the left-eye image and the right-eye image that can be seen from the left-eye and right-eye virtual cameras VCL and VCR are generated (step S48). ).

次に、処理部100は、処理を続けるか否かを判断し(ステップS50)、処理を続ける場合には、ステップS30の処理に戻り、ステップS30以降の処理を1フレーム毎に繰り返す。   Next, the processing unit 100 determines whether or not to continue the processing (step S50). When the processing is continued, the processing unit 100 returns to the processing of step S30 and repeats the processing after step S30 for each frame.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

100 処理部、110 オブジェクト空間設定部、112 移動・演算処理部(移動制御部)、118 仮想カメラ制御部、120 画像生成部、122 ぼかし処理部、124 左眼用画像生成部、126 右眼用画像生成部、130 音生成部、160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、192、音出力部、196 通信部 100 processing unit, 110 object space setting unit, 112 movement / arithmetic processing unit (movement control unit), 118 virtual camera control unit, 120 image generation unit, 122 blur processing unit, 124 left eye image generation unit, 126 right eye Image generation unit, 130 sound generation unit, 160 operation unit, 170 storage unit, 180 information storage medium, 190 display unit, 192, sound output unit, 196 communication unit

Claims (9)

第1オブジェクトと第2オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記第1オブジェクトの移動方向の後方に配置され、前記第1オブジェクトに追従して移動する左右の視点を制御する視点制御部と、
前記視点から見える画像に基づき前記第1及び第2オブジェクトの立体視用画像を生成する画像生成部としてコンピュータを機能させ、
前記移動制御部は、
前記第2オブジェクトを、前記オブジェクト空間内の投影面よりも前記視点から見て奥側の第2のエリアから前記投影面よりも前記視点から見て手前側の第1のエリアに向けて移動させ、前記第2オブジェクトが前記第1のエリアに位置する場合に、前記第2オブジェクトが前記第2のエリアに位置する場合に比べて、前記画像生成部により生成される画像中の前記第2オブジェクトの移動量が少なくなる制御を行い、
前記投影面は、前記投影面に位置するオブジェクトの画像の視差が無くなる面であることを特徴とするプログラム。
A movement control unit that performs control to move the first object and the second object in the object space;
A viewpoint control unit that is arranged behind the moving direction of the first object and controls the left and right viewpoints that move following the first object;
Causing a computer to function as an image generating unit that generates stereoscopic images of the first and second objects based on an image seen from the viewpoint ;
The movement control unit
The second object is moved from a second area on the back side when viewed from the viewpoint with respect to the projection plane in the object space toward a first area on the near side when viewed from the viewpoint with respect to the projection plane. , when said second object is positioned in the first area, the second object is compared when located in the second area, the second object in the image generated by the image generating unit Control to reduce the movement amount of
The program according to claim 1, wherein the projection plane is a plane in which parallax of an image of an object located on the projection plane is eliminated.
請求項1において、
前記移動制御部は、
前記第2のエリアから前記第1のエリアに向けて移動する前記第2オブジェクトが、前記投影面を通過した場合に、前記画像生成部により生成される画像中の前記第2オブジェクトの移動量が少なくなる制御を行うことを特徴とするプログラム。
In claim 1,
The movement control unit
The second object to move toward the first area from the second area, when passing through the projection plane, the moving amount of the second object in the image generated by the image generating unit A program characterized by performing less control.
請求項1又は2において、
前記移動制御部は、
前記第2のエリアから前記第1のエリアに向けて移動する前記第2オブジェクトが、前記投影面と接触したか否かを判断し、接触したと判断した場合に、前記画像生成部により生成される画像中の前記第2オブジェクトの移動量が少なくなる制御を行うことを特徴とするプログラム。
In claim 1 or 2,
The movement control unit
It is generated by the image generation unit when it is determined whether the second object moving from the second area toward the first area is in contact with the projection surface, and is determined to be in contact. A program for performing control to reduce the movement amount of the second object in an image.
請求項1乃至3のいずれか1項において、
前記移動制御部は、
前記第2オブジェクトに対する視差角に基づいて、前記第2オブジェクトが前記第1のエリアに位置するか否かを判断することを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The movement control unit
A program for determining whether or not the second object is located in the first area based on a parallax angle with respect to the second object.
請求項4において、
前記移動制御部は、
前記第2オブジェクトに対する視差角が負の値になった場合に、前記第2オブジェクトに対する視差角が正の値である場合に比べて、前記画像生成部により生成される画像中の前記第2オブジェクトの移動量が少なくなる制御を行うことを特徴とするプログラム。
In claim 4,
The movement control unit
When the parallax angle to the second object is a negative value, the parallax angle to the second object in comparison with the case of a positive value, the second object in the image generated by the image generating unit A program characterized by performing control to reduce the amount of movement.
請求項1乃至5のいずれか1項において、
前記移動制御部は、
前記第2オブジェクトの速度、加速度、及び前記第2オブジェクトの物理演算に用いられるパラメータの少なくとも1つを変更することで、前記画像生成部により生成される画像中の前記第2オブジェクトの移動量が少なくなる制御を行うことを特徴とするプログラム。
In any one of claims 1 to 5,
The movement control unit
Speed of the second object, acceleration, and by changing at least one of the parameters used in the physics of the second object, the moving amount of the second object in the image generated by the image generating unit A program characterized by performing less control.
請求項1乃至5のいずれか1項において、
前記移動制御部は、
前記第2オブジェクトの単位時間当たりの移動演算回数を減らすことで、前記画像生成部により生成される画像中の前記第2オブジェクトの移動量が少なくなる制御を行うことを特徴とするプログラム。
In any one of claims 1 to 5,
The movement control unit
Wherein by reducing the movement number of operations per unit time of the second object, a program and performs control of the amount of movement of the second object in the image generated by the image generation unit is reduced.
請求項1乃至7のいずれか1項において、
前記第2オブジェクトが、前記オブジェクト空間内の基準面よりも前記視点から見て手前側の第3のエリアに位置する場合に、前記第2オブジェクトをぼかすぼかし処理を行うぼかし処理部として更にコンピュータを機能させ、
前記基準面は、前記投影面よりも前記視点から見て手前側に位置する面であることを特徴とするプログラム。
In any one of claims 1 to 7,
The second object is, when located in the third area of the front side of the reference surface as seen from the viewpoint of the object space, a further computer as blurring unit that performs blurring processing for blurring the second object Make it work
The reference surface is a program characterized in that than the projection surface is a surface located on the front side as viewed from the viewpoint.
第1オブジェクトと第2オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記第1オブジェクトの移動方向の後方に配置され、前記第1オブジェクトに追従して移動する左右の視点を制御する視点制御部と、
前記視点から見える画像に基づき前記第1及び第2オブジェクトの立体視用画像を生成する画像生成部とを含み、
前記移動制御部は、
前記第2オブジェクトを、前記オブジェクト空間内の投影面よりも前記視点から見て奥側の第2のエリアから前記投影面よりも前記視点から見て手前側の第1のエリアに向けて移動させ、前記第2オブジェクトが前記第1のエリアに位置する場合に、前記第2オブジェクトが前記第2のエリアに位置する場合に比べて、前記画像生成部により生成される画像中の前記第2オブジェクトの移動量が少なくなる制御を行い、
前記投影面は、前記投影面に位置するオブジェクトの画像の視差が無くなる面であることを特徴とする画像生成システム。
A movement control unit that performs control to move the first object and the second object in the object space;
A viewpoint control unit that is arranged behind the moving direction of the first object and controls the left and right viewpoints that move following the first object;
An image generation unit that generates a stereoscopic image of the first and second objects based on an image seen from the viewpoint ;
The movement control unit
The second object is moved from a second area on the back side when viewed from the viewpoint with respect to the projection plane in the object space toward a first area on the near side when viewed from the viewpoint with respect to the projection plane. , when said second object is positioned in the first area, the second object is compared when located in the second area, the second object in the image generated by the image generating unit Control to reduce the movement amount of
The image generation system according to claim 1, wherein the projection plane is a plane where parallax of an image of an object located on the projection plane is eliminated.
JP2011032668A 2011-02-17 2011-02-17 Program and image generation system Expired - Fee Related JP5701637B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011032668A JP5701637B2 (en) 2011-02-17 2011-02-17 Program and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011032668A JP5701637B2 (en) 2011-02-17 2011-02-17 Program and image generation system

Publications (2)

Publication Number Publication Date
JP2012173820A JP2012173820A (en) 2012-09-10
JP5701637B2 true JP5701637B2 (en) 2015-04-15

Family

ID=46976700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011032668A Expired - Fee Related JP5701637B2 (en) 2011-02-17 2011-02-17 Program and image generation system

Country Status (1)

Country Link
JP (1) JP5701637B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221699A (en) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd Stereoscopic image processing method and apparatus

Also Published As

Publication number Publication date
JP2012173820A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
US9106906B2 (en) Image generation system, image generation method, and information storage medium
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
JP3442270B2 (en) Image generating apparatus and information storage medium
JP2012212237A (en) Image generation system, server system, program, and information storage medium
JP2003107603A (en) Stereophonic image generating device, stereophonic image generation information and information storage medium
JP4772952B2 (en) Stereoscopic image generation apparatus and information storage medium
JP5620202B2 (en) Program, information storage medium, and image generation system
JP5766540B2 (en) Program and game system
JP5649846B2 (en) Program and image generation system
JP4624587B2 (en) Image generating apparatus, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2011053737A (en) Program, information storage medium and image generation device
JP2016192029A (en) Image generation system and program
JP5701638B2 (en) Program and image generation system
JP4624588B2 (en) Image generating apparatus, program, and information storage medium
JP5701637B2 (en) Program and image generation system
JP2013062731A (en) Program, information storage medium, and image generation system
JP5809428B2 (en) Game system
JP2006318388A (en) Program, information storage medium, and image forming system
JP2009169471A (en) Program, information storage medium, and image generation system
WO2014020753A1 (en) Three-dimensional image processing device, three-dimensional image processing method, and storage medium for same
JP2023059137A (en) Image composite device, image composite method, and program
JP4802254B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2009064355A (en) Program, information storage medium, and image producing system
JP2003203250A (en) Shooting game device and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131107

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150218

R150 Certificate of patent or registration of utility model

Ref document number: 5701637

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees