[go: up one dir, main page]

JP2010218195A - Image generation system, program, information storage medium, and server system - Google Patents

Image generation system, program, information storage medium, and server system Download PDF

Info

Publication number
JP2010218195A
JP2010218195A JP2009063913A JP2009063913A JP2010218195A JP 2010218195 A JP2010218195 A JP 2010218195A JP 2009063913 A JP2009063913 A JP 2009063913A JP 2009063913 A JP2009063913 A JP 2009063913A JP 2010218195 A JP2010218195 A JP 2010218195A
Authority
JP
Japan
Prior art keywords
icon
virtual camera
content
icon object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009063913A
Other languages
Japanese (ja)
Inventor
Hideo Teramoto
秀雄 寺本
Tomohiro Yamanaka
友尋 山中
Hirotaka Kinoshita
浩隆 木下
Narumi Aoyama
成美 青山
Satoshi Ouchi
聡 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cellius Inc
Original Assignee
Cellius Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cellius Inc filed Critical Cellius Inc
Priority to JP2009063913A priority Critical patent/JP2010218195A/en
Publication of JP2010218195A publication Critical patent/JP2010218195A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system capable of displaying a menu screen for selecting contents of types not existing in the prior art, and to provide a program, an information storage medium and a server system. <P>SOLUTION: The image generation system includes a menu object space setter for setting a menu object space with respective icon objects of the plurality of icon objects for selecting the contents to be arrangement-set in respective three-dimensional positions, a virtual camera control unit for controlling a virtual camera, and a display control unit for controlling an image viewed through the virtual camera in the menu object space, to be displayed as a menu screen. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像生成システム、プログラム、情報記憶媒体、及びサーバシステム等に関する。   The present invention relates to an image generation system, a program, an information storage medium, a server system, and the like.

従来より、映像や音楽などのマルチメディアのコンテンツを再生する装置が知られている。そして、このコンテンツ再生装置では、ユーザが所望のコンテンツを選択するためのメニュー画面が必要になる。このようなメニュー画面の表示方法の従来技術としては、例えば特許文献1に開示される技術が知られている。   2. Description of the Related Art Conventionally, devices that play multimedia content such as video and music are known. In this content reproduction apparatus, a menu screen for the user to select desired content is required. As a conventional technique of such a menu screen display method, for example, a technique disclosed in Patent Document 1 is known.

しかしながら、特許文献1の従来技術では、コンテンツを選択するためのアイコンの選択画面が、いわゆる2次元表示で表現される。従って、表示可能なアイコンの個数には限界がある。一方、アイコンの個数を増やそうとすると、アイコンの表示面積が小さくなってしまい、ユーザのアイコンの選択操作が煩雑になる。   However, in the prior art of Patent Document 1, an icon selection screen for selecting content is expressed by so-called two-dimensional display. Therefore, there is a limit to the number of icons that can be displayed. On the other hand, if the number of icons is increased, the icon display area is reduced, and the user's icon selection operation becomes complicated.

特開2005−354245号公報JP 2005-354245 A

本発明の幾つかの態様によれば、これまでにないタイプのコンテンツ選択のためのメニュー画面を表示できる画像生成システム、プログラム、情報記憶媒体及びサーバシステム等を提供できる。   According to some aspects of the present invention, it is possible to provide an image generation system, a program, an information storage medium, a server system, and the like that can display a menu screen for selecting an unprecedented type of content.

本発明の一態様は、コンテンツを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定されるメニュー用オブジェクト空間を設定するメニュー用オブジェクト空間設定部と、仮想カメラを制御する仮想カメラ制御部と、前記メニュー用オブジェクト空間において前記仮想カメラから見える画像を、コンテンツ選択のためのメニュー画面として表示する制御を行う表示制御部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to one aspect of the present invention, there is provided a menu object space setting unit that sets a menu object space in which each icon object of a plurality of icon objects for selecting content is arranged and set at each three-dimensional position, and a virtual camera. The present invention relates to an image generation system including a virtual camera control unit that controls, and a display control unit that performs control to display an image seen from the virtual camera in the menu object space as a menu screen for content selection. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、複数のアイコンオブジェクトがメニュー用オブジェクト空間に配置設定される。このアイコンオブジェクトはコンテンツを選択するためのオブジェクトであり、メニュー用オブジェクト空間の各3次元位置に配置設定される。そして、このメニュー用オブジェクト空間において仮想カメラから見える画像が、コンテンツ選択のためのメニュー画面として表示される。このようにすれば、例えば2次元表示の場合に比べて多数のアイコンオブジェクトを配置設定して、コンテンツ選択のためのメニュー画面を表示できるようになり、これまでにないタイプのメニュー画面の表示が可能になる。   According to one aspect of the present invention, a plurality of icon objects are arranged and set in the menu object space. This icon object is an object for selecting content, and is arranged and set at each three-dimensional position in the menu object space. An image seen from the virtual camera in the menu object space is displayed as a menu screen for selecting content. In this way, it is possible to display a menu screen for selecting contents by arranging and setting a large number of icon objects as compared with, for example, a two-dimensional display, and an unprecedented type of menu screen can be displayed. It becomes possible.

また本発明の一態様では、前記表示制御部は、前記仮想カメラから見て前記アイコンオブジェクトが移動して見える画像を、前記メニュー画面として表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display an image in which the icon object is viewed as viewed from the virtual camera as the menu screen.

このようにすれば、ユーザは、移動して見えるアイコンオブジェクトを選択して、アイコンオブジェクトに対応するコンテンツを選択できるようになる。   In this way, the user can select an icon object that appears to move and select content corresponding to the icon object.

また本発明の一態様では、前記表示制御部は、ユーザが前記アイコンオブジェクトを選択した場合に、前記仮想カメラから見て前記アイコンオブジェクトが接近して見える画像を表示する制御を行ってもよい。   In one aspect of the present invention, the display control unit may perform control to display an image in which the icon object looks close when viewed from the virtual camera when the user selects the icon object.

このようにすれば、ユーザは、選択したアイコンオブジェクトの接近画像を見て確認できるようになる。   In this way, the user can check and confirm the approach image of the selected icon object.

また本発明の一態様では、前記表示制御部は、選択された前記アイコンオブジェクトが静止し、他のアイコンオブジェクトが移動して見える画像を表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display an image in which the selected icon object is stationary and other icon objects appear to move.

このようにすれば、アイコンオブジェクトについては静止して見て、他のオブジェクトは移動して見えるため、実在感等のある画面の表示が可能になる。   In this way, since the icon object is viewed statically and the other objects appear to move, it is possible to display a screen with a sense of reality.

また本発明の一態様では、前記仮想カメラ制御部は、前記仮想カメラを軌道上で移動させる制御を行い、ユーザが前記アイコンオブジェクトを選択すると、選択された前記アイコンオブジェクトに前記仮想カメラを接近させる制御を行ってもよい。   In one aspect of the present invention, the virtual camera control unit performs control to move the virtual camera on a trajectory, and when the user selects the icon object, causes the virtual camera to approach the selected icon object. Control may be performed.

このように仮想カメラを軌道上で移動させることで、仮想カメラから見てアイコンオブジェクトが移動して見える画像を表示できる。そして、このように移動しているアイコンオブジェクトをユーザが選択すると、アイコンオブジェクトの接近画像が表示されるようになり、ユーザは、選択したアイコンオブジェクトの接近画像を見て確認できるようになる。   By moving the virtual camera in the trajectory in this way, it is possible to display an image that the icon object appears to move as viewed from the virtual camera. Then, when the user selects the icon object moving in this way, an approach image of the icon object is displayed, and the user can see and confirm the approach image of the selected icon object.

また本発明の一態様では、前記仮想カメラ制御部は、前記軌道の接線方向に対して前記軌道の中心側に、前記仮想カメラの方向を向ける制御を行ってもよい。   In the aspect of the invention, the virtual camera control unit may perform control to direct the direction of the virtual camera toward the center of the track with respect to the tangential direction of the track.

このようにすれば、アイコンオブジェクトのみならず軌道の中心付近も俯瞰できる画像を表示できる。   In this way, it is possible to display an image in which not only the icon object but also the vicinity of the center of the trajectory can be seen from.

また本発明の一態様では、前記仮想カメラ制御部は、前記仮想カメラを周回軌道上で移動させる制御を行ってもよい。   In the aspect of the invention, the virtual camera control unit may perform control to move the virtual camera on a circular path.

このようにすれば、仮想カメラの視野範囲内に、アイコンオブジェクトを周期的に出現させることが可能になる。   In this way, it is possible to cause the icon object to appear periodically within the visual field range of the virtual camera.

また本発明の一態様では、前記複数のアイコンオブジェクトのうち、前記仮想カメラの位置から所定距離範囲内にあるアイコンオブジェクト、或いは前記仮想カメラの位置に近い所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定するアイコン設定部を含んでもよい。   In one aspect of the present invention, the user can select an icon object within a predetermined distance range from the virtual camera position or a predetermined number of icon objects close to the virtual camera position from the plurality of icon objects. An icon setting unit to be set for a simple icon object may be included.

このようにすれば、仮想カメラから近いアイコンオブジェクトが選択可能状態になるため、スムーズなインターフェース環境を提供できる。   In this way, since an icon object close to the virtual camera can be selected, a smooth interface environment can be provided.

また本発明の一態様では、前記表示制御部は、ユーザが操作するカーソルによりアイコンオブジェクトが選択された場合に、選択された前記アイコンオブジェクトにマーカを重畳表示する、或いは前記アイコンオブジェクトの移動速度又は画像を変化させる表示制御を行ってもよい。   In one aspect of the present invention, when the icon object is selected by a cursor operated by a user, the display control unit displays a marker superimposed on the selected icon object, or the moving speed of the icon object or Display control for changing the image may be performed.

このようにすれば、ユーザは、複数のアイコンオブジェクトのうちのいずれのアイコンオブジェクトが選択されたのかを、視覚的に容易に認識できるようになる。   In this way, the user can easily visually recognize which icon object of the plurality of icon objects has been selected.

また本発明の一態様では、前記仮想カメラ制御部は、ユーザによる操作部の操作に基づいて、前記仮想カメラの位置及び方向の少なくとも1つを制御してもよい。   In the aspect of the invention, the virtual camera control unit may control at least one of the position and direction of the virtual camera based on an operation of the operation unit by a user.

このようにすれば、ユーザの操作により仮想カメラの位置や方向を変化させて、アイコンオブジェクトを選択できるようになるため、これまでにないインターフェース環境を提供できる。   In this way, the icon object can be selected by changing the position and direction of the virtual camera by the user's operation, so that an unprecedented interface environment can be provided.

また本発明の一態様では、前記表示制御部は、コンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのリコメンド情報、コンテンツの選択履歴情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報の少なくとも1つに応じて、コンテンツに対応する前記アイコンオブジェクトの画像が変化する表示制御を行ってもよい。   In one aspect of the present invention, the display control unit includes content popularity information, content evaluation information, content presentation frequency information, content recommendation information, content selection history information, content registration time information, and content. Display control may be performed in which an image of the icon object corresponding to the content changes according to at least one of the additional information added to.

このようにすれば、メニュー画面に表示されるアイコンオブジェクトの画像が、各種情報に応じて変化するようになる。   In this way, the image of the icon object displayed on the menu screen changes according to various information.

また本発明の一態様では、前記表示制御部は、前記アイコンオブジェクトと前記仮想カメラとの位置関係に応じて、前記アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display an image in which the information detail level of the icon object changes according to a positional relationship between the icon object and the virtual camera.

このようにすれば、アイコンオブジェクトと仮想カメラとの位置関係に応じて、例えばアイコンオブジェクトの詳細な情報が表示された場合には、ユーザはより多くの情報を得ることが可能になる。   In this way, according to the positional relationship between the icon object and the virtual camera, for example, when detailed information on the icon object is displayed, the user can obtain more information.

また本発明の一態様では、前記仮想カメラ制御部は、前記仮想カメラの画角を制御してもよい。   In the aspect of the invention, the virtual camera control unit may control an angle of view of the virtual camera.

このようにすれば、様々な表示態様のメニュー画面を表示できる。   In this way, menu screens with various display modes can be displayed.

また本発明の一態様では、前記表示制御部は、前記仮想カメラの画角に応じて、前記アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display an image in which the information detail level of the icon object changes according to the angle of view of the virtual camera.

このようにすれば、仮想カメラの画角の制御により、アイコンオブジェクトの詳細な情報が表示された場合には、ユーザはより多くの情報を得ることが可能になる。   In this way, when detailed information of the icon object is displayed by controlling the angle of view of the virtual camera, the user can obtain more information.

また本発明の一態様では、前記アイコンオブジェクトの前記3次元位置に応じた音を出力する制御を行う音制御部を含んでもよい。   Moreover, in one aspect of the present invention, a sound control unit that performs control to output a sound according to the three-dimensional position of the icon object may be included.

このようにすれば、メニュー画面の表示の際に、アイコンオブジェクトの3次元位置を反映させた音の出力が可能になる。   This makes it possible to output a sound reflecting the three-dimensional position of the icon object when the menu screen is displayed.

また本発明の一態様では、前記音制御部は、前記仮想カメラと前記アイコンオブジェクトとの位置関係に応じて変化する音を出力する制御を行ってもよい。   In the aspect of the invention, the sound control unit may perform control to output a sound that changes in accordance with a positional relationship between the virtual camera and the icon object.

このようにすれば、仮想カメラとアイコンオブジェクトとの位置関係により、出力される音が変化するようになる。   In this way, the output sound changes depending on the positional relationship between the virtual camera and the icon object.

また本発明の一態様では、前記音制御部は、前記仮想カメラから見て第1のアイコンオブジェクトの方が第2のアイコンオブジェクトよりも手前側に位置する場合に、前記第1のアイコンオブジェクトに対応づけられた音の方が前記第2のアイコンオブジェクトに関連づけられた音よりも優先して出力される音出力制御を行ってもよい。   In the aspect of the invention, the sound control unit may determine the first icon object when the first icon object is positioned on the near side of the second icon object as viewed from the virtual camera. Sound output control may be performed in which the associated sound is output with priority over the sound associated with the second icon object.

このようにすれば、仮想から見て手前側にある第1のアイコンオブジェクトの音を優先して出力できるため、アイコンオブジェクトの3次元位置を反映させた音の出力が可能になる。   In this way, the sound of the first icon object on the near side when viewed from the virtual side can be preferentially output, so that the sound reflecting the three-dimensional position of the icon object can be output.

また本発明の一態様では、前記メニュー用オブジェクト空間設定部は、前記メニュー用オブジェクト空間に設定された軌道上に、前記複数のアイコンオブジェクトを配置設定してもよい。   In the aspect of the invention, the menu object space setting unit may place and set the plurality of icon objects on a trajectory set in the menu object space.

このようにすれば、メニュー用オブジェクト空間の軌道上に配置設定されたアイコンオブジェクトを、仮想カメラから見た画像を、メニュー画面として表示できるようになる。   In this way, it is possible to display, as a menu screen, an image of the icon object placed and set on the orbit of the menu object space as viewed from the virtual camera.

また本発明の一態様では、前記仮想カメラ制御部は、前記複数のアイコンオブジェクトが配置設定される前記軌道に沿ったカメラ軌道上で、前記仮想カメラを移動させる制御を行ってもよい。   In the aspect of the invention, the virtual camera control unit may perform control to move the virtual camera on a camera trajectory along the trajectory in which the plurality of icon objects are arranged and set.

このようにすれば、仮想カメラから見て、軌道上に沿って配置されるアイコンオブジェクトが移動して見える画像を表示できるようになる。なおこの場合のカメラ軌道は、アイコンオブジェクトの軌道の外周の軌道であってもよいし、内周の軌道であってもよい。またアイコンオブジェクトの軌道の一部又は全部とカメラ軌道とを一致させることも可能である。またアイコンオブジェクトの軌道が周回軌道である場合には、カメラ軌道も周回軌道とすることができる。またカメラ軌道上での仮想カメラの移動は、アイコンオブジェクトに対する相対的な移動であってもよい。   In this way, it is possible to display an image in which the icon objects arranged along the trajectory appear to move as viewed from the virtual camera. Note that the camera trajectory in this case may be an outer orbit of the icon object or an inner orbit. It is also possible to make a part or all of the icon object trajectory coincide with the camera trajectory. If the icon object trajectory is a circular trajectory, the camera trajectory can also be a circular trajectory. The movement of the virtual camera on the camera trajectory may be a relative movement with respect to the icon object.

また本発明の一態様では、前記メニュー用オブジェクト空間設定部は、前記メニュー用オブジェクト空間に設定された複数の軌道の各軌道上に対して、複数のコンテンツグループのうちの対応するコンテンツグループに属する複数のアイコンオブジェクトを配置設定してもよい。   In one aspect of the present invention, the menu object space setting unit belongs to a corresponding content group among a plurality of content groups on each orbit of the plurality of orbits set in the menu object space. A plurality of icon objects may be arranged and set.

このようにすれば、コンテンツグループ毎にアイコンオブジェクトが各軌道に配置設定されるため、ユーザの選択操作を容易化できる。なお、各コンテンツグループに対応する各軌道に沿って各カメラ軌道を設け、各カメラ軌道上で仮想カメラを移動させてもよい。   In this way, since the icon object is arranged and set in each orbit for each content group, the user's selection operation can be facilitated. Note that each camera trajectory may be provided along each trajectory corresponding to each content group, and the virtual camera may be moved on each camera trajectory.

また本発明の一態様では、前記複数のアイコンオブジェクトの配置位置の更新処理を行う位置更新部を含んでもよい。   Moreover, in one aspect of the present invention, a position update unit that performs an update process of the arrangement positions of the plurality of icon objects may be included.

このようにすれば、アイコンオブジェクトの配置位置が更新されることで、メニュー画面の見え方も変化するようになり、これまでにないタイプのメニュー画面の表示が可能になる。   In this way, the arrangement position of the icon object is updated, so that the appearance of the menu screen changes, and an unprecedented type of menu screen can be displayed.

また本発明の一態様では、前記位置更新部は、コンテンツ量情報、コンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのジャンル情報、コンテンツのリコメンド情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報の少なくとも1つに応じて、前記複数のアイコンオブジェクトの配置位置の更新処理を行ってもよい。   In the aspect of the invention, the position update unit may include content amount information, content popularity information, content evaluation information, content presentation count information, content genre information, content recommendation information, and content registration time information. And the update processing of the arrangement positions of the plurality of icon objects may be performed according to at least one of the additional information added to the content.

このようにすれば、各種情報に応じてアイコンオブジェクトの配置位置を更新されるため、ユーザの選択操作の容易化等を図れる。   In this way, the arrangement position of the icon object is updated according to various types of information, so that it is possible to facilitate the user's selection operation and the like.

また本発明の一態様では、前記位置更新部は、前記アイコンオブジェクトが前記仮想カメラの視野範囲外になった場合に、視野範囲外になった前記アイコンオブジェクトの位置を変更してもよい。   In the aspect of the invention, the position update unit may change the position of the icon object that is out of the visual field range when the icon object is out of the visual field range of the virtual camera.

このようにすれば、視野範囲外になったアイコンオブジェクトの位置を変更して、例えば、再度、視野範囲内に入るようにするなどの制御が可能になる。   In this way, it is possible to perform control such as changing the position of the icon object that is out of the visual field range so that it is again within the visual field range.

また本発明の一態様では、前記アイコンオブジェクトは、ネットワークを介して配信される映像コンテンツ又は前記映像コンテンツの各シーンを選択するためのアイコンオブジェクトであってもよい。   In the aspect of the invention, the icon object may be an icon object for selecting video content distributed via a network or each scene of the video content.

また本発明の一態様では、前記アイコンオブジェクトは、放送番組を選択するためのアイコンオブジェクトであってもよい。   In the aspect of the invention, the icon object may be an icon object for selecting a broadcast program.

また本発明の一態様では、前記アイコンオブジェクトは、記録媒体に記録された映像コンテンツ又は音楽コンテンツを選択するためのアイコンオブジェクトであってもよい。   In the aspect of the invention, the icon object may be an icon object for selecting video content or music content recorded on a recording medium.

また本発明の他の態様は、コンテンツを配信するコンテンツ配信部と、配信されるコンテンツを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定されるメニュー用オブジェクト空間を設定するための処理を行うメニュー用オブジェクト空間設定部と、前記メニュー用オブジェクト空間において仮想カメラから見える画像を、コンテンツ選択のためのメニュー画面として端末装置の表示部に表示するための処理を行う表示処理部とを含むサーバシステムに関係する。   According to another aspect of the present invention, there is provided a content distribution unit for distributing content, and a menu object space in which icon objects of a plurality of icon objects for selecting content to be distributed are arranged and set at respective three-dimensional positions. A menu object space setting unit that performs a process for setting the image, and a process for displaying an image seen from the virtual camera in the menu object space on the display unit of the terminal device as a menu screen for selecting content The present invention relates to a server system including a display processing unit.

本発明の他の態様によれば、複数のアイコンオブジェクトがメニュー用オブジェクト空間に配置設定される。そして、このメニュー用オブジェクト空間において仮想カメラから見える画像が、コンテンツ選択のためのメニュー画面として端末装置の表示部に表示される。このようにすれば、2次元表示の場合に比べて例えば多数のアイコンオブジェクトを配置設定して、コンテンツ選択のためのメニュー画面を表示できるようになり、これまでにないタイプのメニュー画面の表示が可能になる。   According to another aspect of the present invention, a plurality of icon objects are arranged and set in the menu object space. Then, an image seen from the virtual camera in the menu object space is displayed on the display unit of the terminal device as a menu screen for content selection. In this way, it is possible to display a menu screen for content selection by arranging and setting, for example, a large number of icon objects as compared to the case of two-dimensional display, and an unprecedented type of menu screen can be displayed. It becomes possible.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. コンテンツ選択のためのメニュー画面の例。Example of menu screen for content selection. アイコンオブジェクトのキャッチ画面の例。An example of an icon object catch screen. シーンのオープン画面の例。An example of the scene open screen. シーン再生画面の例。An example of the scene playback screen. アイコンオブジェクトのオブジェクトデータの例。An example of object data of an icon object. 図7(A)、図7(B)は軌道上で仮想カメラを移動させる手法の説明図。7A and 7B are explanatory diagrams of a method for moving the virtual camera on the trajectory. 仮想カメラの方向の設定手法の説明図。Explanatory drawing of the setting method of the direction of a virtual camera. 図9(A)、図9(B)はユーザにより選択可能なアイコンオブジェクトの設定手法の説明図。FIG. 9A and FIG. 9B are explanatory diagrams of a method for setting icon objects that can be selected by the user. 図10(A)、図10(B)はアイコンオブジェクトの選択手法の説明図。10A and 10B are explanatory diagrams of a method for selecting an icon object. ユーザの操作により仮想カメラの位置、方向を制御する手法の説明図。Explanatory drawing of the method of controlling the position and direction of a virtual camera by a user's operation. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment. 図13(A)〜図13(D)はアイコンオブジェクトに画像エフェクトや選択履歴を表す画像を付与する手法の説明図。FIGS. 13A to 13D are explanatory diagrams of a method for giving an image representing an image effect or a selection history to an icon object. 図14(A)〜図14(E)はアイコンオブジェクトの情報詳細度を変化させる手法の説明図。FIGS. 14A to 14E are explanatory diagrams of a method for changing the information detail level of the icon object. 図15(A)、図15(B)はアイコンオブジェクトの3次元位置の情報に基づき出力音を制御する手法の説明図。FIGS. 15A and 15B are explanatory diagrams of a method for controlling the output sound based on the information on the three-dimensional position of the icon object. アイコンオブジェクトを軌道上に配置設定する手法の説明図。Explanatory drawing of the method which arrange | positions and sets an icon object on a track | orbit. 図17(A)〜図17(C)は、各コンテンツグループのアイコンオブジェクトを各軌道上に配置設定する手法の説明図。FIG. 17A to FIG. 17C are explanatory diagrams of a method for arranging and setting icon objects of each content group on each trajectory. コンテンツ情報量等に基づいてアイコンオブジェクトの配置位置を更新する手法の説明図。Explanatory drawing of the method of updating the arrangement position of an icon object based on content information amount etc. FIG. 図19(A)〜図19(C)は視野範囲外のアイコンオブジェクトの位置を変更する手法の説明図。FIGS. 19A to 19C are explanatory diagrams of a method for changing the position of an icon object outside the visual field range. 本実施形態のサーバシステムの構成例。The structural example of the server system of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.画像生成システム
図1に本実施形態の画像生成システム(画像表示システム)の構成例を示す。本実施形態の画像生成システムは、例えばゲーム装置、コンテンツ再生装置(HDDプレーヤ、DVDプレーヤ)、テレビ、携帯型端末装置、パーソナルコンピュータ等の種々の機器に適用できる。なお本実施形態の画像生成システムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Image Generation System FIG. 1 shows a configuration example of an image generation system (image display system) of this embodiment. The image generation system according to the present embodiment can be applied to various devices such as a game device, a content playback device (HDD player, DVD player), a television, a portable terminal device, and a personal computer. Note that the image generation system of the present embodiment is not limited to the configuration of FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.

操作部160は、ユーザ(プレーヤ)が操作データを入力するためのものであり、その機能は、操作ボタン、方向キー、レバー、アナログスティック、リモコン、キーボード、ポインティングデバイス(マウス等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a user (player) to input operation data, and functions thereof are operation buttons, direction keys, levers, analog sticks, remote controllers, keyboards, pointing devices (such as a mouse), microphones, or It can be realized with a touch panel display.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そして処理部100により実行されるプログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. A program executed by the processing unit 100 and data necessary for executing the program are held in the storage unit 170.

記憶部170のオブジェクトデータ記憶部172は、オブジェクト空間設定のためのオブジェクトデータを記憶する。仮想カメラデータ記憶部174は、仮想カメラ制御部103の各種制御データを記憶する。画像データ記憶部175は、アイコンオブジェクト等のオブジェクトの画像データを記憶する。音データ記憶部176は、アイコンオブジェクト等に対応づけられた各種の音(音声、音楽)のデータを記憶する。描画バッファ177は画像を描画するためのバッファである。コンテンツ記憶部178は、映像コンテンツ、音楽コンテンツ、ゲームコンテンツなどの各種コンテンツの情報を記憶する。   The object data storage unit 172 of the storage unit 170 stores object data for setting an object space. The virtual camera data storage unit 174 stores various control data of the virtual camera control unit 103. The image data storage unit 175 stores image data of objects such as icon objects. The sound data storage unit 176 stores data of various sounds (speech and music) associated with icon objects and the like. The drawing buffer 177 is a buffer for drawing an image. The content storage unit 178 stores information on various types of content such as video content, music content, and game content.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、ブルーレイディスク、CD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, Blu-ray disk, CD), HDD (hard disk drive), or memory (ROM, etc.). ) Etc. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、プラズマディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, a plasma display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバシステム、ホスト)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server system, or a host) via a wired or wireless network, and functions as a communication ASIC or a communication processor. It can be realized by hardware and communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバシステムが有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部、補助記憶装置)に配信してもよい。このようなサーバシステムによる情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium included in the server system to the information storage medium 180 (or the storage unit or auxiliary storage device) via the network and the communication unit 196. May be. Use of the information storage medium by such a server system can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、各種演算処理、画像生成処理、音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs various arithmetic processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、メニュー用オブジェクト空間設定部102、仮想カメラ制御部103、表示制御部107、音制御部108、アイコン設定部110、位置更新部112を含む。なおこれらの一部の構成要素(例えばアイコン設定部、位置更新部)を省略したり、他の構成要素(例えばゲーム演算部、移動体演算部)を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes a menu object space setting unit 102, a virtual camera control unit 103, a display control unit 107, a sound control unit 108, an icon setting unit 110, and a position update unit 112. Various modifications such as omission of some of these components (for example, icon setting unit and position update unit) and addition of other components (for example, game calculation unit and mobile unit calculation unit) are possible. is there.

メニュー用オブジェクト空間設定部102は、各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間(3次元空間)に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクトの位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクトIDに対応づけて記憶され、このオブジェクトデータは、例えば位置更新部112等により更新される。   The menu object space setting unit 102 performs processing for setting various objects (objects composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces) in the object space (three-dimensional space). In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Place the object. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the object position, rotation angle, moving speed, moving direction, and the like in association with the object ID. For example, it is updated by the position update unit 112 or the like.

そして本実施形態ではメニュー用オブジェクト空間設定部102はメニュー用オブジェクト空間の設定処理を行う。このメニュー用オブジェクト空間では、複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定される。   In this embodiment, the menu object space setting unit 102 performs a menu object space setting process. In the menu object space, the icon objects of the plurality of icon objects are arranged and set at respective three-dimensional positions.

ここでコンテンツは、例えばサーバシステム等から配信される映像コンテンツや音楽コンテンツなどのマルチメディアのコンテンツである。或いはテレビやラジオの放送コンテンツや、ゲーム装置のゲームコンテンツであってもよい。或いは、HDDプレーヤ、光ディスクプレーヤなどのコンテンツ再生装置に記録される映像コンテンツや音楽コンテンツであってもよい。またアイコンオブジェクトは、これらのコンテンツを選択(表象)するためのオブジェクト(表示物)である。このアイコンオブジェクトは、その属性情報としてオブジェクト空間(3次元空間)における3次元位置の情報を有するが、その形状は3次元形状には限定されず、2次元オブジェクト(例えばビルボード)であってもよいし、3次元オブジェクトであってもよい。またアイコンオブジェクトは、シーン等の画像を表すものあってもよいし、キーワード等の文字を表すものであってもよい。   Here, the contents are multimedia contents such as video contents and music contents distributed from a server system, for example. Alternatively, it may be TV or radio broadcast content or game device game content. Alternatively, it may be video content or music content recorded on a content playback device such as an HDD player or an optical disc player. The icon object is an object (display object) for selecting (representing) these contents. This icon object has information on the three-dimensional position in the object space (three-dimensional space) as attribute information, but the shape is not limited to the three-dimensional shape, and even if it is a two-dimensional object (for example, a billboard) It may be a three-dimensional object. The icon object may represent an image such as a scene, or may represent a character such as a keyword.

また本実施形態の画像生成システムをゲーム装置等に適用する場合には、オブジェクト空間設定部102は、モデルオブジェクト(人、ロボット、車等の移動体)、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクトをオブジェクト空間に配置設定する処理を行う。   When the image generation system according to the present embodiment is applied to a game device or the like, the object space setting unit 102 includes a model object (a moving object such as a person, a robot, or a car), a map (terrain), a building, a course (road). ), Processing for arranging and setting various objects representing display objects such as trees and walls in the object space.

仮想カメラ制御部103は、例えばメニュー用のオブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)、方向(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向を制御する処理)を行う。或いは仮想カメラ制御部103は仮想カメラの画角等を制御してもよい。   The virtual camera control unit 103 performs, for example, a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in a menu object space. Specifically, a process for controlling the position (X, Y, Z) and direction (rotation angle around the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed. Alternatively, the virtual camera control unit 103 may control the angle of view of the virtual camera.

表示制御部107は、各種画像を表示部190に表示する制御を行う。例えば処理部100で行われる種々の処理の結果に基づいて、アイコンオブジェクト等のオブジェクトの描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ177(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお仮想カメラから見える画像等をサーバシステムにおいて生成し、表示制御部107が、サーバシステムから配信された画像(映像)を表示部190に表示する制御を行ってもよい。   The display control unit 107 performs control to display various images on the display unit 190. For example, an object such as an icon object is drawn based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Then, based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image data in units of pixels such as a drawing buffer 177 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that an image or the like visible from the virtual camera may be generated in the server system, and the display control unit 107 may perform control to display the image (video) distributed from the server system on the display unit 190.

音制御部108は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などの音を生成し、音出力部192に出力するための制御を行う。   The sound control unit 108 performs sound processing based on the results of various processes performed by the processing unit 100, generates sound such as BGM, sound effects, or sound, and performs control for outputting the sound to the sound output unit 192. Do.

アイコン設定部110は、アイコンの各種状態(属性)を設定するための処理を行う。例えば複数のアイコンオブジェクトのうち、仮想カメラの位置から所定距離範囲内(所定ビューボリューム内、所定Z値以内)にあるアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクト(カーソルにより選択可能なアイコンオブジェクト)に設定する処理を行う。或いは、仮想カメラの位置に近い所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定してもよい。   The icon setting unit 110 performs processing for setting various states (attributes) of icons. For example, among a plurality of icon objects, an icon object that can be selected by the user (icon object that can be selected by the cursor) within a predetermined distance range (within a predetermined view volume and within a predetermined Z value) from the position of the virtual camera. Perform processing to set. Alternatively, a predetermined number of icon objects close to the position of the virtual camera may be set as icon objects that can be selected by the user.

位置更新部112は、オブジェクトの配置位置の更新処理等を行う。例えば、メニュー用オブジェクト空間に設定された複数のアイコンオブジェクトの配置位置(3次元位置)の更新処理を行う。   The position update unit 112 performs an update process of the arrangement position of the object. For example, update processing of the arrangement positions (three-dimensional positions) of a plurality of icon objects set in the menu object space is performed.

具体的には、位置更新部112は、コンテンツ量情報、コンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのジャンル情報、コンテンツのリコメンド情報、コンテンツの選択履歴情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報(付加情報の更新時間情報)の少なくとも1つに応じて、複数のアイコンオブジェクトの配置位置の更新処理を行う。ここでコンテンツ量情報は、コンテンツ数やコンテンツのデータ量である。コンテンツの人気度情報は、サービスを利用するユーザ等の人気度を表す情報である。コンテンツに対する評価情報は、ユーザがコンテンツに対して付与した評価を表す情報である。コンテンツの提示回数情報は、コンテンツの提示回数を表す情報であり、例えば映像コンテンツや音楽コンテンツの再生回数やゲームコンテンツのプレイ回数の情報である。コンテンツのジャンル情報は、コンテンツが属するジャンルの情報である。コンテンツのリコメンド情報は、サービス提供側(メーカ側)やユーザによるそのコンテンツに対するリコメンド情報である。コンテンツの選択履歴情報は、ユーザ(他ユーザ、フレンドユーザ)がコンテンツを選択した場合に、そのコンテンツの選択履歴を表す情報である。コンテンツの登録時間情報は、コンテンツの登録時刻や登録年月日の情報である。コンテンツの付加情報は、例えばユーザがコンテンツに付与したコメントや、シーンのあらすじや、キーワードの解説文などである。   Specifically, the position update unit 112 includes content amount information, content popularity information, content evaluation information, content presentation frequency information, content genre information, content recommendation information, content selection history information, content information Update processing of the arrangement positions of a plurality of icon objects is performed according to at least one of the registration time information and additional information added to the content (update time information of additional information). Here, the content amount information is the number of content and the data amount of content. Content popularity information is information representing the popularity of a user or the like who uses the service. The evaluation information for content is information representing evaluation given to the content by the user. The content presentation frequency information is information representing the content presentation frequency, for example, information on the number of times video content or music content has been played or the number of game content plays. The content genre information is information on the genre to which the content belongs. The content recommendation information is recommendation information for the content provided by the service provider (manufacturer) or the user. The content selection history information is information representing a content selection history when a user (another user or a friend user) selects the content. The content registration time information is content registration time and registration date information. The additional information of the content is, for example, a comment given to the content by the user, a synopsis of a scene, a commentary on a keyword, or the like.

また位置更新部112は、アイコンオブジェクトが仮想カメラの視野範囲外になった場合(仮想カメラから見えなくなった場合)に、視野範囲外になったアイコンオブジェクトの位置を変更する処理を行ってもよい。例えば視野範囲外になったアイコンオブジェクトが、再度視野範囲内に入るように、アイコンオブジェクトの位置を変更する。   Further, the position update unit 112 may perform a process of changing the position of the icon object that is out of the visual field range when the icon object is out of the visual field range of the virtual camera (when the icon object becomes invisible from the virtual camera). . For example, the position of the icon object is changed so that an icon object that is out of the visual field range falls within the visual field range again.

そして本実施形態では、メニュー用オブジェクト空間設定部102は、アイコンオブジェクトが配置設定されるメニュー用オブジェクト空間の設定処理を行う。そして表示制御部107は、メニュー用オブジェクト空間において仮想カメラから見える画像を、メニュー画面として表示する制御を行う。即ちアイコンオブジェクトのコンテンツを選択するためのメニュー画面を表示する制御を行う。   In the present embodiment, the menu object space setting unit 102 performs processing for setting a menu object space in which icon objects are arranged and set. The display control unit 107 performs control to display an image seen from the virtual camera in the menu object space as a menu screen. That is, control is performed to display a menu screen for selecting the content of the icon object.

なおアイコンオブジェクトは、例えばネットワークを介して配信される映像コンテンツや映像コンテンツの各シーン(シーンに関連するキーワード)を選択するためのアイコンオブジェクトである。或いは、放送番組(テレビ番組、ラジオ番組)を選択するためのアイコンオブジェクトや、記録媒体(ハードディスク、光ディスク、外部メモリーカード)に記録される映像コンテンツ又は音楽コンテンツを選択するためのアイコンオブジェクトであってもよい。   The icon object is an icon object for selecting, for example, video content distributed via a network and each scene (keyword related to the scene) of the video content. Alternatively, an icon object for selecting a broadcast program (television program, radio program) and an icon object for selecting video content or music content recorded on a recording medium (hard disk, optical disk, external memory card). Also good.

表示制御部107は、例えば仮想カメラから見てアイコンオブジェクトが移動して見える画像を、メニュー画面として表示する制御を行う。この場合に、仮想カメラ側を移動させてもよいし、アイコンオブジェクト側を移動させてもよい。またユーザがアイコンオブジェクトを選択した場合には、仮想カメラから見てアイコンオブジェクトが接近して見える画像を表示する。例えば仮想カメラを、アイコンオブジェクトの前方位置(近傍の位置)に移動させて、仮想カメラから見える画像を生成する。具体的には、選択されたアイコンオブジェクト(ポインティングされたアイコンオブジェクト)が静止し、他のアイコンオブジェクト(背景画像)が移動して見える画像を表示する。例えば、アイコンオブジェクトが仮想カメラに対して正対し、他のアイコンオブジェクト等の背景画像が回転して見える画像を生成する。   For example, the display control unit 107 performs control to display, as a menu screen, an image that the icon object appears to move when viewed from the virtual camera. In this case, the virtual camera side may be moved, or the icon object side may be moved. When the user selects an icon object, an image in which the icon object looks close when viewed from the virtual camera is displayed. For example, the virtual camera is moved to the front position (near position) of the icon object to generate an image that can be seen from the virtual camera. Specifically, the selected icon object (pointed icon object) is stationary, and the other icon objects (background image) are displayed as moving images. For example, an image is generated in which an icon object faces the virtual camera and a background image such as another icon object appears to rotate.

仮想カメラ制御部103は、仮想カメラを所定の軌道上で移動させる制御を行ってもよい。例えば仮想カメラを周回軌道上で移動させる制御を行う。このようにすれば、仮想カメラの視野範囲内に、アイコンオブジェクトを周期的に出現させることが可能になる。なお周回軌道としては、円軌道、楕円軌道、オーバル軌道等の種々の軌道を想定できる。   The virtual camera control unit 103 may perform control to move the virtual camera on a predetermined trajectory. For example, control is performed to move the virtual camera on the orbit. In this way, it is possible to cause the icon object to appear periodically within the visual field range of the virtual camera. Various orbits such as circular or elliptical or oval can be assumed as the circular orbit.

そしてユーザがアイコンオブジェクトを選択すると(アイコンオブジェクトをポインティングすると)、選択されたアイコンオブジェクトに仮想カメラを接近させる制御を行う。例えば仮想カメラを、アイコンオブジェクトの前方位置(近傍位置)に移動させて、仮想カメラから見える画像を生成する。この場合に仮想カメラ制御部103は、軌道の接線方向に対して、軌道の中心側に仮想カメラの方向が向くように制御することが望ましい。例えば仮想カメラの位置から軌道(例えば円軌道、楕円軌道)の中心に向かう方向と、軌道の接線方向との間の方向に、仮想カメラの方向を向ける。   When the user selects an icon object (points to the icon object), control is performed to bring the virtual camera closer to the selected icon object. For example, the virtual camera is moved to the front position (near position) of the icon object to generate an image that can be seen from the virtual camera. In this case, it is desirable that the virtual camera control unit 103 performs control so that the direction of the virtual camera is directed toward the center of the track with respect to the tangential direction of the track. For example, the direction of the virtual camera is directed in a direction between the direction from the virtual camera position toward the center of the trajectory (for example, a circular trajectory or an elliptical trajectory) and the tangential direction of the trajectory.

また、ユーザが操作するカーソルによりアイコンオブジェクトが選択(ポインティング)された場合に、表示制御部107は、選択されたアイコンオブジェクトにマーカを重畳表示するようにしてもよい。例えばマーカの画像とアイコンオブジェクトの画像が半透明合成された画像を生成する。或いは、カーソルによりアイコンオブジェクトが選択された場合に、アイコンオブジェクトの移動速度(仮想カメラに対する相対速度)や、アイコンオブジェクトの画像を変化させる表示制御を行ってもよい。例えばアイコンオブジェクトの移動速度を遅くしたり、アイコンオブジェクトの色や輝度を変化させたり、画像エフェクトを付与する。なおカーソルがアイコンオブジェクトを選択(ポインティング)したか否かは、例えばアイコンオブジェクトの代表位置を中心とする所定範囲内に、カーソル位置が存在するか否かなどを判断することで実現できる。   Further, when an icon object is selected (pointed) by a cursor operated by the user, the display control unit 107 may superimpose a marker on the selected icon object. For example, an image in which a marker image and an icon object image are translucently combined is generated. Alternatively, when the icon object is selected with the cursor, display control may be performed to change the moving speed of the icon object (relative speed with respect to the virtual camera) or the icon object image. For example, the moving speed of the icon object is decreased, the color and brightness of the icon object are changed, and an image effect is applied. Whether or not the cursor has selected (pointed to) the icon object can be realized by determining whether or not the cursor position is within a predetermined range centered on the representative position of the icon object, for example.

また仮想カメラ制御部103は、ユーザによる操作部160の操作に基づいて、仮想カメラの位置及び方向の少なくとも1つを制御するようにしてもよい。例えばユーザの操作により、仮想カメラを移動させたり、仮想カメラの方向を変化させる。   The virtual camera control unit 103 may control at least one of the position and direction of the virtual camera based on the operation of the operation unit 160 by the user. For example, the virtual camera is moved or the direction of the virtual camera is changed by a user operation.

また表示制御部107は、上述したコンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのリコメンド情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報の少なくとも1つに応じて、コンテンツに対応するアイコンオブジェクトの画像が変化する表示制御を行ってもよい。例えばアイコンオブジェクトの画像(色、輝度等)を変化させたり、アイコンオブジェクトに重畳表示する画像エフェクトを変化させる。   The display control unit 107 also includes at least one of the above-described content popularity information, content evaluation information, content presentation frequency information, content recommendation information, content registration time information, and additional information added to the content. Accordingly, display control in which the image of the icon object corresponding to the content changes may be performed. For example, the image (color, brightness, etc.) of the icon object is changed, or the image effect superimposed on the icon object is changed.

また表示制御部107は、アイコンオブジェクトと仮想カメラとの位置関係(距離、方向等)に応じて、アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行ってもよい。例えば仮想カメラとの距離が第1の距離よりも遠い場合には、第1の情報詳細度でアイコンオブジェクトを表示し、第1の距離よりも近い場合には、第1の情報詳細度よりも詳細度が高い第2の情報詳細度でアイコンオブジェクトを表示する。なおアイコンオブジェクトと仮想カメラの距離は、奥行き距離(Z値)であってもよいし、直線距離であってもよい。また情報の詳細度が変化するとは、同時に表示される情報の種類が変化したり、表示される情報の情報量が変化することである。   The display control unit 107 may perform control to display an image in which the information detail level of the icon object changes according to the positional relationship (distance, direction, etc.) between the icon object and the virtual camera. For example, when the distance to the virtual camera is farther than the first distance, the icon object is displayed with the first information detail level, and when closer to the first distance, the icon object is displayed than the first information detail level. The icon object is displayed with the second information detail level having a high level of detail. The distance between the icon object and the virtual camera may be a depth distance (Z value) or a linear distance. The level of detail of information changes when the type of information displayed at the same time changes, or when the amount of information displayed is changed.

また仮想カメラ制御部103は、仮想カメラの画角を制御してもよい。例えば、初期設定情報やユーザの操作に基づいて仮想カメラの画角を制御する。そして表示制御部107は、仮想カメラの画角に応じて、アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行ってもよい。例えば画角が第1の画角よりも広い場合には、第1の情報詳細度でアイコンオブジェクトを表示し、第1の画角よりも狭い場合には、第1の情報詳細度よりも詳細度が高い第2の情報詳細度でアイコンオブジェクトを表示する。   The virtual camera control unit 103 may control the angle of view of the virtual camera. For example, the angle of view of the virtual camera is controlled based on the initial setting information and user operation. And the display control part 107 may perform control which displays the image from which the information detail level of an icon object changes according to the angle of view of a virtual camera. For example, when the angle of view is wider than the first angle of view, the icon object is displayed with the first information detail level, and when it is narrower than the first angle of view, it is more detailed than the first information detail level. The icon object is displayed with the second information detail level having a high degree.

また音制御部108は、アイコンオブジェクトの3次元位置に応じた音を出力する制御を行ってもよい。例えばアイコンオブジェクトの3次元位置に基づいて、仮想的な音場を生成して、サラウンド処理を行って、3次元位置が反映された音を出力する。   The sound control unit 108 may perform control to output a sound according to the three-dimensional position of the icon object. For example, a virtual sound field is generated based on the three-dimensional position of the icon object, and surround processing is performed to output a sound reflecting the three-dimensional position.

また音制御部108は、仮想カメラとアイコンオブジェクトとの位置関係に応じて変化する音を出力する制御を行ってもよい。例えば仮想カメラとアイコンオブジェクトとの距離が遠い場合には、音のレベルを小さくし、近い場合には音のレベルを大きくする。この場合に、出力される音は、各アイコンオブジェクトに対応づけられた音であることが望ましい。   The sound control unit 108 may perform control to output a sound that changes in accordance with the positional relationship between the virtual camera and the icon object. For example, when the distance between the virtual camera and the icon object is far, the sound level is decreased, and when the distance is close, the sound level is increased. In this case, it is desirable that the output sound is a sound associated with each icon object.

また例えば仮想カメラから見て第1のアイコンオブジェクトの方が第2のアイコンオブジェクトよりも手前側に位置していたとする。この場合に音制御部107は、第1のアイコンオブジェクトに対応づけられた音の方が第2のアイコンオブジェクトに関連づけられた音よりも優先して出力されるように制御する。例えば第1のアイコンオブジェクトの音だけが出力されたり、第1のアイコンオブジェクトの音の方が第2のアイコンオブジェクトの音よりも大きくなるように、音制御を行う。   Further, for example, it is assumed that the first icon object is located on the near side of the second icon object as viewed from the virtual camera. In this case, the sound control unit 107 performs control so that the sound associated with the first icon object is output with priority over the sound associated with the second icon object. For example, sound control is performed so that only the sound of the first icon object is output or the sound of the first icon object is larger than the sound of the second icon object.

またメニュー用オブジェクト空間設定部102は、メニュー用オブジェクト空間に設定された軌道上(1又は複数の軌道上)に、複数のアイコンオブジェクトを配置設定するようにしてもよい。例えば所定の位置を中心とする円軌道、楕円軌等の軌道上(周回軌道上)にアイコンオブジェクトを配置する。この場合に複数の軌道の各軌道上に対して、複数のコンテンツグループのうちの対応するコンテンツグループに属する複数のアイコンオブジェクトを配置設定してもよい。例えば第1の軌道上には、第1のコンテンツグループに属する複数のアイコンオブジェクトを配置し、第2の軌道上には、第2のコンテンツグループに属する複数のアイコンオブジェクトを配置する。   Further, the menu object space setting unit 102 may arrange and set a plurality of icon objects on a trajectory (on one or a plurality of trajectories) set in the menu object space. For example, the icon object is arranged on a circular or elliptical orbit such as a circular orbit (circular orbit) centered on a predetermined position. In this case, a plurality of icon objects belonging to the corresponding content group among the plurality of content groups may be arranged and set on each of the plurality of tracks. For example, a plurality of icon objects belonging to the first content group are arranged on the first trajectory, and a plurality of icon objects belonging to the second content group are arranged on the second trajectory.

また仮想カメラ制御部103は、複数のアイコンオブジェクトが配置設定される軌道に沿ったカメラ軌道上で、仮想カメラを移動(アイコンオブジェクトに対する相対的な移動)させる制御を行ってもよい。このカメラ軌道は、アイコンオブジェクトの軌道の外周又は内周に沿った軌道であってもよいし、アイコンオブジェクトの軌道の一部又は全部がカメラ軌道と一致していてもよい。また、各コンテンツグループに対応する各軌道に沿って各カメラ軌道を設け、各カメラ軌道上で仮想カメラを移動させてもよい。   Further, the virtual camera control unit 103 may perform control to move the virtual camera (relative movement with respect to the icon object) on a camera trajectory along a trajectory along which a plurality of icon objects are arranged and set. The camera trajectory may be a trajectory along the outer periphery or inner periphery of the icon object trajectory, or a part or all of the icon object trajectory may coincide with the camera trajectory. Alternatively, each camera trajectory may be provided along each trajectory corresponding to each content group, and the virtual camera may be moved on each camera trajectory.

2.本実施形態の手法
2.1 アイコンオブジェクトのメニュー画面の表示
さて、これまでのコンテンツ選択のためのメニュー画面は、2次元表示であった。このため1つの画面に表示されるアイコンの数には限界があり、多数のアイコンを画面上に表示しようとすると、アイコンが小さくなってしまうなどの課題があった。
2. 2. Method of Present Embodiment 2.1 Display of Icon Object Menu Screen The menu screen for content selection so far has been two-dimensional display. For this reason, there is a limit to the number of icons displayed on one screen, and there has been a problem that when a large number of icons are displayed on the screen, the icons become small.

そこで本実施形態では、図2に示すように、コンテンツ選択のためのメニュー画面を3次元表示にしている。具体的には、シーン、キーワードなどの多数のアイコン(サムネール)が浮遊した宇宙の星々の中にいるように見えるメニュー画面を表示する。また後述するように、ユーザの移動やコメント書き込みなどの行動(履歴)を表現し、ユーザ全体の盛り上がりを表現している。例えばユーザのフレンドユーザの名前や、フレンドユーザの移動軌跡や、フレンド以外の他ユーザの名前や、他ユーザの移動軌跡や、コメントの書き込みマーク(例えば直近5分間)が表示される。またシーンの再生数、オープン数等を表す画像エフェクト(オーラ)が表示される。また宇宙(軌道)の中心には、ユーザコミュニティの盛り上がりを表現するフレアも表示される。また宇宙空間をゆったりと感じさせるBGM音楽が流れると共に、シーンのセリフのサウンドが所定秒数毎にランダムに再生される。   Therefore, in the present embodiment, as shown in FIG. 2, the menu screen for content selection is displayed in three dimensions. Specifically, a menu screen is displayed in which a large number of icons (thumbnails) such as scenes and keywords appear to be in floating stars. As will be described later, behavior (history) such as user movement and comment writing is expressed to express the excitement of the entire user. For example, the name of the user's friend user, the movement trajectory of the friend user, the name of a user other than the friend, the movement trajectory of another user, and a comment writing mark (for example, the last five minutes) are displayed. In addition, an image effect (aura) representing the number of scenes played, the number of opens, etc. is displayed. A flare that expresses the excitement of the user community is also displayed at the center of the universe (orbit). In addition, BGM music that makes you feel relaxed in outer space flows, and the sound of the speech of the scene is played back randomly every predetermined number of seconds.

例えば図2では、映像コンテンツを構成する各シーンを表すアイコンオブジェクトIOB1、IOB2等が表示される。また各シーンに関連づけられたキーワードを表すアイコンオブジェクトIOB3、IOB4等が表示される。ユーザは、これらのアイコンオブジェクトを選択することで、コンテンツである各シーン等を選択して、シーンの再生映像等を鑑賞できる。   For example, in FIG. 2, icon objects IOB1, IOB2, and the like representing scenes constituting the video content are displayed. In addition, icon objects IOB3, IOB4, and the like representing keywords associated with each scene are displayed. By selecting these icon objects, the user can select each scene or the like that is the content and view the playback video of the scene.

具体的には本実施形態では、コンテンツ選択のためのアイコンオブジェクトIOB1〜IOB4等が配置されるメニュー用オブジェクト空間を設定する。例えばこれらのアイコンオブジェクトの3次元位置(或いは3次元位置及び方向)のデータがオブジェクトデータとして用意される。そして、このメニュー用オブジェクト空間において、仮想カメラから見える画像を生成することで、図2に示すようなメニュー画面が表示部190に表示される。   Specifically, in the present embodiment, a menu object space in which icon objects IOB1 to IOB4 and the like for content selection are arranged is set. For example, data of the three-dimensional positions (or three-dimensional positions and directions) of these icon objects are prepared as object data. Then, a menu screen as shown in FIG. 2 is displayed on the display unit 190 by generating an image visible from the virtual camera in the menu object space.

この場合に、例えば仮想カメラから見てアイコンオブジェクトIOB1〜IOB4等が移動して見える画像を、メニュー画面として表示することが望ましい。即ち、ユーザが操作部160を操作しなくても、アイコンオブジェクトが遠くから近くに流れて行くように見える画像が表示される。具体的には後述するように、仮想カメラを所定軌道上で例えば一定速度で移動させることで、このような画像が表示される。このようにすることで、ユーザは、何も操作しなくても、アイコンオブジェクトが次から次へと遠くから近づいては消えるという画像を傍観できる。   In this case, for example, it is desirable to display, as a menu screen, an image in which the icon objects IOB1 to IOB4 and the like are viewed from the virtual camera. That is, even if the user does not operate the operation unit 160, an image is displayed in which the icon object appears to flow from far away. Specifically, as will be described later, such an image is displayed by moving the virtual camera on a predetermined trajectory, for example, at a constant speed. By doing in this way, the user can bystand the image that the icon object disappears as it approaches from the next to the next without any operation.

そしてユーザは、操作部160を操作することでカーソルCSを移動させて、空間内で移動するアイコンオブジェクトを選択(ポインティング)する。即ちアイコンオブジェクトの画像やキーワードを傍観しながら、興味を持ったアイコンオブジェクトの方にカーソルCSを移動させて、目的のアイコンオブジェクトを選択(補足、タッチ、クリック)する。   The user moves the cursor CS by operating the operation unit 160, and selects (points) an icon object that moves in the space. That is, while looking at the icon object image and keyword, the cursor CS is moved toward the icon object that is interested, and the target icon object is selected (supplemented, touched, clicked).

そして、カーソルCSによりアイコンオブジェクトIOB1が選択されると、図3に示すようにアイコンオブジェクトIOB1(シーン)のキャッチ画面(補足画面)が表示される。このキャッチ画面では、例えばシーン名、シーンのアイコン画像(サムネール画像)、シーンのオーラ、シーンに対する他ユーザのコメント等が表示される。例えばネットワーク上の他ユーザのコメントの中から所定数のコメントが取得され、1件ずつ次々に表示される。   When the icon object IOB1 is selected by the cursor CS, a catch screen (supplementary screen) of the icon object IOB1 (scene) is displayed as shown in FIG. In this catch screen, for example, a scene name, a scene icon image (thumbnail image), a scene aura, a comment of another user on the scene, and the like are displayed. For example, a predetermined number of comments are acquired from comments of other users on the network and displayed one by one.

具体的には、アイコンオブジェクトIOB1が選択(ポインティング)されると、軌道上で移動していた仮想カメラが、アイコンオブジェクトIOB1の前方位置(近傍)に移動して接近する。そして、このような接近状態において仮想カメラから見える画像を生成することで、図3に示すようなキャッチ画面が表示部190に表示される。   Specifically, when the icon object IOB1 is selected (pointed), the virtual camera that has moved on the trajectory moves to and approaches the front position (near the icon object IOB1). Then, a catch screen as shown in FIG. 3 is displayed on the display unit 190 by generating an image that can be seen from the virtual camera in such an approaching state.

なお、この状態でユーザがキャンセル操作を行った場合には、仮想カメラが元の軌道上の位置に戻り、図2に示すメニュー画面(宇宙メニュー)が再度表示される。   When the user performs a cancel operation in this state, the virtual camera returns to the original position on the orbit and the menu screen (space menu) shown in FIG. 2 is displayed again.

また図3では、目的となるアイコンオブジェクトIOB1が静止し、他のアイコンオブジェクトが移動して見える画像が表示される。例えば静止しているアイコンオブジェクトIOB1の周囲で他のアイコンオブジェクトが回って見えるような画像を生成する。このようにアイコンオブジェクトIOB1が拡大表示されると共に静止することで、アイコンオブジェクトIOB1がキャッチされたことをユーザに明確に伝えることができる。また静止しているアイコンオブジェクトIOB1の周りで他のアイコンオブジェクトがゆっくりと移動することで、アイコンオブジェクトIOB1の実在感等が増すようになる。   In FIG. 3, the target icon object IOB <b> 1 is stationary and an image in which other icon objects appear to move is displayed. For example, an image is generated so that other icon objects can be seen around the stationary icon object IOB1. In this way, the icon object IOB1 is enlarged and displayed, and the icon object IOB1 can be clearly notified to the user by being stationary. Further, the other icon objects slowly move around the stationary icon object IOB1, thereby increasing the sense of reality of the icon object IOB1.

図3のキャッチ画面(シーンのキャッチ画面)において、ユーザが選択決定操作を行うと、図4に示すようなオープン画面(シーンのオープン画面)が表示される。そして、このオープン画面において、ユーザが例えば左方向(広義には第1の方向)に画面をスクロールさせる操作(広義には第1の方向への操作指示)を行うと、シーンに対する他ユーザのコメントがリスト表示される。一方、図4のオープン画面において、ユーザが例えば右方向(広義には第2の方向)に画面をスクロールさせる操作(広義には第2の方向への操作指示)を行うと、シーンに関連づけられたキーワードがリスト表示される。   When the user performs a selection determination operation on the catch screen (scene catch screen) in FIG. 3, an open screen (scene open screen) as shown in FIG. 4 is displayed. In this open screen, when the user performs an operation of scrolling the screen in the left direction (first direction in a broad sense) (operation instruction in the first direction in a broad sense), for example, another user's comment on the scene Will be listed. On the other hand, when the user performs an operation of scrolling the screen in the right direction (second direction in a broad sense) (operation instruction in the second direction in a broad sense), for example, on the open screen in FIG. Listed keywords are displayed.

そして図4のシーンのオープン画面において、ユーザがシーン選択の決定操作を行うと、図5に示すようなシーン再生画面が表示される。そしてユーザがシーン再生の選択決定操作を行うと、シーンの映像(動画)が再生されて、ユーザが鑑賞できるようになる。   When the user performs a scene selection decision operation on the scene open screen of FIG. 4, a scene playback screen as shown in FIG. 5 is displayed. When the user performs a scene playback selection decision operation, the scene video (moving image) is played back so that the user can appreciate it.

また図5のシーン再生画面において、ユーザは、A1に示すコメントのアイコンを選択することで、シーンに対するコメントを入力できる。そして入力されたコメントは、他ユーザがそのシーンを鑑賞している際に表示されるようになる。   In the scene playback screen of FIG. 5, the user can input a comment for the scene by selecting the comment icon shown in A1. The input comment is displayed when another user is watching the scene.

またユーザは、A2に示すサムアップのアイコンを選択することで、ユーザの盛り上がりが表現される。例えば、シーンを見たユーザがサムアップボタンを押すと、図2のメニュー画面の対応するシーンのアイコンオブジェクトに対応づけて、ユーザの盛り上がり(人気度)を表す画像エフェクト(オーラ等)が表示されるようになる。   The user can express the excitement of the user by selecting the thumb-up icon indicated by A2. For example, when a user who sees a scene presses the thumb-up button, an image effect (aura or the like) representing the user's excitement (popularity) is displayed in association with the icon object of the corresponding scene on the menu screen of FIG. Become so.

またA3に示す「1話まるごと見る」のアイコンを選択すると、ユーザは、再生しているシーンを含む1話の映像コンテンツを鑑賞できる。そして、この際に例えば後述するサーバシステムによる課金処理が行われる。こうすることで、シーンを見たユーザが、その前後の話しなどに興味を持ってA3のアイコンを選択した場合に、そのユーザに対して課金することが可能になる。従って、ユーザにとって違和感を感じにくい課金処理を実現できると共に、シーンをきっかけとして課金処理を行うことで、効率的な課金を実現できる。   Further, when the “view one whole episode” icon shown in A3 is selected, the user can appreciate one episode of video content including the scene being reproduced. At this time, for example, billing processing by a server system described later is performed. In this way, when the user who sees the scene selects the A3 icon with an interest in the conversation before and after the scene, the user can be charged. Accordingly, it is possible to realize a billing process that makes it difficult for the user to feel uncomfortable, and to perform a billing process triggered by a scene, thereby realizing efficient billing.

図6にアイコンオブジェクトのオブジェクトデータの例を示す。このオブジェクトデータは、図1のオブジェクトデータ記憶部172のアイコンオブジェクトデータ記憶部173が記憶する。具体的にはアイコンオブジェクトデータ記憶部173は、各アイコンオブジェクトIOB1、IOB2、IOB3の3次元位置データ(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を記憶する。またアイコンオブジェクトの属性情報を記憶する。属性情報としては、アイコンオブジェクトのID、アイコンオブジェクトの種類情報(シーン、キーワード)、或いは画像エフェクトの情報等の種々の情報を想定できる。また3次元位置データに加えて、アイコンオブジェクトの方向データ(X、Y、Z軸回りの回転角度)を記憶するようにしてもよい。   FIG. 6 shows an example of the object data of the icon object. This object data is stored in the icon object data storage unit 173 of the object data storage unit 172 in FIG. Specifically, the icon object data storage unit 173 stores three-dimensional position data (X1, Y1, Z1), (X2, Y2, Z2), and (X3, Y3, Z3) of the icon objects IOB1, IOB2, and IOB3. To do. Also, attribute information of the icon object is stored. As attribute information, various information such as icon object ID, icon object type information (scene, keyword), or image effect information can be assumed. In addition to the three-dimensional position data, icon object direction data (rotation angles about the X, Y, and Z axes) may be stored.

図7(A)に示すように本実施形態では、メニュー用のオブジェクト空間(3次元空間)に設定された軌道TR上で、仮想カメラVCが移動する。例えばユーザが何も操作をしていない状態では、軌道TR上で一定速度で仮想カメラVCが移動する。こうすることで、図2に示すように、あたかも宇宙空間で浮遊しているようなメニュー画面を表示できる。なお仮想カメラVCを静止させて、アイコンオブジェクトの方を移動させてもよい。また、ユーザの操作により、仮想カメラVCの移動方向を逆方向にして、逆回しできるようにしてもよい。   As shown in FIG. 7A, in this embodiment, the virtual camera VC moves on the trajectory TR set in the object space for menu (three-dimensional space). For example, when the user is not performing any operation, the virtual camera VC moves at a constant speed on the trajectory TR. By doing so, as shown in FIG. 2, a menu screen as if floating in outer space can be displayed. The virtual camera VC may be stationary and the icon object may be moved. Further, the moving direction of the virtual camera VC may be reversed and can be rotated in reverse by a user operation.

そして図7(B)に示すように、ユーザがアイコンオブジェクトIOB1を選択すると、選択されたアイコンオブジェクトIOB1の方に仮想カメラVCが移動して接近する。具体的にはアイコンオブジェクトIOB1に正対し、且つ、軌道TRの中心CTの方向にカメラ方向が向く位置に、仮想カメラVCが移動する。これにより図3に示すようなキャッチ画面が表示部190に表示されるようになる。   As shown in FIG. 7B, when the user selects the icon object IOB1, the virtual camera VC moves toward the selected icon object IOB1. Specifically, the virtual camera VC moves to a position facing the icon object IOB1 and facing the camera direction in the direction of the center CT of the trajectory TR. As a result, a catch screen as shown in FIG. 3 is displayed on the display unit 190.

なお、図3のキャッチ画面から図2のメニュー画面に戻った場合には、図7(A)のように仮想カメラVCは軌道TR上の元の位置に戻る。また図3、図7(B)の表示は、アイコンオブジェクトIOB1となる2次元のビルボードポリゴンを、仮想カメラに対して正対させるビルボード表示などにより実現できる。   When the catch screen of FIG. 3 returns to the menu screen of FIG. 2, the virtual camera VC returns to the original position on the trajectory TR as shown in FIG. 3 and 7B can be realized by a billboard display in which a two-dimensional billboard polygon serving as the icon object IOB1 is directly opposed to the virtual camera.

また図7(B)において、例えば仮想カメラVCの視線方向に沿った軸の回りで、仮想カメラVCをゆっくりとした速度で回転させる。こうすることで、図3で説明したように、アイコンオブジェクトIOB1は静止して見え、他のアイコンオブジェクトは移動して見え画像を生成できる。これによりアイコンオブジェクトIOB1の実在感が増すようになる。   In FIG. 7B, for example, the virtual camera VC is rotated at a slow speed around an axis along the viewing direction of the virtual camera VC. By doing so, as described with reference to FIG. 3, the icon object IOB1 appears to be stationary, and the other icon objects move and appear to generate an image. As a result, the presence of the icon object IOB1 increases.

なお図8に示すように、仮想カメラVCが軌道TR上で移動する際には、仮想カメラVCの方向VD(視線方向)を中心CT側に向けることが望ましい。即ち軌道TRの接線方向TDよりも中心CT側に、仮想カメラVCの方向VDを向ける。こうすることで、アイコンオブジェクトIOB1のみならず、軌道CT上の賑わった場所の画像が表示されるようになり、画像の演出効果を向上できる。この時、例えば中心CTの付近に、ユーザコミュニティの盛り上がりを示すフレア等を配置することで、画像の演出効果を更に向上できる。   As shown in FIG. 8, when the virtual camera VC moves on the trajectory TR, it is desirable to direct the direction VD (line-of-sight direction) of the virtual camera VC toward the center CT side. That is, the direction VD of the virtual camera VC is directed to the center CT side from the tangential direction TD of the trajectory TR. By doing so, not only the icon object IOB1, but also an image of a crowded place on the trajectory CT is displayed, and the effect of rendering the image can be improved. At this time, for example, by arranging a flare or the like indicating the excitement of the user community in the vicinity of the center CT, the effect of rendering the image can be further improved.

また本実施形態では図9(A)に示すように、仮想カメラVCの位置から所定距離範囲内にあるアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定する。具体的には、図2のメニュー画面においてユーザがアイコンオブジェクトを選択(ポインティング)する場合に、仮想カメラVCからの奥行き距離(Z)が所定範囲であるビューボリュームVVL内のアイコンオブジェクトのみを選択可能にする。   In this embodiment, as shown in FIG. 9A, an icon object within a predetermined distance range from the position of the virtual camera VC is set as an icon object that can be selected by the user. Specifically, when the user selects (points) an icon object on the menu screen of FIG. 2, only the icon object in the view volume VVL whose depth distance (Z) from the virtual camera VC is within a predetermined range can be selected. To.

例えばメニュー画面に多数のアイコンオブジェクトが表示されている場合に、全てのアイコンオブジェクトがカーソルCSにより選択可能(ポインティング可能)になってしまうと、ユーザが意図しない遠くのアイコンオブジェクトが選択されるようになってしまい、ユーザを混乱させるおそれがある。   For example, when a large number of icon objects are displayed on the menu screen, if all the icon objects become selectable (pointable) by the cursor CS, a distant icon object that is not intended by the user is selected. This may confuse the user.

この点、図9(A)のように所定距離範囲内(ビューボリュームVVL内)のアイコンオブジェクトのみをカーソルCSにより選択可能にすれば、ユーザは、視点から近いアイコンオブジェクトのみを選択できるようになり、混乱の少ないスムーズな操作インターフェースを提供できる。   In this regard, as shown in FIG. 9A, if only icon objects within a predetermined distance range (within the view volume VVL) can be selected by the cursor CS, the user can select only icon objects close to the viewpoint. , Provide a smooth operation interface with little confusion.

なお選択可能なアイコンオブジェクトの設定は図9(A)の手法に限定されない。例えば仮想カメラから近い所定数のアイコンオブジェクトのみを選択可能状態に設定してもよい。具体的には図9(B)の処理例に示すように、仮想カメラから近い順にアイコンオブジェクトを抽出する(ステップS1)。そして、抽出されたアイコンオブジェクトの数が所定数に達したか否かを判断し(ステップS2)、達していなかった場合にはステップS1に戻り、次に近いアイコンオブジェクトを抽出する。そして抽出されたアイコンオブジェクトの数が所定数に達すると、抽出された所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定する(ステップS3)。このようにすれば、ユーザは、仮想カメラの視点に近い所定数のアイコンオブジェクトだけを選択できるようになり、混乱の少ないスムーズな操作インターフェースを提供できる。   Note that selectable icon object settings are not limited to the method of FIG. For example, only a predetermined number of icon objects close to the virtual camera may be set to be selectable. Specifically, as shown in the processing example of FIG. 9B, icon objects are extracted in the order from the virtual camera (step S1). Then, it is determined whether or not the number of extracted icon objects has reached a predetermined number (step S2). If not, the process returns to step S1 to extract the next closest icon object. When the number of extracted icon objects reaches a predetermined number, the predetermined number of extracted icon objects are set as icon objects that can be selected by the user (step S3). In this way, the user can select only a predetermined number of icon objects close to the viewpoint of the virtual camera, and can provide a smooth operation interface with less confusion.

またユーザが操作するカーソルによりアイコンオブジェクトが選択された場合に、選択されたことを表す画像表現を行うことが望ましい。例えば図10(A)では、カーソルCSによりアイコンオブジェクトIOBAが選択されると、選択されたアイコンオブジェクトIOBAにマーカMKが重畳表示(半透明合成)される。こうすることで、ユーザは、多数のアイコンオブジェクトのうちのいずれのアイコンオブジェクトが選択されたのかを、視覚的に認識でき、ユーザのインターフェース環境を向上できる。   In addition, when an icon object is selected by a cursor operated by the user, it is desirable to perform an image representation that indicates the selection. For example, in FIG. 10A, when the icon object IOBA is selected with the cursor CS, the marker MK is superimposed on the selected icon object IOBA (semi-transparent composition). By doing so, the user can visually recognize which icon object of the many icon objects has been selected, and can improve the user interface environment.

なお図10(A)に示すようにマーカMKを表示するのではなく、図10(B)に示すように、アイコンオブジェクトIOBA自体の画像を変化させてもよい。例えば選択されたアイコンオブジェクトIOBAの色や輝度を変化させたり、点滅表示したりする。このようにしても、ユーザは、多数のアイコンオブジェクトのうちのいずれのアイコンオブジェクトが選択されたのかを、視覚的に認識できるようになる。また、例えばユーザが操作するカーソルCSがアイコンオブジェクトを選択(ポインティング)した時に、操作部160を振動させるようにしてもよい。   Instead of displaying the marker MK as shown in FIG. 10A, the image of the icon object IOBA itself may be changed as shown in FIG. 10B. For example, the color or brightness of the selected icon object IOBA is changed or blinked. Even in this way, the user can visually recognize which icon object of the many icon objects has been selected. Further, for example, when the cursor CS operated by the user selects (points) an icon object, the operation unit 160 may be vibrated.

なお、以上では仮想カメラが自動的に移動する場合について説明したが、ユーザの操作に応じて仮想カメラの位置や方向を変化させてもよい。   In addition, although the case where a virtual camera moves automatically was demonstrated above, you may change the position and direction of a virtual camera according to a user's operation.

例えば図11では、操作部160であるコントローラ161をユーザが操作すると、ユーザの操作に応じて仮想カメラVCの位置PVや方向DVが変化する。例えばコントローラ161の方向指示キーやアナログスティックや操作ボタンをユーザが操作することで、仮想カメラVCの位置PVや方向DVが制御される。このようにすれば、ユーザは、あたかも、宇宙船に乗って、宇宙空間のようなメニュー用のオブジェクト空間内で自由に移動して、所望のアイコンオブジェクトを選択できるようになり、これまでにないインターフェース環境を提供できる。   For example, in FIG. 11, when the user operates the controller 161 which is the operation unit 160, the position PV and the direction DV of the virtual camera VC change according to the user's operation. For example, when the user operates a direction instruction key, an analog stick, or an operation button of the controller 161, the position PV and the direction DV of the virtual camera VC are controlled. In this way, the user can select a desired icon object by moving freely in the object space for menus such as outer space, as if he / she got on the spaceship, and never before An interface environment can be provided.

図12に本実施形態の詳細な処理例のフローチャートを示す。まず、図7(A)で説明したように、仮想カメラを軌道上で所定速度で移動させる(ステップS11)。即ち1フレーム内において所定距離だけ移動させる。この際に図8に示すように仮想カメラの視線方向を中心側に向けるようにする。   FIG. 12 shows a flowchart of a detailed processing example of the present embodiment. First, as described in FIG. 7A, the virtual camera is moved on the track at a predetermined speed (step S11). That is, it is moved by a predetermined distance within one frame. At this time, as shown in FIG. 8, the visual line direction of the virtual camera is directed toward the center side.

次に、図9(A)で説明したように、仮想カメラの位置から所定距離範囲内(所定ビューボリューム内)にあるアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定する(ステップS12)。   Next, as described with reference to FIG. 9A, an icon object that is within a predetermined distance range (within a predetermined view volume) from the position of the virtual camera is set as an icon object that can be selected by the user (step S12).

次に、ユーザが操作するカーソルにより、ステップS12で選択可能状態に設定されたアイコンオブジェクトが選択されたか否かを判断する(ステップS13)。例えばアイコンオブジェクトの代表位置(中心位置)から所定距離内の範囲にカーソルが位置するか否かを判断する。そして、カーソルによりアイコンが選択された場合には、図10(A)に示すように、そのアイコンオブジェクトに対してマーカを重畳表示して、そのアイコンオブジェクトが選択されたことをユーザに知らせる(ステップS14)。   Next, it is determined whether or not the icon object set in the selectable state in step S12 is selected by the cursor operated by the user (step S13). For example, it is determined whether or not the cursor is located within a predetermined distance from the representative position (center position) of the icon object. When an icon is selected with the cursor, as shown in FIG. 10A, a marker is superimposed on the icon object to inform the user that the icon object has been selected (step S14).

次に、ユーザがアイコンオブジェクトの選択決定操作を行ったか否かを判断する(ステップS15)。そして選択決定操作が行われた場合には、図3のようなアイコンオブジェクトのキャッチ画面を表示する(ステップS16)。そして、このキャッチ画面においてユーザがシーン(又はキーワード)の選択決定操作を行ったか否かを判断し、選択決定操作を行った場合には、図4で説明したようにシーン(又はキーワード)のオープン画面を表示する(ステップS17、S18)。   Next, it is determined whether or not the user has performed an icon object selection decision operation (step S15). When the selection decision operation is performed, an icon object catch screen as shown in FIG. 3 is displayed (step S16). Then, in this catch screen, it is determined whether or not the user has performed a scene (or keyword) selection determination operation. When the selection determination operation is performed, the scene (or keyword) is opened as described with reference to FIG. A screen is displayed (steps S17 and S18).

以上の本実施形態の手法によれば、図2に示すように、多数のアイコンオブジェクトが1つの画面で表示されたメニュー画面を表示できる。即ち、アイコンオブジェクトの表示数に限界があった2次元表示のメニュー画面に比べて、一度に表示できるアイコンオブジェクトの数を格段に多くすることができる。   According to the method of the present embodiment described above, a menu screen on which a large number of icon objects are displayed on one screen can be displayed as shown in FIG. That is, the number of icon objects that can be displayed at one time can be significantly increased compared to a two-dimensional display menu screen in which the number of icon objects displayed is limited.

また図2のメニュー画面では、ユーザの視点である仮想カメラの位置から奥側のアイコンオブジェクトは小さく表示され、手前側のアイコンオブジェクトは大きく表示される。従って、ユーザは、奥側の多数のアイコンオブジェクトについては無視できるようになるため、ユーザの利便性を向上できる。特に図9(A)、図9(B)で説明したように選択可能なアイコンオブジェクトを限定することで、ユーザの利便性を更に向上できる。   In the menu screen of FIG. 2, the icon object on the back side is displayed small from the position of the virtual camera that is the viewpoint of the user, and the icon object on the near side is displayed large. Therefore, since the user can ignore a large number of icon objects on the back side, the user's convenience can be improved. In particular, the user convenience can be further improved by limiting the selectable icon objects as described with reference to FIGS.

また図2では、手前側のアイコンオブジェクトについては大きく表示されるため、ユーザの選択操作が容易化され、ユーザのインターフェース環境を向上できる。また、ユーザが操作しなくても、傍観しているユーザの視界に、アイコンオブジェクトが次から次へと移動して来る。そして、ユーザは、移動して来るアイコンオブジェクトのアイコン画像を見てその内容を確認し、興味を持ったアイコンオブジェクトを選択することで、例えば図5のようにそのアイコンオブジェクトのコンテンツを楽しむことができる。従って、ユーザは、積極的な操作を行わなくても、受動的な状態で、興味を持ったコンテンツを選択して楽しむことが可能になり、これまでにないタイプのメニュー画面を提供できる。   In FIG. 2, the icon object on the near side is displayed large, so that the user's selection operation is facilitated and the user interface environment can be improved. Even if the user does not operate, the icon object moves from one to the next in the field of view of the user who is watching. Then, the user can enjoy the contents of the icon object as shown in FIG. 5, for example, by viewing the icon image of the moving icon object, confirming the contents, and selecting the icon object that is interested. it can. Therefore, the user can select and enjoy the content of interest in a passive state without performing an active operation, and can provide an unprecedented type of menu screen.

2.2 アイコンオブジェクトの画像変化
本実施形態では、図2のメニュー画面に表示されるアイコンオブジェクトの画像を種々の情報に基づいて変化させてもよい。
2.2 Image Change of Icon Object In the present embodiment, the icon object image displayed on the menu screen of FIG. 2 may be changed based on various information.

例えば図13(A)では、シーンのアイコン画像が描かれたアイコンオブジェクトIOBに対して、そのシーンについてのユーザの人気度や、ユーザが与えた評価に応じたエフェクト画像が重畳表示されている。例えば人気度や評価が高まるにつれてエフェクト画像の種類を変化させたり、エフェクト画像の色や輝度を変化させる。こうすることで、図2のメニュー画面において、人気度や評価が高いコンテンツのアイコンオブジェクトが、ユーザの目に付くようになり、その人気度や評価が更に高まるようになる。   For example, in FIG. 13A, an effect image corresponding to the user's popularity degree for the scene and the evaluation given by the user is superimposed on the icon object IOB on which the icon image of the scene is drawn. For example, as the degree of popularity and evaluation increases, the type of effect image is changed, and the color and brightness of the effect image are changed. By doing this, on the menu screen of FIG. 2, the icon object of the content with high popularity and evaluation will be noticed by the user, and the popularity and evaluation will be further increased.

また図13(B)では、シーンのアイコン画像が描かれたアイコンオブジェクトIOBに対して、そのシーンの再生回数や、コンテンツ提供側からのシーンに対するリコメンド情報を表す画像エフェクトが重畳表示されている。例えば再生回数が多くなるにつれてエフェクト画像の種類を変化させたり、エフェクト画像の色や輝度を変化させる。或いは、新着のシーンコンテンツなど、コンテンツ提供側のお勧めのコンテンツに対してエフェクト画像を付加する。こうすることで、図2のメニュー画面において、再生回数が多かったり、コンテンツ提供側のお勧めのコンテンツのアイコンオブジェクトが、ユーザの目に付くようになり、その再生回数が更に増えたり、コンテンツ提供側のお勧めのコンテンツへとユーザを誘導できる。   Further, in FIG. 13B, an image effect representing the number of times the scene is reproduced and recommendation information for the scene from the content providing side is superimposed and displayed on the icon object IOB on which the icon image of the scene is drawn. For example, as the number of times of reproduction increases, the type of the effect image is changed, and the color and brightness of the effect image are changed. Alternatively, an effect image is added to content recommended by the content provider such as newly arrived scene content. By doing so, on the menu screen of FIG. 2, the number of times of reproduction is large, or the icon object of the recommended content on the content providing side becomes noticeable to the user, the number of times of reproduction is further increased, and the content is provided Can lead users to the recommended content.

また図13(C)、図13(D)では、他ユーザによるアイコンオブジェクトの選択履歴を表す画像が、アイコンオブジェクトに対応づけて表示される。具体的には、直近の数分間における所定人数分の他ユーザについての選択履歴を表す画像を、アイコンオブジェクトに対応づけて表示する。   13C and 13D, an image representing the selection history of icon objects by other users is displayed in association with the icon object. Specifically, an image representing a selection history of other users for a predetermined number of people in the latest several minutes is displayed in association with an icon object.

例えば図13(C)では、フレンドユーザ以外の一般の他ユーザが、アイコンオブジェクトをIOBA、IOBB、IOBCの順で選択したことを表す選択履歴の軌跡画像が、第1の色(例えば赤)で表示されている。また図13(D)では、ユーザのフレンドユーザが、アイコンオブジェクトをIOBD、IOBE、IOBFの順で選択したことを表す選択履歴の軌跡画像が、第2の色(例えば緑)で表示されている。   For example, in FIG. 13C, a general-purpose user other than the friend user selects the icon object in the order of IOBA, IOBB, and IOBC, and the trajectory image of the selection history is the first color (for example, red). It is displayed. Further, in FIG. 13D, a trajectory image of a selection history indicating that the user's friend user has selected icon objects in the order of IOBD, IOBE, and IOBF is displayed in the second color (for example, green). .

このようにすれば図2のメニュー画面において、ユーザは、他ユーザがどのようなアイコンオブジェクトのコンテンツに興味を持って選択したのかを、視覚的に把握できる。そして、他ユーザの選択履歴と同じ順序でアイコンオブジェクトを選択して、コンテンツを楽しむことが可能になり、これまでにないタイプのメニュー画面を提供できる。   In this way, on the menu screen of FIG. 2, the user can visually grasp what kind of icon object content the other user has selected with interest. Then, it is possible to select icon objects in the same order as the selection history of other users and enjoy the content, and to provide a menu screen of an unprecedented type.

なお、メニュー画面におけるアイコンオブジェクトの画像を変化させる手法は図13(A)〜図13(D)の手法には限定されない。例えばコンテンツの新規登録の時間情報(時刻、年月日)に基づいて、アイコンオブジェクトの画像を変化させてもよい。例えば新規に登録されたコンテンツについては、ユーザの目に付くように、そのコンテンツに対応するアイコンオブジェクトに対して画像エフェクトを付加する。或いは登録時間が古いコンテンツと新しいコンテンツとで、そのアイコンオブジェクトに付加する画像エフェクトを異ならせてもよい。   The method for changing the icon object image on the menu screen is not limited to the method shown in FIGS. For example, the image of the icon object may be changed based on time information (time and date) for newly registering content. For example, for a newly registered content, an image effect is added to an icon object corresponding to the content so as to be noticed by the user. Alternatively, the image effect to be added to the icon object may be different between content with an old registration time and new content.

またコンテンツに付加された付加情報に基づいて、アイコンオブジェクトの画像を変化させてもよい。例えばコンテンツに対して、付加情報である他ユーザのコメントが書かれた場合には、コメントの対象となったコンテンツに画像エフェクトを付加する。こうすることで、コメント等の付加情報が与えられたコンテンツのアイコンオブジェクトが、ユーザの目に付くようになり、ユーザをそのコンテンツに誘導できるようになる。   Further, the image of the icon object may be changed based on the additional information added to the content. For example, when another user's comment, which is additional information, is written on the content, an image effect is added to the content to be commented. By doing so, the icon object of the content to which additional information such as a comment is given becomes visible to the user, and the user can be guided to the content.

2.3 アイコンオブジェクトの情報詳細度の制御
本実施形態では、図2のメニュー画面に表示されるアイコンオブジェクトの情報詳細度を制御してもよい。具体的には、アイコンオブジェクトと仮想カメラとの位置関係(距離、方向等)や仮想カメラの画角等に応じて、アイコンオブジェクトの情報詳細度を変化させる。
2.3 Control of Information Detail Level of Icon Object In this embodiment, the information detail level of the icon object displayed on the menu screen of FIG. 2 may be controlled. Specifically, the information detail level of the icon object is changed according to the positional relationship (distance, direction, etc.) between the icon object and the virtual camera, the angle of view of the virtual camera, and the like.

例えば図14(A)では仮想カメラVCとアイコンオブジェクトIOBとの距離が近い位置関係になっている。具体的には仮想カメラVCから見たアイコンオブジェクトIOBの奥行き距離(Z値)が短い。この場合にはアイコンオブジェクトIOBの情報詳細度(提示される情報の詳細度)を高くする。例えばアイコンオブジェクトIOBが表すシーン(広義にはコンテンツ)のアイコン画像に加えて、そのシーンに対する他ユーザのコメント等の付加情報を表示する。或いはアイコン画像の詳細度(ピクセル数)を高くしてもよい。   For example, in FIG. 14A, the distance between the virtual camera VC and the icon object IOB is close. Specifically, the depth distance (Z value) of the icon object IOB viewed from the virtual camera VC is short. In this case, the information detail level (detail level of presented information) of the icon object IOB is increased. For example, in addition to the icon image of the scene (content in a broad sense) represented by the icon object IOB, additional information such as comments of other users for the scene is displayed. Alternatively, the level of detail (number of pixels) of the icon image may be increased.

図14(B)では、仮想カメラVCとアイコンオブジェクトIOBとの距離が中ぐらいの位置関係になっている。この場合にはイコンオブジェクトIOBの情報詳細度を中ぐらいにする。例えばアイコンオブジェクトIOBを表すシーンのアイコン画像のみを表示する。或いはアイコン画像の詳細度を中ぐらいにしてもよい。   In FIG. 14B, the distance between the virtual camera VC and the icon object IOB is a medium positional relationship. In this case, the information detail level of the icon object IOB is set to a medium level. For example, only the icon image of the scene representing the icon object IOB is displayed. Alternatively, the level of detail of the icon image may be medium.

図14(C)では、仮想カメラVCとアイコンオブジェクトIOBとの距離が遠い位置関係になっている。この場合にはイコンオブジェクトIOBの情報詳細度を低くする。例えばアイコンオブジェクトIOBが表すシーンのアイコン画像は表示せずに、シーン名だけを表示する。或いはアイコン画像の詳細度を低くしてもよい。   In FIG. 14C, the distance between the virtual camera VC and the icon object IOB is long. In this case, the information detail level of the icon object IOB is lowered. For example, only the scene name is displayed without displaying the icon image of the scene represented by the icon object IOB. Alternatively, the level of detail of the icon image may be lowered.

以上のようにすれば、仮想カメラとアイコンオブジェクトの距離が近い場合には、アイコンオブジェクト(コンテンツ)の詳細な情報が表示されるため、ユーザはより多くの情報を得ることができる。一方、仮想カメラとアイコンオブジェクトの距離が遠い場合には、アイコンオブジェクトの情報の詳細度が低くなるため、表示が煩雑になってしまう事態を防止できる。   In this way, when the distance between the virtual camera and the icon object is short, detailed information about the icon object (content) is displayed, so that the user can obtain more information. On the other hand, when the distance between the virtual camera and the icon object is long, the level of detail of the information on the icon object is low, so that a situation where the display becomes complicated can be prevented.

即ち本実施形態では図2に示すように、メニュー画面ではアイコンオブジェクトが3次元的に配置されるため、視点から近いアイコンオブジェクトの画面上での表示面積は大きくなる一方で、視点から遠いアイコンオブジェクトの表示面積は小さくなる。従って、視点から近いアイコンオブジェクトの情報詳細度を高めても、その大きな表示面積を利用してユーザに情報を伝達できる。一方、視点から遠いアイコンオブジェクトについては多数表示されるようになるが、情報の詳細度を低くすることで、表示が煩雑になってしまう事態を防止できる。   That is, in the present embodiment, as shown in FIG. 2, since the icon objects are arranged three-dimensionally on the menu screen, the display area of the icon objects close to the viewpoint on the screen is large, while the icon objects far from the viewpoint are displayed. The display area of becomes smaller. Therefore, even if the information detail level of the icon object close to the viewpoint is increased, information can be transmitted to the user by using the large display area. On the other hand, a large number of icon objects far from the viewpoint are displayed, but the situation where the display becomes complicated can be prevented by reducing the level of detail of information.

また図14(D)では、仮想カメラVCの画角が狭くなっている。この場合には、アイコンオブジェクトIOBの情報詳細度を高くする。例えばシーンのアイコン画像に加えてコメント等の付加情報を表示する。   In FIG. 14D, the field angle of the virtual camera VC is narrow. In this case, the information detail level of the icon object IOB is increased. For example, in addition to the icon image of the scene, additional information such as a comment is displayed.

一方、図14(E)では、仮想カメラVCの画角が広くなっている。この場合には、アイコンオブジェクトIOBの情報詳細度を低くする。例えばコメント等の付加情報を表示せずに、シーンのアイコン画像のみを表示する。   On the other hand, in FIG. 14E, the angle of view of the virtual camera VC is wide. In this case, the information detail level of the icon object IOB is lowered. For example, only the icon image of the scene is displayed without displaying additional information such as comments.

なお、仮想カメラVCの画角の設定は、例えばメニュー画面の表示モード設定画面において設定してもよいし、ユーザによる操作部の操作やその時の状況に応じて画角を変化させてもよい。   The angle of view of the virtual camera VC may be set, for example, on the display mode setting screen of the menu screen, or the angle of view may be changed according to the operation of the operation unit by the user and the situation at that time.

図14(D)にように仮想カメラの画角が狭くなると、画面上でのアイコンオブジェクトの表示面積は大きくなる。従って、アイコンオブジェクトの情報詳細度を高めても、その大きな表示面積を利用してユーザに情報を伝達できる。一方、図14(E)のように仮想カメラの画角が広くなると、画面上でのアイコンオブジェクトの表示面積は小さくなるが、アイコンオブジェクトの情報詳細度を低くすることで、表示が煩雑になってしまう事態を防止できる。   When the angle of view of the virtual camera is reduced as shown in FIG. 14D, the display area of the icon object on the screen is increased. Therefore, even if the information detail level of the icon object is increased, information can be transmitted to the user by using the large display area. On the other hand, when the angle of view of the virtual camera is increased as shown in FIG. 14E, the display area of the icon object on the screen is reduced, but the display becomes complicated by reducing the information detail level of the icon object. Can be prevented.

なお以上ではアイコンオブジェクトとの距離や仮想カメラの画角に応じて情報詳細度を変化させる手法について説明したが、これらの距離や画角と等価なパラメータや異なるパラメータを用いて、アイコンオブジェクトの情報詳細度を変化させてもよい。   Although the method for changing the information detail level according to the distance from the icon object and the angle of view of the virtual camera has been described above, the information about the icon object is obtained using parameters equivalent to these distance and angle of view or different parameters. The degree of detail may be changed.

また情報の詳細度を変化させる手法としては、同時に表示される情報の種類を変化させる第1の手法や、表示される情報の情報量を変化させる第2の手法が考えられる。   As a method for changing the level of detail of information, a first method for changing the type of information displayed at the same time and a second method for changing the information amount of the information displayed can be considered.

具体的には第1の手法では、仮想カメラとアイコンオブジェクトの距離が遠い場合や画角が広い場合には、「第18話 死闘」というサブタイトルだけを表示する。一方、仮想カメラとアイコンオブジェクトの距離が近い場合や画角が狭い場合には、「第18話 死闘」というサブタイトルと、「このシーン最高」というユーザコメントを同時に表示する。即ち、表示される情報の種類を例えば1つから2つというように増加させる。   Specifically, in the first method, when the distance between the virtual camera and the icon object is far or the angle of view is wide, only the subtitle “18th Episode Deadly Fight” is displayed. On the other hand, when the distance between the virtual camera and the icon object is short or when the angle of view is narrow, a subtitle “18th Episode Deadly Fight” and a user comment “This scene is the best” are displayed simultaneously. That is, the number of displayed information is increased from one to two, for example.

また第2の手法では、仮想カメラとアイコンオブジェクトの距離が遠い場合や画角が広い場合には、あらすじとして「2人は昨日・・・」と表示する。一方、仮想カメラとアイコンオブジェクトの距離が近い場合や画角が狭い場合には、あらすじとして「2人は昨日、学園の謎を知った」と表示する。即ち、あらすじの先頭の5文字だけを表示していたのを、あらすじの全文を表示するというように、表示される情報の情報量を増加させる。   In the second method, when the distance between the virtual camera and the icon object is long or the angle of view is wide, a summary is displayed as “Two people yesterday ...”. On the other hand, when the distance between the virtual camera and the icon object is short or when the angle of view is narrow, a summary is displayed as “Two people knew the mystery of the school yesterday”. That is, the information amount of the displayed information is increased so that only the first five characters of the synopsis are displayed and the entire sentence is displayed.

2.4 アイコンオブジェクトの3次元位置に応じた音制御
本実施形態では、アイコンオブジェクトの3次元位置に応じた音制御を行ってもよい。即ち図2のメニュー用のオブジェクト空間でのアイコンオブジェクトの3次元位置に応じた音を出力する。
2.4 Sound Control According to 3D Position of Icon Object In this embodiment, sound control according to the 3D position of the icon object may be performed. That is, a sound corresponding to the three-dimensional position of the icon object in the menu object space of FIG. 2 is output.

例えば図15(A)では、アイコンオブジェクトIOB1が仮想カメラVCに接近していることが、アイコンオブジェクトIOB1の3次元位置と仮想カメラVCの位置に基づき検出されている。この場合には、アイコンオブジェクトIOB1に対応する音を出力する。具体的にはアイコンオブジェクトIOB1がシーンを表すものである場合には、そのシーン名(コンテンツ名)やシーンに対する他ユーザのコメントを、音声で出力する。或いはアイコンオブジェクトIOB1に対してBGM音楽が対応づけられている場合には、そのBGM音楽を出力する。   For example, in FIG. 15A, it is detected that the icon object IOB1 is approaching the virtual camera VC based on the three-dimensional position of the icon object IOB1 and the position of the virtual camera VC. In this case, a sound corresponding to the icon object IOB1 is output. Specifically, when the icon object IOB1 represents a scene, the scene name (content name) and the comment of another user with respect to the scene are output by voice. Alternatively, if BGM music is associated with the icon object IOB1, the BGM music is output.

また、仮想カメラに対して複数のアイコンオブジェクトが接近した場合には、これらのアイコンオブジェクトの3次元位置に基づいて、サラウンドの音処理を施した音を出力してもよい。例えば仮想カメラの左に位置するアイコンオブジェクトの音は左側から聞こえ、右側に位置するアイコンオブジェクトの音は右側から聞こえるようにする。   Further, when a plurality of icon objects approach the virtual camera, a sound subjected to surround sound processing may be output based on the three-dimensional position of these icon objects. For example, the sound of the icon object located on the left of the virtual camera can be heard from the left side, and the sound of the icon object located on the right side can be heard from the right side.

また図15(B)では、仮想カメラVCから見て第1のアイコンオブジェクトIOB1の方が第2のアイコンオブジェクトIOB2よりも手前側に位置している。また仮想カメラVCから見て第2のアイコンオブジェクトIOB2の方が第3のアイコンオブジェクトIOB3よりも手前側に位置している。   In FIG. 15B, the first icon object IOB1 is positioned on the near side of the second icon object IOB2 when viewed from the virtual camera VC. Further, the second icon object IOB2 is located on the near side of the third icon object IOB3 when viewed from the virtual camera VC.

この場合に、第1のアイコンオブジェクトIOB1に対応づけられた音の方が第2のアイコンオブジェクトIOB2に関連づけられた音よりも優先して出力されるようにする。また第2のアイコンオブジェクトIOB2に対応づけられた音の方が第3のアイコンオブジェクトIOB3に関連づけられた音よりも優先して出力されるようにする。   In this case, the sound associated with the first icon object IOB1 is output with priority over the sound associated with the second icon object IOB2. Further, the sound associated with the second icon object IOB2 is output with priority over the sound associated with the third icon object IOB3.

例えば図15(B)の位置関係の場合には、仮想カメラVCに最も近い第1のアイコンオブジェクトIOB1についての音のみを出力するようにする。或いは第1のアイコンオブジェクトIOB1の音の方が、第2のアイコンオブジェクトIOB2の音よりも大きくなるようにする。また第2のアイコンオブジェクトIOB2の音の方が、第3のアイコンオブジェクトIOB3の音よりも大きくなるようにする。   For example, in the case of the positional relationship of FIG. 15B, only the sound for the first icon object IOB1 closest to the virtual camera VC is output. Alternatively, the sound of the first icon object IOB1 is made louder than the sound of the second icon object IOB2. The sound of the second icon object IOB2 is set to be louder than the sound of the third icon object IOB3.

このようにすれば、アイコンオブジェクトの3次元位置を反映させた音が出力されるようになり、あたかもコンテンツの惑星によって囲まれる宇宙空間の中にいるような感覚をユーザに与えることができ、臨場感を向上できる。   In this way, a sound reflecting the three-dimensional position of the icon object can be output, giving the user the feeling of being in the outer space surrounded by the content planet, The feeling can be improved.

2.5 軌道上へのアイコンオブジェクトの配置
本実施形態では、メニュー用オブジェクト空間に設定された軌道上にアイコンオブジェクトを配置するようにしてもよい。この場合の軌道としては、円軌道、楕円軌道、直線軌道等の種々の軌道が考えられる。
2.5 Arrangement of Icon Objects on Trajectory In this embodiment, icon objects may be arranged on a trajectory set in the menu object space. In this case, various trajectories such as a circular trajectory, an elliptical trajectory, and a straight trajectory are conceivable.

例えば図16では、軌道TR1上にはアイコンオブジェクトIOB11〜IOB15が配置され、軌道TR2上にはアイコンオブジェクトIOB21〜IOB25が配置されている。これらの軌道TR1、TR2はメニュー用オブジェクト空間に設定される。軌道の設定は、コンテンツ提供側が行ってもよいし、ユーザが初期設定等において行ってもよい。   For example, in FIG. 16, icon objects IOB11 to IOB15 are arranged on the trajectory TR1, and icon objects IOB21 to IOB25 are arranged on the trajectory TR2. These trajectories TR1 and TR2 are set in the menu object space. The setting of the trajectory may be performed by the content providing side, or may be performed by the user in the initial setting or the like.

また図16では、アイコンオブジェクトの軌道TR1に沿ってカメラ軌道TRC1が設けられる。具体的には軌道TR1の外周にカメラ軌道TRC1が設けられる。そして仮想カメラVCは、このカメラ軌道TRC1上で移動する。こうすることで、仮想カメラVCから見てアイコンオブジェクトが移動して見える画像を生成できる。この場合の移動は相対的な移動であればよく、アイコンオブジェクトの方が移動する場合も含まれる。また軌道TR1の内周に沿ってカメラ軌道TRC1を設けたり、軌道TR1の一部又は全部と一致するようにカメラ軌道TRC1を設けてもよい。また図16では軌道TR2に沿ってもカメラ軌道TRC2が設定されている。そして、ユーザの操作等により、仮想カメラVCは、カメラ軌道TRC1からTRC2に移動したり、TRC2からTRC1に移動できる。   In FIG. 16, a camera trajectory TRC1 is provided along the trajectory TR1 of the icon object. Specifically, the camera track TRC1 is provided on the outer periphery of the track TR1. The virtual camera VC moves on the camera trajectory TRC1. By doing so, it is possible to generate an image in which the icon object appears to move as viewed from the virtual camera VC. The movement in this case may be a relative movement, and includes the case where the icon object moves. Further, the camera trajectory TRC1 may be provided along the inner periphery of the trajectory TR1, or the camera trajectory TRC1 may be provided so as to coincide with a part or all of the trajectory TR1. In FIG. 16, the camera trajectory TRC2 is also set along the trajectory TR2. The virtual camera VC can be moved from the camera trajectory TRC1 to TRC2 or moved from TRC2 to TRC1 by a user operation or the like.

なお図16に示すような軌道を、紙面の垂直方向に層構造に並べてもよい。例えば第1の層に第1〜第iの軌道を設定し、第1の層の上層の第2の層に第i+1〜第jの軌道を設定する。そして、仮想カメラを、第1の層、第2の層の間で移動できるようにする。   Note that the trajectories as shown in FIG. 16 may be arranged in a layered structure in the direction perpendicular to the paper surface. For example, the first to i-th trajectories are set in the first layer, and the (i + 1) -th to j-th trajectories are set in the second layer, which is the upper layer of the first layer. Then, the virtual camera can be moved between the first layer and the second layer.

また本実施形態では、各コンテンツグループ毎に軌道を用意し、各コンテンツグループに属するアイコンオブジェクトを各軌道に配置設定してもよい。   In the present embodiment, a trajectory may be prepared for each content group, and icon objects belonging to each content group may be arranged and set in each trajectory.

例えば図17(A)では、テレビの放送チャンネル(広義にはコンテンツグループ)である1CH、4CH、6CHに対応して、軌道TR1、TR2、TR3が設定(用意)される。そして1CHに対応する軌道TR1上には、1CHの放送番組(放送コンテンツ)を選択するためのアイコンオブジェクトIOB11〜IOB14等を配置する。また4CHに対応する軌道TR2上には、4CHの放送番組を選択するためのアイコンオブジェクトIOB21〜IOB24等を配置し、6CHに対応する軌道TR3上には、6CHの放送番組を選択するためのアイコンオブジェクトIOB31〜IOB34を配置する。   For example, in FIG. 17A, trajectories TR1, TR2, and TR3 are set (prepared) corresponding to 1CH, 4CH, and 6CH, which are television broadcast channels (content groups in a broad sense). Then, on the track TR1 corresponding to 1CH, icon objects IOB11 to IOB14 and the like for selecting a 1CH broadcast program (broadcast content) are arranged. Further, icon objects IOB21 to IOB24 for selecting a 4CH broadcast program are arranged on the track TR2 corresponding to 4CH, and an icon for selecting a 6CH broadcast program on the track TR3 corresponding to 6CH. Objects IOB31 to IOB34 are arranged.

このようにすれば、本実施形態の画像生成システムを例えばテレビ等の放送再生装置に適用した場合に、図2の本実施形態のメニュー画面を、放送番組の選択画面として利用できるようになる。   In this way, when the image generation system of this embodiment is applied to a broadcast reproduction apparatus such as a television, for example, the menu screen of this embodiment of FIG. 2 can be used as a broadcast program selection screen.

例えば図17(A)では、アイコンオブジェクトの軌道TR1、TR2、TR3に対応してカメラ軌道TRC1、TRC2、TRC3が設けられる。そしてユーザは、操作部であるリモコン等を用いて、仮想カメラVCを、軌道TRC1、TRC2、TRC3上や、軌道TRC1、TRC2、TRC3の相互の間で、移動させることができる。そして、所望の放送チャンネルの軌道に対応するカメラ軌道上で仮想カメラVCを移動させることで、各放送チャンネルが提供する放送番組を選択する。   For example, in FIG. 17A, camera trajectories TRC1, TRC2, TRC3 are provided corresponding to the trajectories TR1, TR2, TR3 of icon objects. The user can move the virtual camera VC on the tracks TRC1, TRC2, and TRC3 and between the tracks TRC1, TRC2, and TRC3 using a remote controller that is an operation unit. Then, the broadcast program provided by each broadcast channel is selected by moving the virtual camera VC on the camera trajectory corresponding to the desired broadcast channel trajectory.

この場合に、カメラ軌道上では、図7(A)〜図8で説明したように、ユーザが操作しなくても仮想カメラが自動的に移動するようにしてもよい。例えばユーザがリモコンでチャンネルの切り替え操作を行うと、仮想カメラが、切り替え後のチャンネルに対応するカメラ軌道に移動し、その後、カメラ軌道上で一定速度で移動するようにする。この場合に仮想カメラが移動するカメラ軌道TRC1、TRC2、TRC3は、アイコンオブジェクト(コンテンツ)が配置される軌道TR1、TR2、TR3の外周又は内周の軌道になる。或いはカメラ軌道TRC1、TRC2、TRC3とアイコンオブジェクトの軌道TR1、TR2、TR3の一部又は全部が一致していてもよい。   In this case, as described with reference to FIGS. 7A to 8, the virtual camera may automatically move on the camera trajectory without any user operation. For example, when the user performs a channel switching operation with the remote controller, the virtual camera moves to the camera trajectory corresponding to the channel after switching, and then moves at a constant speed on the camera trajectory. In this case, the camera trajectories TRC1, TRC2, and TRC3 along which the virtual camera moves are outer tracks or inner tracks of the tracks TR1, TR2, and TR3 on which the icon objects (contents) are arranged. Alternatively, part or all of the camera trajectories TRC1, TRC2, TRC3 and the icon object trajectories TR1, TR2, TR3 may coincide.

このようにすれば、ユーザによる放送番組の選択操作を簡略化でき、ユーザの利便性を向上できる。また各チャンネルにおいて複数の放送番組を提供することが可能になり、各チャンネルでの放送番組の提供数を増やすことも可能になる。   In this way, the user can simplify the broadcast program selection operation and improve user convenience. In addition, a plurality of broadcast programs can be provided in each channel, and the number of broadcast programs provided in each channel can be increased.

また図17(B)では、コンテンツのジャンル(コンテンツグループ)であるスポーツ、音楽、ニュースに対応して、軌道TR1、TR2、TR3が設定される。そしてスポーツに対応する軌道TR1上には、スポーツに分類されるコンテンツを選択するためのアイコンオブジェクトIOB11〜IOB14等を配置する。また音楽に対応する軌道TR2上には、音楽に分類されるコンテンツを選択するためのアイコンオブジェクトIOB21〜IOB24等を配置し、ニュースに対応する軌道TR3上には、ニュースに分類されるコンテンツを選択するためのアイコンオブジェクトIOB31〜IOB34等を配置する。またアイコンオブジェクト用の軌道TR1、TR2、TR3に対応してカメラ軌道TRC1、TRC2、TRC3が設けられている。   In FIG. 17B, trajectories TR1, TR2, and TR3 are set corresponding to sports, music, and news that are content genres (content groups). And on the track TR1 corresponding to sports, icon objects IOB11 to IOB14 for selecting content classified as sports are arranged. Further, on the trajectory TR2 corresponding to music, icon objects IOB21 to IOB24 for selecting content classified as music are arranged, and the content classified as news is selected on the trajectory TR3 corresponding to news. Icon objects IOB31 to IOB34 and the like are arranged. Camera trajectories TRC1, TRC2, TRC3 are provided corresponding to the icon object trajectories TR1, TR2, TR3.

このようにすれば、本実施形態の画像生成システムを例えばHDDプレーヤや光ディスクプレーヤなどのコンテンツ再生装置(映像再生装置、音楽再生装置)や、テレビ等の放送再生装置に適用した場合に、図2の本実施形態のメニュー画面を、映像コンテンツや音楽コンテンツの選択画面として利用できるようになる。   In this manner, when the image generation system of the present embodiment is applied to a content playback device (video playback device, music playback device) such as an HDD player or an optical disk player, or a broadcast playback device such as a television set, FIG. The menu screen of this embodiment can be used as a selection screen for video content and music content.

例えばHDDや光ディスクに記録された映像コンテンツや音楽コンテンツのジャンルを、コンテンツ再生装置のシステムが自動認識する。そして、自動認識されたジャンルに基づいて、そのコンテンツを、対応するジャンルの軌道上に自動配置する。   For example, the content reproduction apparatus system automatically recognizes the genre of video content and music content recorded on an HDD or an optical disk. Then, based on the automatically recognized genre, the content is automatically arranged on the track of the corresponding genre.

このようにすれば、コンテンツのジャンルが自動的に認識されて、各軌道上に整理されて配置されるようになる。従って、HDDや光ディスクに大量のコンテンツが記録されている場合にも、ユーザはジャンルを手がかりにして、所望のコンテンツを容易に探し出すことができ、ユーザの利便性を向上できる。例えばユーザがスポーツのジャンルのコンテンツを鑑賞したい場合には、リモコン等の操作部を用いて図17(B)のスポーツのジャンルの軌道TR1に対応するカメラ軌道TRC1上で仮想カメラVCを移動させる。そして軌道TRC1上で仮想カメラVCを移動させることで、所望のコンテンツを見つけ出して鑑賞する。この場合に図7(A)〜図8のようにカメラ軌道上では一定速度で仮想カメラVCを移動させてもよい。また、カメラ軌道は、アイコンオブジェクト(コンテンツ)が配置される軌道の外周や内周等に設けられる。   In this way, the genre of the content is automatically recognized and arranged on each orbit. Therefore, even when a large amount of content is recorded on the HDD or the optical disk, the user can easily find the desired content using the genre as a clue, and the convenience of the user can be improved. For example, when the user wants to appreciate sports genre content, the virtual camera VC is moved on the camera trajectory TRC1 corresponding to the sports genre trajectory TR1 of FIG. Then, by moving the virtual camera VC on the trajectory TRC1, a desired content is found and viewed. In this case, the virtual camera VC may be moved at a constant speed on the camera trajectory as shown in FIGS. The camera trajectory is provided on the outer periphery, inner periphery, etc. of the trajectory in which the icon object (content) is arranged.

また図17(C)では、コンテンツの記録時間や放送時間(コンテンツグループ)である1月、2月、3月に対応して、軌道TR1、TR2、TR3が設定される。そして軌道TR1上には、1月に記録又は再生されたコンテンツを選択するためのアイコンオブジェクトIOB11〜IOB14等が配置される。また軌道TR2上には、2月に記録又は再生されたコンテンツを選択するためのアイコンオブジェクトIOB21〜IOB24等が配置され、軌道TR3上には、3月に記録又は再生されたコンテンツを選択するためのアイコンオブジェクトIOB31〜IOB34等が配置される。また軌道TR1、TR2、TR3に対応してカメラ軌道TRC1、TRC2、TRC3が設けられている。   In FIG. 17C, tracks TR1, TR2, and TR3 are set corresponding to January, February, and March, which are content recording times and broadcast times (content groups). On the track TR1, icon objects IOB11 to IOB14 and the like for selecting content recorded or reproduced in January are arranged. Further, icon objects IOB21 to IOB24 for selecting contents recorded or reproduced in February are arranged on the track TR2, and the contents recorded or reproduced in March are selected on the track TR3. The icon objects IOB31 to IOB34 are arranged. Camera trajectories TRC1, TRC2, TRC3 are provided corresponding to the trajectories TR1, TR2, TR3.

この場合にも、コンテンツが記録又は再生された時間情報(時刻、年月日)をシステム側が自動認識して、自動認識にされた時間情報に基づいて、対応するコンテンツを各軌道に自動配置するようにしてもよい。このようにすれば、ユーザは、時間情報を手がかりにして所望のコンテンツを探し出すことができ、ユーザの利便性を向上できる。   Also in this case, the system side automatically recognizes the time information (time and date) when the content is recorded or reproduced, and automatically arranges the corresponding content in each trajectory based on the automatically recognized time information. You may do it. In this way, the user can search for desired content using the time information as a clue, and the convenience for the user can be improved.

また本実施形態では、コンテンツ量情報、人気度情報、評価情報、提示回数情報、ジャンル情報、リコメンド情報、コンテンツの登録時間情報、コンテンツに付加された付加情報(付加情報の更新時間情報)に基づいて、アイコンオブジェクトの配置位置の更新処理を行ってもよい。   Further, in the present embodiment, based on content amount information, popularity information, evaluation information, presentation frequency information, genre information, recommendation information, content registration time information, and additional information added to content (additional information update time information). Then, the update process of the arrangement position of the icon object may be performed.

例えば図18では、1月、2月、3月と、HDDプレーヤ等のコンテンツ再生装置でコンテンツの録画を行い、録画されたコンテンツの量が増えると、それにつれてアイコンオブジェクトを配置する軌道の数も増えて行く。   For example, in FIG. 18, in January, February, and March, content recording is performed by a content playback device such as an HDD player. As the amount of recorded content increases, the number of trajectories in which icon objects are arranged increases accordingly. It will increase.

例えば1月の時点では、軌道TR1のみが設定され、この軌道TR1上に、1月に録画したコンテンツのアイコンオブジェクトが順次配置される。この場合に、人気度や評価が高い或いは再生回数(広義には提示回数)が多いお気に入りのコンテンツは、軌道TR1上の所定の位置(優先度が高い位置)に配置される。またコンテンツのジャンルに応じてアイコンオブジェクトの配置位置がソーティングされる更新処理が行われる。   For example, at the time of January, only the trajectory TR1 is set, and the icon objects of the content recorded in January are sequentially arranged on the trajectory TR1. In this case, the favorite content having a high degree of popularity, high evaluation, or a large number of times of reproduction (presentation number in a broad sense) is arranged at a predetermined position (position with high priority) on the trajectory TR1. Also, an update process is performed in which the arrangement positions of the icon objects are sorted according to the content genre.

また2月になると、2月用の新たな軌道TR2が追加設定され、この軌道TR2上に、2月に録画したコンテンツのアイコンオブジェクトが順次配置される。この場合にも、人気度、評価、再生回数、ジャンル等に応じて、アイコンオブジェクトの配置位置の更新処理が行われる。   In February, a new trajectory TR2 for February is additionally set, and icon objects of contents recorded in February are sequentially arranged on the trajectory TR2. Also in this case, the update processing of the arrangement position of the icon object is performed according to popularity, evaluation, number of reproductions, genre, and the like.

また3月になると、3月用の新たな軌道TR3が追加設定され、この軌道TR3上に、3月に録画したコンテンツのアイコンオブジェクトが順次配置される。この場合にも、人気度、評価、ジャンル等に応じて、アイコンオブジェクトの配置位置の更新処理が行われる。   In March, a new orbit TR3 for March is additionally set, and icon objects of contents recorded in March are sequentially arranged on the orbit TR3. Also in this case, the update process of the arrangement position of the icon object is performed according to popularity, evaluation, genre, and the like.

このように図18では、コンテンツ量情報、コンテンツの人気度情報、評価情報、提示回数情報、ジャンル情報、登録時間情報等に基づいて、アイコンオブジェクトの配置位置の更新処理が行われる。このようにすれば、これらの情報に基づいてアイコンオブジェクトの配置位置が整理されるため、ユーザの選択操作を容易化できる。従って、メニュー画面についてのインターフェース環境を向上でき、ユーザの利便性を向上できる。なお図18においても、軌道TR1、TR2、TR3に対応してカメラ軌道TRC1、TRC2、TRC3が設けられている。   As described above, in FIG. 18, the icon object arrangement position update process is performed based on the content amount information, the content popularity information, the evaluation information, the presentation count information, the genre information, the registration time information, and the like. In this way, since the arrangement positions of the icon objects are organized based on these pieces of information, the user's selection operation can be facilitated. Therefore, the interface environment for the menu screen can be improved, and user convenience can be improved. Also in FIG. 18, camera trajectories TRC1, TRC2, and TRC3 are provided corresponding to the trajectories TR1, TR2, and TR3.

また、コンテンツのリコメンド情報やコンテンツに対する付加情報などに基づいて、アイコンオブジェクトの配置位置の更新処理を行ってもよい。   Further, the update processing of the icon object arrangement position may be performed based on the recommendation information of the content, the additional information on the content, or the like.

例えばコンテンツ提供側がお勧めするコンテンツの位置を、ユーザの仮想カメラの近くに配置して、目立つようにする。具体的には、新規コンテンツが追加された場合には、その新規コンテンツのアイコンオブジェクトが目立つ位置に配置されるように、アイコンオブジェクトの配置位置を更新する。このようにすれば、コンテンツ提供側等がお勧めするコンテンツのアイコンオブジェクトに、ユーザを誘導することが可能になる。   For example, the position of the content recommended by the content provider is placed near the user's virtual camera so that it stands out. Specifically, when new content is added, the icon object placement position is updated so that the icon object of the new content is placed in a conspicuous position. In this way, it is possible to guide the user to the content icon object recommended by the content provider or the like.

或いは、コンテンツに付加された他ユーザのコメントや、シーンのあらすじや、キーワードの解説文等の付加情報に応じて、アイコンオブジェクトの配置位置の更新処理が行ってもよい。例えばコメント等が書かれた場合には、コメントの書き込み対象となったコンテンツのアイコンオブジェクトが目立つ位置に配置されるように、アイコンオブジェクトの配置位置を更新する。このようにすれば、コメント等の付加情報が付加されたコンテンツが、より選択されやすくなり、ユーザコミュニティの盛り上がりを演出できる。   Alternatively, the update processing of the icon object placement position may be performed in accordance with additional information such as a comment of another user added to the content, a synopsis of a scene, or a keyword commentary. For example, when a comment or the like is written, the icon object placement position is updated so that the icon object of the content to which the comment is to be written is placed in a conspicuous position. In this way, content to which additional information such as comments is added can be selected more easily, and the excitement of the user community can be produced.

なおアイコンオブジェクトの配置位置の更新手法としては種々の手法が考えられる。例えばアイコンオブジェクトが仮想カメラの視野範囲外になった場合に、視野範囲外になったアイコンオブジェクトの位置を変更するようにしてもよい。   Various methods can be considered as a method for updating the arrangement position of the icon object. For example, when the icon object is outside the visual field range of the virtual camera, the position of the icon object that is out of the visual field range may be changed.

具体的には図19(A)において、アイコンオブジェクトIOBは仮想カメラVCの視野範囲外になっている。即ち仮想カメラVCのビューボリュームの外にアイコンオブジェクトIOBが移動している。この場合には図19(A)に示すように、視野範囲外になったアイコンオブジェクトIOBを移動させて、再度、仮想カメラVCの視野範囲内に入るようにしたり、短時間で仮想カメラVCの視野範囲内に入るようにする。   Specifically, in FIG. 19A, the icon object IOB is outside the visual field range of the virtual camera VC. That is, the icon object IOB is moved outside the view volume of the virtual camera VC. In this case, as shown in FIG. 19A, the icon object IOB that is outside the visual field range is moved so that it is again within the visual field range of the virtual camera VC, or the virtual camera VC can be moved in a short time. Keep within the field of view.

また図19(B)では、メニュー用オブジェクト空間として全ての領域を用意せずに、一部の領域RGだけを用意する。そして図19(B)のB1に示すように仮想カメラVCがこの領域RGの外に出た場合には、図19(C)のB2の位置に仮想カメラVCを移動させて、再度、領域RGに仮想カメラVCが入るようにする。   In FIG. 19B, not all the areas are prepared as the menu object space, but only a partial area RG is prepared. When the virtual camera VC goes out of the region RG as shown at B1 in FIG. 19B, the virtual camera VC is moved to the position B2 in FIG. The virtual camera VC is inserted into

例えば図2のメニュー画面では、ユーザの視点に近づいたアイコンオブジェクトは、速い速度でユーザの視野範囲外に消えてしまう。このため、慣れないユーザにとって、アイコンオブジェクトの選択が難しく、アイコンオブジェクトの選択に失敗する場合がある。そして、一旦、アイコンオブジェクトの選択に失敗すると、アイコンオブジェクトが軌道上を回って、再度、ユーザの目の前に現れるのを待たなければならなくなり、ユーザの利便性を損ねるおそれがある。   For example, on the menu screen shown in FIG. 2, an icon object approaching the user's viewpoint disappears outside the user's visual field range at a high speed. For this reason, it may be difficult for an unfamiliar user to select an icon object, and the icon object may fail to be selected. Once the icon object has failed to be selected, it is necessary to wait for the icon object to go around in the trajectory and appear in front of the user again, which may impair user convenience.

この点、図19(A)〜図19(C)の手法では、ユーザの視野範囲外に通り過ぎてしまったアイコンオブジェクトが、短時間で、再度、ユーザの視野範囲内に入るようになる。従って、ユーザは、選択に失敗したアイコンオブジェクトを、それほど時間を待つことなく、再度選択できるようになり、利便性を向上できる。   In this regard, in the methods of FIGS. 19A to 19C, an icon object that has passed outside the user's visual field range is again within the user's visual field range in a short time. Therefore, the user can select the icon object that has failed to be selected again without waiting for much time, and the convenience can be improved.

なお、アイコンオブジェクトがユーザの視点に近づいた場合に、仮想カメラに対するアイコンオブジェクトの相対移動速度が遅くなるように制御してもよい。このようにすれば、ユーザが、目の前のアイコンオブジェクトの選択に失敗してしまう事態を低減できる。   Note that when the icon object approaches the user's viewpoint, the relative movement speed of the icon object with respect to the virtual camera may be controlled to be slow. In this way, it is possible to reduce the situation where the user fails to select the icon object in front of him.

2.6 立体視表示
本実施形態では図2のメニュー画面を、いわゆる立体視表示にしてもよい。こうすることで、ユーザの臨場感を更に向上できる。
2.6 Stereoscopic Display In this embodiment, the menu screen of FIG. 2 may be a so-called stereoscopic display. By doing so, the user's sense of reality can be further improved.

ここで、立体視の方式としては公知の種々の手法を採用できる。例えば眼鏡を使用する方式であってもよいし、眼鏡を使用しない方式であってもよい。また眼鏡を使用しない方式としては、バリフォーカルミラー方式、ホログラフィ等の体積型であってもよいし、レンティキュラ方式、パララックスバリア方式、インテグラル方式等の視差型であってもよい。   Here, various known methods can be adopted as the stereoscopic viewing method. For example, a method using glasses or a method not using glasses may be used. As a method not using glasses, a volume type such as a varifocal mirror method or holography may be used, or a parallax type such as a lenticular method, a parallax barrier method, or an integral method may be used.

具体的には、原画像に対してアナグリフ処理を行って左目用画像を右目用画像を生成し、ユーザが色フィルタ付きの眼鏡で画像を見ることで、メニュー画面等の立体視表示を実現する。或いはレンティキュラレンズ等の光学デバイスを表示部19の画面等に設けることで、立体視表示を実現してもよい。或いは、左目画像、右目用画像をフレーム毎に交互に表示し、ユーザが、液晶シャッタなどを備える眼鏡で画面を見ることで、立体視表示を実現してもよい。   Specifically, an anaglyph process is performed on the original image to generate a left-eye image and a right-eye image, and the user views the image with glasses with color filters, thereby realizing a stereoscopic display such as a menu screen. . Alternatively, stereoscopic display may be realized by providing an optical device such as a lenticular lens on the screen of the display unit 19 or the like. Alternatively, the left-eye image and the right-eye image may be alternately displayed for each frame, and the user may realize stereoscopic display by viewing the screen with glasses equipped with a liquid crystal shutter or the like.

このように図2のメニュー画面の立体視表示を行うことで、あたかも宇宙空間に浮かんでいるように感じるユーザの仮想現実感を更に増すことができる。また例えば図3のキャッチ画面の表示時に、アイコンオブジェクトの奥行き値を画面の手前側に設定して、画面からアイコンオブジェクトが飛び出して見えるような表現も可能になる。これにより、表示される画像のバラエティ度を増すことができる。   By performing the stereoscopic display of the menu screen in FIG. 2 as described above, it is possible to further increase the virtual reality of the user who feels as if he is floating in outer space. Further, for example, when the catch screen shown in FIG. 3 is displayed, the depth value of the icon object is set to the near side of the screen so that the icon object can be seen to pop out from the screen. Thereby, the variety degree of the image displayed can be increased.

3.サーバシステム
図20に本実施形態のサーバシステム(コンテンツ配信システム)の構成例を示す。図20では、複数の端末装置20-1〜20-nがネットワーク10を介してサーバシステム200に接続されている。そしてサーバシステム200は、ネットワーク10を介して、コンテンツを端末装置20-1〜20-nに配信する。
3. Server System FIG. 20 shows a configuration example of a server system (content distribution system) of this embodiment. In FIG. 20, a plurality of terminal devices 20-1 to 20-n are connected to the server system 200 via the network 10. Then, the server system 200 distributes the content to the terminal devices 20-1 to 20-n via the network 10.

ここでネットワーク10(配信網、通信回線)は、例えばインターネットを利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網等の通信網を含むことができる。また通信方法については有線/無線を問わない。   Here, the network 10 (distribution network, communication line) is, for example, a communication path using the Internet. In addition to a dedicated line (dedicated cable) for direct connection, a LAN using Ethernet (registered trademark), a telephone communication network, A communication network such as a cable network may be included. The communication method may be wired / wireless.

また端末装置20-1〜20-nは、ゲーム装置(家庭用ゲーム装置)、コンテンツ再生装置、テレビ、携帯型端末装置、パーソナルコンピュータ等のクライアント端末である。   The terminal devices 20-1 to 20-n are client terminals such as game devices (home game devices), content playback devices, televisions, portable terminal devices, personal computers, and the like.

サーバシステム20は処理部210、記憶部270、通信部296を含む。なお、これらの一部の構成要素を省略したり、他の構成要素(例えば操作部)を追加するなどの種々の変形実施が可能である。   The server system 20 includes a processing unit 210, a storage unit 270, and a communication unit 296. Note that various modifications such as omitting some of these components or adding other components (for example, an operation unit) are possible.

処理部210は、コンテンツの配信処理やシステムの管理処理を行う。この処理部210の機能は、CPU等のプロセッサや、プロセッサ上で動作するプログラムなどにより実現できる。このプログラムは、コンピュータ読み取り可能な情報記憶媒体に記憶される。   The processing unit 210 performs content distribution processing and system management processing. The functions of the processing unit 210 can be realized by a processor such as a CPU, a program that runs on the processor, or the like. This program is stored in a computer-readable information storage medium.

記憶部270(データベース)は、処理部210や通信部296のワーク領域として機能するものであり、その機能はRAMやHDD等により実現できる。   The storage unit 270 (database) functions as a work area for the processing unit 210 and the communication unit 296, and the function can be realized by a RAM, an HDD, or the like.

通信部296は、端末装置20-1〜20-n(以下、適宜、端末装置20と呼ぶ)との通信処理を行うものであり、その機能は通信用のASICやファームウェアにより実現できる。   The communication unit 296 performs communication processing with the terminal devices 20-1 to 20-n (hereinafter referred to as the terminal device 20 as appropriate), and the function can be realized by a communication ASIC or firmware.

処理部210は、コンテンツ配信部212、管理処理部214、課金処理部216、メニュー用オブジェクト空間設定部218、表示処理部230を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 210 includes a content distribution unit 212, a management processing unit 214, a charging processing unit 216, a menu object space setting unit 218, and a display processing unit 230. Various modifications may be made such as omitting some of these components or adding other components.

コンテンツ配信部212は、コンテンツ(シーンコンテンツ)の配信処理を行う。具体的には、端末装置20からの要求等にしたがって、コンテンツ記憶部272からコンテンツの情報を読み出して、通信部296、ネットワーク10を介して端末装置20に配信する。このコンテンツ配信は、例えば、コンテンツ配信元のノードから受信したコンテンツのデータを記憶部にバッファリングし、バッファリングしたコンテンツのデータをリレー方式でコンテンツ配信先のノードに再送するバケツリレー方式であってもよい。   The content distribution unit 212 performs content (scene content) distribution processing. Specifically, in accordance with a request from the terminal device 20, content information is read from the content storage unit 272 and distributed to the terminal device 20 via the communication unit 296 and the network 10. This content distribution is, for example, a bucket relay method in which content data received from a content distribution source node is buffered in a storage unit, and the buffered content data is retransmitted to a content distribution destination node by a relay method. Also good.

管理処理部214はサーバの各種管理処理を行う。そして管理情報は管理情報記憶部274に記憶される。またユーザについての各種情報(ID、パスワード、課金情報等)は、ユーザ情報記憶部276に記憶される。   The management processing unit 214 performs various server management processes. The management information is stored in the management information storage unit 274. Various information (ID, password, billing information, etc.) about the user is stored in the user information storage unit 276.

課金処理部216はコンテンツ配信に対する課金処理を行う。例えばユーザがシーンを選択した後、そのシーンを含む映像コンテンツの配信を要求した場合に、そのユーザに対して課金する処理を行う。   The billing processing unit 216 performs billing processing for content distribution. For example, when a user selects a scene and then requests distribution of video content including the scene, the user is charged.

メニュー用オブジェクト空間設定部218は、メニュー用オブジェクト空間を設定するための処理を行う。ここでメニュー用オブジェクト空間には、配信されるコンテンツを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定される。なおメニュー用オブジェクト空間の配置設定処理の一部又は全部を端末装置側が担当するようにしてもよい。   The menu object space setting unit 218 performs processing for setting the menu object space. Here, in the menu object space, each icon object of a plurality of icon objects for selecting content to be distributed is arranged and set at each three-dimensional position. Note that the terminal device may be in charge of part or all of the arrangement setting process of the menu object space.

表示処理部230は、メニュー用オブジェクト空間において仮想カメラから見える画像を、メニュー画面として端末装置20の表示部に表示するための処理を行う。またキャッチ画面、オープン画面、シーン再生画面等の各種画面を端末装置20の表示部に表示するための処理を行う。例えばメニュー画面等の各種画面をサーバ側で作成し、端末装置20が、作成された各種画面のURLにアクセスすることで、端末装置20の表示部に各種画面を表示してもよい。或いは、メニュー画面等の各種画面の画像データ(映像データ)をサーバ側が作成し、その画像データを端末装置20に送信することで、端末装置20の表示部にメニュー画面等の各種画面を表示してもよい。またサーバ側と端末装置側の分散処理により各種画面の作成処理及び表示処理を実現してもよい。   The display processing unit 230 performs processing for displaying an image seen from the virtual camera in the menu object space on the display unit of the terminal device 20 as a menu screen. Further, processing for displaying various screens such as a catch screen, an open screen, and a scene playback screen on the display unit of the terminal device 20 is performed. For example, various screens such as a menu screen may be created on the server side, and the terminal device 20 may display various screens on the display unit of the terminal device 20 by accessing URLs of the created various screens. Alternatively, the server side creates image data (video data) of various screens such as a menu screen and transmits the image data to the terminal device 20, thereby displaying various screens such as the menu screen on the display unit of the terminal device 20. May be. In addition, creation processing and display processing of various screens may be realized by distributed processing on the server side and the terminal device side.

また図1で説明した仮想カメラ制御部103、表示制御部107、音制御部108、アイコン設定部110、位置更新部112の処理の一部又は全部を、サーバ側の処理部210により実現してもよい。即ち図1の処理部100や記憶部170に含まれる各ブロックと同様の機能を有するブロックを、サーバシステム200の処理部210や記憶部270に設けてもよい。   In addition, a part or all of the processes of the virtual camera control unit 103, the display control unit 107, the sound control unit 108, the icon setting unit 110, and the position update unit 112 described in FIG. Also good. That is, a block having the same function as each block included in the processing unit 100 and the storage unit 170 in FIG. 1 may be provided in the processing unit 210 and the storage unit 270 of the server system 200.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、メニュー画面等の各種画面の表示手法、仮想カメラの制御手法、アイコンオブジェクトの制御手法等も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described together with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term anywhere in the specification or the drawings. Further, display methods for various screens such as menu screens, virtual camera control methods, icon object control methods, and the like are not limited to those described in the present embodiment, and equivalent methods are also included in the scope of the present invention. It is.

IOB アイコンオブジェクト、VC 仮想カメラ、
10 ネットワーク、20-1〜20-n 端末装置、
100 処理部、102 メニュー用オブジェクト空間設定部、
103 仮想カメラ制御部、107 表示制御部、108 音制御部、
110 アイコン設定部、112 位置更新部、160 操作部、170 記憶部、
172 オブジェクトデータ記憶部、173 アイコンオブジェクトデータ記憶部、
174 仮想カメラデータ記憶部、175 画像データ記憶部、
176 音データ記憶部、177 描画バッファ、178 コンテンツ記憶部、
180 情報記憶媒体、190 表示部、192 音出力部、
194 補助記憶装置、196 通信部、200 サーバシステム、210 処理部、
212 コンテンツ配信部、214 管理処理部、216 課金処理部、
218 メニュー用オブジェクト空間設定部、230 表示処理部、270 記憶部、
272 コンテンツ記憶部、274 管理情報記憶部、276 ユーザ情報記憶部、
296 通信部
IOB icon object, VC virtual camera,
10 network, 20-1 to 20-n terminal device,
100 processing unit, 102 object space setting unit for menu,
103 virtual camera control unit, 107 display control unit, 108 sound control unit,
110 icon setting unit, 112 position updating unit, 160 operation unit, 170 storage unit,
172 Object data storage unit, 173 Icon object data storage unit,
174 Virtual camera data storage unit, 175 image data storage unit,
176 sound data storage unit, 177 drawing buffer, 178 content storage unit,
180 information storage medium, 190 display unit, 192 sound output unit,
194 Auxiliary storage device, 196 communication unit, 200 server system, 210 processing unit,
212 content distribution unit, 214 management processing unit, 216 billing processing unit,
218 object space setting unit for menu, 230 display processing unit, 270 storage unit,
272 content storage unit, 274 management information storage unit, 276 user information storage unit,
296 Communication Department

Claims (29)

コンテンツを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定されるメニュー用オブジェクト空間を設定するメニュー用オブジェクト空間設定部と、
仮想カメラを制御する仮想カメラ制御部と、
前記メニュー用オブジェクト空間において前記仮想カメラから見える画像を、コンテンツ選択のためのメニュー画面として表示する制御を行う表示制御部と、
を含むことを特徴とする画像生成システム。
A menu object space setting unit for setting a menu object space in which each icon object of a plurality of icon objects for selecting content is set to be arranged at each three-dimensional position;
A virtual camera control unit for controlling the virtual camera;
A display control unit that performs control to display an image seen from the virtual camera in the menu object space as a menu screen for content selection;
An image generation system comprising:
請求項1において、
前記表示制御部は、
前記仮想カメラから見て前記アイコンオブジェクトが移動して見える画像を、前記メニュー画面として表示する制御を行うことを特徴とする画像生成システム。
In claim 1,
The display control unit
An image generation system that performs control to display an image that the icon object appears to move as viewed from the virtual camera as the menu screen.
請求項1又は2において、
前記表示制御部は、
ユーザが前記アイコンオブジェクトを選択した場合に、前記仮想カメラから見て前記アイコンオブジェクトが接近して見える画像を表示する制御を行うことを特徴とする画像生成システム。
In claim 1 or 2,
The display control unit
When the user selects the icon object, the image generation system performs control to display an image in which the icon object looks close when viewed from the virtual camera.
請求項3において、
前記表示制御部は、
選択された前記アイコンオブジェクトが静止し、他のアイコンオブジェクトが移動して見える画像を表示する制御を行うことを特徴とする画像生成システム。
In claim 3,
The display control unit
An image generation system that controls to display an image in which the selected icon object is stationary and other icon objects appear to move.
請求項1乃至4のいずれかにおいて、
前記仮想カメラ制御部は、
前記仮想カメラを軌道上で移動させる制御を行い、ユーザが前記アイコンオブジェクトを選択すると、選択された前記アイコンオブジェクトに前記仮想カメラを接近させる制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 4,
The virtual camera control unit
An image generation system, wherein control is performed to move the virtual camera on a trajectory, and when the user selects the icon object, control is performed to bring the virtual camera closer to the selected icon object.
請求項5において、
前記仮想カメラ制御部は、
前記軌道の接線方向に対して前記軌道の中心側に、前記仮想カメラの方向を向ける制御を行うことを特徴とする画像生成システム。
In claim 5,
The virtual camera control unit
An image generation system for controlling the direction of the virtual camera toward the center of the trajectory with respect to a tangential direction of the trajectory.
請求項1乃至6のいずれかにおいて、
前記仮想カメラ制御部は、
前記仮想カメラを周回軌道上で移動させる制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 6.
The virtual camera control unit
An image generation system that controls to move the virtual camera on a circular orbit.
請求項1乃至7のいずれかにおいて、
前記複数のアイコンオブジェクトのうち、前記仮想カメラの位置から所定距離範囲内にあるアイコンオブジェクト、或いは前記仮想カメラの位置に近い所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定するアイコン設定部を含むことを特徴とする画像生成システム。
In any of claims 1 to 7,
Icon setting that sets, among the plurality of icon objects, icon objects that are within a predetermined distance range from the position of the virtual camera or a predetermined number of icon objects that are close to the position of the virtual camera as icon objects that can be selected by the user An image generation system including a section.
請求項1乃至8のいずれかにおいて、
前記表示制御部は、
ユーザが操作するカーソルによりアイコンオブジェクトが選択された場合に、選択された前記アイコンオブジェクトにマーカを重畳表示する、或いは前記アイコンオブジェクトの移動速度又は画像を変化させる表示制御を行うことを特徴とする画像生成システム。
In any one of claims 1 to 8,
The display control unit
An image characterized in that when an icon object is selected by a cursor operated by a user, a marker is superimposed on the selected icon object, or display control is performed to change the moving speed or image of the icon object. Generation system.
請求項1乃至9のいずれかにおいて、
前記仮想カメラ制御部は、
ユーザによる操作部の操作に基づいて、前記仮想カメラの位置及び方向の少なくとも1つを制御することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 9,
The virtual camera control unit
An image generation system that controls at least one of a position and a direction of the virtual camera based on an operation of an operation unit by a user.
請求項1乃至10のいずれかにおいて、
前記表示制御部は、
コンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのリコメンド情報、コンテンツの選択履歴情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報の少なくとも1つに応じて、コンテンツに対応する前記アイコンオブジェクトの画像が変化する表示制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 10.
The display control unit
According to at least one of content popularity information, content evaluation information, content presentation frequency information, content recommendation information, content selection history information, content registration time information, and additional information added to content, An image generation system that performs display control in which an image of the icon object corresponding to content changes.
請求項1乃至11のいずれかにおいて、
前記表示制御部は、
前記アイコンオブジェクトと前記仮想カメラとの位置関係に応じて、前記アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 11,
The display control unit
An image generation system that controls to display an image in which the information detail level of the icon object changes according to a positional relationship between the icon object and the virtual camera.
請求項1乃至12のいずれかにおいて、
前記仮想カメラ制御部は、
前記仮想カメラの画角を制御することを特徴とする画像生成システム。
In any of claims 1 to 12,
The virtual camera control unit
An image generation system that controls an angle of view of the virtual camera.
請求項13において、
前記表示制御部は、
前記仮想カメラの画角に応じて、前記アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行うことを特徴とする画像生成システム。
In claim 13,
The display control unit
An image generation system that controls to display an image in which the information detail level of the icon object changes according to the angle of view of the virtual camera.
請求項1乃至14のいずれかにおいて、
前記アイコンオブジェクトの前記3次元位置に応じた音を出力する制御を行う音制御部を含むことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 14.
An image generation system comprising: a sound control unit that performs control to output sound according to the three-dimensional position of the icon object.
請求項15において、
前記音制御部は、
前記仮想カメラと前記アイコンオブジェクトとの位置関係に応じて変化する音を出力する制御を行うことを特徴とする画像生成システム。
In claim 15,
The sound control unit
An image generation system that controls to output a sound that changes in accordance with a positional relationship between the virtual camera and the icon object.
請求項15又は16において、
前記音制御部は、
前記仮想カメラから見て第1のアイコンオブジェクトの方が第2のアイコンオブジェクトよりも手前側に位置する場合に、前記第1のアイコンオブジェクトに対応づけれた音の方が前記第2のアイコンオブジェクトに関連づけられた音よりも優先して出力される音出力制御を行うことを特徴とする画像生成システム。
In claim 15 or 16,
The sound control unit
When the first icon object is located in front of the second icon object as viewed from the virtual camera, the sound associated with the first icon object is the second icon object. An image generation system characterized by performing sound output control that is output with priority over the sound associated with.
請求項1乃至17のいずれかにおいて、
前記メニュー用オブジェクト空間設定部は、
前記メニュー用オブジェクト空間に設定された軌道上に、前記複数のアイコンオブジェクトを配置設定することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 17,
The menu object space setting unit includes:
An image generation system, wherein the plurality of icon objects are arranged and set on a trajectory set in the menu object space.
請求項18において、
前記仮想カメラ制御部は、
前記複数のアイコンオブジェクトが配置設定される前記軌道に沿ったカメラ軌道上で、前記仮想カメラを移動させる制御を行うことを特徴とする画像生成システム。
In claim 18,
The virtual camera control unit
An image generation system that performs control of moving the virtual camera on a camera trajectory along the trajectory along which the plurality of icon objects are arranged and set.
請求項1乃至19のいずれかにおいて、
前記メニュー用オブジェクト空間設定部は、
前記メニュー用オブジェクト空間に設定された複数の軌道の各軌道上に対して、複数のコンテンツグループのうちの対応するコンテンツグループに属する複数のアイコンオブジェクトを配置設定することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 19.
The menu object space setting unit includes:
An image generation system, wherein a plurality of icon objects belonging to a corresponding content group among a plurality of content groups are arranged and set on each orbit of a plurality of trajectories set in the menu object space.
請求項1乃至20のいずれかにおいて、
前記複数のアイコンオブジェクトの配置位置の更新処理を行う位置更新部を含むことを特徴とする画像生成システム。
In any of claims 1 to 20,
An image generation system, comprising: a position update unit that performs an update process of the arrangement positions of the plurality of icon objects.
請求項21において、
前記位置更新部は、
コンテンツ量情報、コンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのジャンル情報、コンテンツのリコメンド情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報の少なくとも1つに応じて、前記複数のアイコンオブジェクトの配置位置の更新処理を行うことを特徴とする画像生成システム。
In claim 21,
The position update unit
At least one of content amount information, content popularity information, content evaluation information, content presentation frequency information, content genre information, content recommendation information, content registration time information, and additional information added to content In response, an image generation system that performs update processing of the arrangement positions of the plurality of icon objects.
請求項21又は22において、
前記位置更新部は、
前記アイコンオブジェクトが前記仮想カメラの視野範囲外になった場合に、視野範囲外になった前記アイコンオブジェクトの位置を変更することを特徴とする画像生成システム。
In claim 21 or 22,
The position update unit
When the icon object is out of the visual field range of the virtual camera, the position of the icon object that is out of the visual field range is changed.
請求項1乃至23のいずれかにおいて、
前記アイコンオブジェクトは、ネットワークを介して配信される映像コンテンツ又は前記映像コンテンツの各シーンを選択するためのアイコンオブジェクトであることを特徴とする画像生成システム。
In any one of Claims 1 thru | or 23.
The image generation system, wherein the icon object is an icon object for selecting video content distributed via a network or each scene of the video content.
請求項1乃至23のいずれかにおいて、
前記アイコンオブジェクトは、放送番組を選択するためのアイコンオブジェクトであることを特徴とする画像生成システム。
In any one of Claims 1 thru | or 23.
The image generation system according to claim 1, wherein the icon object is an icon object for selecting a broadcast program.
請求項1乃至23のいずれかにおいて、
前記アイコンオブジェクトは、記録媒体に記録された映像コンテンツ又は音楽コンテンツを選択するためのアイコンオブジェクトであることを特徴とする画像生成システム。
In any one of Claims 1 thru | or 23.
The image generation system according to claim 1, wherein the icon object is an icon object for selecting video content or music content recorded on a recording medium.
コンテンツを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定されるメニュー用オブジェクト空間を設定するメニュー用オブジェクト空間設定部と、
仮想カメラを制御する仮想カメラ制御部と、
前記メニュー用オブジェクト空間において前記仮想カメラから見える画像を、コンテンツ選択のためのメニュー画面として表示する制御を行う表示制御部として、
コンピュータを機能させることを特徴とするプログラム。
A menu object space setting unit for setting a menu object space in which each icon object of a plurality of icon objects for selecting content is set to be arranged at each three-dimensional position;
A virtual camera control unit for controlling the virtual camera;
As a display control unit that performs control to display an image seen from the virtual camera in the menu object space as a menu screen for content selection,
A program characterized by causing a computer to function.
コンピュータ読み取り可能な情報記憶媒体であって、請求項27に記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to claim 27 is stored. コンテンツを配信するコンテンツ配信部と、
配信されるコンテンツを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定されるメニュー用オブジェクト空間を設定するための処理を行うメニュー用オブジェクト空間設定部と、
前記メニュー用オブジェクト空間において仮想カメラから見える画像を、コンテンツ選択のためのメニュー画面として端末装置の表示部に表示するための処理を行う表示処理部と、
を含むことを特徴とするサーバシステム。
A content distribution unit for distributing content;
A menu object space setting unit for performing processing for setting a menu object space in which each icon object of a plurality of icon objects for selecting content to be distributed is arranged and set at each three-dimensional position;
A display processing unit for performing processing for displaying an image seen from the virtual camera in the object space for menu on the display unit of the terminal device as a menu screen for content selection;
A server system comprising:
JP2009063913A 2009-03-17 2009-03-17 Image generation system, program, information storage medium, and server system Pending JP2010218195A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009063913A JP2010218195A (en) 2009-03-17 2009-03-17 Image generation system, program, information storage medium, and server system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009063913A JP2010218195A (en) 2009-03-17 2009-03-17 Image generation system, program, information storage medium, and server system

Publications (1)

Publication Number Publication Date
JP2010218195A true JP2010218195A (en) 2010-09-30

Family

ID=42976982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009063913A Pending JP2010218195A (en) 2009-03-17 2009-03-17 Image generation system, program, information storage medium, and server system

Country Status (1)

Country Link
JP (1) JP2010218195A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067861A1 (en) * 2014-10-29 2016-05-06 三菱電機株式会社 Induction heat cooking apparatus
JP2017111669A (en) * 2015-12-17 2017-06-22 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and operation reception method
JP2018092491A (en) * 2016-12-06 2018-06-14 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP2020119262A (en) * 2019-01-23 2020-08-06 キヤノン株式会社 Image processor, image processing method and program
JP2021128795A (en) * 2016-03-31 2021-09-02 マジック リープ, インコーポレイテッドMagic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
CN113827961A (en) * 2021-09-07 2021-12-24 网易(杭州)网络有限公司 Information processing method, information processing apparatus, storage medium, and electronic apparatus
JP2022034160A (en) * 2020-08-18 2022-03-03 株式会社カプコン Audio playback program and audio playback device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016067861A1 (en) * 2014-10-29 2017-04-27 三菱電機株式会社 Induction heating cooker
WO2016067861A1 (en) * 2014-10-29 2016-05-06 三菱電機株式会社 Induction heat cooking apparatus
US10620791B2 (en) 2015-12-17 2020-04-14 Sony Interactive Entertainment Inc. Information processing apparatus and operation reception method
JP2017111669A (en) * 2015-12-17 2017-06-22 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and operation reception method
JP7209041B2 (en) 2016-03-31 2023-01-19 マジック リープ, インコーポレイテッド Interacting with 3D Virtual Objects Using Pose and Multiple DOF Controllers
JP2021128795A (en) * 2016-03-31 2021-09-02 マジック リープ, インコーポレイテッドMagic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
US11657579B2 (en) 2016-03-31 2023-05-23 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
US12051167B2 (en) 2016-03-31 2024-07-30 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
JP2018092491A (en) * 2016-12-06 2018-06-14 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP2020119262A (en) * 2019-01-23 2020-08-06 キヤノン株式会社 Image processor, image processing method and program
JP7296735B2 (en) 2019-01-23 2023-06-23 キヤノン株式会社 Image processing device, image processing method and program
JP2022034160A (en) * 2020-08-18 2022-03-03 株式会社カプコン Audio playback program and audio playback device
JP7568896B2 (en) 2020-08-18 2024-10-17 株式会社カプコン Audio playback program and audio playback device
CN113827961A (en) * 2021-09-07 2021-12-24 网易(杭州)网络有限公司 Information processing method, information processing apparatus, storage medium, and electronic apparatus

Similar Documents

Publication Publication Date Title
JP6737841B2 (en) System and method for navigating a three-dimensional media guidance application
JP7498209B2 (en) Information processing device, information processing method, and computer program
US9656168B1 (en) Head-mounted display for navigating a virtual environment
US11266919B2 (en) Head-mounted display for navigating virtual and augmented reality
JP2010219849A (en) Image generation system, program, information storage medium, server system, and content distribution system
US20180028931A1 (en) Remote controlled vehicle with augmented reality overlay
US20210211632A1 (en) Three-dimensional content distribution system, three-dimensional content distribution method and computer program
US12114052B2 (en) Methods, systems, and media for presenting interactive elements within video content
JP2010218195A (en) Image generation system, program, information storage medium, and server system
CN114385886A (en) A content search method and three-dimensional display device
US12001645B2 (en) Methods, systems, and media for presenting media content previews
KR20120037858A (en) Three-dimensional image display apparatus and user interface providing method thereof
JP6684306B2 (en) Terminal device, video distribution device, program
JPH096574A (en) Device and method for image display
KR102165026B1 (en) 360 degree augmented reality stereoscopic image experience system
WO2020248682A1 (en) Display device and virtual scene generation method
JP3755164B2 (en) Image display apparatus and method, and information providing apparatus and method
Wu et al. User Interaction for WebGL-Based Desktop Metaverse
JP2006065888A (en) Image display apparatus and method, and information providing apparatus and method
CN118131892A (en) Virtual interaction method, device, equipment and medium