[go: up one dir, main page]

JP6945312B2 - Operation control system, character screening system and program - Google Patents

Operation control system, character screening system and program Download PDF

Info

Publication number
JP6945312B2
JP6945312B2 JP2017058271A JP2017058271A JP6945312B2 JP 6945312 B2 JP6945312 B2 JP 6945312B2 JP 2017058271 A JP2017058271 A JP 2017058271A JP 2017058271 A JP2017058271 A JP 2017058271A JP 6945312 B2 JP6945312 B2 JP 6945312B2
Authority
JP
Japan
Prior art keywords
operation command
spectator
information
target character
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017058271A
Other languages
Japanese (ja)
Other versions
JP2018158046A (en
JP2018158046A5 (en
Inventor
直大 鈴木
直大 鈴木
相木 伸一郎
伸一郎 相木
大久保 博
博 大久保
雅則 志磨
雅則 志磨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Amusement Inc
Original Assignee
Bandai Namco Amusement Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Amusement Inc filed Critical Bandai Namco Amusement Inc
Priority to JP2017058271A priority Critical patent/JP6945312B2/en
Publication of JP2018158046A publication Critical patent/JP2018158046A/en
Publication of JP2018158046A5 publication Critical patent/JP2018158046A5/ja
Application granted granted Critical
Publication of JP6945312B2 publication Critical patent/JP6945312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、操作制御システム、キャラクタ上映システム及びプログラムなどに関する。 The present invention relates to an operation control system, a character screening system, a program, and the like.

従来から、複数の観客を収容するイベント会場において、観客に対してアイドルなどの実在しない2次元又は3次元のキャラクタを上映し、あたかもそこに存在するかのようにキャラクタを操作するためのシステム(以下、「イベント用キャラクタ操作システム」ともいう。)が知られている。 Conventionally, at an event venue that accommodates multiple spectators, a system for showing non-existent 2D or 3D characters such as idols to the spectators and operating the characters as if they were there ( Hereinafter, it is also referred to as an "event character operation system").

一方、CGアニメーションや動画像を編集する動画像編集装置において、操作者における煩雑な画像編集を解消する装置が知られている(例えば、特許文献1)。そして、このような動画像編集装置をイベント用キャラクタ操作システムに組み込むことによって、上映するキャラクタを含めた動画像を、観客や会場の状況に応じてリアルタイムに編集して提供することが検討されている。 On the other hand, in a moving image editing device for editing a CG animation or a moving image, a device that eliminates complicated image editing by an operator is known (for example, Patent Document 1). Then, by incorporating such a moving image editing device into the character operation system for an event, it is considered to edit and provide a moving image including a character to be screened in real time according to the situation of the audience or the venue. There is.

特開2001−195600号公報Japanese Unexamined Patent Publication No. 2001-195600

しかしながら、特許文献1に記載の動画編集装置をイベント用キャラクタ操作システムに単に組み込んだとしても、操作者の操作を簡便にすることはできるものの、会場の雰囲気や観客の状態に応じて、キャラクタの動作を制御させることは難しい。 However, even if the video editing device described in Patent Document 1 is simply incorporated into the character operation system for an event, the operation of the operator can be simplified, but the character can be operated according to the atmosphere of the venue and the state of the audience. It is difficult to control the operation.

本発明は、上記課題を解決するためになされたものであり、その目的は、操作者における操作を簡便にしつつ、イベント会場の雰囲気や観客の状態に応じて、キャラクタを動作させて画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、イベントを盛り上げること、及び、観客において満足感の高いイベントを実行することが可能なキャラクタ操作システムなどを提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to move a character and image it according to the atmosphere of an event venue and the state of an audience while simplifying the operation by an operator. It is an object of the present invention to provide a character operation system capable of improving the presence of a character and the live feeling in the performance of the character, enlivening the event, and executing the event with high satisfaction in the audience.

(1)上記課題を解決するため、本発明は、
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御する操作制御システムであって、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段と、
前記観客によって視認される観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段と、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段と、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段と、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段と、
を備える、構成を有している。
(1) In order to solve the above problems, the present invention
It is an operation control system that controls the operation of the imaged target character to be viewed by the audience.
An image generation means that sets a virtual camera in the object space in which the target character is arranged and generates an image of the target character in the object space with the virtual camera as a viewpoint.
A spectator display control means for displaying an image of the target character on the spectator display device visually recognized by the spectator, and
From a plurality of operation commands for controlling the operation of the target character in the object space, an operation command selected by the operator according to the spectator information indicating information about the spectator is used as an operation command candidate by the operator. Presenting means to present and
A receiving means for receiving an operation command instructed by the operator from the presented operation command candidates, and
An operation control means for controlling the operation of the displayed target character based on the received operation command, and
Has a configuration.

この構成により、本発明は、観客の雰囲気や観客の現在の状態を示す情報、又は、観客の属性や課金履歴などの各観客の観客情報に応じて操作者によって選択される操作コマンド、又は、当該観客情報に応じて抽出されて操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示することができる。 With this configuration, the present invention provides information indicating the atmosphere of the spectator and the current state of the spectator, or an operation command selected by the operator according to the spectator information of each spectator such as the attributes of the spectator and the billing history, or An operation command extracted according to the spectator information and selected by the operator can be presented to the operator as an operation command candidate.

例えば、本発明は、観客情報によってイベント会場などの対象キャラクタを観覧している観客が盛り上がっていないと判断された場合には、対象キャラクタが観客を盛り上げあげるための動作として、MC(セリフやマイクパフォーマンス)を実行させるコマンドを選択可能にし、又は、激しい踊りを対象キャラクタが実行する操作コマンドを選択可能にすることができるなど、対象キャラクタを観覧している観客の状況(すなわち、観客の現在の状態)に応じた対象キャラクタの動作を操作者に選択させることができる。 For example, in the present invention, when it is determined from the audience information that the spectator who is observing the target character such as the event venue is not excited, the MC (line or microphone) is used as an operation for the target character to excite the spectator. The situation of the spectator who is observing the target character (that is, the current situation of the spectator), such as making it possible to select a command to execute a performance) or an operation command to execute a violent dance by the target character. The operator can be made to select the operation of the target character according to the state).

また、例えば、本発明は、観客情報によって、対象キャラクタを観覧する観客に女性が多いと判断された場合には、女性向けの対象キャラクタの動作を制御し、又は、過去の行動において所定のグッズを購入していると判断された場合には、当該観客に対して対象キャラクタの特別な演出を実行させて観覧している観客の行動履歴や属性に応じた対象キャラクタの動作を制御する操作コマンドを操作者に選択させることができる。 Further, for example, the present invention controls the movement of the target character for women when it is determined from the audience information that there are many women in the audience viewing the target character, or predetermined goods in past actions. If it is determined that the target character has been purchased, an operation command that controls the behavior of the target character according to the behavior history and attributes of the spectator who is observing by causing the spectator to perform a special effect of the target character. Can be selected by the operator.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。 Therefore, according to the present invention, the target character can be operated according to the atmosphere of the spectator and the state of the spectator while simplifying the operation by the operator. While improving the live feeling in the performance, it is possible to excite the audience and realize a fresh performance.

この結果、本発明は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができる。 As a result, the present invention can control the movement (that is, performance) of the target character, which is highly satisfying to the audience.

なお、観客用表示装置は、例えば、ステージ上に設けられ、歌や踊り又は演劇や講演などのパフォーマンスを行う観覧の対象となる対象キャラクタを表示する装置であって、例えば、液晶表示装置、プロジェクターなどの投影装置、又は、ホログラムなどの立体画像化装置などを示す。 The audience display device is, for example, a device provided on the stage and displaying a target character to be viewed for performing a performance such as a song, a dance, a play, or a lecture. For example, a liquid crystal display device or a projector. Such as a projection device, or a three-dimensional imaging device such as a hologram.

また、「観客情報に応じて選択される操作コマンド」とは、例えば、観客情報を参照しつつ操作者の意思によって選択することが可能な状態となる操作コマンドであること、及び、例えば、カメラなどの検出手段によって検出された観客情報に応じて選択(抽出)された操作コマンドであって、操作者によって選択される操作コマンドを示す。 Further, the "operation command selected according to the spectator information" is, for example, an operation command that can be selected by the operator's intention while referring to the spectator information, and, for example, a camera. It is an operation command selected (extracted) according to the spectator information detected by the detection means such as, and indicates the operation command selected by the operator.

例えば、観客情報には、
(1)性別、年代、居住地域又は観覧時の位置(座席)などの観客の属性情報
(2)好きな演技キャラクタなどの観客の嗜好情報、
(3)スマートフォンやIDタグなどの観客が保有する端末装置の情報(例えば、観客の個人を特定する情報や電子チケット情報などの観覧時の位置(座席)を示す情報)
(4)IDなどの各観客に対応付けて、又は、観客が保有する端末装置に対応付けて、記憶されている情報であって、観覧している対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントに関連するゲームなどの所定のゲームにおけるプレー状況やその履歴(課金履歴も含む。)に関する情報(ゲームプレー情報)、
(5)観客が保有する端末装置を用いて記憶される情報であって、対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントなどへの参加を示す行動履歴情報、及び、当該イベントやパフォーマンスに関連する所定の通販サイトや実売店舗(イベント会
場内も含む)による課金情報やその課金履歴情報、並びに、
(6)各観客から生体情報(例えば、顔画像、音声情報(各観客の声紋情報や周波数特性を示す周波数特性情報を含む。)、及び、体勢情報、熱量の情報や所定のデバイス(スマートフォンやサイリウム))を用いた光の情報などの生体情報に準ずる情報が含まれる。
For example, in the audience information,
(1) Audience attribute information such as gender, age, residential area or viewing position (seat) (2) Audience preference information such as favorite acting characters,
(3) Information on terminal devices such as smartphones and ID tags owned by the spectator (for example, information indicating the position (seat) at the time of viewing such as information identifying the spectator's individual and electronic ticket information)
(4) Information that is stored in association with each spectator such as an ID or in association with a terminal device owned by the spectator, and the target character being viewed or the target character is performing. Information (game play information) regarding the play status and history (including billing history) of a predetermined game such as a game related to an event,
(5) Information stored using a terminal device owned by the spectator, which is related to the target character, action history information indicating participation in an event in which the target character is performing, and the event or performance. Billing information and billing history information from the designated online shopping site and actual sales stores (including inside the event venue), as well as
(6) Biological information (for example, face image, voice information (including voice print information of each spectator and frequency characteristic information indicating frequency characteristics), posture information, calorific value information, and a predetermined device (smartphone, etc.) from each spectator. Information similar to biological information such as light information using psyllium)) is included.

さらに、操作コマンドには、画像化されている対象キャラクタのオブジェクト空間における動作を操作制御するためのコマンドであって、複数のコマンドを一体的に実行するためのコマンドが含まれてもよい。 Further, the operation command may include a command for operating and controlling the operation of the imaged target character in the object space, and a command for executing a plurality of commands integrally.

例えば、複数の操作コマンドとしては、対象キャラクタの動作が異なる複数種類の操作コマンド(ジャンプ、走る、一回転する操作コマンドなど)であってもよいし、当該操作コマンドの実行にあたり効果が異なる同一種別の操作コマンド(異なるセリフを発する操作コマンドなど)であってもよい。 For example, the plurality of operation commands may be a plurality of types of operation commands (jump, run, one-turn operation command, etc.) in which the operation of the target character is different, or the same type having different effects when executing the operation command. It may be an operation command of (such as an operation command that issues a different line).

上記に加えて、「操作コマンド候補を提示する」とは、表示装置やタッチパネルの機能を有するタブレットに操作可能に表示する場合であってもよいし、物理的なスイッチやキーボードに操作コマンドが割り当てられたことを示す場合であってもよい。 In addition to the above, "presenting operation command candidates" may be a case of operably displaying on a tablet having a display device or a touch panel function, or an operation command is assigned to a physical switch or keyboard. It may be a case of indicating that it has been done.

また、「対象キャラクタの動作制御」には、操作コマンドに従って動作を制御するだけでなく、予め定められたアルゴリズムによって動作させつつ、所定のタイミングなどに操作コマンドに従って動作することも含む。 Further, the "motion control of the target character" includes not only controlling the motion according to the operation command but also operating according to the operation command at a predetermined timing or the like while operating according to a predetermined algorithm.

特に、予め定められたアルゴリズムを用いて対象キャラクタの動作を制御する場合には、歌や踊りなどのパフォーマンス時の動作(セリフを含む。)を規定するアルゴリズムによって動作制御することを示し、アルゴリズムによって動作制御されている際に、操作コマンドが受け付けられた場合には、当該アルゴリズムに基づく処理に代えて又は当該アルゴリズムの処理とともに、操作コマンドに従って対象キャラクタを動作制御することが含まれる。 In particular, when controlling the movement of the target character using a predetermined algorithm, it is shown that the movement is controlled by an algorithm that regulates the movement (including dialogue) at the time of performance such as singing or dancing. When an operation command is received while the operation is controlled, the operation control of the target character according to the operation command is included in place of the processing based on the algorithm or together with the processing of the algorithm.

(2)また、本発明は、
前記操作者によって視認されるモニタ表示装置に前記対象キャラクタを表示させるモニタ表示制御手段を更に備え、
前記提示手段が、
前記モニタ表示装置に、前記対象キャラクタとともに前記操作コマンド候補を、前記操作者に提示する、構成を有している。
(2) Further, the present invention
A monitor display control means for displaying the target character on the monitor display device visually recognized by the operator is further provided.
The presentation means
The monitor display device has a configuration in which the operation command candidate is presented to the operator together with the target character.

この構成により、本発明は、操作者が視認可能な操作対象となるキャラクタ上に操作コマンド候補を表示させることができるので、操作者の操作を簡便にすることができる。 With this configuration, the present invention can display operation command candidates on a character that is a target of operation that can be visually recognized by the operator, so that the operation of the operator can be simplified.

特に、本発明は、モニタ表示装置がタッチパネルによって構成されている場合には、動作制御する対象キャラクタとともに操作コマンド候補を提示することができるので、操作者の直感的な操作を促し、操作者の操作入力を簡便にすることができる。 In particular, in the present invention, when the monitor display device is composed of a touch panel, operation command candidates can be presented together with the target character whose operation is to be controlled, so that the operator's intuitive operation can be promoted and the operator's operation can be promoted. Operation input can be simplified.

なお、モニタ表示装置は、観客用表示装置とは別個に設けられた操作者用のモニタを示し、例えば、タブレット端末装置、スマートフォン及び液晶装置などによって構成される。そして、モニタ表示装置は、上述のように、タッチパネルによって構成されていることが好ましい。 The monitor display device indicates a monitor for an operator provided separately from the display device for spectators, and is composed of, for example, a tablet terminal device, a smartphone, a liquid crystal device, and the like. As described above, the monitor display device is preferably configured by a touch panel.

(3)また、本発明は、
前記提示手段が、
前記観客情報を取得し、前記操作コマンド候補とともに、前記取得した観客情報を前記操作者に提示する、構成を有している。
(3) Further, the present invention
The presentation means
It has a configuration in which the spectator information is acquired and the acquired spectator information is presented to the operator together with the operation command candidate.

この構成により、本発明は、操作コマンド候補を選択する際に操作者に観客情報を認識させることができるので、対象キャラクタに対して観客に合致する動作が規定された操作コマンドを、操作者によってより選択させやすくすることができる。 With this configuration, the present invention allows the operator to recognize the spectator information when selecting the operation command candidate, so that the operator can issue an operation command in which an operation matching the spectator is defined for the target character. It can be made easier to select.

したがって、本発明は、観客の行動履歴や属性などの観客情報を提示し、観客を盛り上げること、及び、新鮮みのある行動を提供することができるので、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)が規定された操作コマンドを、選択させやすくすることができる。 Therefore, the present invention can present spectator information such as the behavior history and attributes of the spectator to excite the spectator and provide fresh behavior, so that the movement of the target character with high satisfaction in the spectator can be provided. It is possible to make it easier to select an operation command for which (that is, performance) is specified.

(4)また、本発明は、
前記観客毎に、各観客の個人情報を前記観客情報として記憶する記憶手段を管理する管理手段を更に備え、
前記提示手段が、
前記記憶されている観客情報を取得し、前記操作コマンド候補とともに、当該取得した観客情報を前記操作者に提示する、構成を有している。
(4) Further, the present invention
For each of the spectators, a management means for managing a storage means for storing the personal information of each spectator as the spectator information is further provided.
The presentation means
It has a configuration in which the stored spectator information is acquired and the acquired spectator information is presented to the operator together with the operation command candidate.

この構成により、本発明は、操作コマンド候補を選択する際に操作者に観客の個人情報を認識させることができるので、対象キャラクタに対して観客に合致する動作が規定された操作コマンドを、操作者によってより選択させやすくすることができる。 With this configuration, the present invention allows the operator to recognize the personal information of the spectator when selecting the operation command candidate, so that the target character can operate the operation command in which the operation matching the spectator is defined. It can be made easier for some people to choose.

例えば、提示された個人情報に基づいて、対象キャラクタを観覧する観客に女性が多いことが認識できた場合には、操作者に女性向けの対象キャラクタの動作を制御するための操作コマンドを選択させやすくなり、また、過去の行動において所定のグッズを購入しているなどの観客が存在すること(当該観客が多いこと)が認識できた場合には、操作者に対象キャラクタの特別な演出を実行させる操作コマンドを選択させやすくなる。 For example, if it can be recognized that there are many women in the audience viewing the target character based on the presented personal information, the operator is made to select an operation command for controlling the operation of the target character for women. It will be easier, and if it can be recognized that there is a spectator (there are many spectators) such as purchasing certain goods in the past actions, the operator will be given a special effect of the target character. It becomes easier to select the operation command to be made.

すなわち、本発明は、観客の行動履歴や属性などの観客の個人情報を提示し、観客を盛り上げること、及び、新鮮みのある行動を提供することができるので、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)が規定された操作コマンドを、選択させやすくすることができる。 That is, the present invention can present the spectator's personal information such as the spectator's behavior history and attributes to excite the spectator and provide a fresh behavior, so that the target character is highly satisfying to the spectator. It is possible to make it easier to select an operation command whose operation (that is, performance) is specified.

なお、個人情報には、例えば、各観客の過去の行動履歴を示す行動履歴情報、及び、各観客の性別、年代、居住地域、好きな対象キャラクタ、観覧時の位置(座席)、又は、スマートフォンやIDダグ(RFID)などの端末装置に関する情報などの属性情報が含まれる。 The personal information includes, for example, behavior history information indicating the past behavior history of each spectator, gender, age, residential area, favorite target character of each spectator, position (seat) at the time of viewing, or a smartphone. Attribute information such as information about terminal devices such as ID Doug (RFID) and ID Doug (RFID) is included.

特に、端末装置に関する情報には、例えば、観客の個人を特定する情報やチケット情報などの観覧時の位置(座席)を示す情報、及び、ゲーム履歴情報や商品等の購入履歴情報を含む。 In particular, the information related to the terminal device includes, for example, information that identifies an individual spectator, information that indicates a position (seat) at the time of viewing such as ticket information, and purchase history information such as game history information and products.

また、行動履歴情報には、例えば、対象キャラクタのパフォーマンスが行われているイベントなどの関連するイベントに参加した回数やその日時、対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントに関連するゲームなどの所定のゲームにおけるプレー状況、又は、その履歴に関する情報、当該イベントや対象キャラクタなどに関連する所定の通販サイトや実売店舗(イベント会場内も含む)による商品(グッズ)やサービスの購入情報やそれによって生じた課金情報(課金履歴情報を含む)が含まれる。 In addition, the action history information includes, for example, the number of times and the date and time of participating in a related event such as an event in which the target character is performing, a game related to the target character and the event in which the target character is performing, and the like. Information on the play status or history of the specified game, purchase information of products (goods) and services from the specified online shopping site and actual sales stores (including inside the event venue) related to the event and target characters, etc. The billing information (including billing history information) generated by this is included.

(5)また、本発明は、
前記対象キャラクタの動作制御が実行された際に受け付けられた操作コマンドの情報を使用履歴情報として記憶手段に登録して蓄積する登録手段をさらに備え、
前記提示手段が、
前記観客情報及び前記登録されている使用履歴情報に応じて、前記操作者によって選択される操作コマンドを、前記操作コマンド候補として、前記操作者に提示する、構成を有している。
(5) Further, the present invention
Further provided with a registration means for registering and accumulating the information of the operation command received when the operation control of the target character is executed in the storage means as usage history information.
The presentation means
It has a configuration in which an operation command selected by the operator according to the spectator information and the registered usage history information is presented to the operator as the operation command candidate.

この構成により、本発明は、例えば、使用頻度、直前に使用した操作コマンドの種別、予め定められた期間内(一連のパフォーマンス期間中など)における使用の有無を示す情報などの使用履歴情報に応じて、操作者によって選択される操作コマンドを、操作候補コマンドとして、操作者に提示することができる。 With this configuration, the present invention responds to usage history information such as frequency of use, type of operation command used immediately before, and information indicating whether or not it is used within a predetermined period (during a series of performance periods, etc.). Therefore, the operation command selected by the operator can be presented to the operator as an operation candidate command.

例えば、本発明は、操作コマンドを選択させる際に、使用頻度の高い操作コマンド、直前の操作コマンドに関連する操作コマンド、観客の大半が未だ観覧したことない対象キャラクタの行動を規定する操作コマンド、一連のパフォーマンスの実行中に未だ使用されていない操作コマンド、又は、他の操作コマンドに比べて優先的に選択可能な操作コマンド候補として操作者に認識させるべき操作コマンドを操作者に絞り込んで提示することができる。 For example, the present invention defines an operation command that is frequently used, an operation command related to the immediately preceding operation command, and an operation command that defines the behavior of a target character that most of the spectators have not yet viewed when selecting an operation command. The operation commands that have not been used during the execution of a series of performances, or the operation commands that should be recognized by the operator as operation command candidates that can be selected preferentially over other operation commands are narrowed down and presented to the operator. be able to.

また、例えば、本発明は、一連のパフォーマンスにおいて、既に実行された操作コマンド、又は、特定の観客に既に提供された特別な演出を実行した操作コマンドなど、選択不能な操作コマンド候補を不提示にすることができる。 Further, for example, the present invention does not present non-selectable operation command candidates such as an operation command that has already been executed or an operation command that has executed a special effect already provided to a specific audience in a series of performances. can do.

さらに、例えば、本発明は、既に登録された操作コマンドを解析すれば、いつも盛り上がる対象キャラクタの行動を規定する操作コマンド、又は、如何なるシーンでも有効に機能する対象キャラクタの行動を規定する操作コマンドなど、過去の操作コマンドの傾向に沿った操作コマンドを操作コマンド候補として提示することができる。 Further, for example, according to the present invention, if the already registered operation command is analyzed, the operation command that regulates the behavior of the target character that is always excited, or the operation command that regulates the behavior of the target character that functions effectively in any scene, etc. , Operation commands that follow the tendency of past operation commands can be presented as operation command candidates.

したがって、本発明は、過去の使用履歴を用いて更に操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、キャラクタを動作させることができるとともに、各観客の対象キャラクタへの観覧に対する興趣を損なうことなく、観客を盛り上げること、及び、新鮮みのある行動を提供することができる。 Therefore, according to the present invention, the character can be operated according to the atmosphere of the spectator and the state of the spectator while further simplifying the operation by the operator by using the past usage history, and the target character of each spectator can be operated. It is possible to excite the audience and provide fresh behavior without compromising the interest in the viewing.

(6)また、本発明は、
前記使用履歴情報には、前記操作コマンドと当該操作コマンドを受け付けた際に利用した観客情報を含み、
前記提示手段が、
前記使用履歴情報に基づいて操作コマンドにおける所与の解析した結果と、前記観客情報とに応じて、前記操作者によって選択される操作コマンドを、前記操作コマンド候補として、前記操作者に提示する、構成を有している。
(6) Further, the present invention
The usage history information includes the operation command and spectator information used when the operation command is received.
The presentation means
An operation command selected by the operator according to a given analysis result in the operation command based on the usage history information and the spectator information is presented to the operator as the operation command candidate. It has a configuration.

この構成により、本発明は、既に登録された操作コマンドを利用した顧客情報とともに解析することによって、いつも盛り上がる対象キャラクタの行動を規定する操作コマンド、又は、如何なるシーンでも有効に機能する対象キャラクタの行動を規定する操作コマンドなど、過去の操作コマンドの傾向に沿った操作コマンドを操作コマンド候補として提示することができる。 With this configuration, the present invention is an operation command that defines the behavior of the target character that is always excited by analyzing it together with customer information using the already registered operation command, or the behavior of the target character that functions effectively in any scene. It is possible to present operation commands in line with the tendency of past operation commands, such as operation commands that specify the above, as operation command candidates.

(7)また、本発明は、
各観客の状態を前記観客情報として検出する検出手段を更に備え、
前記提示手段が、
前記検出された観客情報に応じて前記操作者によって選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する、構成を有している。
(7) Further, the present invention
Further provided with a detection means for detecting the state of each spectator as the spectator information,
The presentation means
It has a configuration in which an operation command selected by the operator according to the detected spectator information is presented to the operator as an operation command candidate.

この構成により、本発明は、例えば、観客の顔画像、音声、発する光、又は、観客が所有する端末装置の情報などの観客の特性又は観客の対象キャラクタの行動に対する観客の反応を検出することができるので、対象キャラクタの観覧に来場している観客の特性(例えば、特定の光を有する観客が多いことや女性が多いこと)、又は、観客が対象キャラクタを観覧している際の状態を観客情報として検出することができる。 With this configuration, the present invention detects, for example, the spectator's characteristics such as the spectator's face image, sound, emitted light, or information of a terminal device owned by the spectator, or the spectator's reaction to the behavior of the spectator's target character. The characteristics of the spectators who are visiting the target character (for example, there are many spectators with a specific light or many women), or the state when the spectator is viewing the target character. It can be detected as spectator information.

したがって、本発明は、観客情報によって対象キャラクタを観覧している場が盛り上がっているか否か、又は、当該観客の状態や属性に合わせて操作コマンド候補を絞り込んで提示することができるので、操作者における操作を簡便にしつつ、画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、観客を盛り上げること、及び、観客において満足感の高いパフォーマンスを実行させることができる。 Therefore, according to the present invention, it is possible to narrow down and present the operation command candidates according to whether or not the place where the target character is being viewed is excited by the audience information, or the state and attributes of the audience. While simplifying the operation in, it is possible to improve the sense of existence of the character to be imaged and the live feeling in the performance of the character, to excite the audience, and to perform a highly satisfying performance in the audience.

また、本発明は、検出された観客情報を蓄積すれば、対象キャラクタの動作と観客の状態をデータベース化し、対象キャラクタにおけるその後の動作(すなわち、異なる時間や異なる場所での同一のパフォーマンス)に利用することができる。 Further, according to the present invention, if the detected spectator information is accumulated, the movement of the target character and the state of the spectator are stored in a database and used for the subsequent movement of the target character (that is, the same performance at different times and different places). can do.

したがって、本発明は、多くの観客情報をデータベース化することができれば、さらに観客を盛り上げること、及び、より観客において満足感の高いパフォーマンスを実行させることができる。 Therefore, according to the present invention, if a large amount of spectator information can be stored in a database, the spectators can be further excited and the spectators can perform more satisfying performances.

なお、検出手段には、例えば、観客の顔の認識や当該観客が有するサイリウムやスマホなどの装置が発する光を検出するカメラや赤外線センサ、観客の声援などの音を集音するマイクロホン、観客全体の熱量を検出するサーモグラフィ、各観客の体勢(着座しているか立ち上がっているかなど)を検出する着座センサやマーカユニットとカメラとから構成される検出ユニット、又は、観客が所有する端末装置の情報(例えば、各観客の観覧(座席)位置や個人を特定するための情報)を検出する無線受信器などが含まれる。 The detection means includes, for example, a camera or infrared sensor that recognizes the face of the spectator and detects light emitted by a device such as a psyllium or a smartphone owned by the spectator, a microphone that collects sounds such as cheering of the spectator, and the entire spectator. Thermography that detects the amount of heat of the spectator, a seating sensor that detects the position of each spectator (whether it is seated or standing up, etc.), a detection unit consisting of a marker unit and a camera, or information on a terminal device owned by the spectator ( For example, a wireless receiver that detects the viewing (seat) position of each spectator and information for identifying an individual) is included.

そして、各観客の状態を示す観客情報としては、例えば、観客の顔情報、音情報(周波数情報や音量情報)などの生態情報、又は、熱量情報、体勢情報や光情報などの観客の状態を認識可能な生体情報に準ずる情報が含まれる。 As spectator information indicating the state of each spectator, for example, ecological information such as spectator's face information and sound information (frequency information and volume information), or spectator's state such as calorific value information, posture information and light information. Information equivalent to recognizable biometric information is included.

(8)また、本発明は、
前記受付手段が、
前記操作コマンドとともに、対象キャラクタの動作を享受する特定の観客を指定する観客指定指示を受け付け、
前記動作制御手段が、
前記受け付けられた観客指定指示によって特定される観客に向けて前記表示される対象キャラクタの動作を制御する、構成を有している。
(8) Further, the present invention
The reception means
Along with the above operation command, a spectator designation instruction for designating a specific spectator who enjoys the movement of the target character is received.
The motion control means
It has a configuration that controls the operation of the displayed target character toward the spectator specified by the received spectator designation instruction.

この構成により、本発明は、特定の観客の観覧位置に当該特定の観客に向けての特別な演出などの対象キャラクタの動作を制御することができるので、画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、観客を盛り上げること、及び、観客において満足感の高いパフォーマンスを実行させることができる。 With this configuration, the present invention can control the movement of the target character such as a special effect for the specific spectator at the viewing position of the specific spectator. It is possible to improve the live feeling in the character's performance, excite the audience, and perform a highly satisfying performance in the audience.

なお、特定の観客が享受する対象キャラクタの動作としては、当該特定の観客に対する投げキッス、お手振り、名前や特徴のセリフを発することなどが含まれる。
また、観覧の指定については、例えば、各観覧の会場内の位置を表示する表示装置を用いてタッチパネルやジョイスティックなどによる操作子を用いて実行されてもよいし、観客の顔画像のデータが記憶されていることを前提にカメラなどの検出手段を用いて自動的に特定してもよい。
The actions of the target character enjoyed by a specific spectator include throwing kisses, gestures, and issuing names and characteristic lines to the specific spectator.
Further, the designation of the viewing may be executed by using an operator such as a touch panel or a joystick using a display device that displays the position in the venue of each viewing, or the data of the face image of the audience is stored. It may be automatically specified by using a detection means such as a camera on the premise that it has been performed.

(9)また、本発明は、
前記提示手段が、
前記対象キャラクタの動作状況に応じて定まる操作コマンドを前記操作コマンド候補に含めて前記操作者に提示する、構成を有している。
(9) Further, the present invention
The presentation means
It has a configuration in which an operation command determined according to the operation status of the target character is included in the operation command candidate and presented to the operator.

この構成により、本発明は、例えば、対象キャラクタの最初の行動や最後の行動など必ず使用が予想される操作コマンド、又は、過去の使用履歴によって特定の曲の歌い出しなどの所定のタイミングに必ず使用される操作コマンドを操作コマンド候補に含めて提示することができるので、適した操作コマンドが操作コマンド候補として抽出することができる。 With this configuration, the present invention always performs an operation command that is expected to be used, such as the first action or the last action of the target character, or a predetermined timing such as singing a specific song based on the past usage history. Since the operation command to be used can be included in the operation command candidates and presented, suitable operation commands can be extracted as operation command candidates.

なお、「対象キャラクタの動作状況」とは、パフォーマンスの開始タイミングや終了タイミングなどの対象キャラクタの各行動が実行開始時や実行中の状況を示す。 The "operation status of the target character" indicates the status at which each action of the target character, such as the start timing and the end timing of the performance, is at the start or during execution.

(10)また、本発明は、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間、当該画像生成中に受け付けられた操作コマンドの受付回数、又は、当該画像生成中に受け付けられた前記操作コマンドの種別の組み合わせに応じて前記提示する操作コマンドの種別を変更する、構成を有している。
(10) Further, the present invention
The presentation means
The presentation according to the elapsed time from the start timing of image generation in the target character, the number of times the operation command received during the image generation is received, or the combination of the types of the operation command received during the image generation. It has a configuration that changes the type of operation command to be performed.

この構成により、本発明は、例えば、歌や踊り又は演劇や講演などのパフォーマンスを行う対象キャラクタの一連の動作を制御するためのアルゴリムによって当該対象キャラクタの動作中に、その時点で対象キャラクタの動作として適した操作コマンドを操作者に提示することができる。 With this configuration, the present invention provides, for example, the movement of the target character at that time during the movement of the target character by an algorithm for controlling a series of movements of the target character performing a performance such as a song, a dance, a play, or a lecture. It is possible to present an operation command suitable for the operator to the operator.

例えば、本発明は、
(1)対象キャラクタにおける画像生成(すなわち、コンテンツの上映)の開始タイミングには、観客を盛り上げるための行動を制御するための操作コマンドを提示し、
(2)コンテンツの上映の後半のタイミングには、盛り上がっている観客に対してそれを維持し、さらに盛り上げるための行動を制御するための操作コマンドを提示し、
(3)曲間などの静かなシーンについては、「セリフ」などのそのシーンに特化した操作コマンドを提示する、
ことができる。
For example, the present invention
(1) At the start timing of image generation (that is, screening of contents) in the target character, an operation command for controlling an action for enlivening the audience is presented.
(2) In the latter half of the screening of the content, an operation command for maintaining it and controlling the behavior for further excitement is presented to the enthusiastic audience.
(3) For quiet scenes such as between songs, present operation commands specific to that scene, such as "line".
be able to.

したがって、本発明は、画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、観客を盛り上げること、及び、観客において満足感の高いパフォーマンスを実行させることができる。 Therefore, the present invention can improve the presence of the character to be imaged and the live feeling in the performance of the character, excite the audience, and perform a highly satisfying performance in the audience.

(11)また、本発明は、
所与のアルゴリズムに従いつつ、前記オブジェクト空間に配置された対象キャラクタの動作を画像化している場合に、
各操作コマンドには、前記対象キャラクタにおける画像生成の開始タイミングから当該
操作コマンドの受け付けが許容される時刻を示す受付完了許容時刻又は複数の所与の区間が定められて当該画像生成が実行されている場合において当該操作コマンドの受け付けが許容される区間を示す区間情報と、各操作コマンドに基づいて前記対象キャラクタの動作制御が実行される実行時間と、が規定されており、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間又は前記操作コマンドを提示するタイミングが属する区間と、前記各操作コマンドの実行時間と、に応じて、前記提示する操作コマンドの種別を決定し、又は、前記対象キャラクタの動作制御の内容を変更した操作コマンドを提示する、構成を有している。
(11) Further, the present invention
When the behavior of the target character placed in the object space is imaged while following a given algorithm,
For each operation command, the reception completion allowable time indicating the time when the reception of the operation command is permitted from the start timing of the image generation in the target character or a plurality of given sections is defined, and the image generation is executed. The section information indicating the section in which the operation command is allowed to be accepted and the execution time during which the operation control of the target character is executed based on each operation command are defined.
The presentation means
The type of the operation command to be presented is determined according to the elapsed time from the start timing of image generation in the target character, the section to which the timing for presenting the operation command belongs, and the execution time of each operation command. Alternatively, it has a configuration for presenting an operation command in which the content of the operation control of the target character is changed.

この構成により、画像生成の開始タイミングからの経過時間、又は、例えば、動作制御が楽曲におけるライブパフォーマンスの場合には、前奏、Aメロ、Bメロ又はサビ、演劇の場合には、第1幕や第2幕などの各パート(区間)のどの部分の画像かを見極めて操作コマンドを提示することができるとともに、状況によっては時短や動作内容の簡略化などの操作コマンドにおける対象キャラクタの動作制御の内容をも変更することができる。 With this configuration, the elapsed time from the start timing of image generation, or, for example, when the motion control is a live performance in a music, the prelude, A melody, B melody or chorus, and in the case of a play, the first act or It is possible to identify which part of each part (section) such as Act 2 is the image and present the operation command, and depending on the situation, control the operation of the target character in the operation command such as shortening the time and simplifying the operation content. The content can also be changed.

したがって、本発明は、例えば、歌や踊り又は演劇や講演などのパフォーマンスを行う対象キャラクタの一連の動作を制御するためのアルゴリムによって当該対象キャラクタの動作中に、その時点で対象キャラクタの動作として適した操作コマンドを操作者に提示することができる。 Therefore, the present invention is suitable as the movement of the target character at that time during the movement of the target character by the algorithm for controlling a series of movements of the target character performing a performance such as a song, a dance, a play, or a lecture. Operation commands can be presented to the operator.

(12)また、本発明は、
前記動作制御手段が、
前記対象キャラクタにおける画像生成中に前記操作コマンドが受け付けられた場合に、予め定められたタイミングから当該受け付けられた操作コマンドに基づく前記表示される対象キャラクタの動作制御を開始する、構成を有している。
(12) Further, the present invention
The motion control means
When the operation command is received during image generation in the target character, the operation control of the displayed target character based on the received operation command is started from a predetermined timing. There is.

この構成により、本発明は、対象キャラクタにおける画像生成中(すなわち、コンテンツの上映中)に対象キャラクタの動作の切り替わりタイミングを待って操作コマンドにおける対象キャラクタの動作を制御することができるので、観客に対して違和感のないシームレスな動作制御を行うことができる。 With this configuration, the present invention can control the operation of the target character in the operation command by waiting for the switching timing of the operation of the target character during image generation (that is, during the screening of the content) of the target character. On the other hand, seamless operation control can be performed without any discomfort.

(13)また、本発明は、
前記提示手段が、
前記操作コマンド候補を提示中に、当該タイミングによって受け付けた操作コマンドに基づいて前記対象キャラクタの動作制御が開始される動作開始時刻又は当該動作開始時刻に関する時間を提示する、構成を有している。
(13) Further, the present invention
The presentation means
While presenting the operation command candidate, it has a configuration in which the operation start time at which the operation control of the target character is started or the time related to the operation start time is presented based on the operation command received at the timing.

この構成により、本発明は、操作者の入力のし忘れを防止し、操作者の操作性を向上させることができる。 With this configuration, the present invention can prevent the operator from forgetting to input and improve the operability of the operator.

なお、「動作開始時刻に関する時間」には、例えば、現在のタイミングから動作開始時刻までの残り時間が含まれる。 The "time related to the operation start time" includes, for example, the remaining time from the current timing to the operation start time.

(14)また、本発明は、
前記動作制御手段が、
所与のアルゴリズムに従いつつ、前記オブジェクト空間に配置された対象キャラクタの動作を画像化している場合であって、前記操作コマンドが受け付けられた場合に、当該操作コマンドを受け付けた後のアルゴリズムを、前記受け付けられた操作コマンドに応じて変更し、当該変更したアルゴリズムに従って前記表示される対象キャラクタの動作を制
御する、構成を有している。
(14) Further, the present invention
The motion control means
When the operation of the target character arranged in the object space is imaged while following a given algorithm, and the operation command is accepted, the algorithm after accepting the operation command is described as described above. It has a configuration that changes according to the received operation command and controls the operation of the displayed target character according to the changed algorithm.

この構成により、本発明は、操作コマンドを受け付けるとそれに合わせて対象キャラクタの動作を制御するので、操作者によって操作制御させた対象キャラクタの画像を提供することができるとともに、操作コマンドが受け付けられる毎に、対象キャラクタの動作も変更することができる。 With this configuration, the present invention controls the operation of the target character in accordance with the reception of the operation command. Therefore, it is possible to provide an image of the target character whose operation is controlled by the operator, and every time the operation command is received. In addition, the behavior of the target character can also be changed.

また、本発明は、操作コマンドによる動作制御によって、対象キャラクタにおけるパフォーマンス時間の変更が生じた場合であっても、対象キャラクタの動作を制御するアルゴリズムを変更することができるので、操作者の意図を損なうことなく、パフォーマンスなどのコンテンツのストーリーを展開することができる。 Further, according to the present invention, the algorithm for controlling the operation of the target character can be changed even when the performance time of the target character is changed by the operation control by the operation command. You can develop a story of content such as performance without compromising.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。 Therefore, according to the present invention, the target character can be operated according to the atmosphere of the spectator and the state of the spectator while simplifying the operation by the operator. While improving the live feeling in the performance, it is possible to excite the audience and realize a fresh performance.

(15)また、上記課題を解決するため、本発明は、
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御するプログラムであって、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段、
前記観客によって視認される観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段と、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段、及び、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段、
としてコンピュータを機能させる構成を有している。
(15) Further, in order to solve the above problems, the present invention
It is a program that controls the operation of the imaged target character to be viewed by the audience.
An image generation means that sets a virtual camera in the object space in which the target character is arranged and generates an image of the target character in the object space with the virtual camera as a viewpoint.
A spectator display control means for displaying an image of the target character on a spectator display device visually recognized by the spectator.
From a plurality of operation commands for controlling the operation of the target character in the object space, an operation command selected by the operator according to the spectator information indicating information about the spectator is used as an operation command candidate by the operator. Presenting means to present and
A receiving means for receiving an operation command instructed by the operator from the presented operation command candidates, and a receiving means for receiving the operation command.
An operation control means that controls the operation of the displayed target character based on the received operation command.
It has a configuration that makes the computer function as.

この構成により、本発明は、観客の雰囲気や観客の現在の状態を示す情報、又は、観客の属性や課金履歴などの各観客の観客情報に応じて操作者によって選択される操作コマンド、又は、当該観客情報に応じて抽出されて操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示することができる。 With this configuration, the present invention provides information indicating the atmosphere of the spectator and the current state of the spectator, or an operation command selected by the operator according to the spectator information of each spectator such as the attributes of the spectator and the billing history, or An operation command extracted according to the spectator information and selected by the operator can be presented to the operator as an operation command candidate.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。 Therefore, according to the present invention, the target character can be operated according to the atmosphere of the spectator and the state of the spectator while simplifying the operation by the operator. While improving the live feeling in the performance, it is possible to excite the audience and realize a fresh performance.

この結果、本発明は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができる。 As a result, the present invention can control the movement (that is, performance) of the target character, which is highly satisfying to the audience.

(16)また、上記課題を解決するため、本発明は、
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御する操作制御システムと、
前記観客によって視認される観客用表示装置と、
を備え、
前記操作制御システムが、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段と、
前記観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段と、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段と、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段と、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段と、
を備える構成を有している。
(16) Further, in order to solve the above problems, the present invention
An operation control system that controls the operation of the imaged target character to be viewed by the audience, and
A spectator display device visually recognized by the spectator,
With
The operation control system
An image generation means that sets a virtual camera in the object space in which the target character is arranged and generates an image of the target character in the object space with the virtual camera as a viewpoint.
A spectator display control means for displaying an image of the target character on the spectator display device, and
From a plurality of operation commands for controlling the operation of the target character in the object space, an operation command selected by the operator according to the spectator information indicating information about the spectator is used as an operation command candidate by the operator. Presenting means to present and
A receiving means for receiving an operation command instructed by the operator from the presented operation command candidates, and
An operation control means for controlling the operation of the displayed target character based on the received operation command, and
It has a configuration including.

この構成により、本発明は、観客の雰囲気や観客の現在の状態を示す情報、又は、観客の属性や課金履歴などの各観客の観客情報に応じて操作者によって選択される操作コマンド、又は、当該観客情報に応じて抽出されて操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示することができる。 With this configuration, the present invention provides information indicating the atmosphere of the spectator and the current state of the spectator, or an operation command selected by the operator according to the spectator information of each spectator such as the attributes of the spectator and the billing history, or An operation command extracted according to the spectator information and selected by the operator can be presented to the operator as an operation command candidate.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。 Therefore, according to the present invention, the target character can be operated according to the atmosphere of the spectator and the state of the spectator while simplifying the operation by the operator. While improving the live feeling in the performance, it is possible to excite the audience and realize a fresh performance.

この結果、本発明は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができる。 As a result, the present invention can control the movement (that is, performance) of the target character, which is highly satisfying to the audience.

本発明に係るコンテンツ上映システムの一実施形態における概要構成を示す構成図である。It is a block diagram which shows the outline structure in one Embodiment of the content screening system which concerns on this invention. 一実施形態のイベント会場におけるコンテンツ上映システム及び大型表示装置の関係と演技キャラクタ及び観客の関係を説明するための図である。It is a figure for demonstrating the relationship between the content screening system and a large-sized display device in the event venue of one Embodiment, and the relationship between a performance character and an audience. 一実施形態におけるサーバ装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the server apparatus in one Embodiment. 一実施形態におけるシステム制御装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the system control device in one Embodiment. 一本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図(その1)である。It is a figure (the 1) for demonstrating the operation command candidate presenting process of the content of one Embodiment. 一本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図(その2)である。It is a figure (the 2) for demonstrating the operation command candidate presenting process of the content of one Embodiment. 一本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図(その3)である。It is a figure (3) for demonstrating operation command candidate presentation processing of the content of one Embodiment. 一実施形態のコンテンツの操作コマンドに基づく動作制御処理について説明するための図(その1)である。It is a figure (the 1) for demonstrating the operation control processing based on the operation command of the content of one Embodiment. 一実施形態のコンテンツの操作コマンドに基づく動作制御処理について説明するための図(その1)である。It is a figure (the 1) for demonstrating the operation control processing based on the operation command of the content of one Embodiment. 一実施形態のシステム制御装置によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the operation of the operation control processing based on the operation command including the operation command candidate presentation processing executed by the system control device of one Embodiment. 一実施形態のシステム制御装置によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the operation of the operation control processing based on the operation command including the operation command candidate presentation processing executed by the system control device of one Embodiment.

以下、実施形態について説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。さらに、以下の実施形態は、実空間の所与の会場に収容された観客に対して、観覧の対象となるキャラクタ(以下、「対象キャラクタ」ともいう。)が配置されたオブジェクト空間内の画像を、コンテンツとして、上映するコンテンツ上映システムに対し、本発明に係る操作制御シスステム、コンテンツ上映システム及びプログラムを適用した場合の実施形態である。 Hereinafter, embodiments will be described. The embodiments described below do not unreasonably limit the content of the present invention described in the claims. Moreover, not all of the configurations described in the present embodiment are essential constituent requirements of the present invention. Further, in the following embodiment, an image in an object space in which a character to be viewed (hereinafter, also referred to as “target character”) is arranged for an audience housed in a given venue in the real space. Is an embodiment in which the operation control system, the content screening system, and the program according to the present invention are applied to the content screening system to be screened as the content.

[1]コンテンツ上映システム
まず、図1を用いて本実施形態のコンテンツ上映システム10の概要及び概要構成について説明する。なお、図1は、本実施形態のコンテンツ上映システム10を含むネットワークシステムの構成を示すシステム構成の一例を示す図であり、図2は、イベント会場におけるコンテンツ上映システム10及び大型表示装置12の関係と対象キャラクタの一例である演技キャラクタ及び観客の関係を説明するための図である。
[1] Content Screening System First, the outline and outline configuration of the content screening system 10 of the present embodiment will be described with reference to FIG. Note that FIG. 1 is a diagram showing an example of a system configuration showing a configuration of a network system including the content screening system 10 of the present embodiment, and FIG. 2 is a diagram showing a relationship between the content screening system 10 and a large display device 12 at an event venue. It is a figure for demonstrating the relationship between an acting character which is an example of a target character, and an audience.

本実施形態のコンテンツ上映システム10は、イベント会場などのコンテンツの上映を実施する実空間の所与の会場(以下、「上映会場」という。)に収容されたた観客に対して、例えば、複数のアイドル(いわゆる、オブジェクト空間で動作を行うキャラクタ(以下、「演技キャラクタ」という。))から構成されるグループの演技パフォーマンス(具体的には、歌唱ライブ)を画像化して観覧させるコンテンツを上映する上映システムである。 The content screening system 10 of the present embodiment is, for example, a plurality of audiences housed in a given venue (hereinafter, referred to as “screening venue”) in a real space where content is screened, such as an event venue. Screening of content that visualizes the acting performance (specifically, singing live) of a group consisting of idols (so-called characters that operate in the object space (hereinafter referred to as "acting characters")). It is a screening system.

そして、本実施形態のコンテンツ上映システム10は、コンテンツ内に規定されたアルゴリズムと、操作者の指示と、に基づいて、演技キャラクタの動作を制御しつつ、演技パフォーマンスの動画像を生成し、画像化される演技キャラクタの実存感及び当該演技キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを動画像として提供する構成を有している。 Then, the content screening system 10 of the present embodiment generates a moving image of the acting performance while controlling the movement of the acting character based on the algorithm defined in the content and the instruction of the operator, and the image. It has a configuration that excites the audience and provides a fresh performance as a moving image while improving the presence of the acting character and the live feeling in the performance of the acting character.

具体的には、コンテンツ上映システム10は、図1に示すように、インターネットなどのネットワークを介してサーバ装置11に接続されており、当該サーバ装置11によって他のコンテンツ上映システム(10A、10B、10C)を含めて管理される。 Specifically, as shown in FIG. 1, the content screening system 10 is connected to the server device 11 via a network such as the Internet, and the server device 11 allows another content screening system (10A, 10B, 10C). ) Is included in the management.

そして、コンテンツ上映システム10は、図1及び図2に示すように、実空間の所与の会場(例えば、イベント会場)に設置され、コンテンツを観客3によって視認可能に表示する大型表示装置12と、操作者5の各種の操作を受け付けるとともに大型表示装置12にコンテンツを表示させるシステム制御装置20と、から構成される。 Then, as shown in FIGS. 1 and 2, the content screening system 10 is installed in a given venue (for example, an event venue) in the real space, and is a large display device 12 that visually displays the content by the audience 3. , A system control device 20 that accepts various operations of the operator 5 and displays contents on the large display device 12.

大型表示装置12は、例えば、イベント会場などのコンテンツを上映する会場に設けられたステージ2上に設置され、歌や踊り又は演劇や講演などのパフォーマンスを行う演技キャラクタ8を含むオブジェクト空間を画像化する装置である。 The large display device 12 is installed on a stage 2 provided in a venue where contents such as an event venue are screened, and images an object space including an acting character 8 that performs a performance such as a song, a dance, a play, or a lecture. It is a device to do.

そして、大型表示装置12は、ステージ2上に形成されている大型のスクリーンと、当該スクリーンに画像を(例えば背面から)投影するプロジェクターによって構成される。 The large display device 12 is composed of a large screen formed on the stage 2 and a projector that projects an image (for example, from the back) on the screen.

また、大型表示装置12は、楽曲の歌唱や、楽器の演奏、ダンス、大道芸などの演技キャラクタ8のライブパフォーマンスをコンテンツとして上映する。 In addition, the large display device 12 screens live performances of acting characters 8 such as singing music, playing musical instruments, dancing, and street performance as contents.

なお、大型表示装置12としては、大型の液晶表示装置、ホログラムなどの立体画像化装置によって構成されていてもよい。 The large display device 12 may be composed of a large liquid crystal display device, a stereoscopic imaging device such as a hologram, or the like.

システム制御装置20は、例えば、タブレット型情報端末装置、パーソナルコンピュータ、スマートフォン、又は、ゲーム機などの情報処理装置によって構成され、インターネット(WAN)、LANなどのネットワークを介してサーバ装置11に接続可能な装置である。なお、システム制御装置20とサーバ装置11との通信回線は、有線でもよいし無線でもよい。 The system control device 20 is composed of, for example, a tablet-type information terminal device, a personal computer, a smartphone, or an information processing device such as a game machine, and can be connected to the server device 11 via a network such as the Internet (WAN) or LAN. Device. The communication line between the system control device 20 and the server device 11 may be wired or wireless.

また、システム制御装置20は、
(1)演技キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点としたオブジェクト空間の画像を生成し、
(2)観客によって視認される大型表示装置に演技キャラクタを中心としたオブジェクト空間の画像を表示させ、
(3)コンテンツの上映中に、画像化される演技キャラクタの動作を制御するための複数の操作コマンド中から、観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示し、
(4)操作者の操作指示によって、提示した操作コマンド候補を特定し、当該特定した操作コマンド候補を、操作コマンドとして、受け付け、
(5)受け付けた操作コマンドに基づいて、表示される演技キャラクタの動作を制御する、
構成を有している。
In addition, the system control device 20
(1) A virtual camera is set in the object space in which the acting character is arranged, and an image of the object space with the virtual camera as a viewpoint is generated.
(2) An image of the object space centered on the acting character is displayed on a large display device that is visually recognized by the audience.
(3) An operation command selected from a plurality of operation commands for controlling the movement of the acting character to be imaged during the screening of the content according to the spectator information indicating information about the spectator is used as an operation command candidate. , Present to the operator,
(4) The presented operation command candidate is specified by the operation instruction of the operator, and the specified operation command candidate is accepted as an operation command.
(5) Control the movement of the displayed acting character based on the received operation command.
It has a configuration.

そして、システム制御装置20は、演技キャラクタを中心に、オブジェクト空間に配置された仮想カメラを視点とした画像をコンテンツとして観客に観覧させるために大型表示装置12に表示する構成を有している。 The system control device 20 has a configuration in which an image with a viewpoint of a virtual camera arranged in an object space, centered on the acting character, is displayed on the large display device 12 so that the audience can view it as content.

特に、システム制御装置20は、性別・年齢・人数やアイドルキャラクタなどの演技キャラクタの種別が規定された1のコンテンツを選択すると、当該コンテンツに含まれるアルゴリズムに従いつつ、操作者の操作に従って、オブジェクト空間に配置された演技キャラクタ(例えば、アイドルキャラクタ)の演技パフォーマンスを画像化する構成を有している。 In particular, when the system control device 20 selects one content in which the type of acting character such as gender, age, number of people, and idle character is defined, the object space is followed by the operation of the operator while following the algorithm included in the content. It has a configuration for imaging the acting performance of the acting character (for example, an idol character) arranged in.

例えば、本実施形態のシステム制御装置20は、図2に示すように、第1演技キャラクタ(アイドルキャラクタ)8Aと第2演技キャラクタ(アイドルキャラクタ)8Bとの2人組から構成される演技キャラクタのグループによって実行されるライブパフォーマンスをコンテンツとして大型表示装置12に表示させるようになっている。 For example, as shown in FIG. 2, the system control device 20 of the present embodiment is a group of acting characters composed of a pair of a first acting character (idle character) 8A and a second acting character (idle character) 8B. The live performance executed by is displayed on the large display device 12 as content.

サーバ装置11は、例えば、API(アプリケーションプログラミングインタフェース)や所定のプラットフォーム等を利用し、各コンテンツ上映システム10に各種のデータを提供し、又は、各コンテンツ上映システム10から観客情報を取得して管理する情報処理装置である。 The server device 11 provides various data to each content screening system 10 by using, for example, an API (application programming interface) or a predetermined platform, or acquires and manages spectator information from each content screening system 10. It is an information processing device.

特に、サーバ装置11は、コンテンツ上映システム10において演技キャラクタのパフォーマンスを画像化し、かつ、音を出力するためのデータ(以下、「コンテンツデータ」という。)を各コンテンツ上映システム10に提供する。 In particular, the server device 11 provides each content screening system 10 with data (hereinafter, referred to as “content data”) for imaging the performance of the acting character in the content screening system 10 and outputting sound.

また、サーバ装置11は、記憶領域(後述する記憶部140)を有し、当該記録領域を用いて各観客の課金情報、行動履歴の情報(以下、「行動履歴情報」という。)などの各情報の管理を実行する。ただし、サーバ装置11は、当該記憶領域に代えてネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよい。 Further, the server device 11 has a storage area (a storage unit 140 described later), and uses the recording area to provide billing information for each spectator, action history information (hereinafter, referred to as “behavior history information”), and the like. Perform information management. However, the server device 11 may store in a database (storage device, memory in a broad sense) connected via a network (intranet or the Internet) instead of the storage area.

なお、サーバ装置11は、1つの(装置、プロセッサ)で構成されていてもよいし、複数の(装置、プロセッサ)で構成されていてもよい。 The server device 11 may be composed of one (device, processor) or a plurality of (device, processor).

また、本実施形態では、コンテンツ上映システム10が、コンテンツデータ(具体的には、後述するアルゴリズムを規定する制御データ)に基づいて、又は、受け付けた操作者の操作コマンドに基づいて、オブジェクト空間内の演技キャラクタの動作制御を行うが、当該演技キャラクタの各動作制御の各処理を、サーバ装置11が一部又は全部を行ってもよい。 Further, in the present embodiment, the content screening system 10 is in the object space based on the content data (specifically, the control data that defines the algorithm described later) or the operation command of the received operator. Although the operation control of the acting character is performed, the server device 11 may perform a part or all of each process of each operation control of the acting character.

この場合において、例えば、サーバ装置11で全ての処理が実行される場合には、コンテンツ上映システム10は、サーバ装置11から送信されたオブジェクト空間内において動作制御された演技キャラクタを表示する表示制御データなどのデータを受信してその表示制御を行うとともに、操作者によって入力された操作情報をサーバ装置11に送信するようになっている。 In this case, for example, when all the processes are executed by the server device 11, the content screening system 10 displays display control data for displaying the operation-controlled acting characters in the object space transmitted from the server device 11. The operation information input by the operator is transmitted to the server device 11 while receiving the data such as the above and controlling the display thereof.

[2]サーバ装置
まず、図3を用いて本実施形態のサーバ装置11の概要及び構成について説明する。なお、図3は、本実施形態のサーバ装置11の機能ブロックを示す図である。また、本実施形態のサーバ装置11は図3の構成要素(各部)の一部を省略した構成としてもよい。
[2] Server Device First, the outline and configuration of the server device 11 of the present embodiment will be described with reference to FIG. Note that FIG. 3 is a diagram showing a functional block of the server device 11 of the present embodiment. Further, the server device 11 of the present embodiment may have a configuration in which some of the components (each part) of FIG. 3 are omitted.

サーバ装置11は、主に提供するコンテンツの提供に関する処理を実行するサーバ処理部100、管理者やその他の入力に用いるための入力部120、所定の表示を行う表示部130、観客情報などの主にコンテンツに用いる各種のデータを記憶する記憶部140、所定の情報が記憶された情報記憶媒体180、及び、コンテンツ上映システム10やその他と通信を行う通信部196を含む。 The server device 11 mainly includes a server processing unit 100 that executes processing related to the provision of content to be provided, an input unit 120 for use by an administrator or other input, a display unit 130 that performs a predetermined display, and audience information. Includes a storage unit 140 that stores various data used for the content, an information storage medium 180 that stores predetermined information, and a communication unit 196 that communicates with the content screening system 10 and others.

入力部120は、システム管理者等がコンテンツに関する設定やその他の必要な設定、データの入力に用いるものである。例えば、本実施形態の入力部120は、マウスやキーボード等によって構成される。 The input unit 120 is used by a system administrator or the like for setting related to contents, other necessary settings, and inputting data. For example, the input unit 120 of the present embodiment is configured by a mouse, a keyboard, or the like.

表示部130は、システム管理者用の操作画面を表示するものである。例えば、本実施形態の表示部130は、液晶ディスプレイ等によって構成される。 The display unit 130 displays an operation screen for the system administrator. For example, the display unit 130 of the present embodiment is configured by a liquid crystal display or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などによって構成される。 The information storage medium 180 (a medium that can be read by a computer) stores programs, data, and the like, and its functions are an optical disk (CD, DVD), an optical magnetic disk (MO), a magnetic disk, a hard disk, and a magnetic tape. , Or a memory (ROM) or the like.

通信部196は、外部(例えば、端末、他のサーバや他のネットワークシステム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどによって構成される。 The communication unit 196 performs various controls for communicating with the outside (for example, a terminal, another server, or another network system), and its function is hardware such as various processors or ASICs for communication. It is composed of hardware and programs.

記憶部140は、サーバ処理部100や通信部196などのワーク領域となるもので、その機能は、RAM(VRAM)などによって構成される。なお、記憶部140に記憶さ
れる情報は、データベースで管理してもよい。
The storage unit 140 serves as a work area for the server processing unit 100, the communication unit 196, and the like, and its function is configured by a RAM (VRAM) or the like. The information stored in the storage unit 140 may be managed in a database.

また、本実施形態においては、記憶部140には、ワーク領域として使用される主記憶部142と、各コンテンツ上映システム10に提供するコンテンツに関するデータを示すコンテンツデータ144、観客に関する観客情報を示す観客情報146、及び、コンテンツが上映されル毎に収集されたたデータ(以下、「コンテンツ収集データ」という。)148が記憶される。ただし、記憶部140には、上述の情報の他に、コンテンツ演算に必要な各種の情報が記憶される。 Further, in the present embodiment, the storage unit 140 includes a main storage unit 142 used as a work area, content data 144 indicating data related to the content provided to each content screening system 10, and an audience indicating audience information regarding the audience. Information 146 and data collected for each screened content (hereinafter referred to as "content collection data") 148 are stored. However, in addition to the above-mentioned information, various information necessary for content calculation is stored in the storage unit 140.

コンテンツデータ144には、コンテンツ毎に、コンテンツIDに対応付けて、各コンテンツ上映システム10において使用されるアルゴリズムが規定されるデータ(以下、「制御データ」ともいう。)、演技キャラクタが演技パフォーマンスを実行する際の楽曲やセリフなどの各種の音データ、及び、演技キャラクタを含むオブジェクト空間を画像化する際に用いる各種の画像データが含まれる。 The content data 144 includes data (hereinafter, also referred to as “control data”) in which an algorithm used in each content screening system 10 is defined in association with the content ID for each content, and the acting character performs acting performance. It includes various sound data such as music and dialogue when executing, and various image data used when imaging an object space including acting characters.

特に、アルゴリズムには、オブジェクト空間における演技キャラクタの動作、当該オブジェクト空間内に設定される仮想カメラの位置やアングル、操作コマンドを提示するタイミングや当該操作コマンドによって制御するタイミング、提示する操作コマンドの種別、演技キャラクタが演技パフォーマンスを実行する際の楽曲やセリフなどの各種の音の出力タイミングを示すコンテンツの上映の流れが規定されている。 In particular, the algorithm includes the movement of the acting character in the object space, the position and angle of the virtual camera set in the object space, the timing of presenting the operation command, the timing of controlling by the operation command, and the type of the operation command to be presented. , The flow of the screening of the content indicating the output timing of various sounds such as music and dialogue when the acting character executes the acting performance is stipulated.

また、コンテンツデータ144には、コンテンツ毎に、実際に各コンテンツ上映システム10によって使用された各操作コマンドの種別、タイミング及び回数が使用履歴情報として記憶されている。 Further, in the content data 144, the type, timing, and number of times of each operation command actually used by each content screening system 10 are stored as usage history information for each content.

観客情報146には、観客毎に観客IDに対応付けて、
(1)性別、年代、居住地域などの観客の属性情報、
(2)好きな演技キャラクタなどの観客の嗜好情報、
(3)スマートフォンやIDタグなどの観客が保有する端末装置の情報(例えば、観客の個人を特定する情報やチケット情報などの観覧時の位置(座席)を示す情報)、
(4)IDなどの各観客に対応付けて、又は、観客が保有する端末装置に対応付けて、記憶されている情報であって、観覧している対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントに関連するゲームなどの所定のゲームにおけるプレー状況やその履歴(課金履歴も含む。)に関する情報(ゲームプレー情報)、
(5)観客が保有する端末装置を用いて記憶される情報であって、対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントなどへの参加を示す行動履歴情報、及び、当該イベントやパフォーマンスに関連する所定の通販サイトや実売店舗(イベント会場内も含む)による課金情報やその課金履歴情報、並びに、
(6)各観客から生体情報(例えば、顔画像、音声情報(各観客の声紋情報や周波数特性を示す周波数特性情報を含む。)、及び、体勢情報、熱量の情報や所定のデバイス(スマートフォンやサイリウム))を用いた光の情報などの生体情報に準ずる情報が含まれる。
The spectator information 146 is associated with the spectator ID for each spectator.
(1) Audience attribute information such as gender, age, and residential area,
(2) Audience preference information such as favorite acting characters,
(3) Information on terminal devices such as smartphones and ID tags owned by the spectator (for example, information indicating the position (seat) at the time of viewing such as information identifying the spectator's individual and ticket information),
(4) Information that is stored in association with each spectator such as an ID or in association with a terminal device owned by the spectator, and the target character being viewed or the target character is performing. Information (game play information) regarding the play status and history (including billing history) of a predetermined game such as a game related to an event,
(5) Information stored using a terminal device owned by the spectator, which is related to the target character, action history information indicating participation in an event in which the target character is performing, and the event or performance. Billing information and billing history information from the designated online shopping site and actual sales stores (including inside the event venue), as well as
(6) Biological information (for example, face image, voice information (including voice print information of each spectator and frequency characteristic information indicating frequency characteristics), posture information, calorific value information, and a predetermined device (smartphone, etc.) from each spectator. Information similar to biological information such as light information using psyllium)) is included.

また、課金履歴には、上記のように、ゲームにおける課金履歴、及び、サービスや商品の購入に関する課金を含み、これらの課金が実行された日時を示す課金日時、アイテムの購入やお捻りの購入などの課金要素の種別、課金した額を示す課金額などが含まれる。 In addition, as described above, the billing history includes the billing history in the game and the billing related to the purchase of services and products, the billing date and time indicating the date and time when these billing was executed, the purchase of items and the purchase of twists. The type of billing element such as, the billing amount indicating the billed amount, etc. are included.

コンテンツ収集データ148には、コンテンツ毎に、各コンテンツ上映システム10において上映されたコンテンツの上映実績(日時や回数)と、コンテンツが上映された際の操作者の指示によって受け付けた操作コマンドのデータ及び各演技キャラクタの動作制御の内容を示すデータと、が記憶される。 The content collection data 148 includes, for each content, the screening record (date and time and number of times) of the content screened in each content screening system 10, the data of the operation command received by the operator's instruction when the content was screened, and the data of the operation command. Data indicating the content of motion control of each acting character and data are stored.

サーバ処理部100は、記憶部140内の主記憶部142をワーク領域として各種処理を行う。サーバ処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。 The server processing unit 100 performs various processes using the main storage unit 142 in the storage unit 140 as a work area. The functions of the server processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

サーバ処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The server processing unit 100 performs various processes of the present embodiment based on the program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for operating the computer as each part of the present embodiment (a program for causing the computer to execute the processing of each part).

例えば、サーバ処理部100(プロセッサ)は、情報記憶媒体180に記憶されているプログラムに基づいて、サーバ装置11全体の制御を行うとともに、コンテンツデータをコンテンツ上映システム10に提供する提供処理、又は、コンテンツ上映システム10と連動して観客情報を提供する処理及びコンテンツ上映システム10から送信されたコンテンツの上映時に収集した操作コマンドや観客情報を記憶部140に登録する処理などの各処理を行う。 For example, the server processing unit 100 (processor) controls the entire server device 11 based on the program stored in the information storage medium 180, and provides the content data to the content screening system 10. Each process is performed, such as a process of providing spectator information in conjunction with the content screening system 10 and a process of registering operation commands and spectator information collected at the time of screening of the content transmitted from the content screening system 10 in the storage unit 140.

具体的には、本実施形態のサーバ処理部100は、通信制御部101、コンテンツ管理部102及び観客管理部103を少なくとも有している。 Specifically, the server processing unit 100 of the present embodiment has at least a communication control unit 101, a content management unit 102, and an audience management unit 103.

通信制御部101は、コンテンツ上映システム10とネットワークを介してデータを送受信する処理を行う。すなわち、サーバ装置11は、通信制御部101によってコンテンツ上映システム10にコンテンツデータの送信、及び、当該コンテンツ上映システム10から送信された観客情報や操作コマンドなどの各種の情報の受信をする。 The communication control unit 101 performs a process of transmitting and receiving data via the content screening system 10 and the network. That is, the server device 11 transmits the content data to the content screening system 10 by the communication control unit 101, and receives various information such as spectator information and operation commands transmitted from the content screening system 10.

コンテンツ管理部102は、各コンテンツ上映システム10において上映されたコンテンツの上映実績及び各コンテンツ上映システム10の上映中に用いられた操作コマンドなどデータをコンテンツ収集データ148に登録する。 The content management unit 102 registers data such as the screening results of the content screened in each content screening system 10 and the operation commands used during the screening of each content screening system 10 in the content collection data 148.

また、コンテンツ管理部102は、所定のタイミングにおいて同一のコンテンツの各コンテンツ収集データを解析し、操作者に提示する操作コマンドの最適化を実行し、コンテンツの上映中のデフォルトとして設定した操作コマンドなどが設定されたアルゴリズムを更新する。 In addition, the content management unit 102 analyzes each content collection data of the same content at a predetermined timing, optimizes the operation command presented to the operator, and sets the operation command as the default during the screening of the content. Updates the algorithm in which is set.

観客管理部103は、各観客の登録手続きに係る処理(属性情報や嗜好情報などの登録)及びアカウント(観客ID)に紐付けられるデータの記憶管理を行う。 The spectator management unit 103 performs processing related to the registration procedure of each spectator (registration of attribute information, preference information, etc.) and storage management of data associated with the account (audience ID).

具体的には、観客管理部103は、各観客情報を登録管理するためのアカウントの付与制御、コンテンツ実行中に検出された各観客の観客情報(以下、「検出観客情報」ともいい、例えば、顔画像の各観客の生体情報の他に、当該生体情報が検出された際の操作コマンドやパフォーマンスタイミングなども含む。)と観客に関する属性情報や嗜好情報などの個人情報とを登録管理する登録情報管理、アカウントに紐付けられ課金要素の実行に係る対価の支払い原資として使用される仮想口座の設定と入出金制御、当該アカウントの観客による課金要素に係る課金履歴の登録、及び、ゲーム履歴の登録などが実行される。 Specifically, the spectator management unit 103 controls the assignment of accounts for registering and managing each spectator information, and spectator information of each spectator detected during content execution (hereinafter, also referred to as "detected spectator information", for example, In addition to the biometric information of each spectator in the face image, it also includes operation commands and performance timing when the biometric information is detected) and personal information such as attribute information and preference information related to the spectator. Management, virtual account setting and deposit / withdrawal control that is linked to the account and used as a source of payment for the execution of the billing element, registration of the billing history related to the billing element by the spectator of the account, and registration of the game history Etc. are executed.

特に、観客管理部103は、検出観客情報としては、コンテンツ上映システム10によって検出された各情報を観客情報アカウントと紐付けて記憶及び管理を行う。 In particular, the spectator management unit 103 stores and manages the detected spectator information by associating each information detected by the content screening system 10 with the spectator information account.

また、観客管理部103は、ゲームプレー情報や課金履歴情報などは、図示しないゲームサーバ装置、通販サイトを運営する管理サーバ装置、又は、クレジットカードや銀行の
決済サーバ装置などの図示しない他のサーバ装置と連動し、所定のデータを授受することによって各情報の観客情報146への登録を実行する。
In addition, the spectator management unit 103 includes game play information, billing history information, and other information on a game server device (not shown), a management server device that operates a mail-order site, or another server (not shown) such as a credit card or a bank payment server device. By interlocking with the device and exchanging predetermined data, each information is registered in the audience information 146.

[3]システム制御装置
次に、図4を用いて本実施形態のコンテンツ上映システム10について説明する。なお、図4は、本実施形態のコンテンツ上映システム10の機能ブロックを示す図である。また、本実施形態のコンテンツ上映システム10は、図4の構成要素(各部)の一部を省略した構成としてもよい。
[3] System Control Device Next, the content screening system 10 of the present embodiment will be described with reference to FIG. Note that FIG. 4 is a diagram showing a functional block of the content screening system 10 of the present embodiment. Further, the content screening system 10 of the present embodiment may have a configuration in which some of the constituent elements (each part) of FIG. 4 are omitted.

観客情報検出部250は、撮像カメラ、赤外センサ、集音マイク、着座センサ、サーモグラフィ又は各観客が有するマーカユニットとその検出装置(カメラ)などの各種の生態情報又は生態情報に準ずる情報を検出するための機能を有している。 The spectator information detection unit 250 detects various ecological information or information equivalent to the ecological information such as an image pickup camera, an infrared sensor, a sound collecting microphone, a seating sensor, thermography, or a marker unit possessed by each spectator and its detection device (camera). It has a function to do.

そして、観客情報検出部250は、コンテンツの上映中にアルゴリズムに従って所定の生体情報などを検出し、操作コマンド候補提示処理部214に検出した情報を提供する。 Then, the spectator information detection unit 250 detects predetermined biometric information or the like according to an algorithm during the screening of the content, and provides the operation command candidate presentation processing unit 214 with the detected information.

なお、例えば、本実施形態の観客情報検出部250は、本発明の検出手段を構成する。 For example, the spectator information detection unit 250 of the present embodiment constitutes the detection means of the present invention.

入力部260は、操作者が操作コマンドを入力するためのものであり、その機能は、タッチパネル、タッチパネル型ディスプレイ、トラックボール、キーボード、マウスなどにより実現できる。 The input unit 260 is for the operator to input an operation command, and its function can be realized by a touch panel, a touch panel type display, a trackball, a keyboard, a mouse, or the like.

すなわち、入力部260は、例えば、タッチパネルなどのタッチ操作入力を実行するデバイスによって構成されている場合には、画像が表示される画面上における2次元の指示位置座標(x,y)を検出可能な検出部262を備えている。 That is, when the input unit 260 is configured by a device that executes touch operation input such as a touch panel, the input unit 260 can detect two-dimensional indicated position coordinates (x, y) on the screen on which the image is displayed. The detection unit 262 is provided.

例えば、入力部260は、接触検出領域(タッチパネル)における、2次元の接触位置座標(x,y)を検出可能な検出部262を備えている。 For example, the input unit 260 includes a detection unit 262 capable of detecting two-dimensional contact position coordinates (x, y) in the contact detection area (touch panel).

本実施形態において、接触位置は、操作者の接触操作(直接的な接触及びポインティングデバイスによる間接的な接触も含む)により、接触検出領域から得られる位置情報である。 In the present embodiment, the contact position is position information obtained from the contact detection region by the operator's contact operation (including direct contact and indirect contact by a pointing device).

なお、本実施形態の操作者の接触操作には、ユーザの指によるモニタ表示部290(タッチパネル)上への直接的なタッチ操作、及び、ポインティングデバイスなどのデバイスを介して実行される間接的なモニタ表示部290(タッチパネル)上へのタッチ操作の他に、モニタ表示部290(タッチパネル)に直接的及び間接的にタッチ操作又はスライド操作をせずに、光ビームやカメラを用いたモニタ表示部290(タッチパネル)上への擬似的なタッチ操作も含まれる。 The operator's contact operation according to the present embodiment includes a direct touch operation on the monitor display unit 290 (touch panel) by the user's finger and an indirect operation performed via a device such as a pointing device. In addition to the touch operation on the monitor display unit 290 (touch panel), the monitor display unit using an optical beam or a camera without directly or indirectly touching or sliding the monitor display unit 290 (touch panel). A pseudo touch operation on the 290 (touch panel) is also included.

なお、本実施形態では、操作者用のモニタ表示部(ディスプレイ)290が、液晶ディスプレイと、操作者の接触位置を検出するためのタッチパネルとが積層されたタッチパネル型ディスプレイとなっている。すなわち、本実施形態では、モニタ表示部290が入力部260として機能する。 In the present embodiment, the monitor display unit (display) 290 for the operator is a touch panel type display in which a liquid crystal display and a touch panel for detecting the contact position of the operator are laminated. That is, in the present embodiment, the monitor display unit 290 functions as the input unit 260.

また、モニタ表示部290への接触操作は、指先を用いて行うようにしてもよいし、タッチペンなどの入力機器を用いて行うようにしてもよい。 Further, the contact operation with the monitor display unit 290 may be performed using a fingertip or an input device such as a touch pen.

さらに、入力部260は、指示位置以外の操作情報(操作信号)を入力可能なボタンやレバー、ステアリング、マイク、加速度センサなどを備えていてもよい。 Further, the input unit 260 may include a button, a lever, a steering wheel, a microphone, an acceleration sensor, and the like capable of inputting operation information (operation signal) other than the indicated position.

記憶部270は、処理部200や通信部296などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部270は、ワーク領域として使用される主記憶部271と、最終的な表示画像等が記憶される画像バッファ272と、観客に関する情報を示す観客情報273と、アルゴリズムのデータ、操作コマンドデータ又はテーブルデータなどのコンテンツの上映を実行する上で必要な各種のデータを記憶するコンテンツデータ記憶部274と、を含む。 The storage unit 270 serves as a work area for the processing unit 200, the communication unit 296, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 270 of the present embodiment includes a main storage unit 271 used as a work area, an image buffer 272 in which the final display image and the like are stored, audience information 273 indicating information about the audience, and an algorithm. It includes a content data storage unit 274 that stores various data necessary for executing the screening of contents such as data, operation command data, and table data.

観客情報273には、観客情報検出部250によって検出された各観客の観客情報、及び、上映会場に来場している観客の属性情報などの予め定められたが観客情報が記憶される。 The spectator information 273 stores predetermined spectator information such as spectator information of each spectator detected by the spectator information detection unit 250 and attribute information of spectators visiting the screening venue.

コンテンツデータ記憶部274には、コンテンツ上映中に、当該コンテンツの上映で使用された各操作コマンドの種別、タイミング及び回数が使用履歴情報として記憶される。 During the content screening, the content data storage unit 274 stores the type, timing, and number of times of each operation command used in the screening of the content as usage history information.

なお、これらの一部を省略する構成としてもよいし、サーバ装置11の記憶部140がその一部を構成してもよい。また、例えば、本実施形態の記憶部270は、単独で、又は、サーバ装置11の記憶部140とともに、本発明の記憶手段を構成する。 A part of these may be omitted, or a part of the storage unit 140 of the server device 11 may be configured. Further, for example, the storage unit 270 of the present embodiment constitutes the storage unit of the present invention alone or together with the storage unit 140 of the server device 11.

観客情報273には、例えば、サーバ装置11の記憶部140に記憶された観客情報において、上映するパフォーマンスを観覧予定、又は、観覧中の観客の観客情報が記憶される。 In the spectator information 273, for example, in the spectator information stored in the storage unit 140 of the server device 11, the spectator information of the spectator who is scheduled to watch the performance to be screened or is being watched is stored.

コンテンツデータ記憶部274には、コンテンツを上映する上で必要な各種の情報、コンテンツの上映中に使用された操作コマンドなどの情報、及び、各種の判定処理で用いられる条件情報などが記憶される。 The content data storage unit 274 stores various information necessary for screening the content, information such as operation commands used during the screening of the content, and condition information used in various determination processes. ..

情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。 The information storage medium 280 (a medium that can be read by a computer) stores programs, data, and the like, and its functions are an optical disk (CD, DVD), an optical magnetic disk (MO), a magnetic disk, a hard disk, and a magnetic tape. Alternatively, it can be realized by a memory (ROM) or the like.

また、情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部200は、後述するように、情報記憶媒体280に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。 Further, the information storage medium 280 can store a program for operating the computer as each part of the present embodiment (a program for causing the computer to execute the processing of each part). As will be described later, the processing unit 200 performs various processes of the present embodiment based on the program (data) stored in the information storage medium 280.

モニタ表示部290は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)、例えばスクリーンとプロジェクターから構成される投影装置などにより実現できる。 The monitor display unit 290 outputs an image generated by the present embodiment, and its function is a projection device composed of a CRT, an LCD, a touch panel type display, an HMD (head mounted display), for example, a screen and a projector. It can be realized by such as.

特に、本実施形態ではモニタ表示部290は、上述のように、タッチパネルディスプレイを用いることにより操作者が各種の入力を行う入力部260としても機能する。ここでタッチパネルとして、例えば抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式などのタッチパネルを用いることができる。 In particular, in the present embodiment, the monitor display unit 290 also functions as an input unit 260 in which the operator inputs various inputs by using the touch panel display as described above. Here, as the touch panel, for example, a touch panel such as a resistive film type (4-wire type, 5-wire type), a capacitance method, an electromagnetic induction method, an ultrasonic surface acoustic wave method, or an infrared scanning method can be used.

音出力部292は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。 The sound output unit 292 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部296は、外部(例えばホスト装置や他の端末装置)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。 The communication unit 296 performs various controls for communicating with an external device (for example, a host device or another terminal device), and its functions include hardware such as various processors or communication ASICs, and a program. It can be realized by such as.

なお、システム制御装置20は、サーバ装置11が有する情報記憶媒体や記憶部270に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体280や記憶部270に記憶してもよい。このようにプログラムやデータを受信してシステム制御装置20を機能させる場合も本発明の範囲内に含めることができる。 The system control device 20 receives and receives programs and data for operating the computer as each part of the present embodiment stored in the information storage medium of the server device 11 and the storage unit 270 via the network. The program or data may be stored in the information storage medium 280 or the storage unit 270. The case where the system control device 20 functions by receiving a program or data in this way can also be included in the scope of the present invention.

処理部200(プロセッサ)は、入力部260からの入力データやプログラムなどに基づいて、サーバ装置11から提供されたプログラム及びアルゴリズムのデータに従って、又は、当該サーバ装置11と連動して、操作コマンド提示処理、操作コマンド受付処理を含むコンテンツ上映処理、画像生成処理、及び、音生成処理などの処理を行う。 The processing unit 200 (processor) presents an operation command based on the input data or the program from the input unit 260, according to the program and algorithm data provided by the server device 11, or in conjunction with the server device 11. Processing, content screening processing including operation command reception processing, image generation processing, sound generation processing, and the like are performed.

特に、本実施形態においては、コンテンツ上映処理としては、コンテンツの上映開始条件が満たされた場合にコンテンツの上映を開始する処理、演技キャラクタなどのコンテンツの上映に用いられる各種のオブジェクトを配置する処理、アルゴリズムに従って、又は、操作者の操作コマンドに従って演技キャラクタの動作を制御する処理、コンテンツの上映終了条件が満たされた場合にゲームを終了する処理などが含まれる。 In particular, in the present embodiment, the content screening process includes a process of starting the screening of the content when the screening start condition of the content is satisfied, and a process of arranging various objects used for the screening of the content such as acting characters. , A process of controlling the movement of the acting character according to an algorithm or an operation command of the operator, a process of ending the game when the screening end condition of the content is satisfied, and the like.

また、処理部200は、記憶部270をワーク領域として各種処理を行う。処理部200の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。 Further, the processing unit 200 performs various processing using the storage unit 270 as a work area. The function of the processing unit 200 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), or a program.

特に、本実施形態の処理部200は、オブジェクト空間設定部210と、タッチ検出処理部211と、コンテンツ表示制御部212と、モニタ表示制御部213、操作コマンド候補提示処理部214と、移動処理部215と、仮想カメラ制御部216と、コンテンツ編集処理部217と、コンテンツ上映実行制御部218、コンテンツ管理部219と、描画部220と、音処理部230とを含む。また、これらの一部を省略する構成としてもよい。 In particular, the processing unit 200 of the present embodiment includes an object space setting unit 210, a touch detection processing unit 211, a content display control unit 212, a monitor display control unit 213, an operation command candidate presentation processing unit 214, and a movement processing unit. 215, a virtual camera control unit 216, a content editing processing unit 217, a content screening execution control unit 218, a content management unit 219, a drawing unit 220, and a sound processing unit 230 are included. Further, a configuration in which some of these may be omitted may be used.

なお、例えば、本実施形態のタッチ検出処理部211は、本発明の受付手を構成し、コンテンツ表示制御部212は、本発明の観客用表示制御手段を構成する。また、例えば、本実施形態のモニタ表示制御部213は、本発明のモニタ表示制御手段を構成し、操作コマンド候補提示処理部214は、本発明の提示手段を構成する。さらに、例えば、本実施形態のコンテンツ編集処理部217は、編集手段を構成し、コンテンツ上映実行制御部218は、本発明の登録手段及び動作制御手段を構成する。 For example, the touch detection processing unit 211 of the present embodiment constitutes the receptionist of the present invention, and the content display control unit 212 constitutes the audience display control means of the present invention. Further, for example, the monitor display control unit 213 of the present embodiment constitutes the monitor display control means of the present invention, and the operation command candidate presentation processing unit 214 constitutes the presentation means of the present invention. Further, for example, the content editing processing unit 217 of the present embodiment constitutes an editing means, and the content screening execution control unit 218 constitutes the registration means and the operation control means of the present invention.

オブジェクト空間設定部210は、キャラクタオブジェクト(演技キャラクタ)、移動経路、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(スプライト、ビルボード、ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間(すなわち、ゲーム空間)に配置設定する処理を行う。 The object space setting unit 210 is a character object (acting character), a movement path, a building, a tree, a pillar, a wall, a map (topography), and various other objects (sprites, billboards, polygons, free curved surfaces, or subdivisions). Performs a process of arranging and setting an object composed of primitive surfaces such as a surface in an object space (that is, a game space).

具体的にはオブジェクト空間設定部210は、オブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y)或いは(X、Y、Z)にその回転角度(X、Y軸回りでの回転角度)或いは(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。 Specifically, the object space setting unit 210 determines the position and rotation angle (synonymous with orientation and direction) of the object (model object), and rotates the object (model object) at the position (X, Y) or (X, Y, Z). Place the object by an angle (rotation angle around the X, Y axis) or (rotation angle around the X, Y, Z axis).

なお、オブジェクト空間とは、いわゆる仮想2次元空間、仮想3次元空間の両方を含む。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。 The object space includes both a so-called virtual two-dimensional space and a virtual three-dimensional space. The two-dimensional space is, for example, a space in which objects are arranged in two-dimensional coordinates (X, Y), and the three-dimensional space is, for example, a space in which objects are arranged in three-dimensional coordinates (X, Y, Z). be.

そして、オブジェクト空間を2次元空間とした場合には、複数のオブジェクトそれぞれについて設定された優先順位に基づいてオブジェクトを配置する。例えば、奥側にあるように見せたいオブジェクト(スプライト)から順にオブジェクトを配置し、手前側にあるように見せたいオブジェクトを重ねて配置する処理を行うことができる。 Then, when the object space is a two-dimensional space, the objects are arranged based on the priority set for each of the plurality of objects. For example, it is possible to arrange objects in order from the object (sprite) that you want to appear to be on the back side, and to stack the objects that you want to appear to be on the front side.

また、描画サイズが大きなオブジェクトを画像の下方に配置し、描画サイズが小さなオブジェクトを画像の上方に配置すれば、画面の上方に対応するオブジェクト空間が奥側にあるように見せることができ、画面の下方に対応するオブジェクト空間が手前側にあるように見せることができる。 Also, if an object with a large drawing size is placed below the image and an object with a small drawing size is placed above the image, the object space corresponding to the upper part of the screen can be made to appear to be on the back side. It is possible to make it appear that the object space corresponding to the lower part of is on the front side.

一方、オブジェクト空間を3次元空間とした場合には、ワールド座標系にオブジェクトを配置する。 On the other hand, when the object space is a three-dimensional space, the objects are arranged in the world coordinate system.

タッチ検出処理部211は、操作者が入力部260に入力した操作コマンドなどの演技キャラクタの動作制御を実行するための指示情報を受け付けて認識する認識処理を行う。 The touch detection processing unit 211 receives and recognizes instruction information for executing operation control of the acting character such as an operation command input by the operator to the input unit 260.

具体的には、タッチ検出処理部211は、操作者の接触操作(すなわち、タッチ操作)を検出する接触検出領域(タッチパネル)における接触位置(2次元の接触位置座標)を指示位置として取得する。 Specifically, the touch detection processing unit 211 acquires the contact position (two-dimensional contact position coordinates) in the contact detection area (touch panel) for detecting the contact operation (that is, the touch operation) of the operator as the designated position.

特に、タッチ検出処理部211は、
(1)画面へのタッチ操作入力されていない状態(以下、「無接触状態」という。)からタッチ操作入力された状態(以下、「接触状態」という。)への変化(以下、「状態変化」という。)を検出するとともに、当該状態変化が実行された検出位置を検出し、
(2)当該検出位置に表示されている操作コマンド候補の操作コマンドとしての検出、操作コマンドの編集指示(例えば、操作コマンドに対する演技キャラクタにおけるデフォルトの操作制御の追加、変更及び削除)、又は、演技キャラクタの特別な演出を享受する特定の観客の観覧の検出を実行する。
In particular, the touch detection processing unit 211
(1) Change from a state in which no touch operation is input to the screen (hereinafter, referred to as "non-contact state") to a state in which touch operation is input (hereinafter, referred to as "contact state") (hereinafter, "state change"). ”) Is detected, and the detection position where the state change is executed is detected.
(2) Detection of the operation command candidate displayed at the detection position as an operation command, an instruction to edit the operation command (for example, addition, change, and deletion of the default operation control in the performance character for the operation command), or performance. Performs viewing detection for a particular audience who enjoys the character's special effects.

コンテンツ表示制御部212は、大型表示装置12上に、演技キャラクタを中心に、オブジェクト空間を画像化した画像を観客に観覧可能に表示させるための各種の制御を実行する。 The content display control unit 212 executes various controls on the large display device 12 to display an image of the object space, centered on the acting character, so that the audience can view it.

モニタ表示制御部213は、コンテンツの上映中に、上映されている演技キャラクタを中心としたコンテンツをモニタ表示部290に表示するとともに、操作者に対して操作コマンド候補を表示するなどの操作支援に関する各種の表示をモニタ表示部290に行う。 The monitor display control unit 213 is related to operation support such as displaying the content centered on the acting character being screened on the monitor display unit 290 and displaying operation command candidates to the operator during the screening of the content. Various displays are displayed on the monitor display unit 290.

移動処理部215は、オブジェクト空間内におけるオブジェクトの移動演算を行う。すなわち、移動処理部215は、入力部260により操作者が入力した入力データ又はプログラム(移動アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。 The movement processing unit 215 performs an object movement operation in the object space. That is, the movement processing unit 215 moves the moving object in the object space based on the input data or program (movement algorithm) or various data (motion data) input by the operator by the input unit 260, or Performs processing to control the movement (motion, animation) of a moving object.

具体的には、本実施形態の移動処理部215は、オブジェクトの移動情報(移動方向、移動量、移動速度、位置、回転角度、或いは加速度)や動作情報(各パーツオブジェクト
の位置、或いは回転角度)を、1フレーム毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動処理、動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは、固定としてもよいし、処理負荷に応じて可変としてもよい。
Specifically, the movement processing unit 215 of the present embodiment includes movement information (movement direction, movement amount, movement speed, position, rotation angle, or acceleration) and motion information (position or rotation angle of each part object) of the object. ) Is sequentially obtained for each frame. Here, the frame is a unit of time for performing object movement processing, motion processing (simulation processing), and image generation processing. Then, in the present embodiment, the frame rate may be fixed or variable depending on the processing load.

仮想カメラ制御部216は、所与の視点から見える画像であって、奥行きがあるように見える画像を生成する。この場合に、仮想カメラ制御部216が、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。 The virtual camera control unit 216 generates an image that is visible from a given viewpoint and that appears to have depth. In this case, the virtual camera control unit 216 performs control processing of the virtual camera (viewpoint) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing (processing for controlling the viewpoint position and line-of-sight direction) for controlling the position (X, Y, Z) or rotation angle (rotation angle around the X, Y, Z axes) of the virtual camera is performed.

例えば、仮想カメラによりオブジェクト(例えば、キャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。 For example, when an object (for example, a character, a ball, a car) is photographed from behind by a virtual camera, the position or rotation angle of the virtual camera (virtual camera) so that the virtual camera follows a change in the position or rotation of the object. Orientation) is controlled.

この場合には、移動処理部215で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。また、この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。 In this case, the virtual camera can be controlled based on the information such as the position, rotation angle, and speed of the object obtained by the movement processing unit 215. Alternatively, the virtual camera may be rotated at a predetermined rotation angle, or may be controlled to move in a predetermined movement path. Further, in this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or the rotation angle of the virtual camera.

なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。 When there are a plurality of virtual cameras (viewpoints), the above control processing is performed for each virtual camera.

コンテンツ編集処理部217は、コンテンツの上映中やその他のタイミングに、操作者の指示に基づいて、前記操作コマンドに対応する対象キャラクタの動作制御を編集する編集処理を実行する。 The content editing processing unit 217 executes an editing process for editing the operation control of the target character corresponding to the operation command based on the instruction of the operator during the screening of the content or at other timings.

コンテンツ上映実行制御部218は、
(1)コンテンツデータに含まれる制御データに規定されるアルゴリズムに従って画像化される対象キャラクタの動作を制御するアルゴリズム制御処理を実行し、
(2)アルゴリズム制御処理中に、操作コマンドが受け付けられた場合に、当該アルゴリズム制御処理の対象となる演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理に規定される演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく示される演技キャラクタの動作を制御する。
The content screening execution control unit 218
(1) Execute an algorithm control process that controls the operation of the target character to be imaged according to the algorithm defined in the control data included in the content data.
(2) When an operation command is received during the algorithm control process, it is linked with the action of the acting character that is the target of the algorithm control process, or instead of the action of the acting character specified in the algorithm control process. Then, the operation of the indicated acting character based on the received operation command is controlled.

また、コンテンツ上映実行制御部218は、コンテンツの上映中に、使用した操作コマンド及びそれに基づく演技キャラクタの動作、並びに、検出した検出観客情報や使用した観客情報をコンテンツ収集データとしてサーバ装置11に提供する。 Further, the content screening execution control unit 218 provides the server device 11 with the operation command used and the operation of the acting character based on the operation command, the detected detected spectator information and the used spectator information as content collection data during the content screening. do.

具体的には、コンテンツ上映実行制御部218は、コンテンツの上映後の所定のタイミングに、上映中に受け付けた操作コマンド及び検出した観客情報を、コンテンツ上映結果情報を解析するための情報として、又は、同一のコンテンツにおける他の上映に用いる使用履歴情報として、サーバ装置11に登録する。 Specifically, the content screening execution control unit 218 uses the operation command received during the screening and the detected audience information at a predetermined timing after the content screening as information for analyzing the content screening result information, or. , Registered in the server device 11 as usage history information used for other screenings of the same content.

コンテンツ管理部219は、コンテンツの上映中に、受け付けた操作コマンドの種別及びタイミングと、当該操作コマンドに基づく演技キャラクタの動作を実行した際に検出された各観客情報とを、コンテンツ上映結果情報として、コンテンツデータ記憶部274に記憶する。 The content management unit 219 uses the type and timing of the operation command received during the screening of the content and the spectator information detected when the action of the acting character based on the operation command is executed as the content screening result information. , Stored in the content data storage unit 274.

また、コンテンツ管理部219は、コンテンツの上映後の所定のタイミングに、上映中に受け付けた操作コマンド及び検出した観客情報を、コンテンツ上映結果情報を解析するための情報として、又は、同一のコンテンツにおける他の上映に用いる使用履歴情報として、サーバ装置11に登録する。 In addition, the content management unit 219 uses the operation command received during the screening and the detected audience information at a predetermined timing after the content is screened as information for analyzing the content screening result information, or in the same content. It is registered in the server device 11 as usage history information used for other screenings.

描画部220は、処理部200で行われる種々の処理(コンテンツの上映に関する各処理)の結果に基づいて描画処理を行い、これにより画像を生成し、大型表示装置12及びモニタ表示部(ディスプレイ)290に出力する。 The drawing unit 220 performs drawing processing based on the results of various processing (each processing related to content screening) performed by the processing unit 200, thereby generating an image, and the large display device 12 and the monitor display unit (display). Output to 290.

また、描画部220が生成する画像は、いわゆる2次元画像であってもよいし、いわゆる3次元画像であってもよく、描画部220は、オブジェクト空間における仮想カメラから見える画像であって、画面上に表示する画像を生成する。 Further, the image generated by the drawing unit 220 may be a so-called two-dimensional image or a so-called three-dimensional image, and the drawing unit 220 is an image that can be seen from a virtual camera in the object space and is a screen. Generate the image to be displayed above.

ここで2次元画像を生成する場合には、描画部220は、設定された優先度が低いオブジェクトから順に描画して、オブジェクト同士が重なる場合には、優先度の高いオブジェクトを上書きして描画する。 Here, when generating a two-dimensional image, the drawing unit 220 draws in order from the set low-priority objects, and when the objects overlap, the high-priority objects are overwritten and drawn. ..

また、3次元画像を生成する場合には、本実施形態の描画部220は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。 When generating a three-dimensional image, the drawing unit 220 of the present embodiment first uses the vertex data (positional coordinates of the vertex, texture coordinates, color data, normal vector or α value) of each vertex of the object (model). Object data (model data) including (etc.) is input, and vertex processing is performed based on the vertex data included in the input object data. In addition, when performing the vertex processing, the vertex generation processing (tessellation, curved surface division, polygon division) for subdividing the polygon may be performed as necessary.

また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。 In the vertex processing, geometry processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective conversion, or light source processing is performed, and the object is processed based on the processing result. Change (update, adjust) the given vertex data for the constituent vertex group. Then, rasterization (scanning conversion) is performed based on the vertex data after the vertex processing, and the faces of the polygons (primitives) are associated with the pixels. Then, following the rasterization, pixel processing (fragment processing) for drawing the pixels (fragments constituting the display screen) constituting the image is performed.

ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を画像バッファ272(フレームバッファ、ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。 In pixel processing, various processes such as texture reading (texture mapping), color data setting / change, translucent composition, and antialiasing are performed to determine the final drawing color of the pixels that make up the image, and perspective conversion is performed. The drawing color of the object is output (drawn) to the image buffer 272 (frame buffer, a buffer that can store image information in pixel units. VRAM, rendering target). That is, in the pixel processing, per pixel processing is performed in which image information (color, normal, brightness, α value, etc.) is set or changed in pixel units.

これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。 As a result, an image that can be seen from a virtual camera (given viewpoint) set in the object space is generated. When there are a plurality of virtual cameras (viewpoints), an image can be generated so that the image seen from each virtual camera can be displayed as a divided image on one screen.

なお、描画部220が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。
そして、描画部220は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。
The vertex processing and pixel processing performed by the drawing unit 220 are performed by hardware that enables programming of polygon (primitive) drawing processing by a shader program written in a shading language, so-called programmable shader (vertice shader or pixel shader). It may be realized. In the programmable shader, the processing in units of vertices and the processing in units of pixels can be programmed, so that the degree of freedom in the drawing processing content is high, and the expressive power can be greatly improved compared to the fixed drawing processing by hardware. ..
Then, when drawing the object, the drawing unit 220 performs geometry processing, texture mapping, hidden surface erasing processing, α blending, and the like.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部270に記憶する。 In the geometry processing, the object is subjected to processing such as coordinate transformation, clipping processing, perspective projection conversion, or light source calculation. Then, the object data after the geometry processing (after the perspective projection conversion) (position coordinates of the vertices of the object, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the storage unit 270.

テクスチャマッピングでは、記憶部270のテクスチャ記憶部に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部270のテクスチャ記憶部からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。 In the texture mapping, a process of mapping the texture (texel value) stored in the texture storage unit of the storage unit 270 to the object is performed. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit of the storage unit 270 using the texture coordinates and the like set (assigned) to the vertices of the object, and a two-dimensional image is obtained. Map the texture that is to the object. In this case, processing for associating pixels with texels and bilinear interpolation as texel interpolation are performed.

なお、本実施形態では、オブジェクトを描画する際に、所与のテクスチャをマッピングする処理を行うようにしてもよい。この場合には、マッピングされるテクスチャの色分布(テクセルパターン)を動的に変化させることができる。 In this embodiment, when drawing an object, a process of mapping a given texture may be performed. In this case, the color distribution (texel pattern) of the mapped texture can be dynamically changed.

また、この場合において、色分布(ピクセルパターン)が異なるテクスチャを動的に生成してもよいし、複数の色分布が異なるテクスチャを予め用意しておき、使用するテクスチャを動的に切り替えるようにしてもよい。またオブジェクト単位でテクスチャの色分布を変化させてもよい。 Further, in this case, textures having different color distributions (pixel patterns) may be dynamically generated, or a plurality of textures having different color distributions may be prepared in advance so that the textures to be used are dynamically switched. You may. Further, the color distribution of the texture may be changed for each object.

隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。 In the hidden surface erasing process, the hidden surface erasing process is performed by the Z buffer method (depth comparison method, Z test) using the Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value of the drawing pixel of the primitive are referred to. In comparison, if the Z value in the drawing pixel is the Z value (for example, a small Z value) that is on the front side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is newly added. Update to a Z value.

αブレンディング(α合成)では、描画部220は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。 In α blending (α synthesis), the drawing unit 220 performs a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, etc.) based on the α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information. The α value can be used as mask information, semi-transparency (equivalent to transparency and opacity), bump information, and the like.

特に、本実施形態での描画部220は、接触検出領域に対応する表示領域に表示させる画像を生成してもよい。表示領域に表示させる画像とは、例えばオブジェクトを含む画像でもよい。 In particular, the drawing unit 220 in the present embodiment may generate an image to be displayed in the display area corresponding to the contact detection area. The image to be displayed in the display area may be, for example, an image including an object.

音処理部230は、処理部200で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などの演技キャラクタがパフォーマンスを実行する際の各種の音を生成し、音出力部292に出力する。 The sound processing unit 230 performs sound processing based on the results of various processing performed by the processing unit 200, and generates various sounds when the acting character such as BGM, sound effect, or voice performs a performance. It is output to the sound output unit 292.

タイマ部240は、システムクロックを利用して現在日時や制限時間、アルゴリズムに基づくコンテンツの上映に関する時間管理などのタイマ値を計測する処理を実行するための計時を行う。 The timer unit 240 uses the system clock to perform timekeeping for executing a process of measuring a timer value such as the current date and time, a time limit, and time management related to the screening of content based on an algorithm.

[4]本実施形態の手法
[4.1]概要
次に、本実施形態の手法(操作コマンドの提示処理)の概要について説明する。
[4] Outline of the method of the present embodiment [4.1] Outline Next, an outline of the method of the present embodiment (operation command presentation processing) will be described.

本実施形態のコンテンツ上映システム10は、コンテンツを上映する際に、特別なスキルを必要とすることなく、簡便に操作者によって演技キャラクタを操作させることが可能な構成を有している。 The content screening system 10 of the present embodiment has a configuration in which the acting character can be easily operated by the operator without requiring special skills when the content is screened.

そして、本実施形態のコンテンツ上映システム10は、演技キャラクタを観覧する観客の雰囲気や観客の状態に応じて、簡便な操作に基づいてキャラクタを動作させること可能であって、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することが可能な構成を有している。 Then, the content screening system 10 of the present embodiment can operate the character based on a simple operation according to the atmosphere of the spectator viewing the acting character and the state of the spectator, and the target character to be imaged. It has a configuration that can excite the audience and realize a fresh performance while improving the sense of existence and the live feeling in the performance of the target character.

特に、コンテンツ上映システム10は、
(1)サーバ装置11から取得したコンテンツデータに含まれるアルゴリズムに従ってオブジェクト空間内に演技キャラクタを配置しつつ、当該演技キャラクタの動作を制御し、(2)動作制御されている演技キャラクタを中心に仮想カメラを視点としたオブジェクト空間の画像を大型表示装置12及びモニタ表示部290に表示する、
各処理を、コンテンツを上映するコンテンツ上映処理として実行する構成を有している。
In particular, the content screening system 10
(1) While arranging the acting character in the object space according to the algorithm included in the content data acquired from the server device 11, the operation of the acting character is controlled, and (2) the operation is virtually controlled centering on the acting character. The image of the object space with the viewpoint of the camera is displayed on the large display device 12 and the monitor display unit 290.
It has a configuration in which each process is executed as a content screening process for screening the content.

そして、コンテンツ上映システム10は、コンテンツ上映処理の実行中に、
(1)オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示する操作コマンド候補提示処理、及び、
(2)操作者によって提示した操作コマンド候補の中から、1以上の操作コマンド候補が特定されると、当該特定した操作コマンド候補を操作コマンドとして受け付けて、当該受け付けた操作コマンドに基づいて、演技キャラクタの動作を制御する処理(以下、「操作コマンドに基づく動作制御処理」ともいう。)、
の各処理を実行する構成を有している。
Then, the content screening system 10 is in the process of executing the content screening process.
(1) Operation command candidates that are presented to the operator as operation command candidates, which are selected by the operator according to the spectator information from among a plurality of operation commands for controlling the operation of the target character in the object space. Presentation processing and
(2) When one or more operation command candidates are specified from the operation command candidates presented by the operator, the specified operation command candidate is accepted as an operation command, and the performance is performed based on the accepted operation command. Processing that controls character movements (hereinafter, also referred to as "motion control processing based on operation commands"),
It has a configuration to execute each process of.

このような構成を有することによって、コンテンツ上映システム10は、観客情報によってイベント会場などの対象キャラクタを観覧している観客が盛り上がっていないと判断された場合には、対象キャラクタが観客を盛り上げあげるための動作として、MC(セリフやマイクパフォーマンス)を実行させるコマンドを選択可能にし、又は、激しい踊りを対象キャラクタが実行する操作コマンドを選択可能にすることができるなど、対象キャラクタを観覧している観客の状況(すなわち、観客の現在の状態)に応じた対象キャラクタの動作を操作者に選択させることができるようになっている。 By having such a configuration, the content screening system 10 causes the target character to excite the audience when it is determined by the audience information that the audience who is viewing the target character such as the event venue is not excited. Audience observing the target character, such as making it possible to select a command to execute MC (line or microphone performance), or to make it possible to select an operation command to execute a violent dance by the target character. The operator can select the action of the target character according to the situation (that is, the current state of the spectator).

また、コンテンツ上映システム10は、観客情報によって、対象キャラクタを観覧する観客に女性が多いと判断された場合には、女性向けの対象キャラクタの動作を制御し、又は、過去の行動において所定のグッズを購入していると判断された場合には、当該観客に対して対象キャラクタの特別な演出を実行させて観覧している観客の行動履歴や属性に応じた対象キャラクタの動作を制御する操作コマンドを操作者に選択させることができるようになっている。 Further, the content screening system 10 controls the movement of the target character for women when it is determined from the audience information that there are many women in the audience viewing the target character, or the content screening system 10 controls the operation of the target character for women, or a predetermined goods in the past behavior. If it is determined that the target character has been purchased, an operation command that controls the behavior of the target character according to the behavior history and attributes of the spectator who is observing by causing the spectator to perform a special effect of the target character. Can be selected by the operator.

このように、本実施形態のコンテンツ上映システム10は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、演技キャラクタを動作させることができるので、画像化される演技キャラクタの実存感及び当該演技キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォー
マンスを実現することができるようになっている。
As described above, the content screening system 10 of the present embodiment can operate the acting character according to the atmosphere of the spectator and the state of the spectator while simplifying the operation by the operator, so that the acting character to be imaged can be operated. While improving the sense of existence and the live feeling in the performance of the acting character, it is possible to excite the audience and realize a fresh performance.

したがって、コンテンツ上映システム10は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができるようになっている。 Therefore, the content screening system 10 can control the movement (that is, performance) of the target character, which is highly satisfying to the audience.

[4.2]操作コマンド候補提示処理
次に、図5〜図7を用いて本実施形態のコンテンツの操作コマンド候補提示処理について説明する。なお、図5〜図7は、本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図である。
[4.2] Operation Command Candidate Presentation Process Next, the operation command candidate presentation process of the content of the present embodiment will be described with reference to FIGS. 5 to 7. It should be noted that FIGS. 5 to 7 are diagrams for explaining the operation command candidate presenting process of the content of the present embodiment.

(基本原理)
操作コマンド候補提示処理部214は、操作コマンド候補提示処理としては、演技キャラクタのパフォーマンスの開始から終了するまでのアルゴリズムに規定された所定のタイミングに、演技キャラクタの動作を制御するための操作コマンド候補を提示する。
(Basic principle)
The operation command candidate presentation processing unit 214 controls the operation of the acting character at a predetermined timing specified in the algorithm from the start to the end of the performance of the acting character in the operation command candidate presentation processing unit 214. To present.

特に、操作コマンド候補提示処理部214は、
(1)オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、観客情報を参照しつつ操作者の意思によって選択される操作コマンドを操作コマンド候補として提示する第1操作コマンド候補提示処理、及び、
(2)オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、観客情報に応じて抽出された操作コマンドであって操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示する第2操作コマンド候補提示処理
を実行する。
In particular, the operation command candidate presentation processing unit 214
(1) First operation command candidate that presents an operation command selected by the operator's intention as an operation command candidate from among a plurality of operation commands for controlling the operation of the target character in the object space while referring to the spectator information. Presentation processing and
(2) An operation command extracted from a plurality of operation commands for controlling the operation of the target character in the object space according to the spectator information and selected by the operator is operated as an operation command candidate. The second operation command candidate presentation process to be presented to the person is executed.

なお、本実施形態においては、操作コマンド候補提示処理部214は、アルゴリズムに基づく演技キャラクタの演技パフォーマンス中には、第1操作コマンド候補提示処理又は第2操作コマンド候補提示処理のいずれか一方を実行する。 In the present embodiment, the operation command candidate presentation processing unit 214 executes either the first operation command candidate presentation process or the second operation command candidate presentation process during the performance of the acting character based on the algorithm. do.

(第1操作コマンド候補提示処理)
操作コマンド候補提示処理部214は、サーバ装置11と連動し、例えば、チケットIDと観客IDを対応付けるなど入場チケットを用いてイベント会場に来ている観客を予め特定しつつ、演技キャラクタの演技パフォーマンスを観覧している観客の属性、嗜好情報、ゲームプレー情報及び課金履歴情報の観客情報をサーバ装置11から取得する。
(First operation command candidate presentation processing)
The operation command candidate presentation processing unit 214 interlocks with the server device 11, and performs the acting performance of the acting character while identifying in advance the spectators who are coming to the event venue by using the admission ticket, for example, by associating the ticket ID with the spectator ID. Audience information such as attributes, preference information, game play information, and billing history information of the spectators who are viewing is acquired from the server device 11.

そして、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、アルゴリズムによって規定されるタイミングに、取得した観客情報、当該観客情報によって観客の特性を解析した結果を示す解析情報、又は、双方の情報をモニタ表示部290に表示して操作者に提示する。 Then, the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213, and at the timing specified by the algorithm, the acquired spectator information, the analysis information showing the result of analyzing the characteristics of the spectator by the spectator information, or the analysis information. , Both information is displayed on the monitor display unit 290 and presented to the operator.

特に、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、演技キャラクタに対して観客に合致する動作を実行させるための操作コマンドを、操作者により選択させやすくするために、取得した観客情報をモニタ表示部290にリスト表示する。 In particular, the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213 to acquire an operation command for the acting character to easily select an operation command that matches the audience. The spectator information is displayed in a list on the monitor display unit 290.

また、操作コマンド候補提示処理部214は、座席などによってイベント会場内の特定の観客(具体体には、特定の観客の会場内の位置)を特定することができる場合には、モニタ表示制御部213と連動し、取得した観客情報を観客(又は、観客の位置)に対応付けてモニタ表示部290にリスト表示する。 Further, when the operation command candidate presentation processing unit 214 can specify a specific spectator in the event venue (specifically, the position of the specific spectator in the venue) by a seat or the like, the operation command candidate presentation processing unit 214 is a monitor display control unit. In conjunction with 213, the acquired spectator information is associated with the spectator (or the position of the spectator) and displayed in a list on the monitor display unit 290.

例えば、操作コマンド候補提示処理部214は、図5(A)に示すように、イベント会場の前列に対する演出を行う場合には、適した演出を実行するための操作コマンドを操作者に選択させるために、アルゴリズムによって当該タイミングにおいて規定されている操作コマンド候補とともに、イベント会場の前列の観客の観客情報をモニタ表示部290にリスト表示する。 For example, as shown in FIG. 5A, the operation command candidate presentation processing unit 214 causes the operator to select an operation command for executing an appropriate effect when performing an effect on the front row of the event venue. In addition to the operation command candidates defined at the timing by the algorithm, the spectator information of the spectators in the front row of the event venue is displayed in a list on the monitor display unit 290.

なお、図5(A)は、観客情報とともに、第1演技キャラクタ8A上に形成されたコマンドA〜Dの各操作コマンドを操作コマンド候補としてタッチパネルであるモニタ表示部290に表示している例を示す。 Note that FIG. 5A shows an example in which each operation command of commands A to D formed on the first acting character 8A is displayed on the monitor display unit 290 of the touch panel as an operation command candidate together with the audience information. show.

特に、図5(A)には、上記の他に、タッチ操作によって変更可能なコマンド実行スピード及びコンテンツの上映時間などの操作者の操作をサポートするための画像パーツがモニタ表示部290に表示されている例が示されている。 In particular, in FIG. 5A, in addition to the above, image parts for supporting operator operations such as command execution speed and content screening time that can be changed by touch operation are displayed on the monitor display unit 290. An example is shown.

また、コンテンツ上映実行制御部218は、図5(B)に示すように、タッチ検出処理部211によって提示された操作コマンド候補の中から演技キャラクタが動作する操作コマンドを受け付けると、当該操作コマンドに基づいて対象の演技キャラクタの動作制御を実行する。 Further, as shown in FIG. 5B, when the content screening execution control unit 218 receives an operation command in which the acting character operates from the operation command candidates presented by the touch detection processing unit 211, the content screening execution control unit 218 receives the operation command. Based on this, the movement control of the target acting character is executed.

そして、図5(B)は、ステージ2の下手前列に、第1演技キャラクタ8Aを好きな観客であって、課金額が一定額以上の男性の観客が存在するので、操作コマンド候補の中から当該第1演技キャラクタ8Aがステージ2の下手前列へのパフォーマンス「下手で手を振る」という操作コマンドAを受け付けた場合の例を示している。ただし、コンテンツ上映実行制御部218における演技キャラクタの動作制御については、後述する。 Then, in FIG. 5B, since there is a male spectator who likes the first acting character 8A and has a charge amount of a certain amount or more in the lower front row of the stage 2, there are spectators among the operation command candidates. An example is shown in the case where the first acting character 8A receives the operation command A of the performance "waving poorly" to the lower front row of the stage 2. However, the operation control of the acting character in the content screening execution control unit 218 will be described later.

一方、操作コマンド候補提示処理部214は、演技キャラクタの演技パフォーマンス前に、又は、当該演技パフォーマンス中に、イベント会場に来場している観客の観客情報に基づいて、観客全体の特性、各観客の特性(個々人の特性)、又は、その双方を解析してもよい。 On the other hand, the operation command candidate presentation processing unit 214 sets the characteristics of the entire spectator and each spectator based on the spectator information of the spectators who are visiting the event venue before or during the performance of the acting character. Characteristics (individual characteristics) or both may be analyzed.

例えば、操作コマンド候補提示処理部214は、観客全体の特性としては、
(A1)観客の構成比率(年代、男女差、地域差)、
(A2)各演技キャラクタの好きなキャラクタとしての支持率(キャラクタAを好きな観客が多いなど)、
(A3)観客全体の課金額の合計や平均課金額、及び、
(A4)特定のゲームにおける平均プレー時間
を解析する。
また、例えば、操作コマンド候補提示処理部214は、各観客の特性としては、
(B1)一定額以上の課金を実行している観客、
(B2)特定の商品やサービスを購入した観客、又は、
(B3)特定のゲームにおいて特定のプレーヤキャラクタやアイテムを所有していること、所定のレベル以上であること、若しくは、所定のポイントや経験値を有しているなど特定のゲームにおいて所定の条件を具備している観客、
を解析する。
For example, the operation command candidate presentation processing unit 214 has a characteristic of the entire audience.
(A1) Audience composition ratio (age, gender difference, regional difference),
(A2) Approval rating of each acting character as a favorite character (many spectators like character A, etc.),
(A3) The total billing amount and average billing amount of the entire audience, and
(A4) Analyze the average play time in a specific game.
Further, for example, the operation command candidate presentation processing unit 214 has a characteristic of each spectator.
(B1) Audiences who are charging a certain amount or more,
(B2) Audiences who have purchased a specific product or service, or
(B3) Predetermined conditions in a specific game, such as possession of a specific player character or item in a specific game, being at a predetermined level or higher, or having a predetermined point or experience value. Audience,
To analyze.

そして、操作コマンド候補提示処理部214は、観客情報を参照しつつ操作者の意思によって選択することが可能な状態である操作コマンドとして提示するため、モニタ表示制御部213と連動し、アルゴリズムによって提示することが規定されている操作コマンドと同時に操作者が視認できるモニタ表示部290上の位置に、上記の解析結果を表示する。 Then, the operation command candidate presentation processing unit 214 presents the operation command as an operation command that can be selected by the operator's intention while referring to the spectator information. Therefore, the operation command candidate presentation processing unit 214 is linked with the monitor display control unit 213 and presented by an algorithm. The above analysis result is displayed at a position on the monitor display unit 290 that can be visually recognized by the operator at the same time as the operation command specified to be performed.

例えば、操作コマンド候補提示処理部214は、図6(A)に示すように、所定の回数以上(例えば、3回)のイベントへの来場回数を有する観客が一定の割合以上、存在することを解析した場合には、当該該観客に向けて、投げキッスやセリフを発するなどの特別な演出を実行する操作コマンドを操作者に容易に選択させるために、当該観客について一定額以上の課金履歴を有する旨と該当する観客の座席位置とを、操作コマンド候補とともに、モニタ表示部290にリスト表示させる。 For example, as shown in FIG. 6A, the operation command candidate presentation processing unit 214 indicates that there are a certain percentage or more of spectators who have visited the event more than a predetermined number of times (for example, three times). When analyzed, in order to make it easy for the operator to select an operation command to execute a special effect such as throwing a kiss or issuing a line to the spectator, a charge history of a certain amount or more is set for the spectator. The presence and the seat position of the corresponding spectator are displayed in a list on the monitor display unit 290 together with the operation command candidates.

なお、このような場合には、コンテンツ上映実行制御部218は、例えば、来場回数が多い場合の特別演出として、いままで披露されていない新曲を歌う演技キャラクタの動作制御を実行される。 In such a case, the content screening execution control unit 218 executes, for example, the operation control of the acting character singing a new song that has not been shown so far, as a special effect when the number of visits is large.

また、例えば、操作コマンド候補提示処理部214は、図6(B)に示すように、女性の観客が一定割合以上(例えば、7割)イベント会場に存在することを解析した場合には、女性向けの演出を実行する操作コマンドを操作者に容易に選択させるために、当該観客の女性割合が一定上であることを示す表示をモニタ表示部290に表示させる。 Further, for example, when the operation command candidate presentation processing unit 214 analyzes that a certain percentage or more (for example, 70%) of female spectators are present at the event venue, as shown in FIG. 6B, a female spectator is present. In order for the operator to easily select an operation command for executing the effect, the monitor display unit 290 displays a display indicating that the female ratio of the spectator is above a certain level.

なお、このような場合には、コンテンツ上映実行制御部218は、例えば、女性向けのセリフを発する演技キャラクタの動作制御を実行する。 In such a case, the content screening execution control unit 218 executes, for example, the operation control of the acting character that emits the dialogue for women.

一方、操作コマンド候補提示処理部214は、図5及び図6に示すように、モニタ表示制御部213と連動し、操作対象となる演技キャラクタの画像をタッチパネルとしてのモニタ表示部290に表示するとともに、当該演技キャラクタの画像上で操作コマンドの選択操作が可能に各操作コマンド候補を表示してもよい。 On the other hand, as shown in FIGS. 5 and 6, the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213 and displays an image of the acting character to be operated on the monitor display unit 290 as a touch panel. , Each operation command candidate may be displayed so that the operation command can be selected and operated on the image of the acting character.

すなわち、本実施形態においては、このような構成を有することによって、操作者における直感的に操作コマンドの操作指示を実行させることができるので、操作者の操作を簡便にし、その操作性を向上させることができるようになっている。 That is, in the present embodiment, by having such a configuration, the operator can intuitively execute the operation instruction of the operation command, so that the operation of the operator is simplified and the operability is improved. You can do it.

(第2操作コマンド候補提示処理)
操作コマンド候補提示処理部214は、観客情報検出部250と連動し、アルゴリズムによって規定されるタイミングに、観客の表情や音声などの生体情報、観客の体勢、熱気若しくは当該観客が発する光(例えば、スマートホンやサイリウム)、又は、観客が所有する端末装置の情報(例えば、各観客の観覧(座席)位置や個人を特定するための情報、ゲーム履歴情報や商品等の購入履歴情報)などの当該生体情報に準ずる情報を検出する。
(Second operation command candidate presentation processing)
The operation command candidate presentation processing unit 214 interlocks with the spectator information detection unit 250, and at the timing specified by the algorithm, the biological information such as the spectator's facial expression and voice, the spectator's posture, the heat, or the light emitted by the spectator (for example,). Smartphones and psylliums) or information on terminal devices owned by spectators (for example, information for identifying the viewing (seat) position and individual of each spectator, game history information, purchase history information of products, etc.) Detects information similar to biological information.

すなわち、操作コマンド候補提示処理部214は、例えば、観客が盛り上がっているか否か、観客が楽しんでいるか否か、男女比率(男性が多いか、女性が多いか)、又は、例えば、演技キャラクタのセリフやゲームに対する回答して用いられる赤の光(光の種類によってじゃんけんの要素を示すこと、又は、赤の光は、「YES」、青の光は「NO」など)を発している観客が多いかなどの観客の状態を解析する。 That is, the operation command candidate presentation processing unit 214 is, for example, whether or not the audience is excited, whether or not the audience is enjoying, the male-female ratio (whether there are many males or many females), or, for example, the acting character. Audiences emitting red light (indicating the elements of rocking depending on the type of light, or "YES" for red light, "NO" for blue light, etc.) used in response to dialogue and games Analyze the state of the audience, such as whether there are many.

カメラ
特に、観客情報検出部250は、撮像カメラ、赤外センサ、集音マイク、着座センサ、サーモグラフィ、各観客が有するマーカユニットとその検出装置(カメラ)端末装置(例えば、スマートフォンやIDタグなど)から送信され得た情報を取得する無線受信器、又は、上映会場全体や演技キャラクタを撮像するカメラなどの各種の生態情報等を検出するための機能を有している。
Camera In particular, the spectator information detection unit 250 includes an image pickup camera, an infrared sensor, a sound collecting microphone, a seating sensor, thermography, a marker unit possessed by each spectator and its detection device (camera) terminal device (for example, a smartphone or an ID tag). It has a function for detecting various ecological information such as a wireless receiver that acquires information transmitted from the camera, or a camera that captures the entire screening venue or acting characters.

また、操作コマンド候補提示処理部214は、撮像カメラによって撮像された各観客の顔画像によって、集音マイクによって集音された各観客の音成分(周波数特性)によって
、着座センサによって各観客が立っているか着座しているかによって、又は、各観客の熱量によって興奮しているか否かを、観客の状態として解析する。
Further, in the operation command candidate presentation processing unit 214, each spectator stands by the seating sensor according to the sound component (frequency characteristic) of each spectator collected by the sound collecting microphone according to the face image of each spectator captured by the imaging camera. Whether or not the person is excited by the amount of heat of each spectator or whether or not he / she is seated is analyzed as the state of the spectator.

そして、操作コマンド候補提示処理部214は、アルゴリズムによって該当するタイミングにおいて規定されている操作コマンドの中から、盛り上がるための操作コマンド、女性が多い場合の操作コマンド、又は、観客が楽しんでいる場合の操作コマンドなどを操作コマンド候補として選択(抽出)し、モニタ表示制御部213と連動して当該選択した操作コマンド候補をモニタ表示部290に表示して操作者に提示する。 Then, the operation command candidate presentation processing unit 214 has an operation command for excitement, an operation command when there are many women, or an operation command when the audience is enjoying it, from among the operation commands defined at the corresponding timing by the algorithm. An operation command or the like is selected (extracted) as an operation command candidate, and the selected operation command candidate is displayed on the monitor display unit 290 in conjunction with the monitor display control unit 213 and presented to the operator.

例えば、操作コマンド候補提示処理部214は、図7に示すように、アルゴリズムに従って演技キャラクタから「元気ー!」の問いかけ(すなわち、コール)が観客に向けて実行した場合であって、観客情報検出部250によって、その反応(すなわち、レスポンス)として歓声を所定のデシベル(例えばステージ中央で80dB)以上を検出した場合に、複数の操作コマンドの中から、第1演技キャラクタAが「みんな、ありがとう」のセリフを発する操作コマンドA、第1演技キャラクタAが「まだまだ!」のセリフを発する操作コマンドB、第1演技キャラクタAが「行くよー」とセリフを発して次の楽曲をスタートさせる操作コマンドCを操作コマンド候補としてモニタ表示部290に表示して操作者に提示する。 For example, as shown in FIG. 7, the operation command candidate presentation processing unit 214 detects the audience information when the acting character asks (that is, calls) "I'm fine!" To the audience according to the algorithm. When the unit 250 detects a cheer as a reaction (that is, a response) of a predetermined decibel (for example, 80 dB at the center of the stage) or more, the first acting character A is "Thank you everyone" from the plurality of operation commands. Operation command A that emits the line of "I'm going", operation command B that the first acting character A emits the line "Still more!" Is displayed on the monitor display unit 290 as an operation command candidate and presented to the operator.

なお、観客情報検出部250は、検出した観客の状態を示す観客情報を、操作コマンドの情報とともに、後述する使用履歴情報として、コンテンツデータ記憶部274に登録する。 The spectator information detection unit 250 registers the detected spectator information indicating the state of the spectator in the content data storage unit 274 as usage history information described later together with the information of the operation command.

[4.3]操作コマンドに基づく動作制御処理
次に、図8及び図9を用いて本実施形態のコ操作コマンドに基づく動作制御処理について説明する。なお、図8及び図9は、本実施形態のコンテンツの操作コマンドに基づく動作制御処理について説明するための図である。
[4.3] Operation control processing based on operation commands Next, the operation control processing based on the co-operation commands of the present embodiment will be described with reference to FIGS. 8 and 9. 8 and 9 are diagrams for explaining the operation control process based on the operation command of the content of the present embodiment.

コンテンツ上映実行制御部218は、
(1)コンテンツデータに含まれる制御データに規定されるアルゴリズムに従って画像化される対象キャラクタの動作を制御するアルゴリズム制御処理を実行し、
(2)アルゴリズム制御処理中に、操作コマンドが受け付けられた場合に、当該アルゴリズム制御処理の対象となる演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理に規定される演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく示される演技キャラクタの動作を制御する。
The content screening execution control unit 218
(1) Execute an algorithm control process that controls the operation of the target character to be imaged according to the algorithm defined in the control data included in the content data.
(2) When an operation command is received during the algorithm control process, it is linked with the action of the acting character that is the target of the algorithm control process, or instead of the action of the acting character specified in the algorithm control process. Then, the operation of the indicated acting character based on the received operation command is controlled.

すなわち、コンテンツ上映実行制御部218は、提示した操作コマンド候補のうち、タッチ検出処理部211によって特定された操作コマンド候補を操作コマンドとして受け付けると、アルゴリズムによって演技キャラクタの動作を制御する制御処理(以下、「アルゴリズム制御処理」という。)における演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理の演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく演技キャラクタの動作を制御する操作コマンドに基づく動作制御処理を実行する。 That is, when the content screening execution control unit 218 accepts the operation command candidate specified by the touch detection processing unit 211 among the presented operation command candidates as an operation command, the content screening execution control unit 218 controls the operation of the acting character by an algorithm (hereinafter,). , "Algorithm control processing"), or instead of the operation of the acting character in the algorithm control processing, an operation command that controls the operation of the acting character based on the received operation command. Executes the based operation control process.

特に、コンテンツ上映実行制御部218は、受け付けた操作コマンドに応じて、対応する演技キャラクタの動作におけるアルゴリズムを、変更し、又は、他のアルゴリズムに差し替えることによって、アルゴリズム制御処理における演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理の演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく演技キャラクタの動作を制御する。 In particular, the content screening execution control unit 218 changes the algorithm in the operation of the corresponding acting character according to the received operation command, or replaces it with another algorithm, thereby performing the operation of the acting character in the algorithm control process. In conjunction with each other, or instead of the operation of the acting character in the algorithm control process, the operation of the acting character based on the received operation command is controlled.

例えば、規定されているアルゴリズムによって演技キャラクタの体の動きを制御しつつ
、セリフを発する場合を想定する。
For example, it is assumed that a line is emitted while controlling the movement of the acting character's body by a specified algorithm.

この場合において、アルゴリズムを変更する場合には、図8(A)に示すように、タッチ検出処理部211によってコマンドAの「セリフA(盛り上がってるー!)」の操作コマンドが受け付けられると、コンテンツ上映実行制御部218は、図8(B)及び(C)に示すように、アルゴリズムによって対応する演技キャラクタの体の動きを制御しつつ、当該演技キャラクタから発するセリフを変更する。 In this case, when changing the algorithm, as shown in FIG. 8A, when the touch detection processing unit 211 receives the operation command of the command A "line A (exciting!)", The content As shown in FIGS. 8B and 8C, the screening execution control unit 218 changes the dialogue emitted from the acting character while controlling the movement of the body of the corresponding acting character by the algorithm.

なお、図8(B)は、例えば、アルゴリズムによって観客に向かって片手を上げる動きを制御しつつ、セリフを「元気ー」から「盛り上がっている!」に変更している例を示し、図8(C)は、アルゴリズムによって観客に向かって片手を上げる動きを制御しつつ、当該アルゴリズムによって定められたセリフ「元気ー」を発している例を示す。 Note that FIG. 8B shows an example in which the dialogue is changed from "energetic" to "exciting!" While controlling the movement of raising one hand toward the audience by an algorithm, for example. (C) shows an example in which the movement of raising one hand toward the audience is controlled by the algorithm, and the dialogue "Genki" defined by the algorithm is emitted.

また、コンテンツ上映実行制御部218は、図8(C)の示すように、タッチ検出処理部211によって所定のタイミング(例えば、当該操作コマンドに基づく動作開始のタイミング)までに、操作コマンドを受け付けられなかった場合には、アルゴリズムにそもそも規定されているセリフ「元気ー」を発する動作制御を実行する Further, as shown in FIG. 8C, the content screening execution control unit 218 receives an operation command by the touch detection processing unit 211 by a predetermined timing (for example, the timing of starting the operation based on the operation command). If not, the operation control that emits the line "Genki" specified in the algorithm is executed.

一方、同様の場合において、アルゴリズムを差し替える場合には、図9(A)に示すように、タッチ検出処理部211によってコマンドBの操作コマンドが受け付けられると、コンテンツ上映実行制御部218は、図9(B)及び(C)に示すように、受け付けた操作コマンドに応じて、対応する演技キャラクタの動作におけるアルゴリズムを変更する。 On the other hand, in the same case, when the algorithm is replaced, as shown in FIG. 9A, when the operation command of command B is received by the touch detection processing unit 211, the content screening execution control unit 218 displays FIG. As shown in (B) and (C), the algorithm in the operation of the corresponding acting character is changed according to the received operation command.

なお、図9(B)は、例えば、アルゴリズムによって観客に向かって片手を上げる動きを、両手を挙げながら移動する動き(例えば走っている動き)に変更しつつ、セリフを「元気ー」から「盛り上がっている!」に変更している例を示す。 In addition, in FIG. 9B, for example, the movement of raising one hand toward the audience by the algorithm is changed to the movement of moving while raising both hands (for example, the movement of running), and the dialogue is changed from "Genki" to "Genki". An example of changing to "Exciting!" Is shown.

また、図9(C)は、図8(C)と同様に、アルゴリズムによって観客に向かって片手を上げる動きを制御しつつ、当該アルゴリズムによって定められたセリフ「元気ー」を発している例を示す。 Further, FIG. 9 (C) is an example in which, as in FIG. 8 (C), the movement of raising one hand toward the audience is controlled by the algorithm, and the dialogue "Genki" defined by the algorithm is emitted. show.

[4.4]操作コマンドの使用履歴に基づく操作コマンド候補提示処理
次に、本実施形態の操作コマンドの使用履歴に基づく操作コマンド候補提示処理について説明する。
[4.4] Operation command candidate presentation process based on the operation command usage history Next, the operation command candidate presentation process based on the operation command usage history of the present embodiment will be described.

(上映中の操作コマンドの使用履歴に基づく操作コマンド候補提示処理)
コンテンツ上映実行制御部218は、コンテンツの上映中に、操作者によって指示された操作コマンド(すなわち、操作コマンド候補提示処理部214によって受け付けた操作コマンド)をコンテンツデータ記憶部274に登録して蓄積する。
(Operation command candidate presentation processing based on the usage history of the operation command being shown)
The content screening execution control unit 218 registers and stores the operation command instructed by the operator (that is, the operation command received by the operation command candidate presentation processing unit 214) in the content data storage unit 274 during the content screening. ..

具体的には、コンテンツ上映実行制御部218は、操作コマンドの種別、タイミング及び使用回数などの各種の情報を使用履歴情報としてコンテンツデータ記憶部274に登録し、蓄積する。 Specifically, the content screening execution control unit 218 registers and stores various information such as the type, timing, and number of times of operation commands in the content data storage unit 274 as usage history information.

また、コンテンツ上映実行制御部218は、観客情報を検出している場合には、観客情報検出部250と連動し、検出した観客の状態を示す観客情報を、操作コマンドの情報とともに、後述する使用履歴情報として、コンテンツデータ記憶部274に登録して蓄積する。 Further, when the content screening execution control unit 218 detects the spectator information, the content screening execution control unit 218 interlocks with the spectator information detection unit 250 and uses the spectator information indicating the detected state of the spectator together with the information of the operation command, which will be described later. As history information, it is registered and stored in the content data storage unit 274.

そして、操作コマンド候補提示処理部214は、操作コマンド候補を提示する際に、操
作者によって観客情報及び登録されている使用履歴情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示する操作コマンド候補提示処理を実行する。
Then, when the operation command candidate presentation processing unit 214 presents the operation command candidate, the operator uses the operation command selected according to the spectator information and the registered usage history information by the operator as the operation command candidate. Executes the operation command candidate presentation process to be presented in.

特に、操作コマンド候補提示処理部214は、第1操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、使用履歴に基づいて該当する複数の操作コマンドを選択(抽出)し、選択した操作コマンドを、登録されている観客情報を参照しつつ操作者の意思によって選択される操作コマンド候補として、提示する。 In particular, the operation command candidate presentation processing unit 214 performs, as the first operation command candidate presentation processing, a plurality of corresponding operations based on the usage history from among a plurality of operation commands for controlling the operation of the target character in the object space. A command is selected (extracted), and the selected operation command is presented as an operation command candidate selected by the operator's intention while referring to the registered spectator information.

例えば、操作コマンド候補提示処理部214は、操作コマンドを選択させる際に、
(1)直前の操作コマンドに関連する操作コマンド、
(2)当該コンテンツの上映について(すなわち、一連の演技パフォーマンスの実行中に)未だ使用されていない操作コマンド、
(3)使用頻度の高い操作コマンド、
(4)上映中に盛り上がった操作コマンド、及び、
(5)他の観客に対して未実行な一部の観客や観客個人に対して特別演出を実行する操作コマンド、
を複数の操作コマンドの中から操作コマンド候補として選択し、選択した操作コマンド候補をモニタ表示部290に表示して操作者に提示する。
For example, the operation command candidate presentation processing unit 214 may select an operation command when selecting the operation command.
(1) Operation commands related to the immediately preceding operation command,
(2) Operation commands that have not yet been used for the screening of the content (that is, during the execution of a series of performances).
(3) Frequently used operation commands,
(4) Operation commands and excitement during the screening
(5) Operation commands for executing special effects for some spectators and individual spectators who have not been executed for other spectators.
Is selected as an operation command candidate from a plurality of operation commands, and the selected operation command candidate is displayed on the monitor display unit 290 and presented to the operator.

また、操作コマンド候補提示処理部214は、上述のように観客情報についても、モニタ表示部290に表示して操作者に提示するが、(5)の場合など、状況に応じて必要な観客情報を変化させて操作者に提示する。 Further, the operation command candidate presentation processing unit 214 also displays the spectator information on the monitor display unit 290 and presents it to the operator as described above, but the spectator information required depending on the situation such as in the case of (5). Is changed and presented to the operator.

なお、操作コマンド候補提示処理部214は、(1)〜(4)に該当する操作コマンドを単に提示してもよいし、当該操作コマンドに対して優先度を付した場合であって予め設定されている優先度や選択回数によって値が下がるなどの他の要素に基づく優先度と合算し、当該優先度に基づいて選択した操作コマンド候補の提示順位を決定してもよい。 The operation command candidate presentation processing unit 214 may simply present the operation commands corresponding to (1) to (4), or is set in advance when the operation commands are prioritized. It may be added up with the priority based on other factors such as the value decreasing depending on the priority and the number of selections, and the presentation order of the selected operation command candidates may be determined based on the priority.

また、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、例えば、使用された操作コマンドを順次提示不能にし、又は、優先度を下げ、提示可能な又は優先度の高い操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示してもよい。ただし、操作コマンド候補提示処理部214は、一部の観客や観客個人に対する操作コマンドについては、同一観客における同一操作コマンドを排除するようになっている。 Further, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, for example, the used operation commands cannot be sequentially presented, or the priority is lowered so that the operation commands can be presented or have a high priority. The operation command may be displayed on the monitor display unit 290 as an operation command candidate and presented to the operator. However, the operation command candidate presentation processing unit 214 excludes the same operation command in the same spectator for the operation command for some spectators or individual spectators.

さらに、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。 Further, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, the operation command candidate presentation processing unit 214 displays information such as the number of times of use and the usage timing on the monitor display unit 290 together with the corresponding operation command and presents the information to the operator. May be good.

一方、操作コマンド候補提示処理部214は、第2操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、検出した観客情報及び使用履歴に基づいて該当する複数の操作コマンドを抽出し、当該抽出した操作コマンドを操作コマンド候補として提示する。 On the other hand, the operation command candidate presentation processing unit 214 performs the second operation command candidate presentation processing based on the spectator information and the usage history detected from among a plurality of operation commands for controlling the operation of the target character in the object space. A plurality of applicable operation commands are extracted, and the extracted operation commands are presented as operation command candidates.

また、操作コマンド候補提示処理部214は、操作コマンド候補提示処理としては、第1操作コマンド候補提示処理と同様に、複数の操作コマンド(例えば、上記の(1)〜(4)の操作コマンド)を選択し、当該選択した操作コマンド中から観客情報に応じて操作コマンドをさらに選択し、選択した操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する。 Further, the operation command candidate presentation processing unit 214 may use a plurality of operation commands (for example, the operation commands (1) to (4) described above) as the operation command candidate presentation process, similarly to the first operation command candidate presentation process. Is selected, an operation command is further selected from the selected operation commands according to the audience information, and the selected operation command is displayed on the monitor display unit 290 as an operation command candidate and presented to the operator.

なお、第1操作コマンド候補提示処理と同様に、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。 Similar to the first operation command candidate presentation process, the operation command candidate presentation processing unit 214 displays information such as the number of times of use and the timing of use together with the corresponding operation command when the operator selects the operation command. It may be displayed on 290 and presented to the operator.

(コンテンツ毎の操作コマンドの使用履歴に基づく操作コマンド候補提示処理)
コンテンツ上映実行制御部218は、コンテンツの上映を実行する際に、当該同一のコンテンツ(すなわち、同一のコンテンツID)においてサーバ装置11などに既に登録された操作コマンドの使用履歴情報を取得し、コンテンツデータ記憶部274に記憶する。
(Operation command candidate presentation processing based on the usage history of operation commands for each content)
When the content screening execution control unit 218 executes the screening of the content, the content screening execution control unit 218 acquires the usage history information of the operation command already registered in the server device 11 or the like in the same content (that is, the same content ID), and the content. It is stored in the data storage unit 274.

そして、コンテンツ上映実行制御部218は、操作コマンド候補を提示する際に、操作者によって観客情報及び登録されている使用履歴情報に応じて選択可能となる操作コマンド、及び、観客情報及び使用履歴情報に応じて選択された操作コマンドの少なくともいずれか一方を、操作コマンド候補として、操作者に提示する操作コマンド候補提示処理を実行する。 Then, when presenting the operation command candidate, the content screening execution control unit 218 can select the operation command according to the spectator information and the registered usage history information by the operator, and the spectator information and the usage history information. The operation command candidate presentation process for presenting at least one of the operation commands selected according to is executed as an operation command candidate to the operator.

特に、操作コマンド候補提示処理部214は、第1操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、使用履歴に基づいて該当する複数の操作コマンドを選択し、観客情報を参照しつつ操作者の意思によって選択することが可能となる操作コマンドとして、選択した操作コマンドを操作コマンド候補として提示する。 In particular, the operation command candidate presentation processing unit 214 performs, as the first operation command candidate presentation processing, a plurality of corresponding operations based on the usage history from among a plurality of operation commands for controlling the operation of the target character in the object space. The selected operation command is presented as an operation command candidate as an operation command that can be selected by the operator's intention while referring to the spectator information.

例えば、操作コマンド候補提示処理部214は、操作コマンドを選択させる際に、
(1)アルゴリズムにおける同タイミングにおいて使用頻度の高い操作コマンド、
(2)アルゴリズムにおける同タイミングにおいて盛り上がった操作コマンド、
(3)観客の大半が未だ観覧したことない対象キャラクタの行動を規定する操作コマンド、
を複数の操作コマンドの中から操作コマンド候補として選択し、選択した操作コマンド候補をモニタ表示部290に表示して操作者に提示する。
For example, the operation command candidate presentation processing unit 214 may select an operation command when selecting the operation command.
(1) Operation commands that are frequently used at the same timing in the algorithm,
(2) Operation commands that were excited at the same timing in the algorithm,
(3) Operation commands that regulate the behavior of the target character that most of the spectators have not yet seen.
Is selected as an operation command candidate from a plurality of operation commands, and the selected operation command candidate is displayed on the monitor display unit 290 and presented to the operator.

なお、操作コマンド候補提示処理部214は、(1)〜(3)に該当する操作コマンドを単に提示してもよいし、当該操作コマンドに対して優先度を付すとともに、予め設定されている優先度や選択回数によって値が下がるなどの他の要素に基づく優先度と合わせ、当該優先度に基づいて選択した操作コマンド候補の提示順位を決定してもよい。 The operation command candidate presentation processing unit 214 may simply present the operation commands corresponding to (1) to (3), give priority to the operation commands, and give a preset priority. The presentation order of the operation command candidates selected based on the priority may be determined in combination with the priority based on other factors such as the value decreasing depending on the degree and the number of selections.

また、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、例えば、使用された操作コマンド順次提示不能にし、又は、優先度を下げ、提示可能な又は優先度の高い操作コマンドを、選択した操作コマンド候補として、モニタ表示部290に表示して操作者に提示してもよい。ただし、操作コマンド候補提示処理部214は、一部の観客や観客個人に対する操作コマンドについては、同一観客における同一操作コマンドを排除するようになっている。 Further, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, for example, the used operation commands cannot be sequentially presented, or the priority is lowered, and the operation that can be presented or has a high priority is performed. The command may be displayed on the monitor display unit 290 as a selected operation command candidate and presented to the operator. However, the operation command candidate presentation processing unit 214 excludes the same operation command in the same spectator for the operation command for some spectators or individual spectators.

さらに、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、上映中の使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。 Further, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, the operation command candidate presentation processing unit 214 displays information such as the number of times of use and the usage timing during the screening on the monitor display unit 290 together with the corresponding operation command to the operator. You may present it.

一方、操作コマンド候補提示処理部214は、第2操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、観客情報及び使用履歴に基づいて該当する複数の操作コマンドを選択し、選択し
た操作コマンドを操作コマンド候補として提示する。
On the other hand, the operation command candidate presentation processing unit 214 corresponds to the second operation command candidate presentation processing based on the spectator information and the usage history from among a plurality of operation commands for controlling the operation of the target character in the object space. Select multiple operation commands and present the selected operation commands as operation command candidates.

また、操作コマンド候補提示処理部214は、操作コマンド候補提示処理としては、第1操作コマンド候補提示処理と同様に、複数の操作コマンド(例えば、上記の(1)〜(3)の操作コマンド)を選択し、当該選択した操作コマンド中から観客情報に応じて操作コマンドをさらに選択し、選択した操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する。 Further, the operation command candidate presentation processing unit 214 may use a plurality of operation commands (for example, the operation commands (1) to (3) above) as the operation command candidate presentation process, similarly to the first operation command candidate presentation process. Is selected, an operation command is further selected from the selected operation commands according to the audience information, and the selected operation command is displayed on the monitor display unit 290 as an operation command candidate and presented to the operator.

なお、第1操作コマンド候補提示処理と同様に、操作コマンド候補提示処理部214は、上映中の操作コマンドを操作者に選択させる際に、使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。 Similar to the first operation command candidate presentation process, the operation command candidate presentation processing unit 214 includes information such as the number of times of use and the timing of use together with the corresponding operation command when the operator is made to select the operation command being screened. It may be displayed on the monitor display unit 290 and presented to the operator.

[4.5]その他の機能及び処理
次に、本実施形態の操作コマンドの使用履歴に基づく操作コマンド候補提示処理について説明する。
[4.5] Other Functions and Processes Next, an operation command candidate presentation process based on the usage history of the operation commands of the present embodiment will be described.

(特定の観客に対する演技キャラクタの行動制御)
タッチ検出処理部211は、例えばモニタ表示部290に表示された各観客の観覧位置を示す観覧位置情報と連動し、操作コマンドとともに、演技キャラクタの動作を享受する特定の観客の観覧位置を指定する観客指定指示を受け付けてもよい。
(Behavioral control of acting characters for a specific audience)
The touch detection processing unit 211 interlocks with the viewing position information indicating the viewing position of each spectator displayed on the monitor display unit 290, for example, and specifies the viewing position of a specific spectator who enjoys the movement of the acting character together with the operation command. Audience designation instructions may be accepted.

そして、この場合には、コンテンツ上映実行制御部218は、受け付けられた観客指定指示によって特定される観客の観覧位置に向けて、受け付けた操作コマンドに基づく演技キャラクタの動作を制御する。 Then, in this case, the content screening execution control unit 218 controls the operation of the acting character based on the received operation command toward the viewing position of the spectator specified by the received spectator designation instruction.

例えば、コンテンツ上映実行制御部218は、特定される観覧位置に向けて、演技キャラクタよる手振り制御、視線制御(目線を送る制御)、ステージ上の最近傍位置まで近づく(近づくように大型表示装置12に表示する)、及び、所与のセリフ(例えば、観客情報によって観客の名前が分かる場合にはその名前)によるコールの各動作を制御する。 For example, the content screening execution control unit 218 approaches (approaches) the nearest position on the stage, such as hand gesture control by the acting character, line-of-sight control (control to send the line of sight), toward the specified viewing position. (Displayed in) and controls each action of the call with a given line (eg, the name of the spectator if the spectator information reveals the name of the spectator).

また、モニタ表示制御部213は、モニタ表示部290に、上映会場内の各観客の位置(例えば、座席)を観覧位置情報としてタッチ操作可能に表示させる。そして、観客指定指示として、タッチ検出処理部211によって表示されている観客の位置がタッチされて受け付けられると、コンテンツ上映実行制御部218は、受け付けられた観客の位置に向けて受け付けた操作コマンドに基づく演技キャラクタの動作を制御する。 Further, the monitor display control unit 213 causes the monitor display unit 290 to display the position (for example, a seat) of each spectator in the screening venue as viewing position information by touch operation. Then, when the position of the spectator displayed by the touch detection processing unit 211 is touched and accepted as the spectator designation instruction, the content screening execution control unit 218 issues an operation command received toward the accepted position of the spectator. Controls the movement of the acting character based on it.

なお、観客情報検出部250は、このときの観客情報を検出し、使用履歴情報としてコンテンツデータ記憶部274又はサーバ装置11に登録してもよい。 The spectator information detection unit 250 may detect the spectator information at this time and register it in the content data storage unit 274 or the server device 11 as usage history information.

また、本実施形態おいては、タッチ検出処理部211のタッチ操作によって観客の観覧位置の受付を実行しているが、当該タッチ操作に代えて、コンテンツ上映実行制御部218は、トラックボールやキーボードなどのカーソル移動によって観覧位置を受け付けてもよい。 Further, in the present embodiment, the reception of the viewing position of the spectator is executed by the touch operation of the touch detection processing unit 211, but instead of the touch operation, the content screening execution control unit 218 uses a trackball or a keyboard. The viewing position may be accepted by moving the cursor such as.

(特別操作コマンド)
操作コマンド候補提示処理部214は、演技キャラクタの動作状況に応じて定まる操作コマンド(すなわち、特別操作コマンド)を操作コマンド候補に含めて操作者に提示してもよい。
(Special operation command)
The operation command candidate presentation processing unit 214 may include an operation command (that is, a special operation command) determined according to the operation status of the acting character in the operation command candidate and present it to the operator.

例えば、操作コマンド候補提示処理部214は、
(1)コンテンツの上映開始時(すなわち、アルゴリズムによる動作開始時)には、観客を盛り上げるための行動を制御するための操作コマンド(決めポーズを実施する操作コマンド)を提示し、
(2)コンテンツの上映の終盤には、盛り上がっている観客に対してそれを維持し、さらに盛り上げるための行動を制御するための操作コマンド(連続コールを実行する操作コマンド)を提示し、
(3)曲間などの静かなシーンについては、「セリフ」などのそのシーンに特化した操作コマンドを操作コマンド候補として提示させてもよい。
For example, the operation command candidate presentation processing unit 214
(1) At the start of the screening of the content (that is, at the start of the operation by the algorithm), an operation command (an operation command for executing a fixed pose) for controlling the action for enlivening the audience is presented.
(2) At the end of the screening of the content, an operation command (operation command for executing a continuous call) for maintaining it and controlling the action for further excitement is presented to the excited audience.
(3) For a quiet scene such as between songs, an operation command specialized for the scene such as "line" may be presented as an operation command candidate.

なお、操作コマンド候補提示処理部214は、特別操作コマンドのみを操作コマンド候補として提示してもよい。 The operation command candidate presentation processing unit 214 may present only the special operation command as an operation command candidate.

一方、操作コマンド候補提示処理部214は、サーバ装置11(具体的には、コンテンツ管理部102)によってコンテンツ毎に各コンテンツ上映システム10から収集したコンテンツ上映結果情報を解析して得られた上映中のコンテンツにおける所与のタイミングの最適の操作コマンドを取得し、当該取得した最適の操作コマンドを、特別操作コマンドとして、操作コマンド候補に含めて提示してもよい。 On the other hand, the operation command candidate presentation processing unit 214 is being screened obtained by analyzing the content screening result information collected from each content screening system 10 for each content by the server device 11 (specifically, the content management unit 102). The optimum operation command at a given timing in the content of the above may be acquired, and the acquired optimum operation command may be presented as a special operation command by being included in the operation command candidates.

(経過時間又は受付回数に基づく操作コマンド候補の提示)
操作コマンド候補提示処理部214は、コンテンツの上映開始から経過時間に従って、操作コマンドの受付回数に従って、又は、既に選択された操作コマンドの組み合わせに従って、操作コマンド候補として提示される操作コマンドの種別を変更させてもよい。
(Presentation of operation command candidates based on elapsed time or number of receptions)
The operation command candidate presentation processing unit 214 changes the type of the operation command presented as the operation command candidate according to the elapsed time from the start of the content screening, the number of times the operation command is received, or the combination of the operation commands already selected. You may let me.

すなわち、操作コマンド候補提示処理部214は、
(1)上映終了時刻が近づいてくると、エンディングに向けての動作を規定する操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示し、
(2)操作コマンドの受付回数が増加すると、コンテンツの上映時間を調整するため、動作時間が短い操作コマンドを、モニタ表示部290に表示して操作者に提示し、
(3)既に選択された操作コマンドの組み合わせに従って、コンテンツの内容がマッチする操作コマンドを、モニタ表示部290に表示して操作者に提示してもよい。
That is, the operation command candidate presentation processing unit 214
(1) When the screening end time approaches, an operation command that defines the operation toward the ending is displayed on the monitor display unit 290 as an operation command candidate and presented to the operator.
(2) When the number of times the operation command is accepted increases, the operation command having a short operation time is displayed on the monitor display unit 290 and presented to the operator in order to adjust the screening time of the content.
(3) According to the combination of the already selected operation commands, the operation commands whose contents match may be displayed on the monitor display unit 290 and presented to the operator.

また、各操作コマンドには、アルゴリズムに従って演技キャラクタの動作制御が実行されている場合に受け付けを許容する時刻や区間を示す受け付け許容情報と、各操作コマンドに基づいて演技キャラクタの動作制御が実行される実行時間と、が規定されていてもよく、これらの情報を用いて操作コマンド候補の提示などが実行されてもよい。 In addition, each operation command is executed with acceptance allowance information indicating the time and interval at which acceptance is permitted when the operation control of the acting character is executed according to the algorithm, and the operation control of the acting character based on each operation command. The execution time may be specified, and the presentation of operation command candidates may be executed using this information.

具体的には、各操作コマンドには、受け付け許容情報としては、アルゴリズムに従って演技キャラクタの演技開始タイミング(画像生成の開始タイミング)から当該操作コマンドの受け付けが許容される時刻(経過時間)を示す受付完了許容時刻又は複数の所与の区間(楽曲の場合における前奏、Aメロ、サビ、演劇の場合には、第1幕や第2幕など)が定められて当該画像生成が実行されている場合において当該操作コマンドの受け付けが許容される区間を示す区間情報と、が規定されている。 Specifically, for each operation command, as the acceptance allowance information, the reception indicating the time (elapsed time) from which the performance start timing (image generation start timing) of the acting character is allowed to accept the operation command according to the algorithm. When the permissible completion time or a plurality of given sections (prelude in the case of music, verse, chorus, act 1 or 2 in the case of drama, etc.) are set and the image generation is executed. Section information indicating the section in which the operation command is allowed to be accepted is specified in.

そして、操作コマンド候補提示処理部214は、演技キャラクタにおける画像生成の開始タイミングからの経過時間又は操作コマンドを提示するタイミングが属する区間と、各操作コマンドの実行時間と、に応じて、提示する操作コマンドの種別を決定し、又は、演技キャラクタの動作制御の内容を変更した操作コマンドを提示してもよい。 Then, the operation command candidate presentation processing unit 214 presents the operation command according to the elapsed time from the start timing of image generation in the acting character or the section to which the timing of presenting the operation command belongs and the execution time of each operation command. An operation command in which the type of the command is determined or the content of the motion control of the acting character is changed may be presented.

すなわち、操作コマンド候補提示処理部214は、開始タイミングからの経過時間、又は、例えば、動作制御が楽曲におけるライブパフォーマンスの場合には、前奏、Aメロ、Bメロ又はサビなどの各パート(区間)のどの部分の画像かを見極めて操作コマンドを提示することができるとともに、状況によっては時短や動作内容の簡略化などの操作コマンドにおける対象キャラクタの動作制御の内容をも変更することができるようになっている。 That is, the operation command candidate presentation processing unit 214 is the elapsed time from the start timing, or, for example, when the operation control is a live performance in a musical piece, each part (section) such as a prelude, an A melody, a B melody, or a chorus. It is possible to identify which part of the image is the image and present the operation command, and depending on the situation, it is possible to change the content of the operation control of the target character in the operation command such as shortening the time and simplifying the operation content. It has become.

(複数操作コマンドの一括選択処理)
コンテンツ上映実行制御部218は、タッチ検出処理部211によって、同一のタイミング、又は、同一のタイミングとして想定される所定の期間中(例えば、10秒や20秒)に、複数の操作コマンドが受け付けられた場合には、当該受け付けられた複数の操作コマンドを、所与の順序(例えば、入力順)に従って、表示される対象キャラクタの動作を制御してもよい。
(Batch selection processing of multiple operation commands)
The content screening execution control unit 218 receives a plurality of operation commands by the touch detection processing unit 211 during the same timing or a predetermined period (for example, 10 seconds or 20 seconds) assumed to be the same timing. If so, the plurality of accepted operation commands may control the operation of the target character to be displayed according to a given order (for example, input order).

すなわち、操作コマンド候補提示処理部214は、例えば、演技パフォーマンスにおける連動動作において、複数の操作コマンドを入力ことが必要な場合に、上映中に連続動作が開始されるそれぞれのタイミングに各操作コマンドを提示して選択させて受け付ける場合には、操作者の操作が煩雑になるだけでなく、操作コマンド候補提示処理自体も負荷がかかり、的確に処理できない場合もある。 That is, for example, when it is necessary to input a plurality of operation commands in the interlocking operation in the performance performance, the operation command candidate presentation processing unit 214 issues each operation command at each timing when the continuous operation is started during the screening. When presenting, selecting, and accepting, not only the operation of the operator becomes complicated, but also the operation command candidate presenting process itself is burdened, and it may not be possible to perform accurate processing.

そこで、操作コマンド候補提示処理部214は、事前に複数の操作コマンドを選択させるべく、個々のタイミングにおける操作コマンド候補提示処理をそれぞれ実行し、複数の操作コマンドを受け付けてもよい。 Therefore, the operation command candidate presentation processing unit 214 may execute the operation command candidate presentation processing at each timing and accept a plurality of operation commands in order to select a plurality of operation commands in advance.

なお、操作コマンド候補提示処理部214は、コンテンツの上映前に各タイミングにおける操作コマンドについて、操作コマンド候補提示処理によって受け付けてようにしてもよい。 The operation command candidate presentation processing unit 214 may accept the operation command at each timing by the operation command candidate presentation processing before the content is shown.

(操作コマンドの編集)
コンテンツ編集処理部217は、操作者の指示に基づいて、各操作コマンドに対応する対象キャラクタの動作制御を編集する構成を有している。
(Edit operation command)
The content editing processing unit 217 has a configuration for editing the operation control of the target character corresponding to each operation command based on the instruction of the operator.

具体的には、コンテンツ編集処理部217は、操作者の指示に基づいて、編集の対象に指定された操作コマンドについて、演技キャラクタの動作の追加、一部削除、動作を行うスピードの変化、又は、他の操作コマンドの動作内容の統合を実行する。 Specifically, the content editing processing unit 217 adds, partially deletes, or changes the speed of performing the action of the acting character with respect to the operation command designated as the editing target based on the instruction of the operator. , Executes the integration of the operation contents of other operation commands.

例えば、コンテンツ編集処理部217は、操作コマンドAにおける演技キャラクタの動作が決めポーズのみの場合に、決めポーズの後に所定のステップを踏む動き、及び、所定のセリフを発する動作を追加すると、決めポーズをし、ステップを踏み、及び、セリフを発する一連の演技キャラクタの動作を規定する操作コマンドAを生成する。 For example, when the action of the acting character in the operation command A is only a fixed pose, the content editing processing unit 217 adds a motion of taking a predetermined step after the fixed pose and an action of issuing a predetermined line, and the determined pose is added. To generate an operation command A that defines the actions of a series of acting characters that perform, take steps, and emit dialogue.

そして、コンテンツ上映実行制御部218は、操作コマンドAを受け付けると、演技キャラクタが、決めポーズをし、ステップを踏み、及び、セリフを発する一連の演技キャラクタの動作を制御する。 Then, when the content screening execution control unit 218 receives the operation command A, the acting character controls the operation of a series of acting characters that make a determined pose, take a step, and emit a line.

また、コンテンツ編集処理部217は、操作コマンドAにおける演技キャラクタの動作制御をそのままに、動作スピードを調整してもよい。例えば、コンテンツ編集処理部217は、10秒で実行する一連の動きのある決めポーズを、20秒で実行するようにスピードを編集してもよい。 Further, the content editing processing unit 217 may adjust the operation speed while maintaining the operation control of the acting character in the operation command A. For example, the content editing processing unit 217 may edit the speed so that a series of moving fixed poses executed in 10 seconds is executed in 20 seconds.

(操作コマンドの動作開始表示)
操作コマンド候補提示処理部214は、操作者の入力のし忘れを防止し、操作者の操作
性を向上させるために、アルゴリズムに従って操作コマンド候補提示処理の実行中に、当該タイミングによって受け付けた操作コマンドに基づいて演技キャラクタの動作制御が開始される動作開始時刻を提示してもよい。
(Operation start display of operation command)
The operation command candidate presentation processing unit 214 receives an operation command at the timing during execution of the operation command candidate presentation process according to the algorithm in order to prevent the operator from forgetting to input and improve the operability of the operator. The operation start time at which the operation control of the acting character is started may be presented based on.

(操作コマンドのランダム提示)
操作コマンド候補提示処理部214は、操作コマンド候補提示処理においては、意外性やパターン化を防ぐために、第1操作コマンド提示処理又は第2操作コマンド提示処理によって提示する複数の操作コマンドの中から、ランダムにいくつかの操作コマンドを操作コマンド候補として提示してもよい。
(Random presentation of operation commands)
In the operation command candidate presentation processing unit 214, the operation command candidate presentation processing unit 214 selects from a plurality of operation commands presented by the first operation command presentation processing or the second operation command presentation processing in order to prevent unexpectedness and patterning. Some operation commands may be randomly presented as operation command candidates.

(複数の演技キャラクタの制御)
コンテンツ上映実行制御部218は、複数の演技キャラクタの動作を制御する場合において、操作コマンドに基づく動作制御を行う場合には、1の演技キャラクタに対して操作コマンドを受け付けて当該操作コマンドに基づいてその動作を制御する動作制御処理を実行し、それ以外の演技キャラクタについてアルゴリズムに規定された動作制御を実行する。
(Control of multiple acting characters)
When the content screening execution control unit 218 controls the operation of a plurality of acting characters and performs the operation control based on the operation command, the content screening execution control unit 218 receives the operation command for one acting character and is based on the operation command. The motion control process for controlling the motion is executed, and the motion control specified in the algorithm is executed for the other acting characters.

また、この場合に、操作コマンド候補提示処理部214は、操作コマンドに基づく動作制御処理を実行する演技キャラクタ操作者に選択させるための提示を実行し、コンテンツ上映実行制御部218は、選択された演技キャラクに対して操作コマンドに基づく動作制御処理を実行する。 Further, in this case, the operation command candidate presentation processing unit 214 executes the presentation for the acting character operator who executes the operation control processing based on the operation command to select, and the content screening execution control unit 218 is selected. Executes motion control processing based on operation commands for acting characters.

さらに、操作コマンド候補提示処理部214は、複数の演技キャラクタ(例えば、二人の演技キャラクタ)の動作を制御する場合において、複数の操作者(例えば、二人の操作者)に対してそれぞれ操作コマンド候補提示処理を実行してもよい。 Further, the operation command candidate presentation processing unit 214 operates for a plurality of operators (for example, two operators) when controlling the operation of a plurality of acting characters (for example, two acting characters). The command candidate presentation process may be executed.

この場合には、操作コマンド候補提示処理部214は、各演技キャラクタの動作制御が破綻しないように、操作コマンドに基づく動作制御処理の制御期間が一致する操作コマンドを操作コマンド候補として提示し、所定のタイミングまでにそれぞれの操作コマンドを受付するための処理を実行する。 In this case, the operation command candidate presentation processing unit 214 presents an operation command whose control period of the operation control process based on the operation command matches as an operation command candidate so that the operation control of each acting character does not break down, and determines the operation command candidate. The process for accepting each operation command is executed by the timing of.

そして、この場合には、コンテンツ上映実行制御部218は、予め定められた同一のタイミングからそれぞれの演技キャラクタの動作制御を実行する。 Then, in this case, the content screening execution control unit 218 executes the operation control of each acting character from the same predetermined timing.

(操作コマンドに基づく動作制御中の他の操作コマンドの受け付け処理)
操作コマンド候補提示処理部214は、受け付けられた第1の操作コマンドに基づく演技キャラクタの動作制御中に、他の操作コマンドを受け付けて当該受け付けた操作コマンド(以下、「第2の操作コマンド」という。)に基づく動作制御が実行可能に、操作コマンド候補を、提示してもよい。
(Acceptance processing of other operation commands during operation control based on operation commands)
The operation command candidate presentation processing unit 214 receives another operation command during the operation control of the acting character based on the received first operation command, and the received operation command (hereinafter referred to as "second operation command"). Operation command candidates may be presented so that operation control based on.) Can be executed.

例えば、第1の操作コマンドに基づいて演技キャラクタの動作制御が実行されている場合であって、観客が盛り上がらない状態であることを示す観客情報が提示された場合に、又は、当該第1の操作コマンドによる演技キャラクタの動作制御が最後まで実施されると演技パフォーマンス時間全体に遅れが生ずる場合などの特殊な状況の場合に、操作コマンド候補提示処理部214は、観客情報に応じて選択される少なくとも1以上の操作コマンドを、操作コマンド候補として提示する。 For example, when the movement control of the acting character is executed based on the first operation command, and when the spectator information indicating that the spectator is not excited is presented, or when the first operation command is performed. The operation command candidate presentation processing unit 214 is selected according to the spectator information in a special situation such as a case where the entire performance performance time is delayed when the operation control of the performance character by the operation command is executed to the end. At least one or more operation commands are presented as operation command candidates.

そして、コンテンツ上映実行制御部218は、第1の操作コマンドに基づく演技キャラクタの動作制御(以下、「第1の動作制御」という。)中に、タッチ検出処理部211によって第1の操作コマンドとは異なる第2の操作コマンドが受け付けられた場合には、第
1の動作制御を受け付けた時点で中止とし、第2の操作コマンドに基づく演技キャラクタの動作制御(以下、「第2の動作制御」という。)を発動する。
Then, the content screening execution control unit 218 receives the first operation command by the touch detection processing unit 211 during the operation control of the acting character based on the first operation command (hereinafter, referred to as “first operation control”). If a different second operation command is accepted, it is canceled when the first operation control is accepted, and the action control of the acting character based on the second operation command (hereinafter, "second operation control"). ) Is activated.

なお、コンテンツ上映実行制御部218は、第1の動作制御を中止する場合には、演技キャラクタの動作において、区切りがよい動作まで制御を実行し、その後中止とする制御を実行する。 When the content screening execution control unit 218 cancels the first motion control, the content screening execution control unit 218 executes the control until the motion of the acting character is well separated, and then executes the control to stop the motion.

また、操作コマンド候補提示処理部214は、第2の操作コマンド候補として、第1の操作コマンドが提示された際の当該第1の操作コマンドとは異なる操作コマンド(すなわち、受け付けられなかった操作コマンド)を提示してもよいし(第1の操作コマンドが提示された状態を維持してもよいし)、観客情報に応じて、又は、当該操作コマンドの使用履歴情報に応じてなど所定の操作コマンドを新たに提示してもよい。 Further, the operation command candidate presentation processing unit 214 has an operation command (that is, an operation command that has not been accepted) different from the first operation command when the first operation command is presented as the second operation command candidate. ) May be presented (the state in which the first operation command is presented may be maintained), or a predetermined operation such as according to the audience information or the usage history information of the operation command. A new command may be presented.

[4.6]変形例
(変形例1)
上記の実施形態においては、操作コマンド候補提示処理部214は、操作コマンド候補をモニタ表示部290にタッチ操作可能に表示するが、物理的なスイッチやキーボードに操作コマンドが割り当てることによって提示してもよい。
[4.6] Modification Example (Modification Example 1)
In the above embodiment, the operation command candidate presentation processing unit 214 displays the operation command candidate on the monitor display unit 290 so that it can be touch-operated, but it may be presented by assigning the operation command to a physical switch or keyboard. good.

この場合には、操作コマンド候補提示処理部214は、モニタ表示部290に割り当てたスイッチや各キーを提示してもよいし、スイッチや各キーに直接提示してもよい。 In this case, the operation command candidate presentation processing unit 214 may present the switch or each key assigned to the monitor display unit 290, or may directly present the switch or each key.

(変形例2)
上記の実施形態においては、タッチ検出処理部211は、観覧位置の指定については、モニタ表示部290へのタッチ操作に基づいて特定しているが、ジョイスティックやキーボードなどの操作子によってモニタ表示部290に表示されたカーソルや指示位置表示を操作することによって観覧位置を指定してもよい。
(Modification 2)
In the above embodiment, the touch detection processing unit 211 specifies the viewing position based on the touch operation on the monitor display unit 290, but the monitor display unit 290 is specified by an operator such as a joystick or a keyboard. The viewing position may be specified by operating the cursor displayed on or the indicated position display.

(変形例3)
上記実施形態においては、イベント会場に来場した観客に対してコンテンツの上映を実行しているが、上記の実施形態においては、ネットワークを用いて又はテレビ放送によって、コンテンツの動画を配信するリアルタイムの動画配信において適用することも可能である。
(Modification example 3)
In the above embodiment, the content is screened to the audience who came to the event venue, but in the above embodiment, the video of the content is distributed by the network or by the television broadcasting. It can also be applied in distribution.

この場合には、コンテンツ上映実行制御部218は、アルゴリズム又は操作コマンドに基づいて演技キャラクタの動作を制御しつつ、図示しない通信制制御部は、演技キャラクタを含むオブジェクト空間の仮想カメラを視点とした描画部220によって生成された画像からデータストリームを生成し、当該生成したデータストリームを、通信部296を介してサーバ装置11又は図示しない端末装置にネットワークを用いて又は放送波によって配信する。 In this case, the content screening execution control unit 218 controls the operation of the acting character based on the algorithm or the operation command, while the communication control unit (not shown) uses the virtual camera in the object space including the acting character as a viewpoint. A data stream is generated from the image generated by the drawing unit 220, and the generated data stream is distributed to the server device 11 or a terminal device (not shown) via the communication unit 296 via a network or by a broadcast wave.

(変形例4)
上記の実施形態においては、演技キャラクタに代えて演出オブジェクト(キャラクタの一態様)として、例えば、紙吹雪やテープなど装飾物を飛ばすバズーカ型やキャノン砲型のクラッカーなどの特殊効果装置、ピンスポット型のライトやサーチライトなどの照明装置、稼働型の花道やセリなどの舞台装置、スピーカなどの音響装置又は演出オブジェクトが観客席上をフライングするフライング装置、及び、が含まれてもよい。
(Modification example 4)
In the above embodiment, as a production object (one aspect of the character) instead of the acting character, for example, a special effect device such as a bazooka type or a cannon cannon type cracker that shoots decorations such as confetti or tape, or a pin spot type. Lighting devices such as lights and search lights, stage devices such as movable Hanamichi and seri, acoustic devices such as speakers, or flying devices in which directing objects fly over the audience seats, and the like may be included.

すなわち、コンテンツ上映システム10は、
(1)観客の観覧対象となる実空間に配置された演出オブジェクトの動作を制御し、
(2)演出オブジェクトの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示し、
(3)提示した操作コマンド候補の中から、操作者によって操作指示された操作コマンドを受け付け、
(4)受け付けた操作コマンドに基づいて、演出オブジェクトの動作を制御する、
構成を有していてもよい。
That is, the content screening system 10
(1) Control the operation of the production object placed in the real space to be viewed by the audience.
(2) From among a plurality of operation commands for controlling the operation of the effect object, an operation command selected by the operator according to the spectator information indicating the information about the spectator is presented to the operator as an operation command candidate. ,
(3) From the presented operation command candidates, accept the operation command instructed by the operator and accept the operation command.
(4) Control the operation of the effect object based on the received operation command.
It may have a configuration.

また、上記実施形態においては、演技キャラクタの動作制御を規定する操作コマンドを提示しているが、対象キャラクタの一形態として、当該演技キャラクタを含むオブジェクト空間を撮像する際の仮想カメラの動作制御を規定する操作コマンドを提示してもよい。 Further, in the above embodiment, the operation command that defines the motion control of the acting character is presented, but as one form of the target character, the motion control of the virtual camera when imaging the object space including the acting character is performed. You may present the specified operation command.

例えば、操作コマンド候補提示処理部214は、仮想カメラの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示し、コンテンツ上映実行制御部218は、受け付けた操作コマンドに基づいて、仮想カメラの動作を制御してもよい。 For example, the operation command candidate presentation processing unit 214 selects an operation command selected by the operator according to the spectator information indicating the information about the spectator from among a plurality of operation commands for controlling the operation of the virtual camera. As a candidate, the content screening execution control unit 218 may be presented to the operator and control the operation of the virtual camera based on the received operation command.

(変形例5)
上記の実施形態は、コンテンツ上映システム10は、サーバ装置11と連動して各種の処理を実行しているが、過去の観客情報や操作コマンドなどの使用履歴情報の登録や解析、及び、コンテンツ上映結果情報の取得などのサーバ装置11によって実行される各処理を実行し、スタンドアロンの装置としてコンテンツの上映を実行してもよい。
(Modification 5)
In the above embodiment, the content screening system 10 executes various processes in conjunction with the server device 11, but registers and analyzes past audience information, usage history information such as operation commands, and content screening. Each process executed by the server device 11 such as acquisition of result information may be executed, and the content may be screened as a stand-alone device.

(変形例6)
上記の実施形態においては、コンテンツを大型表示装置12に表示することによって観客に当該コンテンツを観覧させているが、各観客に、仮想3次元空間の画像を視認させるHMD(装着型画像表示装置)を装着させて、バーチャル空間内においてあたかも各観客の周囲に存在するかのごとく認知させるVR体験(仮想現実体験)演技キャラクタの演技パフォーマンスを3Dによって観覧させるようにしてもよい。
(Modification 6)
In the above embodiment, the content is displayed on the large display device 12 so that the spectators can view the content. However, the HMD (wearable image display device) allows each spectator to visually recognize the image in the virtual three-dimensional space. The VR experience (virtual reality experience) acting character may be viewed in 3D so as to be recognized as if it exists around each spectator in the virtual space.

この場合には、例えば、観客毎に、HMDユニット及び制御ユニットを有する端末装置を提供し、各端末装置は、制御ユニットから出力された各種のデータに基づいて、画像及び音をHMDに提供する。 In this case, for example, a terminal device having an HMD unit and a control unit is provided for each spectator, and each terminal device provides an image and a sound to the HMD based on various data output from the control unit. ..

また、各端末装置は、装着した観客の音、視線又は姿勢(頭部姿勢)を観客情報として検出することが可能な構成を有している。 In addition, each terminal device has a configuration capable of detecting the sound, line of sight, or posture (head posture) of the wearing spectator as spectator information.

なお、各端末装置は、同一のイベント会場によって複数の観客に提供されて同時にコンテンツの上映を実行してもよいし、別空間によって異なるタイミングにそれぞれコンテンツの上映を実行してもよい。 Each terminal device may be provided to a plurality of spectators by the same event venue to simultaneously screen the content, or may perform the screening of the content at different timings depending on the different space.

[5]本実施形態における動作
次に、図10及び図11を用いて本実施形態のシステム制御装置20によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作について説明する。なお、図10及び図11は、本実施形態のシステム制御装置20によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作を示すフローチャートである。
[5] Operation in the present embodiment Next, the operation of the operation control process based on the operation command including the operation command candidate presentation process executed by the system control device 20 of the present embodiment will be described with reference to FIGS. 10 and 11. .. 10 and 11 are flowcharts showing the operation of the operation control process based on the operation command including the operation command candidate presentation process executed by the system control device 20 of the present embodiment.

(第1操作コマンド候補提示処理の場合)
本動作においては、所定のコンテンツのアルゴリズムによってオブジェクト空間に配置された演技キャラクタの動作が実行されているものとし、各観客の観覧情報をサーバ装置11から取得してコンテンツデータ記憶部274に既に記憶されているものとする。
(In the case of the first operation command candidate presentation processing)
In this operation, it is assumed that the operation of the acting character arranged in the object space is executed by the algorithm of the predetermined content, and the viewing information of each spectator is acquired from the server device 11 and already stored in the content data storage unit 274. It is assumed that it has been done.

また、本動作においては、アルゴリズムに従ってオブジェクト空間に設定された仮想カメラが制御され、当該仮想カメラを視点とした前記オブジェクト空間内における演技キャラクタの画像を順次生成して大型表示装置12表示されているものとする。 Further, in this operation, the virtual camera set in the object space is controlled according to the algorithm, and images of the acting characters in the object space with the virtual camera as the viewpoint are sequentially generated and displayed on the large display device 12. It shall be.

まず、コンテンツ上映実行制御部218は、アルゴリズムに基づく操作コマンドの受け付けタイミングであることを検出すると(ステップS101)、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、コンテンツデータ記憶部274に記憶されているイベント会場に来場している観客の観客情報を取得し、モニタ表示部290に表示する(ステップS102)。 First, when the content screening execution control unit 218 detects that it is the reception timing of the operation command based on the algorithm (step S101), the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213 and stores the content data. The spectator information of the spectators who are visiting the event venue stored in the unit 274 is acquired and displayed on the monitor display unit 290 (step S102).

また、このとき、コンテンツ上映実行制御部218は、タイマ部240に、操作コマンドに基づく演技キャラクタの動作開始までの残り時間(入力制限時間)の計測を開始させる。 At this time, the content screening execution control unit 218 causes the timer unit 240 to start measuring the remaining time (input time limit) until the operation of the acting character starts based on the operation command.

なお、コンテンツ上映実行制御部218は、直接サーバ装置11からイベント会場に来場している観客の観客情報を取得してもよい。 The content screening execution control unit 218 may acquire the spectator information of the spectators who are visiting the event venue directly from the server device 11.

次いで、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、アルゴリズムによって予め定められた複数の操作コマンド中から、操作者によって表示された観客情報に応じて選択される操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する(ステップS103)。 Next, the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213, and selects an operation command from a plurality of operation commands predetermined by the algorithm according to the spectator information displayed by the operator. , As an operation command candidate, it is displayed on the monitor display unit 290 and presented to the operator (step S103).

このとき、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、当該タイミングによって受け付けた操作コマンドに基づいて演技キャラクタの動作制御が開始される動作開始時刻までの残り時間(入力制限時間)を操作コマンド候補及び観客情報とともにモニタ表示部290に表示する。 At this time, the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213, and the remaining time (input limit) until the operation start time when the operation control of the acting character is started based on the operation command received at the timing. Time) is displayed on the monitor display unit 290 together with the operation command candidates and the audience information.

次いで、コンテンツ上映実行制御部218は、入力制限時間が「0」になったか否かを判定し(ステップS104)、当該入力制限時間が「0」になったと判定した場合には、対象となる演技キャラクタに対して、アルゴリズムによって予め規定されている動作制御の実行を開始させて(ステップS105)本動作を終了させる。 Next, the content screening execution control unit 218 determines whether or not the input time limit has reached "0" (step S104), and if it determines that the input time limit has reached "0", it becomes a target. The acting character is started to execute the motion control defined in advance by the algorithm (step S105), and this motion is terminated.

一方、コンテンツ上映実行制御部218が、入力制限時間が未だ「0」になっていないと判定した場合には、タッチ検出処理部211は、操作者によって操作指示された操作コマンドの検出の有無を判定し(ステップS106)、操作コマンドが非検出であると判定した場合には、ステップS104の処理に戻る。 On the other hand, when the content screening execution control unit 218 determines that the input time limit has not yet reached "0", the touch detection processing unit 211 determines whether or not the operation command instructed by the operator is detected. If the determination is made (step S106) and it is determined that the operation command is not detected, the process returns to the process of step S104.

また、タッチ検出処理部211は、操作者によって操作指示された操作コマンドが検出されたと判定した場合には、検出した操作コマンドを受け付ける(ステップS107)。 Further, when the touch detection processing unit 211 determines that the operation command instructed by the operator has been detected, the touch detection processing unit 211 accepts the detected operation command (step S107).

次いで、コンテンツ上映実行制御部218は、受け付けた操作コマンドに基づいて対象の演技キャラクタの動作制御を開始して(ステップS108)本動作を終了させる。 Next, the content screening execution control unit 218 starts the operation control of the target acting character based on the received operation command (step S108), and ends this operation.

(第2操作コマンド候補提示処理の場合)
本動作においては、所定のコンテンツのアルゴリズムによってオブジェクト空間に配置された演技キャラクタの動作が実行されているものとし、各観客の観覧情報をサーバ装置
11から取得してコンテンツデータ記憶部274に既に記憶されているものとする。
(In the case of the second operation command candidate presentation process)
In this operation, it is assumed that the operation of the acting character arranged in the object space is executed by the algorithm of the predetermined content, and the viewing information of each spectator is acquired from the server device 11 and already stored in the content data storage unit 274. It is assumed that it has been done.

また、本動作においては、アルゴリズムに従ってオブジェクト空間に設定された仮想カメラが制御され、当該仮想カメラを視点とした前記オブジェクト空間内における演技キャラクタの画像を順次生成して大型表示装置12表示されているものとする。 Further, in this operation, the virtual camera set in the object space is controlled according to the algorithm, and images of the acting characters in the object space with the virtual camera as the viewpoint are sequentially generated and displayed on the large display device 12. It shall be.

まず、コンテンツ上映実行制御部218は、アルゴリズムに基づいて操作コマンドの受け付けタイミングであることを検出すると(ステップS201)、観客情報検出部250は、イベント会場に来場している観客の観客情報を検出する(ステップS202)。 First, when the content screening execution control unit 218 detects that it is the reception timing of the operation command based on the algorithm (step S201), the spectator information detection unit 250 detects the spectator information of the spectators who are visiting the event venue. (Step S202).

このとき、コンテンツ上映実行制御部218は、演技キャラクタを制御して観客に対して所定のセリフの出力などの所定の動作制御を実行し、当該動作制御に基づく観客の観客情報を検出してもよい。 At this time, even if the content screening execution control unit 218 controls the acting character to execute predetermined motion control such as output of a predetermined dialogue to the spectator and detects the spectator information of the spectator based on the motion control. good.

また、このとき、コンテンツ上映実行制御部218は、タイマ部240に、操作コマンドに基づく演技キャラクタの動作開始までの残り時間(入力制限時間)の計測を開始させる。 At this time, the content screening execution control unit 218 causes the timer unit 240 to start measuring the remaining time (input time limit) until the operation of the acting character starts based on the operation command.

次いで、操作コマンド候補提示処理部214は、検出した観客情報に基づいて、現在の観客の状態を解析する(ステップS203)。 Next, the operation command candidate presentation processing unit 214 analyzes the current state of the spectator based on the detected spectator information (step S203).

次いで、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、アルゴリズムによって予め定められた複数の操作コマンド中から、当該検出した観客情報に応じて操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する(ステップS204)。 Next, the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213, and from among a plurality of operation commands predetermined by the algorithm, the operation command is set as the operation command candidate according to the detected spectator information. It is displayed on the monitor display unit 290 and presented to the operator (step S204).

このとき、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、当該タイミングによって受け付けた操作コマンドに基づいて演技キャラクタの動作制御が開始される動作開始時刻までの残り時間(入力制限時間)を操作コマンド候補及び観客情報とともにモニタ表示部290に表示する。 At this time, the operation command candidate presentation processing unit 214 interlocks with the monitor display control unit 213, and the remaining time (input limit) until the operation start time when the operation control of the acting character is started based on the operation command received at the timing. Time) is displayed on the monitor display unit 290 together with the operation command candidates and the audience information.

次いで、コンテンツ上映実行制御部218は、入力制限時間が「0」になったか否かを判定し(ステップS205)、当該入力制限時間が「0」になったと判定した場合には、対象となる演技キャラクタに対して、アルゴリズムによって予め規定されている動作制御の実行を開始させて(ステップS206)本動作を終了させる。 Next, the content screening execution control unit 218 determines whether or not the input time limit has reached "0" (step S205), and if it determines that the input time limit has reached "0", it becomes a target. The acting character is started to execute the motion control defined in advance by the algorithm (step S206), and this motion is terminated.

一方、コンテンツ上映実行制御部218が、入力制限時間が未だ「0」になっていないと判定した場合には、タッチ検出処理部211は、操作者によって操作指示された操作コマンドの検出の有無を判定し(ステップS207)、操作コマンドが非検出であると判定した場合には、ステップS205の処理に戻る。 On the other hand, when the content screening execution control unit 218 determines that the input time limit has not yet reached "0", the touch detection processing unit 211 determines whether or not the operation command instructed by the operator is detected. If the determination is made (step S207) and it is determined that the operation command is not detected, the process returns to the process of step S205.

また、タッチ検出処理部211は、操作者によって操作指示された操作コマンドが検出されたと判定した場合には、検出した操作コマンドを受け付ける(ステップS208)。 Further, when the touch detection processing unit 211 determines that the operation command instructed by the operator has been detected, the touch detection processing unit 211 accepts the detected operation command (step S208).

次いで、コンテンツ上映実行制御部218は、受け付けた操作コマンドに基づいて対象の演技キャラクタの動作制御を開始して(ステップS209)本動作を終了させる。 Next, the content screening execution control unit 218 starts the operation control of the target acting character based on the received operation command (step S209), and ends this operation.

[6]その他
本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書
又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
[6] Others The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, a term cited as a broad or synonymous term in a description in a specification or drawing can be replaced with a broad or synonymous term in another description in the specification or drawing.

本実施形態は、一のコンテンツ上映システム10に各種の処理が実行されているが、複数の装置を連動させて上記のコンテンツ上映システム10を構成してもよい。 In the present embodiment, various processes are executed in one content screening system 10, but the above-mentioned content screening system 10 may be configured by interlocking a plurality of devices.

また、本実施形態においては、コンテンツ上映システム10のシステム制御装置20によって各種のコンテンツに関する処理が実行されているが、上記にサーバ装置11のサーバ処理部100の各機能及びコンテンツプログラムを実行させて実現してもよい。また、サーバ装置11と連動せずに、コンテンツ上映システム10単独で各処理を実行してもよい。 Further, in the present embodiment, processing related to various contents is executed by the system control device 20 of the content screening system 10, but each function and the content program of the server processing unit 100 of the server device 11 are executed above. It may be realized. Further, each process may be executed independently of the content screening system 10 without interlocking with the server device 11.

本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。 The present invention includes a configuration substantially the same as the configuration described in the embodiment (for example, a configuration having the same function, method and result, or a configuration having the same purpose and effect). The present invention also includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. The present invention also includes a configuration that exhibits the same effects as the configuration described in the embodiment or a configuration that can achieve the same object. Further, the present invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

上記のように、本発明の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。 As described above, the embodiments of the present invention have been described in detail, but those skilled in the art will easily understand that many modifications that do not substantially deviate from the novel matters and effects of the present invention are possible. .. Therefore, all such modifications are included in the scope of the present invention.

10 :コンテンツ上映システム
11 :サーバ装置
12 :大型表示装置
20 :システム制御装置
100 :サーバ処理部
101 :通信制御部
102 :コンテンツ管理部
103 :観客管理部
120 :入力部
130 :表示部
140 :記憶部
142 :主記憶部
144 :コンテンツデータ
146 :観客情報
148 :コンテンツ収集データ
180 :情報記憶媒体
196 :通信部
200 :処理部
210 :オブジェクト空間設定部
211 :タッチ検出処理部
212 :コンテンツ表示制御部
213 :モニタ表示制御部
214 :操作コマンド候補提示処理部
215 :移動処理部
216 :仮想カメラ制御部
217 :コンテンツ編集処理部
218 :コンテンツ上映実行制御部
219 :コンテンツ管理部
220 :描画部
230 :音処理部
240 :タイマ部
250 :観客情報検出部
260 :入力部
262 :検出部
270 :記憶部
271 :主記憶部
272 :画像バッファ
273 :観客情報
274 :コンテンツデータ記憶部
280 :情報記憶媒体
290 :モニタ表示部
292 :音出力部
296 :通信部
10: Content screening system 11: Server device 12: Large display device 20: System control device 100: Server processing unit 101: Communication control unit 102: Content management unit 103: Audience management unit 120: Input unit 130: Display unit 140: Storage Unit 142: Main storage unit 144: Content data 146: Audience information 148: Content collection data 180: Information storage medium 196: Communication unit 200: Processing unit 210: Object space setting unit 211: Touch detection processing unit 212: Content display control unit 213: Monitor display control unit 214: Operation command candidate presentation processing unit 215: Movement processing unit 216: Virtual camera control unit 217: Content editing processing unit 218: Content screening execution control unit 219: Content management unit 220: Drawing unit 230: Sound Processing unit 240: Timer unit 250: Audience information detection unit 260: Input unit 262: Detection unit 270: Storage unit 271: Main storage unit 272: Image buffer 273: Audience information 274: Content data storage unit 280: Information storage medium 290: Monitor display unit 292: Sound output unit 296: Communication unit

Claims (14)

観客用表示装置によって観客の観覧対象となる対象キャラクタが表示される際に、当該対象キャラクタの表示を制御する観客用表示制御手段と、
前記観客に関する情報である観客情報を取得する観客情報取得手段と、
操作者によって視認されるモニタ表示装置に、前記対象キャラクタの動作を制御するための操作コマンド候補を提示する提示手段と、
前記提示手段によって提示された前記操作コマンド候補の中から、前記操作者による操作コマンドの選択を受け付ける受付手段と、
前記受付手段によって受け付けられた操作コマンドに基づいて、前記対象キャラクタの動作を制御する動作制御手段と、
を備え、
前記提示手段が、
前記観客情報取得手段によって取得された前記観客情報に基づいた前記操作コマンド候補を提示することを特徴とする操作制御システム。
When the target character to be viewed by the spectator is displayed by the spectator display device, the spectator display control means for controlling the display of the target character and the spectator display control means.
Audience information acquisition means for acquiring spectator information, which is information about the spectator, and
A presentation means for presenting operation command candidates for controlling the operation of the target character to a monitor display device visually recognized by the operator, and
A reception means that accepts the selection of an operation command by the operator from the operation command candidates presented by the presentation means, and a reception means that accepts the selection of the operation command by the operator.
An operation control means that controls the operation of the target character based on an operation command received by the reception means, and an operation control means.
With
The presentation means
An operation control system characterized by presenting the operation command candidate based on the spectator information acquired by the spectator information acquisition means.
請求項1に記載の操作制御システムにおいて、
前記モニタ表示装置に前記対象キャラクタを表示させるモニタ表示制御手段を更に備え、
前記提示手段が、
前記対象キャラクタとともに前記操作コマンド候補を提示する、操作制御システム。
In the operation control system according to claim 1,
The monitor display device is further provided with a monitor display control means for displaying the target character.
The presentation means
An operation control system that presents the operation command candidate together with the target character.
請求項1又は2に記載の操作制御システムにおいて、
前記提示手段が、
前記操作コマンド候補とともに、前記観客情報を提示する、操作制御システム。
In the operation control system according to claim 1 or 2.
The presentation means
An operation control system that presents the audience information together with the operation command candidates.
請求項3に記載の操作制御システムにおいて、
前記観客毎の個人情報を記憶する記憶手段を更に備え、
前記提示手段が、
前記記憶手段に記憶された複数の前記観客の個人情報に応じた前記観客情報を提示
する、操作制御システム。
In the operation control system according to claim 3,
Further provided with a storage means for storing personal information for each spectator,
The presentation means
An operation control system that presents the spectator information according to the personal information of the plurality of spectators stored in the storage means.
請求項1〜4のいずれか1項に記載の操作制御システムにおいて、
前記対象キャラクタの動作制御が実行された際に受け付けられた操作コマンドの情報を使用履歴情報として記憶手段に登録して蓄積する登録手段をさらに備え、
前記提示手段が、
前記観客情報及び前記使用履歴情報に応じた前記操作コマンド候補を提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 4.
Further provided with a registration means for registering and accumulating the information of the operation command received when the operation control of the target character is executed in the storage means as usage history information.
The presentation means
An operation control system that presents the operation command candidates according to the audience information and the usage history information.
請求項5に記載の操作制御システムにおいて、
前記使用履歴情報には、操作コマンドと当該操作コマンドを受け付けた際に利用した観客情報を含み、
前記提示手段が、
前記使用履歴情報に基づく所与の解析結果と、前記観客情報とに応じた前記操作コマンド候補を提示する、操作制御システム。
In the operation control system according to claim 5,
The usage history information includes an operation command and spectator information used when the operation command is received.
The presentation means
An operation control system that presents a given analysis result based on the usage history information and the operation command candidate according to the audience information.
請求項1〜6のいずれか1項に記載の操作制御システムにおいて、
前記観客情報取得手段が、
各前記観客の状態を前記観客情報として取得し、
前記提示手段が、
前記観客の状態を含む前記観客情報に応じた前記操作コマンド候補を提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 6,
The audience information acquisition means
The state of each of the spectators is acquired as the spectator information, and
The presentation means
An operation control system that presents the operation command candidates according to the spectator information including the state of the spectator.
請求項1〜7のいずれか1項に記載の操作制御システムにおいて、
前記受付手段が、
前記操作コマンドとともに、前記対象キャラクタの動作を享受する特定の観客を指定する観客指定指示を受け付け、
前記動作制御手段が、
前記観客指定指示によって特定される観客に向けて前記対象キャラクタの動作を制御する、操作制御システム。
In the operation control system according to any one of claims 1 to 7.
The reception means
Along with the operation command, a spectator designation instruction for designating a specific spectator who enjoys the movement of the target character is received.
The motion control means
An operation control system that controls the movement of the target character toward a spectator specified by the spectator designation instruction.
請求項1〜8のいずれか1項に記載の操作制御システムにおいて、
前記提示手段が、
前記対象キャラクタの動作状況に応じて定まる操作コマンドを前記操作コマンド候補に含めて提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 8.
The presentation means
An operation control system that includes an operation command determined according to the operation status of the target character in the operation command candidates and presents the operation command.
請求項1〜9のいずれか1項に記載の操作制御システムにおいて、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間、当該画像生成中に受け付けられた操作コマンドの受付回数、又は、当該画像生成中に受け付けられた前記操作コマンドの種別の組み合わせに応じて前記提示する操作コマンドの種別を変更する、操作制御システム。
In the operation control system according to any one of claims 1 to 9.
The presentation means
The presentation is made according to the elapsed time from the start timing of image generation in the target character, the number of times the operation command is received during the image generation, or the combination of the types of the operation command received during the image generation. An operation control system that changes the type of operation command to be performed.
請求項1〜9のいずれか1項に記載の操作制御システムにおいて、
所与のアルゴリズムに従いつつ、前記対象キャラクタの動作を画像化している場合に、
各操作コマンドには、前記対象キャラクタにおける画像生成の開始タイミングから当該操作コマンドの受け付けが許容される時刻を示す受付完了許容時刻又は複数の所与の区間が定められて当該画像生成が実行されている場合において当該操作コマンドの受け付けが許容される区間を示す区間情報と、前記各操作コマンドに基づいて前記対象キャラクタの
動作制御が実行される実行時間と、が規定されており、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間又は前記操作コマンドを提示するタイミングが属する区間と、前記各操作コマンドの実行時間と、に応じて、前記提示する操作コマンドの種別を決定し、又は、前記対象キャラクタの動作制御の内容を変更した操作コマンドを提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 9.
When the movement of the target character is imaged while following a given algorithm,
For each operation command, the reception completion allowable time indicating the time when the reception of the operation command is permitted from the start timing of the image generation in the target character or a plurality of given sections is defined, and the image generation is executed. The section information indicating the section in which the operation command is allowed to be accepted and the execution time during which the operation control of the target character is executed based on each operation command are defined.
The presentation means
The type of the operation command to be presented is determined according to the elapsed time from the start timing of image generation in the target character, the section to which the timing for presenting the operation command belongs, and the execution time of each operation command. Alternatively, an operation control system that presents an operation command in which the content of the operation control of the target character is changed.
請求項1〜11のいずれか1項に記載の操作制御システムにおいて、
前記動作制御手段が、
前記対象キャラクタにおける画像生成中に操作コマンドが受け付けられた場合に、予め定められたタイミングから当該受け付けられた操作コマンドに基づく前記対象キャラクタの動作制御を開始する、操作制御システム。
In the operation control system according to any one of claims 1 to 11.
The motion control means
An operation control system that starts operation control of the target character based on the received operation command from a predetermined timing when an operation command is received during image generation of the target character.
観客用表示装置によって観客の観覧対象となる対象キャラクタが表示される際に、当該対象キャラクタの表示を制御する観客用表示制御手段、
前記観客に関する情報である観客情報を取得する観客情報取得手段と、
操作者によって視認されるモニタ表示装置に、前記対象キャラクタの動作を制御するための操作コマンド候補を提示する提示手段、
前記提示手段によって提示された操作コマンド候補の中から、前記操作者による操作コマンドの選択を受け付ける受付手段、及び、
前記受付手段によって受け付けられた操作コマンドに基づいて、前記対象キャラクタの動作を制御する動作制御手段、
としてコンピュータを機能させ、
前記提示手段が、
前記観客情報取得手段によって取得された前記観客情報に基づいた前記操作コマンド候補を提示することを特徴とするプログラム。
A spectator display control means that controls the display of the target character when the target character to be viewed by the spectator is displayed by the spectator display device.
Audience information acquisition means for acquiring spectator information, which is information about the spectator, and
A presentation means for presenting operation command candidates for controlling the operation of the target character to a monitor display device visually recognized by the operator.
A reception means that accepts the selection of an operation command by the operator from the operation command candidates presented by the presentation means, and a reception means that accepts the selection of the operation command by the operator.
An operation control means that controls the operation of the target character based on an operation command received by the reception means.
Make your computer work as
The presentation means
A program characterized by presenting the operation command candidate based on the spectator information acquired by the spectator information acquisition means.
観客の観覧対象となる対象キャラクタを表示する際に用いる観客用表示装置と、
前記対象キャラクタの動作を操作制御する操作制御システムと、
を備え、
前記操作制御システムが、
前記対象キャラクタの表示を制御する観客用表示制御手段と、
前記観客に関する情報である観客情報を取得する観客情報取得手段と、
操作者によって視認されるモニタ表示装置に、前記対象キャラクタの動作を制御するための操作コマンド候補を提示する提示手段と、
前記提示手段によって提示された操作コマンド候補の中から、前記操作者による操作コマンドの選択を受け付ける受付手段と、
前記受付手段によって受け付けられた操作コマンドに基づいて、前記対象キャラクタの動作を制御する動作制御手段と、
を備え、
前記提示手段が、
前記観客情報取得手段によって取得された前記観客情報に基づいた前記操作コマンド候補を提示することを特徴とするキャラクタ上映システム。
A spectator display device used to display the target character to be viewed by the spectator,
An operation control system that controls the operation of the target character,
With
The operation control system
Audience display control means for controlling the display of the target character, and
Audience information acquisition means for acquiring spectator information, which is information about the spectator, and
A presentation means for presenting operation command candidates for controlling the operation of the target character to a monitor display device visually recognized by the operator, and
A reception means that accepts the selection of an operation command by the operator from the operation command candidates presented by the presentation means, and a reception means that accepts the selection of the operation command by the operator.
An operation control means that controls the operation of the target character based on an operation command received by the reception means, and an operation control means.
With
The presentation means
A character screening system characterized by presenting the operation command candidate based on the spectator information acquired by the spectator information acquisition means.
JP2017058271A 2017-03-23 2017-03-23 Operation control system, character screening system and program Active JP6945312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017058271A JP6945312B2 (en) 2017-03-23 2017-03-23 Operation control system, character screening system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058271A JP6945312B2 (en) 2017-03-23 2017-03-23 Operation control system, character screening system and program

Publications (3)

Publication Number Publication Date
JP2018158046A JP2018158046A (en) 2018-10-11
JP2018158046A5 JP2018158046A5 (en) 2020-05-07
JP6945312B2 true JP6945312B2 (en) 2021-10-06

Family

ID=63796041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058271A Active JP6945312B2 (en) 2017-03-23 2017-03-23 Operation control system, character screening system and program

Country Status (1)

Country Link
JP (1) JP6945312B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7188831B2 (en) * 2019-03-13 2022-12-13 バルス株式会社 Live distribution system and live distribution method
EP3941080A4 (en) * 2019-03-13 2023-02-15 Balus Co., Ltd. Live streaming system and live streaming method
US11446567B2 (en) 2019-06-11 2022-09-20 Universal City Studios Llc Digital character interacting with customer in physical realm
JP6740431B1 (en) * 2019-08-02 2020-08-12 株式会社ポケモン Production control system, method, program
JP7303780B2 (en) 2019-08-02 2023-07-05 株式会社ポケモン Production control system, method and program
JP7125133B2 (en) * 2019-08-27 2022-08-24 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which it is applied, computer program used therefor, and control method
JP7229146B2 (en) * 2019-11-13 2023-02-27 グリー株式会社 Information processing device, information processing method and information processing program
JP7329470B2 (en) * 2020-03-10 2023-08-18 株式会社ポケモン Information processing device, method, program
JP7645737B2 (en) 2021-07-26 2025-03-14 株式会社ポケモン GAME PROGRAM, INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6386985B1 (en) * 1999-07-26 2002-05-14 Guy Jonathan James Rackham Virtual Staging apparatus and method
JP4432246B2 (en) * 2000-09-29 2010-03-17 ソニー株式会社 Audience status determination device, playback output control system, audience status determination method, playback output control method, recording medium
JP4068915B2 (en) * 2002-07-31 2008-03-26 株式会社日立国際電気 Video data editing apparatus and editing method
GB2404315A (en) * 2003-07-22 2005-01-26 Kelseus Ltd Controlling a virtual environment

Also Published As

Publication number Publication date
JP2018158046A (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP6945312B2 (en) Operation control system, character screening system and program
JP6945375B2 (en) Image generator and program
JP6955861B2 (en) Event control system and program
JP7238028B2 (en) Game system, game providing method and program
US10341642B2 (en) Display device, control method, and control program for stereoscopically displaying objects
CN108686374B (en) game system
JP2010532890A (en) Avatar customization apparatus and method
JP7170074B2 (en) VIRTUAL STORE MANAGEMENT PROGRAM, VIRTUAL STORE MANAGEMENT SYSTEM AND VIRTUAL STORE MANAGEMENT METHOD
CN112513782A (en) Display control system, display control method, and display control program
JP5940772B2 (en) Game system and program
CN113613742A (en) System and method for providing a computer-generated environment
JP2018075260A (en) Game system and program
JP7001796B1 (en) Information processing program, information processing method and information processing system
JP6623008B2 (en) GAME DEVICE AND PROGRAM
US20240007700A1 (en) Program, information processing method, and information processing device
JP2022122109A (en) Computer system, content viewing system and program
JP6450485B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP2023143963A (en) Program, information processing method, and information processing device
JP2021190914A (en) Information processing program, information processing method, and information processing device
JP6568246B2 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7092930B1 (en) Program, information processing method, server and server information processing method
JP6787968B2 (en) Game programs, methods, and information processing equipment
JP7153751B2 (en) Information processing system, information processing method and program
CN116778114B (en) Method for operating component, electronic device, storage medium and program product
JP2016000170A (en) PROGRAM, GAME DEVICE, AND GAME SYSTEM

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210914

R150 Certificate of patent or registration of utility model

Ref document number: 6945312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250