JP7497830B2 - Video distribution system and video distribution method - Google Patents
Video distribution system and video distribution method Download PDFInfo
- Publication number
- JP7497830B2 JP7497830B2 JP2023062616A JP2023062616A JP7497830B2 JP 7497830 B2 JP7497830 B2 JP 7497830B2 JP 2023062616 A JP2023062616 A JP 2023062616A JP 2023062616 A JP2023062616 A JP 2023062616A JP 7497830 B2 JP7497830 B2 JP 7497830B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- specific object
- viewing
- display mode
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Description
本発明は、動画配信システム及び動画配信方法に関する。 The present invention relates to a video distribution system and a video distribution method.
従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている(例えば、特許文献1参照)。 There is a known video distribution system that generates animation of a character object based on the movement of an actor and distributes a video including the animation of the character object (see, for example, Patent Document 1).
この種の動画配信システムにおいて、複数の視聴ユーザに配信される動画に、視聴ユーザの操作によって任意のオブジェクトを表示させるものが提案されている。視聴ユーザにより動画に表示させるオブジェクトは、例えば、キャラクタオブジェクトへのギフトオブジェクト等である。 In this type of video distribution system, a system has been proposed in which an arbitrary object is displayed in a video distributed to multiple viewing users through the operation of the viewing user. An object that is displayed in a video by a viewing user is, for example, a gift object for a character object.
配信者にとって、動画の視聴ユーザの数、視聴回数、又は視聴時間を増やすことは課題の一つである。視聴ユーザの数等を増やすためには、視聴ユーザが動画に積極的に参加できるような仕組みも有効である。しかし、アクターがとりうる施策だけでは、視聴ユーザがコンテンツに参加できる機会を増やすことが難しいのが実情である。 One of the challenges for distributors is to increase the number of viewers of a video, the number of views, or the viewing time. In order to increase the number of viewers, etc., it is also effective to have a system that allows viewers to actively participate in the video. However, the reality is that it is difficult to increase the opportunities for viewers to participate in content using only measures that actors can take.
本発明は、上記実情に鑑みてなされたものであり、視聴ユーザがコンテンツに参加できる仕組みを提供することを目的とする。 The present invention was made in consideration of the above-mentioned circumstances, and aims to provide a mechanism that allows viewing users to participate in content.
上記課題を解決する動画配信システムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を複数回に亘ってコンテンツとして配信する動画配信システムであって、動画を配信する1乃至複数のコンピュータが、キャラクタオブジェクトと、表示態様の変化をコンテンツ内で複数回行う特定オブジェクトとを含む動画を表示するためのデータを生成し、生成したデータを、視聴ユーザが用いる装置であって動画の視聴が可能なアプリケーションを実装した視聴ユーザ装置に送信し、動画を配信する配信ユーザのコンテンツ毎に、特定オブジェクトが配置された配信回からの合計配信回数を記録し、合計配信回数が所定回数に達したときに特定オブジェクトの表示態様を変化させる。 The video distribution system that solves the above problem is a video distribution system that distributes videos including animations of character objects generated based on the movements of actors as content multiple times, in which one or more computers that distribute the videos generate data for displaying videos including character objects and specific objects that change their display mode multiple times within the content, transmit the generated data to a viewing user device that is used by a viewing user and has an application that allows viewing of videos implemented, and records the total number of distributions from the distribution time in which the specific object was placed for each content of the distribution user that distributes the videos, and changes the display mode of the specific object when the total number of distributions reaches a predetermined number.
上記課題を解決する動画配信方法は、視聴ユーザが用いる装置であって動画の視聴が可能なアプリケーションを実装した視聴ユーザ装置と接続するコンピュータを用いて、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を複数回に亘ってコンテンツとして配信する動画配信方法であって、前記コンピュータが、前記キャラクタオブジェクトと、表示態様の変化を前記コンテンツ内で複数回行う特定オブジェクトとを含む動画を表示するためのデータを生成する処理と、生成した前記データを前記視聴ユーザ装置に送信する処理と、動画を配信する配信ユーザの前記コンテンツ毎に、前記特定オブジェクトが配置された配信回からの合計配信回数を記録する処理と、前記合計配信回数が所定回数に達したときに前記特定オブジェクトの表示態様を変化させる処理と、を実行する。 The video distribution method that solves the above problem is a video distribution method that distributes a video including animation of a character object generated based on the movement of an actor as content multiple times using a computer connected to a viewing user device that is a device used by a viewing user and that has an application that allows viewing of videos implemented, and the computer executes the following processes: generating data for displaying a video including the character object and a specific object that changes its display mode multiple times within the content; transmitting the generated data to the viewing user device; recording the total number of distributions from the distribution time in which the specific object was placed for each of the contents of the distribution user who distributes the video; and changing the display mode of the specific object when the total number of distributions reaches a predetermined number.
上記課題を解決する動画配信システムは、前記コンピュータは、さらに、前記動画を視聴した視聴ユーザ数が所定数に達した場合に前記特定オブジェクトの表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータは、さらに、各配信回での視聴ユーザを累積した数を視聴ユーザ数として取得し、当該視聴ユーザ数が所定数に達したか否かを判定し、当該視聴ユーザ数が所定数に達した場合に前記特定オブジェクトの表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータは、さらに、前記動画を同時に視聴した視聴ユーザを合計した数を視聴ユーザ数として取得し、当該視聴ユーザ数が所定数に達したか否かを判定し、当該視聴ユーザ数が所定数に達した場合に前記特定オブジェクトの表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータは、さらに、各配信回での視聴ユーザの視聴時間を累積した時間を総視聴時間として取得し、当該総視聴時間が所定時間に達したか否かを判定し、当該総視聴時間が所定時間に達した場合に前記特定オブジェクトの表示態様を変化させることが好ましい。
In the video distribution system for solving the above problem, it is preferable that the computer further changes the display mode of the specific object when the number of viewing users who have viewed the video reaches a predetermined number.
In the video distribution system that solves the above problem, it is preferable that the computer further obtains the cumulative number of viewing users for each distribution as the number of viewing users, determines whether or not the number of viewing users has reached a predetermined number, and changes the display mode of the specific object when the number of viewing users has reached the predetermined number.
In the video distribution system that solves the above problem, it is preferable that the computer further obtains the total number of viewing users who simultaneously watched the video as the number of viewing users, determines whether the number of viewing users has reached a predetermined number, and changes the display mode of the specific object when the number of viewing users has reached the predetermined number.
In the video distribution system that solves the above problem, it is preferable that the computer further obtains a total viewing time obtained by accumulating the viewing time of the viewing users for each distribution session, determines whether the total viewing time has reached a predetermined time, and changes the display mode of the specific object when the total viewing time has reached the predetermined time.
上記課題を解決する動画配信システムは、前記コンピュータは、さらに、前記動画を自身のカテゴリに登録した前記視聴ユーザの数が所定数に到達した場合に前記特定オブジェクトの表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記視聴ユーザ装置は、前記動画に対するメッセージを送信し、前記コンピュータが、前記視聴ユーザ装置から受信した前記メッセージの数が所定数に到達した場合に前記特定オブジェクトの表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記視聴ユーザ装置は、当該視聴ユーザ装置の入力部への前記視聴ユーザの入力に基づき、前記コンピュータにギフトオブジェクトの表示要求を送信し、前記コンピュータが、前記ギフトオブジェクトに応じて前記特定オブジェクトの表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータが、互いに異なる前記ギフトオブジェクトについて、前記表示要求が行われた回数をそれぞれ取得し、前記特定オブジェクトを、表示回数が行われた回数が多い前記ギフトオブジェクトに応じた表示態様とすることが好ましい。
上記課題を解決する動画配信システムは、前記特定オブジェクトは、初期形態から最終形態まで不可逆的に表示態様を複数回変化させるオブジェクトであることが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータが、前記特定オブジェクトが前記最終形態まで到達した場合に、当該特定オブジェクトの表示態様を、成果物を含むものとすることが好ましい。
In the video distribution system that solves the above problem, it is preferable that the computer further changes the display mode of the specific object when the number of viewing users who have registered the video in their own category reaches a predetermined number.
In a video distribution system that solves the above problem, it is preferable that the viewing user device sends a message regarding the video, and the computer changes the display mode of the specific object when the number of messages received from the viewing user device reaches a predetermined number.
In a video distribution system that solves the above problem, it is preferable that the viewing user device sends a display request for a gift object to the computer based on input by the viewing user to an input unit of the viewing user device, and the computer changes the display mode of the specific object in accordance with the gift object.
In a video distribution system that solves the above problem, it is preferable that the computer obtains the number of times the display requests have been made for each of the different gift objects, and displays the specific object in a manner corresponding to the gift object that has been displayed the most times.
In the video distribution system for solving the above problem, it is preferable that the specific object is an object whose display form is irreversibly changed multiple times from an initial form to a final form.
In the video distribution system for solving the above problem, it is preferable that, when the specific object reaches the final form, the computer displays the specific object in a manner that includes a result.
上記課題を解決する動画配信システムは、前記コンピュータが、前記特定オブジェクトが前記最終形態に到達した場合に、当該特定オブジェクトに関連付けられた前記初期形態の新たな特定オブジェクトを含む動画を表示するためのデータを生成することが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータが、複数の前記特定オブジェクトに基づいて、前記特定オブジェクトの合成オブジェクトを含む動画を表示するためのデータを生成することが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータが、前記動画を配信する配信ユーザに向けた動画配信のアドバイスを表示する特定オブジェクトを含む動画を表示するためのデータを生成することが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータが、前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、当該変化条件が満たされたときの日時情報に応じて表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記コンピュータが、前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、外的環境に関する情報を取得し、前記取得した外的環境に関する情報に応じて表示態様を変化させることが好ましい。
上記課題を解決する動画配信システムは、前記視聴ユーザ装置が、前記動画へのギフトオブジェクトとして前記特定オブジェクトの表示要求を前記コンピュータに送信し、
前記コンピュータが、前記特定オブジェクトの表示要求に応じて当該特定オブジェクトを含む動画を表示するためのデータを生成することが好ましい。
In a video distribution system that solves the above problem, it is preferable that the computer generates data for displaying a video including a new specific object in the initial form associated with the specific object when the specific object reaches the final form.
In the video distribution system for solving the above problem, it is preferable that the computer generates data for displaying a video including a composite object of the specific objects based on a plurality of the specific objects.
In the video distribution system that solves the above problem, it is preferable that the computer generates data for displaying a video including a specific object that displays video distribution advice for a distribution user who distributes the video.
In a video distribution system that solves the above problem, when the computer determines that a change condition for changing the display mode of the specific object is satisfied, it is preferable that the display mode is changed according to date and time information when the change condition is satisfied.
In a video distribution system that solves the above problem, when the computer determines that a change condition for changing the display mode of the specific object is satisfied, it is preferable that the computer acquires information regarding the external environment and changes the display mode in accordance with the acquired information regarding the external environment.
A video distribution system that solves the above problem includes the steps of: the viewer user device transmitting a display request to the computer for displaying the specific object as a gift object for the video;
It is preferable that the computer generates data for displaying a moving image including the specific object in response to a display request for the specific object.
本発明によれば、視聴ユーザがコンテンツに参加できる仕組みを提供することができる。 The present invention provides a mechanism that allows viewing users to participate in content.
以下、図面を参照して、本発明の実施の形態に係る動画配信システムについて説明する。
図1に示すように、動画配信システム1は、クライアント装置10と、サーバ20と、スタジオユニット30とを備える。クライアント装置10と、サーバ20と、スタジオユニット30とは、ネットワーク11を介して相互に通信可能に接続されている。ネットワーク11は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。
Hereinafter, a video distribution system according to an embodiment of the present invention will be described with reference to the drawings.
1, the video distribution system 1 includes a client device 10, a server 20, and a studio unit 30. The client device 10, the server 20, and the studio unit 30 are connected to each other so as to be able to communicate with each other via a network 11. The network 11 includes various networks such as a local area network and the Internet.
動画配信システム1では、配信者が、スタジオユニット30を利用して動画を作成する。動画には、アクターの動きに基づくキャラクタオブジェクトのアニメーションが含まれる。キャラクタオブジェクトは、仮想的な人物等の個体である。作成された動画は、サーバ20から視聴ユーザが用いるクライアント装置10に配信される。配信者は、アクター、スタジオユニット30の運営者、又はそれら以外の者であってもよい。 In the video distribution system 1, a distributor creates a video using a studio unit 30. The video includes animation of a character object based on the movement of an actor. The character object is an individual such as a virtual person. The created video is distributed from the server 20 to a client device 10 used by a viewing user. The distributor may be an actor, an operator of the studio unit 30, or someone other than these.
図2に従って、スタジオユニット30の概要について説明する。スタジオユニット30は、トラッキングシステム31、コントローラ40、メインディスプレイ41、サブディスプレイ43(表示装置)、マイク44(図3参照)、サポーターコンピュータ45を含む。 The studio unit 30 will be outlined with reference to FIG. 2. The studio unit 30 includes a tracking system 31, a controller 40, a main display 41, a sub-display 43 (display device), a microphone 44 (see FIG. 3), and a supporter computer 45.
トラッキングシステム31は、アクターAの動きに関する情報を取得する。アクターAは、例えば、パフォーマンスを行う人間、動物、または運動する物体である。アクターAは、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、複数であってもよい。 The tracking system 31 acquires information about the movement of actor A. Actor A is, for example, a performing human, an animal, or a moving object. Actor A may be, for example, a robot capable of independent movement. The number of actors in the studio room R may be multiple.
トラッキングシステム31は、アクターAの向き及び位置の少なくとも一方を検出する。また、トラッキングシステム31は、アクターAの表情、及び仮想空間に設定された仮想カメラの位置等を検出し得る。例えば、トラッキングシステム31は、外部センサ32、装着センサ33及び位置特定装置35を含む。これらは、外部のセンサを利用して装着センサ33をトラッキングする方式で、アクターAが装着する装着センサ33の向き及び位置の少なくとも一つを検出する。 The tracking system 31 detects at least one of the orientation and position of actor A. The tracking system 31 can also detect actor A's facial expression, the position of a virtual camera set in a virtual space, and the like. For example, the tracking system 31 includes an external sensor 32, a worn sensor 33, and a position identification device 35. These detect at least one of the orientation and position of the worn sensor 33 worn by actor A by using an external sensor to track the worn sensor 33.
装着センサ33は、アクターAに装着される。アクターAに装着される装着センサ33は、複数であってもよい。例えば、装着センサ33は、アクターAの左手首、右手首、左足甲、右足甲、腰部及び頭頂に装着されている。装着センサ33は、装着具を介してアクターAに装着されてもよい。装着センサ33は、アクターAの様々な部位に装着され得る。例えば、装着センサ33は、手の指に装着し、指の動きを検出するものであってもよい。アクターAに装着される装着センサ33の個数は、5つ以下でもよいし7以上であってもよい。また、アクターAは、装着センサ33が設けられた衣服や装備等を装着するようにしてもよい。 The wearable sensor 33 is worn by actor A. There may be multiple wearable sensors 33 worn by actor A. For example, the wearable sensors 33 are worn on actor A's left wrist, right wrist, left instep, right instep, waist, and top of the head. The wearable sensor 33 may be worn by actor A via a wearing device. The wearable sensor 33 may be worn on various parts of actor A. For example, the wearable sensor 33 may be worn on the fingers of the hand to detect finger movements. The number of wearable sensors 33 worn by actor A may be five or less, or seven or more. Actor A may also wear clothing, equipment, etc. provided with wearable sensors 33.
装着センサ33は、外部センサ32と協働して、自らの向き及び位置を特定するための情報を、位置特定装置35に出力する。アウトサイドイン方式における外部センサ32の一つとして、例えば、多軸レーザエミッターがある。外部センサ32は、同期用のパルスレーザ光を出射する。装着センサ33は、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。装着センサ33は、例えば、HTC Corporation(登録商標)から提供されているVive Tracker(登録商標)及びVive BaseSta tionを用いることができる。 The worn sensor 33 cooperates with the external sensor 32 to output information for identifying the user's own orientation and position to the position identification device 35. One example of the external sensor 32 in the outside-in method is a multi-axis laser emitter. The external sensor 32 emits a pulsed laser beam for synchronization. The worn sensor 33 has a sensor that detects the laser beam, and detects the user's own position and orientation while synchronizing with the synchronization pulse. For example, the worn sensor 33 can be a Vive Tracker (registered trademark) and a Vive BaseStation provided by HTC Corporation (registered trademark).
また、上記の構成に加えて若しくは代えて、装着センサ33は、自律して位置を特定するためのセンサを内蔵していてもよい。例えば、装着センサ33は、多軸加速度センサ、ジャイロ、及び地磁気センサのうち少なくとも一つを備えていてもよい。また、装着センサ33は、静電容量式センサ、ひずみゲージセンサ等を用いてもよい、さらに、装着センサ33は、外部センサ32と協働するものと、外部センサ32と協働しないものの両方を用いてもよい。また、装着センサ33は、単体でその向き及び位置の少なくとも一つを検出できるものであってもよい。 In addition to or instead of the above configuration, the wearing sensor 33 may have a built-in sensor for autonomously identifying its position. For example, the wearing sensor 33 may have at least one of a multi-axis acceleration sensor, a gyro, and a geomagnetic sensor. The wearing sensor 33 may also use a capacitance sensor, a strain gauge sensor, etc., and further, the wearing sensor 33 may use both a sensor that cooperates with the external sensor 32 and a sensor that does not cooperate with the external sensor 32. The wearing sensor 33 may also be capable of detecting at least one of its orientation and position by itself.
また、トラッキングシステム31は、視点位置センサ36及びカメラ37を含む。視点位置センサ36は、ユーザによりその位置を変更可能に構成されている。視点位置センサ36は、装着センサ33と同様の構成である。視点位置センサ36は、無線通信又は通信ケーブルを介して、位置特定装置35に自らの向き及び位置を特定するための情報を出力する。視点位置センサ36は、仮想空間内の仮想カメラの視点として設定される。視点位置センサ36は、例えば、視点位置センサ36は、スタンドに支持されてもよいし、ジンバル又はスタビライザーで支持されてもよい。ジンバルは、アクター又はその他の人物によって把持可能な形状に構成されてもよい。視点位置センサ36をジンバルまたはスタビライザーで支持することにより、手ぶれを抑制することが可能となる。 The tracking system 31 also includes a viewpoint position sensor 36 and a camera 37. The viewpoint position sensor 36 is configured so that its position can be changed by the user. The viewpoint position sensor 36 has a similar configuration to the wearable sensor 33. The viewpoint position sensor 36 outputs information for identifying its own orientation and position to the position identification device 35 via wireless communication or a communication cable. The viewpoint position sensor 36 is set as the viewpoint of a virtual camera in the virtual space. The viewpoint position sensor 36 may be supported, for example, by a stand, or by a gimbal or stabilizer. The gimbal may be configured in a shape that can be held by an actor or other person. By supporting the viewpoint position sensor 36 by a gimbal or stabilizer, it is possible to suppress camera shake.
カメラ37は、アクターAの顔を撮像できるように配置されている。例えば、カメラ37は、アクターAの頭部や首等に取り付けられるか、又はアクターAの正面に配置されている。カメラ37は、アクターAの顔を連続的に撮像し、アクターAの顔の撮像データを取得し、当該撮像データをサーバ20に送信する。カメラ37は、人物の顔の奥行きを検出可能な3Dカメラであってもよい。 Camera 37 is positioned so as to capture an image of actor A's face. For example, camera 37 is attached to actor A's head, neck, etc., or is positioned in front of actor A. Camera 37 continuously captures images of actor A's face, obtains image data of actor A's face, and transmits the image data to server 20. Camera 37 may be a 3D camera capable of detecting the depth of a person's face.
マイク44は、アクターAが発する音声を集めることができる位置に配置されている。例えば、マイク44は、アクターAの頭部や首等に取り付けられるか、又はアクターAの正面に配置されている。マイク44は、音声に応じた信号をサーバ20に送信する。 The microphone 44 is placed in a position where it can collect the voice emitted by actor A. For example, the microphone 44 is attached to the head or neck of actor A, or placed in front of actor A. The microphone 44 transmits a signal corresponding to the voice to the server 20.
コントローラ40は、アクターAにより操作される。コントローラ40は、アクターAの操作に応じたコントロール信号をサーバ20に出力する。また、コントローラ40は、自律して向き及び位置の少なくとも一方を特定するためのセンサを内蔵していてもよい。例えば、コントローラ40は、多軸加速度センサ、ジャイロ、及び地磁気センサのうち少なくとも一つを備えていてもよい。また、コントローラ40は、上記の構成に加えて若しくは代えて、外部センサ32と協働して向き及び位置の少なくとも一方を検出可能に構成されていてもよい。 The controller 40 is operated by actor A. The controller 40 outputs a control signal to the server 20 in response to the operation of actor A. The controller 40 may also have a built-in sensor for autonomously identifying at least one of the orientation and the position. For example, the controller 40 may have at least one of a multi-axis acceleration sensor, a gyro, and a geomagnetic sensor. In addition to or instead of the above configuration, the controller 40 may also be configured to be able to detect at least one of the orientation and the position in cooperation with an external sensor 32.
メインディスプレイ41は、サーバ20によって生成された動画を表示するように構成される。メインディスプレイ41は、1台でもよく、図示のように複数台でもよい。メインディスプレイ41に表示される動画には、キャラクタオブジェクトのアニメーションが含まれる。 The main display 41 is configured to display video generated by the server 20. There may be one main display 41, or multiple main displays 41 as shown in the figure. The video displayed on the main display 41 includes animation of character objects.
サブディスプレイ43は、サーバ20又はサポーターコンピュータ45から受信した情報を表示するように構成される。サブディスプレイ43は、1台でもよく複数台でもよい。サーバ20又はサポーターコンピュータ45からメインディスプレイ41に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。メインディスプレイ41及びサブディスプレイ43は、アクターAによって視認可能な位置に配置される。 The sub-display 43 is configured to display information received from the server 20 or the supporter computer 45. There may be one or more sub-displays 43. Information transmitted from the server 20 or the supporter computer 45 to the main display 41 may include, for example, text information, image information, and various other types of information. The main display 41 and the sub-display 43 are positioned in positions visible to actor A.
サポーターコンピュータ45は、スタジオルームの隣にいるオペレータ(本明細書では、「サポーター」という)が用いるコンピュータである。例えばサポーターコンピュータ45が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ45を用いるサポーターは、アクターAを視認できる。図示の実施形態では、サポーターB1及びサポーターB2が部屋に在室している。サポーターコンピュータ45は、サポーターの操作に従って、サブディスプレイ43に各種情報を出力する。本明細書においては、サポーターB1とサポーターB2とを互いに区別する必要がない場合には、サポーターB1及びサポーターB2を「サポーター」と総称することがある。図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10またはそれ以外のクライアント装置に配信される動画をスクリーンに投影することができる。 The supporter computer 45 is a computer used by an operator (referred to as a "supporter" in this specification) who is next to the studio room. For example, the room in which the supporter computer 45 is installed is separated from the studio room R by a glass window, so that the supporter who uses the supporter computer 45 can see the actor A. In the illustrated embodiment, supporter B1 and supporter B2 are present in the room. The supporter computer 45 outputs various information to the sub-display 43 according to the operation of the supporter. In this specification, when there is no need to distinguish between supporter B1 and supporter B2, supporter B1 and supporter B2 may be collectively referred to as "supporter". The components and functions of the studio unit 30 shown in FIG. 2 are exemplary. The studio unit 30 applicable to the present invention may include various components not shown. For example, the studio unit 30 may include a projector. The projector can project a video to be distributed to the client device 10 or other client devices onto a screen.
図3に従って、サーバ20について説明する。サーバ20は、アクターの動作に基づくキャラクタオブジェクトのアニメーションを含む動画を、視聴ユーザに配信するように構成される。この動画に含まれるキャラクタオブジェクトは、仮想空間内でモーション制御されてもよい。サーバ20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23(記憶媒体)とを備えている。 The server 20 will be described with reference to FIG. 3. The server 20 is configured to distribute videos including animations of character objects based on the movements of actors to viewing users. The character objects included in the videos may be motion-controlled within a virtual space. The server 20 includes a computer processor 21, a communication I/F 22, and a storage 23 (storage medium).
コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや多様な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、自身が実行する処理の少なくとも一部を、ASIC、PLD、FPGA、MCU等の回路(circuitry)により実現してもよい。図3においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。 The computer processor 21 is an arithmetic device that loads an operating system or various programs that realize various functions from the storage 23 or other storage into memory and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, an MPU, a DSP, a GPU, or various other arithmetic devices, or a combination of these. The computer processor 21 may realize at least a part of the processing that it executes by using a circuit such as an ASIC, a PLD, an FPGA, or an MCU. In FIG. 3, the computer processor 21 is illustrated as a single component, but the computer processor 21 may be a collection of multiple physically separate computer processors. In this specification, a program described as being executed by the computer processor 21 or instructions included in the program may be executed by a single computer processor, or may be executed in a distributed manner by multiple computer processors. In addition, a program executed by the computer processor 21 or instructions included in the program may be executed by multiple virtual computer processors.
コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージに格納された配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、モーションデータ処理部21A、動画生成部21B、動画配信部21C、ユーザリクエスト処理部21D、オブジェクト処理部21E、ユーザ情報管理部21F、購入処理部21Gとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、スタジオユニット30に含まれるコンピュータが有しているコンピュータプロセッサにより実現されてもよい。 The computer processor 21 functions as a motion data processing unit 21A, a video generating unit 21B, a video distribution unit 21C, a user request processing unit 21D, an object processing unit 21E, a user information management unit 21F, and a purchase processing unit 21G by executing computer-readable instructions contained in a distribution program stored in the storage 23 or other storage. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the video distribution system 1. At least a part of the functions realized by the computer processor 21 may be realized by, for example, a computer processor possessed by a computer included in the studio unit 30.
モーションデータ処理部21Aは、アクターに装着された装着センサ33の各々により検出されたトラッキング情報に基づいて、ボディモーションデータを生成する。ボディモーションデータは、アクターの体の各部位における位置及び向きの少なくとも一つを、時系列的にデジタル表現したものである。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング間隔ごとに生成されてもよい。 The motion data processing unit 21A generates body motion data based on tracking information detected by each of the wearable sensors 33 worn by the actor. The body motion data is a digital representation of at least one of the position and orientation of each part of the actor's body in a time series. The body motion data is generated as time passes. For example, the body motion data may be generated at a predetermined sampling interval.
また、モーションデータ処理部21Aは、スタジオユニット30が有するカメラ37の撮影データに基づいて、アクターの顔の動きの時系列なデジタル表現であるフェイスモーションデータを生成する。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング間隔ごとに生成されてもよい。 The motion data processing unit 21A also generates face motion data, which is a time-series digital representation of the actor's facial movements, based on the shooting data from the camera 37 of the studio unit 30. The face motion data is generated as time passes. For example, the face motion data may be generated at a predetermined sampling interval.
動画生成部21Bは、モーションデータ処理部21Aによって生成されたボディモーションデータ及びフェイスモーションデータを、ストレージ23に格納されたモデルデータ23Aに含まれる所定のモデルデータに適用する。これにより、動画生成部21Bは、仮想空間内で動き、且つ表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。 The video generation unit 21B applies the body motion data and face motion data generated by the motion data processing unit 21A to predetermined model data contained in the model data 23A stored in the storage 23. As a result, the video generation unit 21B is configured to generate animation of a character object that moves in a virtual space and changes its facial expression.
さらに動画生成部21Bは、ストレージ23に格納されたオブジェクトデータ23Bを用いて仮想空間を構築し、この仮想空間の画像と、アクターAに対応するキャラクタオブジェクトのアニメーションと、を含む動画を生成する。動画生成部21Bは、視点位置センサ36の位置を、動画の視点である仮想カメラの位置とすることができる。そして、この仮想カメラの位置に対するアクターAの相対的な位置を、仮想空間内でのキャラクタオブジェクトの位置とする。したがって、アクターAが、視点位置センサ36の位置又は向きを、任意の位置又は向きに変更することにより、キャラクタオブジェクトを左側から見た動画、右側から見た動画、俯瞰した動画等、バリエーションに富んだ動画を生成することができる。また、動画生成部21Bは、仮想カメラの位置に基づき、仮想カメラの設定情報(焦点、画角等)を変更してもよい。 Furthermore, the video generation unit 21B constructs a virtual space using the object data 23B stored in the storage 23, and generates a video including an image of this virtual space and an animation of a character object corresponding to actor A. The video generation unit 21B can set the position of the viewpoint position sensor 36 to the position of the virtual camera, which is the viewpoint of the video. The position of actor A relative to the position of this virtual camera is set to the position of the character object in the virtual space. Therefore, by having actor A change the position or orientation of the viewpoint position sensor 36 to an arbitrary position or orientation, a wide variety of videos can be generated, such as a video of the character object viewed from the left side, a video of the character object viewed from the right side, a bird's-eye view, and the like. The video generation unit 21B may also change the setting information (focus, angle of view, etc.) of the virtual camera based on the position of the virtual camera.
動画配信部21Cは、配信動画のリストをクライアント装置10に送信するとともに、動画生成部21Bによって生成された動画を配信する。動画配信部21Cは、スタジオルームRで撮影された動画をリアルタイムに配信してもよいし、予め録画した動画を、配信スケジュール等に従って配信するようにしてもよい。動画配信部21Cは、同じ時間帯に、複数の動画を配信可能に構成され得る。例えば、動画配信部21Cは、「アクターA1」が演じる「キャラクタX」の配信動画と、「アクターA2」が演じる「キャラクタY」の配信動画とを、同じ配信開始時刻(例えば「20:00」)、又は配信時間帯を重複させて配信し得る。動画配信部21Cは、クライアント装置10からのリスト表示要求に応じて、配信可能な配信動画のリストを当該クライアント装置10に送信する。動画配信部21Cは、クライアント装置10から動画配信要求を受信すると、動画配信要求に基づいて、選択された動画を当該クライアント装置10に送信する。 The video distribution unit 21C transmits a list of videos to be distributed to the client device 10 and distributes the videos generated by the video generation unit 21B. The video distribution unit 21C may distribute videos taken in the studio room R in real time, or may distribute pre-recorded videos according to a distribution schedule or the like. The video distribution unit 21C may be configured to be able to distribute multiple videos in the same time period. For example, the video distribution unit 21C may distribute a video of "character X" played by "actor A1" and a video of "character Y" played by "actor A2" at the same distribution start time (e.g., "20:00") or in an overlapping distribution time period. In response to a list display request from the client device 10, the video distribution unit 21C transmits a list of videos that can be distributed to the client device 10. When the video distribution unit 21C receives a video distribution request from the client device 10, it transmits the selected video to the client device 10 based on the video distribution request.
ユーザリクエスト処理部21Dは、視聴ユーザのクライアント装置10から、オブジェクトの表示要求、及びメッセージの表示要求を受け付け、当該表示要求に応じた処理を行う。視聴ユーザは、自らのクライアント装置10を操作することにより、オブジェクトの表示要求をサーバ20に送信することができる。オブジェクトは、視聴者からコンテンツへ提供するギフトオブジェクトを含む。ギフトオブジェクトは、視聴ユーザからアクター等へのデジタル的なギフトとなるオブジェクトである。ギフトオブジェクトは、対価を払わずに取得又は表示要求が行うことができるものであってもよく、取得又は表示要求に対価が必要なものであってもよい。また、表示要求に応じて表示がなされた後に対価を支払うものであってもよい。視聴ユーザから、ギフトオブジェクトの取得又は表示要求に対価が支払われると、そのうちの一部が配信者に関連付けられ、残りの一部が動画配信のプラットフォームを提供する運営者に関連付けられる。ギフトオブジェクトは、仮想空間に継続的に表示されるものであってもよく、仮想空間に一時的に演出を加えるものであってもよい。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示要求の対象であるオブジェクトの識別情報(オブジェクトID)が含まれてもよい。 The user request processing unit 21D receives a display request for an object and a display request for a message from the client device 10 of the viewing user, and performs processing according to the display request. The viewing user can transmit a display request for an object to the server 20 by operating his/her client device 10. The object includes a gift object provided by the viewer to the content. The gift object is an object that is a digital gift from the viewing user to an actor, etc. The gift object may be one that can be acquired or displayed without paying a fee, or one that requires a fee for acquisition or display. The gift object may also be one for which a fee is paid after the display is made in response to a display request. When a fee is paid by the viewing user for acquiring or displaying the gift object, a portion of the fee is associated with the distributor, and the remaining portion is associated with the operator who provides the video distribution platform. The gift object may be one that is continuously displayed in the virtual space, or one that temporarily adds a performance to the virtual space. The display request for the gift object may include the user ID of the viewing user and identification information (object ID) of the object that is the subject of the display request.
一方、ユーザリクエスト処理部21Dは、表示要求が行われたオブジェクトが、アクター又はサポーターの判断を要するものであると判定すると、サブディスプレイ43に、表示要求が行われたギフトオブジェクトを表示する。アクター又はサポーターにより、表示要求が行われたギフトオブジェクトに対し表示指示がなされると、表示要求が行われたオブジェクトを表示させる。 On the other hand, when the user request processing unit 21D determines that the object for which a display request has been made requires the actor's or supporter's judgment, it displays the gift object for which a display request has been made on the sub-display 43. When an actor or supporter issues a display instruction for the gift object for which a display request has been made, it displays the object for which a display request has been made.
また、ユーザリクエスト処理部21Dは、クライアント装置10から受信したメッセージを動画に表示させるための処理を行う。メッセージには、メッセージの内容の他、視聴ユーザの識別情報(ユーザID又は端末ID)、投稿日時が含まれる。 The user request processing unit 21D also performs processing to display a message received from the client device 10 on the video. In addition to the message content, the message includes the identification information of the viewing user (user ID or terminal ID) and the posting date and time.
ユーザリクエスト処理部21Dは、メッセージを受信すると、メッセージを表示可能な場面か否かを判断する。ユーザリクエスト処理部21Dは、受信したメッセージを表示可能であると判断すると、動画生成部21Bを介して、動画のうち所定の領域にメッセージを表示させる。また、ユーザリクエスト処理部21Dは、メッセージ、メッセージの属性情報を、サブディスプレイ43に表示する。 When the user request processing unit 21D receives a message, it determines whether or not the current situation allows the message to be displayed. If the user request processing unit 21D determines that the received message can be displayed, it causes the message to be displayed in a specified area of the video via the video generating unit 21B. In addition, the user request processing unit 21D displays the message and attribute information of the message on the sub-display 43.
また、オブジェクト処理部21Eは、キャラクタオブジェクト以外の特定オブジェクト(成長オブジェクト)について、変化条件が満たされた場合にその表示態様を変化させる。特定オブジェクトは、表示態様を複数回変化させるオブジェクトである。特定オブジェクトは、植物、動物等の生物を模したオブジェクト等、ライフサイクルに沿ってその表示態様を変化させるオブジェクトであってもよい。又は、特定オブジェクトは、生物以外のものを模したオブジェクトであってもよい。植物を模した特定オブジェクトは、例えば変化条件が満たされる都度、「種」、「芽」、「花」、「結実」、「枯れる」の状態に変化する。 The object processing unit 21E also changes the display mode of specific objects (growth objects) other than character objects when a change condition is satisfied. A specific object is an object whose display mode changes multiple times. A specific object may be an object whose display mode changes along its life cycle, such as an object that imitates a living thing such as a plant or animal. Alternatively, a specific object may be an object that imitates something other than a living thing. A specific object that imitates a plant, for example, changes to a "seed," "bud," "flower," "fruit," or "wither" state each time a change condition is satisfied.
特定オブジェクトは、スタジオの運営者から所定のタイミングで付与されてもよい。又は、特定オブジェクトは、視聴ユーザからキャラクタへのギフトとして付与されてもよい。又は、特定オブジェクトは、アクターが、動画内で実行されるイベントに参加することで、配信者に付与されてもよい。視聴ユーザが、キャラクタへのギフトとして配信者に特定オブジェクトを付与する態様では、視聴ユーザが動画の内容に関与することができる。このため、視聴ユーザは特定オブジェクトの購入意欲が高められる。 The specific object may be given by the studio operator at a predetermined timing. Alternatively, the specific object may be given by the viewing user as a gift to the character. Alternatively, the specific object may be given to the distributor by the actor participating in an event held within the video. In a mode in which the viewing user gives a specific object to the distributor as a gift to the character, the viewing user can be involved in the content of the video. This increases the viewing user's desire to purchase the specific object.
また、オブジェクト処理部21Eは、視聴ユーザから送信されたメッセージの各々の内容を解析する。ストレージ23には、複数の語句が登録された辞書が記憶されており、オブジェクト処理部21Eは、メッセージに含まれる語句を抽出し、当該語句と辞書とを照合する。辞書に格納された語句には属性が付与されている。例えば、「好き」、「かわいい」などの肯定的な語句には「ポジティブ(第1属性)」などの属性が付与されている。また、「きらい」、「痛い」などの否定的な語句には「ネガティブ(第2属性)」などの属性が付与されている。オブジェクト処理部21Eは、辞書内を検索し、抽出した語句と一致する語句の属性を特定することによって、所定期間内に送信されたメッセージの各々が属する属性を判定する。メッセージの属性の判定方法は、メッセージ内に含まれる所定の記号に基づき行う等、これ以外の方法で行ってもよい。 The object processing unit 21E also analyzes the contents of each message sent from the viewing user. The storage 23 stores a dictionary in which a plurality of words are registered, and the object processing unit 21E extracts words included in a message and compares the words with the dictionary. Attributes are assigned to the words stored in the dictionary. For example, positive words such as "like" and "cute" are assigned attributes such as "positive (first attribute)". Negative words such as "dislike" and "painful" are assigned attributes such as "negative (second attribute)". The object processing unit 21E searches the dictionary and identifies the attributes of words that match the extracted words, thereby determining the attributes to which each message sent within a specified period belongs. The method of determining the attributes of a message may be other methods, such as based on a predetermined symbol included in the message.
オブジェクト処理部21Eは、メッセージの属性を判定すると、各属性に対して設定されたカウンタを更新して、各属性のメッセージの数を算出する。なお、メッセージの数以外に、メッセージに含まれる第1属性の語句の数及び第2属性の語句の数をカウントしてもよい。又は、同じ属性に属する語句であっても、語句に応じて重み付けを行ってもよい。例えば「かわいい」は「1ポイント」、「好き」は「2ポイント」として、これらのポイントを累計してもよい。また、いずれの属性にも属さないメッセージがあってもよい。 When the object processing unit 21E determines the attribute of a message, it updates the counter set for each attribute and calculates the number of messages for each attribute. In addition to the number of messages, the number of phrases of the first attribute and the number of phrases of the second attribute contained in the messages may be counted. Alternatively, even if the phrases belong to the same attribute, weighting may be performed according to the phrase. For example, "cute" may be assigned "1 point" and "like" may be assigned "2 points," and these points may be accumulated. Also, there may be messages that do not belong to any attribute.
購入処理部21Gは、視聴ユーザの操作により、配信動画に関連するギフトオブジェクト等の購入媒体の表示要求を、クライアント装置10から受け付ける。購入処理部21Gは、購入媒体の表示要求を受け付けた後、購入媒体の情報をクライアント装置10に送信する。購入媒体の情報には、購入媒体の種類、購入媒体の画像、価格、及び購入に必要な各種の情報が含まれ得る。視聴ユーザは、クライアント装置10に表示された購入媒体の情報を確認して、任意の購入媒体を選択する。視聴ユーザによって購入媒体が選択されると、クライアント装置10は、購入媒体の購入要求をサーバ20に送信する。購入処理部21Gは、購入要求に基づいて、決済処理を行う。この決済処理が完了すると、購入された購入媒体は、視聴ユーザによって保有されるものとしてサーバ20に記憶される。なお、購入媒体は、ギフトオブジェクトの他、動画の視聴に関連するギフトオブジェクト以外のオブジェクトや、動画の画質、2次元画像又は3次元画像等の視聴条件であってもよい。また、購入媒体は、動画自体であってもよい。購入可能なギフトオブジェクトやその他の媒体の売上は、配信者に分配される。このとき、売上の一部をスタジオユニット30の運営者に分配してもよい。 The purchase processing unit 21G receives a display request for a purchased medium such as a gift object related to a distributed video from the client device 10 by the operation of the viewing user. After receiving the display request for the purchased medium, the purchase processing unit 21G transmits information about the purchased medium to the client device 10. The information about the purchased medium may include the type of the purchased medium, an image of the purchased medium, a price, and various information required for purchase. The viewing user checks the information about the purchased medium displayed on the client device 10 and selects an arbitrary purchased medium. When the purchased medium is selected by the viewing user, the client device 10 transmits a purchase request for the purchased medium to the server 20. The purchase processing unit 21G performs a payment process based on the purchase request. When this payment process is completed, the purchased purchased medium is stored in the server 20 as a medium owned by the viewing user. In addition to the gift object, the purchased medium may be an object other than the gift object related to viewing of the video, or a viewing condition such as the image quality of the video, a two-dimensional image or a three-dimensional image. The purchased medium may also be the video itself. Sales of the purchasable gift object and other media are distributed to the distributor. At this time, a portion of the sales may be distributed to the operator of the studio unit 30.
通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ20は、通信I/F22を介して、他の装置との間でデータを送受信することができる。 The communication I/F 22 is implemented as hardware, firmware, or communication software such as a TCP/IP driver, or a combination of these. The server 20 can send and receive data to and from other devices via the communication I/F 22.
ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ20とは物理的に別体のストレージに格納されてもよい。 Storage 23 is a storage device accessed by computer processor 21. Storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or any other storage device capable of storing data. Various programs may be stored in storage 23. At least a portion of the programs and various data that may be stored in storage 23 may be stored in storage that is physically separate from server 20.
ストレージ23には、モデルデータ23A、オブジェクトデータ23B、コンテンツ管理データ23C、保有リスト23D、ギフトリスト23E、投稿メッセージ23Fが記憶されている。また、ストレージ23には、動画配信システム1が配信中の動画又は既に配信した動画が記憶され得る。 Storage 23 stores model data 23A, object data 23B, content management data 23C, ownership list 23D, gift list 23E, and posted messages 23F. Storage 23 may also store videos that are being distributed by video distribution system 1 or videos that have already been distributed.
次に、スタジオユニット30の位置特定装置35及びサポーターコンピュータ45についてさらに説明する。スタジオユニット30の位置特定装置35は、コンピュータプロセッサ35A、ストレージ35B(記憶媒体)、通信インターフェース(I/F)35Cを含む。コンピュータプロセッサ35Aは、サーバ20のコンピュータプロセッサ21と同様に、CPU等の各種の演算装置である。ストレージ35Bは、サーバ20のストレージ23と同様に、磁気ディスク等の各種記憶装置である。通信インターフェース(I/F)35Cは、サーバ20の通信インターフェース22と同様に、他の装置と通信を行うための各種ドライバ、ソフトウェア又はこれらの組み合わせである。コンピュータプロセッサ35Aは、ストレージ35B又はその他のストレージに格納された位置検出プログラムを実行することにより、外部センサ32又は装着センサ33からトラッキング情報を取得して、装着センサ33の各々の位置を特定する。また、コンピュータプロセッサ35Aは、ストレージ35B又はその他のストレージに格納された位置検出プログラムを実行することにより、外部センサ32又は視点位置センサ36からトラッキング情報を取得して、視点位置センサ36の位置を特定する。また、位置特定装置35は、特定した位置を、サーバ20に送信する。 Next, the position identification device 35 and the supporter computer 45 of the studio unit 30 will be further described. The position identification device 35 of the studio unit 30 includes a computer processor 35A, a storage 35B (storage medium), and a communication interface (I/F) 35C. The computer processor 35A is various arithmetic devices such as a CPU, similar to the computer processor 21 of the server 20. The storage 35B is various storage devices such as a magnetic disk, similar to the storage 23 of the server 20. The communication interface (I/F) 35C is various drivers, software, or combinations thereof for communicating with other devices, similar to the communication interface 22 of the server 20. The computer processor 35A acquires tracking information from the external sensor 32 or the mounted sensor 33 by executing a position detection program stored in the storage 35B or other storage, and identifies the position of each of the mounted sensors 33. The computer processor 35A also acquires tracking information from the external sensor 32 or the viewpoint position sensor 36 by executing a position detection program stored in the storage 35B or other storage, and identifies the position of the viewpoint position sensor 36. The location determination device 35 also transmits the determined location to the server 20.
サポーターコンピュータ45は、コンピュータプロセッサ46と、通信I/F47と、ストレージ48(記憶媒体)と、ディスプレイ49と、入力インターフェース50と、を備える。 The supporter computer 45 includes a computer processor 46, a communication I/F 47, a storage 48 (storage medium), a display 49, and an input interface 50.
コンピュータプロセッサ46は、サーバ20のコンピュータプロセッサ21と同様に、CPU等の各種演算装置である。通信I/F47は、通信I/F22と同様に、他の装置と通信を行うための各種ドライバ、ソフトウェア、またはこれらの組み合わせである。ストレージ48は、ストレージ23と同様に、磁気ディスク等のデータを記憶可能な各種記憶装置である。ストレージ48には、各種のプログラムが格納されている。ディスプレイ49は、液晶ディスプレイ、有機ELディスプレイ、無機ELディスプレイ、又はこれら以外の画像を表示可能な任意の表示装置である。入力インターフェース50は、マウス、キーボード等のサポーターからの入力を受け付ける任意のポインティングデバイスを含む。 The computer processor 46 is a variety of arithmetic devices such as a CPU, similar to the computer processor 21 of the server 20. The communication I/F 47 is a variety of drivers, software, or a combination of these for communicating with other devices, similar to the communication I/F 22. The storage 48 is a variety of storage devices capable of storing data, such as a magnetic disk, similar to the storage 23. Various programs are stored in the storage 48. The display 49 is a liquid crystal display, an organic EL display, an inorganic EL display, or any other display device capable of displaying images. The input interface 50 includes any pointing device that accepts input from a supporter, such as a mouse or keyboard.
コンピュータプロセッサ46は、ストレージ48等に格納されたプログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、表示制御部46A、進行管理部46Bとして機能する。コンピュータプロセッサ46により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ46以外のコンピュータプロセッサにより実現されてもよい。また、本明細書においてコンピュータプロセッサ46により実現される機能の少なくとも一部は、例えばサーバ20のコンピュータプロセッサ21により実現されてもよい。 The computer processor 46 functions as a display control unit 46A and a progress management unit 46B by executing computer-readable instructions included in a program stored in the storage 48 or the like. At least a part of the functions realized by the computer processor 46 may be realized by a computer processor other than the computer processor 46 of the video distribution system 1. In addition, at least a part of the functions realized by the computer processor 46 in this specification may be realized by, for example, the computer processor 21 of the server 20.
表示制御部46Aは、サポーターによる入力インターフェース50を介した様々な操作入力に応じて、アクターが視認可能である一方で視聴ユーザが視認することのできない画面をメインディスプレイ41又はサブディスプレイ43に表示したり、視聴ユーザに配信される配信動画に様々な付加情報を付加したりするように構成される。 The display control unit 46A is configured to display a screen on the main display 41 or sub-display 43 that is visible to the actor but not visible to the viewing user, in response to various operational inputs made by the supporter via the input interface 50, and to add various additional information to the streaming video distributed to the viewing user.
次に図4を参照して、クライアント装置について説明する。
クライアント装置10は、スマートフォンなどの情報処理装置である。クライアント装置10は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ヘッドマウントディスプレイを含むウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。
Next, with reference to FIG. 4, the client device will be described.
The client device 10 is an information processing device such as a smartphone. In addition to a smartphone, the client device 10 may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer including a head mounted display, a game console, or any other information processing device capable of playing videos.
クライアント装置10は、コンピュータプロセッサ12、ストレージ13(記憶媒体)、入力インターフェース(I/F)14(入力部)、通信インターフェース(I/F)15、ディスプレイ16を含む。コンピュータプロセッサ12は、サーバ20のコンピュータプロセッサ21と同様に、CPU等の各種の演算装置である。ストレージ13は、サーバ20のストレージ23と同様に、磁気ディスク等の各種記憶装置である。ストレージ13には、サーバ20から配信された動画を視聴するためのアプリケーションプログラムが記憶されている。入力I/F14は、タッチパネル等の視聴ユーザからの入力を受け付ける任意の入力インターフェースである。通信I/F15は、通信I/F22と同様に、他の装置と通信を行うための各種ドライバ、ソフトウェア、またはこれらの組み合わせである。ディスプレイ16は、例えばタッチパネルと一体化された有機ELディスプレイ、液晶ディスプレイ、又はこれら以外の画像を表示可能な任意の表示装置である。 The client device 10 includes a computer processor 12, a storage 13 (storage medium), an input interface (I/F) 14 (input unit), a communication interface (I/F) 15, and a display 16. The computer processor 12 is a variety of arithmetic devices such as a CPU, similar to the computer processor 21 of the server 20. The storage 13 is a variety of storage devices such as a magnetic disk, similar to the storage 23 of the server 20. The storage 13 stores an application program for viewing videos distributed from the server 20. The input I/F 14 is an arbitrary input interface that accepts input from a viewing user such as a touch panel. The communication I/F 15 is various drivers, software, or a combination of these for communicating with other devices, similar to the communication I/F 22. The display 16 is, for example, an organic EL display integrated with a touch panel, a liquid crystal display, or any other display device capable of displaying images.
クライアント装置10は、入力I/F14を介して、視聴ユーザの操作を受け付けることにより、クライアント装置10に実装された視聴アプリケーションプログラム(ネイティブプログラムともいう)を起動する。視聴アプリケーションは、少なくとも視聴が可能であればよく、その他の機能を有していてもよい。コンピュータプロセッサ12は、視聴アプリケーションプログラムに含まれる読み取り可能な命令を実行して、サーバ20から、配信動画のリストを取得する。クライアント装置10は、送信されたリストをディスプレイに表示する。視聴ユーザは、リストに表示された動画から一つを選択する。クライアント装置10は、視聴ユーザの選択操作を受け付けると、選択された動画の配信を要求する動画配信要求をサーバ20に送信する。又は、クライアント装置10は、サーバ20にアクセスすることによって、ストレージ13に記憶されたウェブブラウザを起動させ、HTML、又はXML等のマークアップ言語で記述されたウェブページをディスプレイ16に表示するように構成されてもよい。ウェブページには、動画のリストが表示される。又は、クライアント装置10は、自身のストレージ13に記憶された視聴用プログラム及びウェブブラウザ(アプリ内ブラウザ)との両方を用いて、動画のリストを表示させてもよい。 The client device 10 starts a viewing application program (also called a native program) implemented in the client device 10 by accepting an operation of the viewing user via the input I/F 14. The viewing application only needs to be capable of viewing, and may have other functions. The computer processor 12 executes readable instructions included in the viewing application program to obtain a list of distributed videos from the server 20. The client device 10 displays the transmitted list on the display. The viewing user selects one of the videos displayed in the list. When the client device 10 accepts the selection operation of the viewing user, it transmits a video distribution request to the server 20 requesting distribution of the selected video. Alternatively, the client device 10 may be configured to access the server 20 to start a web browser stored in the storage 13 and display a web page written in a markup language such as HTML or XML on the display 16. The web page displays a list of videos. Alternatively, the client device 10 may display the list of videos using both a viewing program stored in its own storage 13 and a web browser (in-app browser).
クライアント装置10は、サーバ20から動画のデータを受信すると、受信したデータに基づいてディスプレイ16に動画を表示する。視聴ユーザは、クライアント装置10の入力I/F14を介して、配信された動画に関するメッセージを入力し、このメッセージをサーバ20に投稿することができる。各視聴ユーザから投稿されたメッセージは、動画に重畳して表示されてもよい。これにより、アクターと視聴ユーザとの交流、及び視聴ユーザ間の交流が図られる。 When the client device 10 receives video data from the server 20, it displays the video on the display 16 based on the received data. Viewing users can input messages about the distributed video via the input I/F 14 of the client device 10 and post these messages to the server 20. Messages posted by each viewing user may be displayed superimposed on the video. This allows for interaction between actors and viewing users, and between viewing users themselves.
次に、サーバ20のストレージ23に格納された各種のデータについて説明する。モデルデータ23Aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23Aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23Aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23Aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターに対応するキャラクタオブジェクトを生成するために、モデルデータ23Aは、互いに異なる少なくとも2種類のモデルデータを有する。クライアント装置10に配信される動画データは、2次元動画データであってもよく、3次元動画データであってもよい。例えば、サーバ20が、アクターの動作に基づき3次元動画データを生成し、これを2次元動画データに変換して、クライアント装置10に配信してもよい。 Next, various data stored in the storage 23 of the server 20 will be described. The model data 23A is model data for generating animation of a character. The model data 23A may be three-dimensional model data for generating three-dimensional animation, or may be two-dimensional model data for generating two-dimensional model data. The model data 23A includes, for example, rig data (sometimes called "skeleton data") indicating the skeleton of a character, and surface data indicating the shape and texture of the surface of the character. The model data 23A may include multiple model data that are different from each other. The multiple model data may have different rig data from each other, or may have the same rig data. The multiple model data may have different surface data from each other, or may have the same surface data. In the illustrated embodiment, the model data 23A has at least two different types of model data to generate a character object corresponding to an actor. The video data delivered to the client device 10 may be two-dimensional video data or three-dimensional video data. For example, the server 20 may generate three-dimensional video data based on the movement of an actor, convert it into two-dimensional video data, and deliver it to the client device 10.
オブジェクトデータ23Bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23Bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23Bには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。オブジェクトデータ23Bは、オブジェクトに物理的挙動をさせるためのデータ(コンポーネント)を含んでいてもよい。このデータは、他のオブジェクトと衝突させるか否かの設定データや、摩擦係数、反発係数等のデータを含んでいてもよい。例えば、オブジェクトを他のオブジェクトに衝突させる設定データが含まれる場合には、衝突対象の他のオブジェクトとの位置関係が所定の位置関係を満たした場合に、衝突したと判断されて、オブジェクト同士が反発したり、いずれか一方が跳ね返ったりする。一方、オブジェクトを他のオブジェクトに衝突させない設定データが含まれる場合には、他のオブジェクトとの位置関係が所定の位置関係を満たした場合でも、当該オブジェクトは、他のオブジェクトと衝突しない。 The object data 23B includes asset data for constructing a virtual space that constitutes the video. The object data 23B includes data for drawing the background of the virtual space that constitutes the video, data for drawing various objects displayed in the video, and data for drawing various objects other than these that are displayed in the video. The object data 23B may include object position information that indicates the position of the object in the virtual space. The object data 23B may include data (components) for making the object perform physical behavior. This data may include setting data for whether or not to collide with other objects, and data such as a friction coefficient and a repulsion coefficient. For example, when setting data for colliding an object with another object is included, if the positional relationship with the other object to be collided satisfies a predetermined positional relationship, it is determined that a collision has occurred, and the objects repel each other or one of them bounces off. On the other hand, when setting data for not colliding an object with another object is included, the object does not collide with other objects even if the positional relationship with the other object satisfies a predetermined positional relationship.
オブジェクトデータ23Bには、上記以外にも、クライアント装置10の視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、装飾オブジェクトと、通常オブジェクトとが含まれ得る。購入可能なオブジェクトの数またはオブジェクトの購入金額に上限が設定されていてもよい。 In addition to the above, object data 23B may include gift objects that are displayed in the video based on a display request from a viewing user of client device 10. Gift objects may include effect objects, decorative objects, and normal objects. An upper limit may be set on the number of objects that can be purchased or the purchase price of the objects.
エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトや、花火を模したオブジェクト等である。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。例えば、エフェクトオブジェクトは、運動する粒子により構成される一事象を表現するパーティクルシステムによって表現されてもよい。パーティクルシステムにおいては、粒子毎に表示時間が設定されていてもよい。エフェクトオブジェクトは、静的なオブジェクトであってもよいし、動的なオブジェクトであってもよい。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。 An effect object is an object that affects the overall impression of the viewing screen of a distributed video, such as an object that resembles confetti or an object that resembles fireworks. The confetti object may be displayed across the entire viewing screen, thereby changing the overall impression of the viewing screen before and after it is displayed. For example, an effect object may be represented by a particle system that represents an event composed of moving particles. In a particle system, a display time may be set for each particle. An effect object may be a static object or a dynamic object. An effect object may be displayed so as to overlap with a character object, but differs from a decorative object in that it is not displayed in association with a specific part of a character object.
装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。 A decorative object is an object that is displayed on the display screen in association with a specific part of a character object. A decorative object that is displayed on the display screen in association with a specific part of a character object is displayed on the display screen so as to be in contact with the specific part of the character object. A decorative object that is displayed on the display screen in association with a specific part of a character object is displayed on the display screen so as to cover part or all of the specific part of the character object.
装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトに装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23Bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトが「ネコミミ」である場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトが「指輪」である場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「指」に装着されることを示してもよい。 Decorative objects are, for example, accessories (headbands, necklaces, earrings, etc.) worn by character objects, clothing (T-shirts, etc.), costumes, and other objects that can be worn by character objects. Object data 23B corresponding to a decorative object may include wearing position information indicating which part of the character object the decorative object is associated with. The wearing position information of a certain decorative object may indicate which part of the character object the decorative object is worn on. For example, if the decorative object is "cat ears", the wearing position information of the decorative object may indicate that the decorative object is worn on the "head" of the character object. If the decorative object is a "ring", the wearing position information of the decorative object may indicate that the decorative object is worn on the "finger" of the character object.
装飾オブジェクトは、サーバ20がストレージ23又はその他のストレージに記憶するリストに追加された後、アクター又はサポーターに選択されることによって、キャラクタオブジェクトに装着される。視聴ユーザは、自身が送信した装飾ギフトオブジェクトをキャラクタオブジェクトに装着してもらうことで、キャラクタオブジェクトに親近感を覚える。一方、視聴ユーザが装飾オブジェクトの表示要求を行っても、アクター又はサポーターに選択されなければ、当該装飾オブジェクトはキャラクタオブジェクトに装着されない。アクターが装飾オブジェクトを選択する場合には、アクターは、サブディスプレイ43に表示されるリストを確認し、コントローラ40等のポインティングデバイスを用いるか、又はサポーターへの指示によって装飾オブジェクトを選択する。また、サポーターは、サポーターコンピュータ45に表示されるリストを確認し、入力インターフェース50を用いて装飾オブジェクトを選択する。 After the decorative object is added to a list stored by the server 20 in the storage 23 or other storage, it is selected by the actor or supporter and attached to the character object. The viewing user feels a sense of closeness to the character object by having the character object attach the decorative gift object that he or she sent. On the other hand, even if the viewing user makes a request to display a decorative object, the decorative object will not be attached to the character object unless it is selected by the actor or supporter. When the actor selects a decorative object, the actor checks the list displayed on the sub-display 43 and selects the decorative object using a pointing device such as the controller 40 or by instructing the supporter. Also, the supporter checks the list displayed on the supporter computer 45 and selects the decorative object using the input interface 50.
通常オブジェクトは、仮想空間内に物体として配置される装飾オブジェクト以外のギフトオブジェクトであって、例えばぬいぐるみや花束を模したオブジェクトである。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。通常オブジェクトは、通常オブジェクトがアクターによってその位置を変更可能であるのに対し、エフェクトオブジェクトはアクターによってその位置が変更できない点で異なっていてもよい。また、通常オブジェクトとエフェクトオブジェクトは、表示時間が異なっていてもよい。 Normal objects are gift objects other than decorative objects that are placed as objects in virtual space, such as objects that resemble stuffed toys or bouquets of flowers. Normal objects may be displayed so as to overlap with character objects, but they differ from decorative objects in that they are not displayed in association with a specific part of the character object. Normal objects may differ from effect objects in that the position of normal objects can be changed by actors, whereas the position of effect objects cannot be changed by actors. Normal objects and effect objects may also have different display times.
ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間又は通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されていてもよい。 Each gift object may have a display time set according to its type. In one embodiment, the display time of a decorative object may be set longer than the display time of an effect object or a normal object. For example, the display time of a decorative object may be set to 60 seconds, the display time of an effect object may be set to 5 seconds, and the display time of a normal object may be set to 10 seconds.
また、図5に示すように、オブジェクトデータ23Bには、特定オブジェクトの描画データが含まれる。特定オブジェクトは、背景とは異なるものであってもよい。例えば、特定オブジェクトは、1つの識別情報(オブジェクトID)について、特定オブジェクトを描画するための複数の描画データ25A,25B,25C,25D…が関連付けられている。描画データの各々には、変化の段階を示す情報(例えば「1」~「5」)が関連付けられている。初期段階の特定オブジェクトには「1」の描画データ25Aが用いられ、変化条件が満たされると次の段階の特定オブジェクトとして「2」の描画データ25Bが用いられる。特定オブジェクトの表示態様の変化パターンの一例は、変化の段階を示す情報が関連付けられた描画データに基づいて一連の順番に従って表示するものである。また、特定オブジェクトの表示態様の変化パターンの他の例は、一つの変化段階で描画のパターンが分岐しており、分岐点でいずれかの描画データを用いるものである。例えば、描画データの変化の段階を示す情報は、「1」、「2A」、「2B」…となっており、「2」の変化段階で、「2A」の描画データと「2B」の描画データのいずれかが選択される。表示態様が分岐した場合は、それぞれの表示態様のパターンを追従してもよいし、同じ表示態様に戻ってもよい。なお、特定オブジェクトは、透明又は不透明の背景幕オブジェクトに描画されてもよいし、背景とキャラクタオブジェクトとの中間に描画されてもよく、その描画位置は特に限定されない。 As shown in FIG. 5, the object data 23B includes drawing data of a specific object. The specific object may be different from the background. For example, a specific object is associated with a plurality of drawing data 25A, 25B, 25C, 25D, etc. for drawing the specific object for one identification information (object ID). Each of the drawing data is associated with information indicating a stage of change (for example, "1" to "5"). The drawing data 25A of "1" is used for the specific object in the initial stage, and when the change condition is satisfied, the drawing data 25B of "2" is used for the specific object in the next stage. One example of a change pattern of the display mode of a specific object is to display the specific object in a series of order based on the drawing data associated with the information indicating the stage of change. Another example of a change pattern of the display mode of a specific object is to use one of the drawing data, where the drawing pattern branches at one change stage and one of the drawing data is used at the branching point. For example, the information indicating the stage of change of the drawing data is "1", "2A", "2B", etc., and at the change stage of "2", either the drawing data of "2A" or the drawing data of "2B" is selected. When the display mode branches, the pattern of each display mode may be followed, or the same display mode may be returned to. Note that the specific object may be drawn on a transparent or opaque background curtain object, or may be drawn between the background and the character object, and the drawing position is not particularly limited.
図6(a)に示すように、コンテンツ管理データ23Cは、キャラクタオブジェクトのコンテンツ毎に、コンテンツの視聴状況及び配信状況の少なくとも一方を記憶したデータである。コンテンツは、複数回に亘って配信されるものと、1回の配信回で終了するものがある。例えば、「配信者A」は、「キャラクタP」を主人公とする「コンテンツP」を、複数回に亘って配信する。 As shown in FIG. 6(a), content management data 23C is data that stores at least one of the viewing status and distribution status of content for each content of a character object. Some content is distributed multiple times, while others are distributed only once. For example, "Distributor A" distributes "Content P," with "Character P" as the main character, multiple times.
また、別の「配信者B」は、「キャラクタQ」を主人公とする「コンテンツQ」を、複数回に亘ってそれぞれ配信する。コンテンツは、必ずしもそれぞれ異なるキャラクタのアニメーションを含むものとは限らない。例えば、同じキャラクタオブジェクトの動画であっても、それぞれ別のコンテンツを構成してもよい。 Another "Distributor B" distributes "Content Q" with "Character Q" as the main character multiple times. The contents do not necessarily include animations of different characters. For example, videos of the same character object may each constitute different content.
コンテンツ管理データ23Cは、視聴ユーザ数、メッセージ投稿数、視聴時間、配信回数の少なくとも一つを含む。視聴ユーザ数は、初回の配信回から直近の配信回までの視聴ユーザを累積した視聴ユーザ数、直近の配信回の視聴ユーザ数、初回の配信回から直近の配信回のうち最も視聴ユーザが多い配信回の視聴ユーザ数、初回の配信回から直近の配信回のうち最も視聴ユーザが少ない配信回の視聴ユーザ数、初回の配信回から直近の配信回までの平均視聴ユーザ数等である。メッセージ投稿数は、初回の配信回から直近の配信回までに投稿されたメッセージの数を累積したメッセージ投稿数、直近の配信回におけるメッセージ投稿数、最もメッセージの投稿が多い配信回のメッセージ投稿数、最もメッセージの投稿が少ない配信回のメッセージ投稿数、初回の配信回から直近の配信回までの平均メッセージ投稿数等である。視聴時間は、初回の配信回から直近の配信回までにおいて各視聴ユーザの視聴時間を累積した視聴時間、直近の配信回の視聴ユーザの視聴時間等である。 The content management data 23C includes at least one of the number of viewing users, the number of message postings, the viewing time, and the number of distributions. The number of viewing users is the cumulative number of viewing users from the first distribution to the most recent distribution, the number of viewing users of the most recent distribution, the number of viewing users of the distribution with the most viewing users among the first distribution to the most recent distribution, the number of viewing users of the distribution with the least viewing users among the first distribution to the most recent distribution, the average number of viewing users from the first distribution to the most recent distribution, etc. The number of message postings is the cumulative number of message postings of the number of messages posted from the first distribution to the most recent distribution, the number of message postings of the distribution with the most message postings, the number of message postings of the distribution with the least message postings, the average number of message postings from the first distribution to the most recent distribution, etc. The viewing time is the cumulative viewing time of each viewing user from the first distribution to the most recent distribution, the viewing time of the viewing user of the most recent distribution, etc.
図6(b)に示すように、保有リスト23Dは、視聴ユーザが保有するオブジェクトのリストである。保有リスト23Dは、ユーザIDに関連付けて、保有するオブジェクトの識別情報(オブジェクトID)を含み得る。視聴ユーザが保有するオブジェクトは、コンテンツ毎に異なっていてもよく、視聴ユーザが保有するオブジェクトは、異なるコンテンツの間で共通のものであってもよく、これらの両方を含んでいてもよい。コンテンツ毎にオブジェクトが異なる場合、視聴ユーザの保有リスト23Dは、コンテンツ毎にオブジェクトの識別情報が記憶される。この保有リスト23Dは、複数の動画配信に亘って継続的に記憶される。又は保有リスト23Dは、1回分のコンテンツを配信する度に新たに生成又はリセットされるものであってもよい。 As shown in FIG. 6(b), the possession list 23D is a list of objects possessed by the viewing user. The possession list 23D may include identification information (object ID) of the possessed object in association with the user ID. The objects possessed by the viewing user may be different for each piece of content, or the objects possessed by the viewing user may be common to different pieces of content, or may include both. When the objects differ for each piece of content, the possession list 23D of the viewing user stores identification information of the object for each piece of content. This possession list 23D is stored continuously across multiple video distributions. Alternatively, the possession list 23D may be newly generated or reset each time one piece of content is distributed.
図6(c)に示すように、ギフトリスト23Eは、コンテンツに関連付けられたギフトオブジェクトのリストである。ギフトリスト23Eは、動画の配信回毎に、生成又はリセットされることが好ましい。視聴ユーザが、動画にギフトオブジェクトの表示要求を送信すると、そのギフトオブジェクトに関する情報がギフトリスト23Eに追加される。ギフトリスト23Eは、コンテンツの識別情報、ギフトオブジェクトの送信元の視聴ユーザの識別情報(ユーザID)、ギフトオブジェクトの識別情報(オブジェクトID)、ギフトオブジェクトの種類(装飾オブジェクト、エフェクトオブジェクト、通常オブジェクト)、投稿日時、ギフトオブジェクトの選択状態を含み得る。ギフトオブジェクトの選択状態は、ギフトオブジェクトが装飾オブジェクトであった場合に、アクター又はサポーターによって装飾オブジェクトが選択されているか否かを示す。選択状態は、装飾オブジェクトが選択されている場合には、「選択」を示すデータが記憶され、装飾オブジェクトが選択されていない場合には「未選択」を示すデータが記憶される。ギフトオブジェクトが装飾オブジェクトではない場合には、「未選択」、又は、「未選択」及び「選択」以外のデータが記憶される。 As shown in FIG. 6(c), the gift list 23E is a list of gift objects associated with the content. The gift list 23E is preferably generated or reset each time a video is distributed. When a viewing user transmits a request to display a gift object for a video, information about the gift object is added to the gift list 23E. The gift list 23E may include identification information of the content, identification information (user ID) of the viewing user who transmitted the gift object, identification information (object ID) of the gift object, type of the gift object (decorative object, effect object, normal object), posting date and time, and selection state of the gift object. When the gift object is a decorative object, the selection state of the gift object indicates whether or not the decorative object has been selected by the actor or supporter. When a decorative object is selected, data indicating "selected" is stored as the selection state, and when a decorative object is not selected, data indicating "not selected" is stored. When the gift object is not a decorative object, "not selected" or data other than "not selected" and "selected" is stored.
図6(d)に示すように、投稿メッセージ23Fは、視聴ユーザが動画に投稿したメッセージに関する情報を含み得る。投稿メッセージ23Fは、コンテンツ毎に、視聴ユーザの識別情報(ユーザID)、メッセージの内容、メッセージを投稿した投稿日時を含み得る。投稿メッセージ23Fは、1回分のコンテンツを配信する度に、新たに生成又はリセットされてもよい。また、投稿メッセージ23Fは、メッセージが、「第1属性」等のいずれの属性に属するかを含んでいてもよい。いずれの属性にも属さない場合には、属性のデータは記憶されない。 As shown in FIG. 6(d), posted message 23F may include information regarding a message posted by a viewing user to a video. Posted message 23F may include, for each piece of content, the identification information (user ID) of the viewing user, the content of the message, and the posting date and time when the message was posted. Posted message 23F may be newly generated or reset each time one piece of content is distributed. Posted message 23F may also include which attribute, such as "first attribute," the message belongs to. If the message does not belong to any attribute, the attribute data is not stored.
図6(e)に示すように、配信者データ23Gは、配信者に関する情報を含む。配信者データ23Gは、配信者の識別情報(配信者ID)、コンテンツの識別情報、配信者のレベルを含み得る。また、配信者データ23Gは、コンテンツの視聴ユーザ数、コンテンツの配信回数を含んでいてもよい。配信者のレベルは、コンテンツの視聴ユーザ数、コンテンツの配信回数、コンテンツのお気に入り登録数等によって決定される。例えば、視聴ユーザ数が多いほど、配信者のレベルが上昇してもよい。又は、配信回数が多いほど、配信者のレベルが上昇してもよい。 As shown in FIG. 6(e), distributor data 23G includes information about the distributor. Distributor data 23G may include identification information of the distributor (distributor ID), identification information of the content, and the level of the distributor. Distributor data 23G may also include the number of viewing users of the content and the number of times the content has been distributed. The level of the distributor is determined by the number of viewing users of the content, the number of times the content has been distributed, the number of times the content has been registered as a favorite, etc. For example, the greater the number of viewing users, the higher the level of the distributor. Or, the greater the number of times the content has been distributed, the higher the level of the distributor.
次に、クライアント装置10に表示される画面について説明する。
図7に示すように、クライアント装置10のディスプレイ16には、サーバ20から送信された動画データに基づき動画視聴画面105が表示される。動画視聴画面105には、視点位置センサ36をカメラ視点とした仮想空間と、アクターの動作が反映されたキャラクタオブジェクト110が表示される。また、動画視聴画面105には、ギフト選択部112,113と、投稿選択部114とが表示されている。ギフト選択部112は、視聴ユーザが保有するギフトオブジェクトを動画に表示させるための操作部である。ギフト選択部112が選択されると、保有リスト23Dに基づいて視聴ユーザが保有するギフトオブジェクトのリストが表示される。視聴ユーザがリストの中からギフトオブジェクトを選択することによって、クライアント装置10からギフトオブジェクトの表示要求が送信される。ギフト選択部113は、例えば「ハート」のオブジェクト等の所定のオブジェクトの表示要求を行うための操作部である。ギフト選択部113は、保有リスト23Dには含まれないギフトオブジェクトの表示要求を行うものであってもよい。投稿選択部114は、メッセージを投稿可能な期間において、動画に、視聴ユーザが入力したメッセージを表示させるための操作部である。投稿選択部114が選択されると、メッセージ入力欄が表示され、ユーザはメッセージ入力欄にメッセージを入力する。
Next, the screen displayed on the client device 10 will be described.
As shown in FIG. 7, the display 16 of the client device 10 displays a video viewing screen 105 based on the video data transmitted from the server 20. The video viewing screen 105 displays a virtual space with the viewpoint position sensor 36 as the camera viewpoint, and a character object 110 reflecting the actor's actions. The video viewing screen 105 also displays gift selection sections 112 and 113 and a posting selection section 114. The gift selection section 112 is an operation section for displaying a gift object owned by the viewing user in the video. When the gift selection section 112 is selected, a list of gift objects owned by the viewing user is displayed based on the possession list 23D. When the viewing user selects a gift object from the list, a display request for the gift object is transmitted from the client device 10. The gift selection section 113 is an operation section for making a display request for a predetermined object, such as a "heart" object. The gift selection section 113 may be a section for making a display request for a gift object not included in the possession list 23D. The posting selection section 114 is an operation section for displaying a message input by the viewing user in the video during a period in which a message can be posted. When the posting selection section 114 is selected, a message input field is displayed, and the user inputs a message in the message input field.
サーバ20は、投稿可能な期間内において、クライアント装置10からメッセージを受信した場合には、メッセージを含む動画データを、サーバ20に接続する全てのクライアント装置10に送信する。動画データを受信したクライアント装置10は、動画視聴画面105内にメッセージ130を表示させる。メッセージ130には、投稿した視聴ユーザの識別情報と、メッセージ内容とが表示されている。 When the server 20 receives a message from a client device 10 during the posting period, the server 20 transmits video data including the message to all client devices 10 connected to the server 20. The client device 10 that receives the video data displays a message 130 on the video viewing screen 105. The message 130 displays the identification information of the viewing user who posted the message and the message content.
メッセージ130は、動画視聴画面105の所定領域に、投稿された日時の順番に並んでいる。サーバ20が新たなメッセージを受信すると、最上部に表示されていたメッセージ130を下に移動し、新たなメッセージを最上部に表示する。メッセージ表示領域の最下部に到達したメッセージは、新たなメッセージが最上部に追加されると、さらに下方に移動して表示されなくなる。又は、メッセージ表示領域は、一つのメッセージのみを表示可能であってもよい。 The messages 130 are arranged in a specified area of the video viewing screen 105 in the order of the date and time they were posted. When the server 20 receives a new message, the message 130 that was displayed at the top is moved down and the new message is displayed at the top. When a message reaches the bottom of the message display area, it is moved further down and no longer displayed when a new message is added to the top. Alternatively, the message display area may be capable of displaying only one message.
また、サーバ20は、ギフトオブジェクトの表示要求を受付可能な期間内において、クライアント装置10からギフトオブジェクトの表示要求を受信した場合には、ギフトオブジェクトの種類に応じたタイミングで、当該ギフトオブジェクトを表示する。ギフトオブジェクトは、通常オブジェクト又はエフェクトオブジェクトである。また、ギフトオブジェクトは、キャラクタオブジェクト110の所定部位(頭頂部)と関連付けて表示される装飾オブジェクト(例えば「ネコミミ」)である。 When the server 20 receives a display request for a gift object from the client device 10 within a period during which the server 20 can accept such a display request, the server 20 displays the gift object at a timing according to the type of the gift object. The gift object is a normal object or an effect object. The gift object is also a decorative object (e.g., cat ears) that is displayed in association with a specific part (top of the head) of the character object 110.
また、ギフトオブジェクトとして又はそれ以外のオブジェクトとして、動画には特定オブジェクトが表示される。特定オブジェクト120Aは、視聴ユーザがギフト選択部112を操作することによって表示要求がなされてもよい。又は、特定オブジェクト120Aは、アクターによるコントローラ40等の操作、又はサポーターによるサポーターコンピュータ45の操作によって、動画に表示されてもよい。 In addition, a specific object is displayed in the video, either as a gift object or as another object. A display request for specific object 120A may be made by a viewing user operating gift selection section 112. Alternatively, specific object 120A may be displayed in the video by an actor operating controller 40 or the like, or a supporter operating supporter computer 45.
特定オブジェクト120Aは、予め決められた位置に配置されてもよい。又は、特定オブジェクト120Aは、アクター又はサポーターが仮想空間の任意の位置に配置できるようにしてもよい。特定オブジェクト120Aは、仮想空間内のうち、キャラクタオブジェクト110の着地面だけでなく、仮想空間内であればいずれの位置に配置されてもよい。また、特定オブジェクト120Aは、仮想空間に表示された他のオブジェクトに対して衝突可能なオブジェクトとして設定されてもよいし、衝突しないオブジェクトとして設定されてもよい。さらに、特定オブジェクト120Aは、所定のオブジェクトとの衝突を回避するように設定されていてもよい。例えば、複数の特定オブジェクト120Aが仮想空間に配置される場合には、特定オブジェクト120A同士の衝突(接触)に伴う動作を発生させなくてもよい。また、特定オブジェクト120Aが、他の特定オブジェクト以外のオブジェクトと衝突した場合には第1の動作を発生させ、他の特定オブジェクトと衝突した場合には、第1の動作と異なる第2の動作を発生させるようにしてもよい。 The specific object 120A may be placed at a predetermined position. Alternatively, the specific object 120A may be arranged at any position in the virtual space by the actor or supporter. The specific object 120A may be placed not only on the landing surface of the character object 110 in the virtual space, but also at any position within the virtual space. The specific object 120A may be set as an object that can collide with other objects displayed in the virtual space, or may be set as an object that does not collide. Furthermore, the specific object 120A may be set to avoid collision with a predetermined object. For example, when multiple specific objects 120A are placed in the virtual space, an action associated with a collision (contact) between the specific objects 120A may not be generated. Furthermore, when the specific object 120A collides with an object other than another specific object, a first action may be generated, and when the specific object 120A collides with another specific object, a second action different from the first action may be generated.
図8に示すように、特定オブジェクト120Aは、変化条件が満たされると、その表示態様が変化して、特定オブジェクト120Bになる。なお、図示のコンテンツは、動画を複数の配信回に亘ってクライアント装置に配信するものであって、図7に示す「種」の表示形態の特定オブジェクトを表示した動画と、「芽」の表示形態の特定オブジェクトを表示した動画とは、異なる配信回で配信されたものである。 As shown in FIG. 8, when a change condition is satisfied, the display mode of specific object 120A changes to become specific object 120B. Note that the illustrated content is a video distributed to a client device over multiple distribution times, and the video displaying the specific object in the "seed" display mode shown in FIG. 7 and the video displaying the specific object in the "sprout" display mode were distributed in different distribution times.
変化条件は、ストレージ23に記憶されている。変化条件は、特定オブジェクト120A毎に設定されていてもよいし、同じ特定オブジェクト120Aの描画データ毎に設定されていてもよい。変化条件の一例は、動画の配信状況に関するものである。例えば、特定オブジェクト120Aの配置が開始されてから所定期間が経過したこと、又は所定の配信回数に達したことである。又は、直近に成長したときから所定期間が経過したこと又は所定の配信回数に達したことである。具体的には、特定オブジェクト120Aが仮想空間に配置されてから「24時間」が経過すると、特定オブジェクト120Aは「種」の表示態様から、「芽」が出た表示態様に変化可能となる。又は、特定オブジェクト120Aが仮想空間に配置された配信回を起点として所定回数後の配信回において、特定オブジェクト120Aは「種」の表示態様から、「芽」が出た表示態様に変化可能となる。特定オブジェクトが変化可能な状態下で、配信者の指示により動画の生成が行われると、特定オブジェクト120Aは、次の段階の特定オブジェクト120Bに変化する。 The change condition is stored in the storage 23. The change condition may be set for each specific object 120A, or may be set for each drawing data of the same specific object 120A. An example of the change condition is related to the distribution status of the video. For example, a predetermined period has passed since the placement of the specific object 120A was started, or a predetermined number of distributions has been reached. Or, a predetermined period has passed since the last time the specific object 120A grew, or a predetermined number of distributions has been reached. Specifically, when "24 hours" have passed since the specific object 120A was placed in the virtual space, the specific object 120A can change from a display mode of a "seed" to a display mode in which a "sprout" has emerged. Or, in a distribution time a predetermined number of times after the distribution time in which the specific object 120A was placed in the virtual space, the specific object 120A can change from a display mode of a "seed" to a display mode in which a "sprout" has emerged. When a video is generated at the instruction of the distributor in a state in which the specific object is changeable, the specific object 120A changes to the specific object 120B of the next stage.
変化条件は、動画の配信状況以外であってもよい。例えば、視聴ユーザのアクティビティ又は視聴状況に関する条件であってもよい。動画の視聴条件に関する条件は、例えば、初回からコンテンツを視聴した視聴ユーザを累計した人数が所定人数に達したこと、又はコンテンツを「お気に入り(Like)」等の所定のカテゴリに登録した視聴ユーザの人数が所定人数に到達したこと、初回からの全ての視聴ユーザの視聴時間を累計した総視聴時間が所定の時間に到達したこと、初回から直近の配信回又は所定の配信回におけるコンテンツへのメッセージの数を累計したメッセージ累計数が所定数に達したこと、表示要求がなされたギフトオブジェクトの累計数が所定数に達したこと、同時視聴ユーザ数や訪問回数が所定値に到達したこと等である。具体的には、初回から累計した視聴ユーザの人数が「100人」に達すると、特定オブジェクトを「種」の状態から、「芽」が出た状態に変化可能としてもよい。また、変化条件は、これらの条件以外の条件であってもよい。 The change condition may be other than the distribution status of the video. For example, it may be a condition related to the activity or viewing status of the viewing user. The condition related to the viewing condition of the video may be, for example, that the cumulative number of viewing users who have viewed the content from the first time has reached a predetermined number, or that the number of viewing users who have registered the content in a predetermined category such as "Like" has reached a predetermined number, that the total viewing time obtained by accumulating the viewing time of all viewing users from the first time has reached a predetermined time, that the cumulative number of messages obtained by accumulating the number of messages to the content in the most recent distribution or a predetermined distribution from the first time has reached a predetermined number, that the cumulative number of gift objects for which display requests have been made has reached a predetermined number, that the number of simultaneous viewing users or the number of visits has reached a predetermined value, etc. Specifically, when the cumulative number of viewing users from the first time reaches "100 people", it may be possible to change a specific object from a "seed" state to a "sprout" state. In addition, the change condition may be a condition other than these conditions.
このように動画の進行が進むにつれ、特定オブジェクトの表示態様が変化するため、視聴ユーザは特定オブジェクトの変化に興味を持って動画を視聴する。これにより、視聴ユーザの数等の増加を図ることができる。特に、複数の配信回に亘って、特定オブジェクトの表示態様が変化する場合には、リピーターが増えるため、視聴回数、視聴時間等を増やすことができる。 In this way, as the video progresses, the display mode of the specific object changes, so the viewing user becomes interested in the changes in the specific object and watches the video. This can increase the number of viewing users, etc. In particular, if the display mode of the specific object changes over multiple distributions, the number of repeat viewers will increase, and the number of viewings, viewing time, etc. can be increased.
特定オブジェクト120Aの表示態様の変化は、視聴ユーザのアクティビティ又は動画の配信状況に応じて分岐してもよい。視聴ユーザのアクティビティは、視聴ユーザによるメッセージの投稿、ギフトオブジェクトの表示要求等である。また変化条件と重複しなければ、視聴ユーザのアクティビティは、コンテンツの視聴状況(視聴ユーザの人数、視聴時間等)等であってもよい。 Changes in the display mode of specific object 120A may branch depending on the activity of the viewing user or the distribution status of the video. The activity of the viewing user may be a message posted by the viewing user, a request to display a gift object, etc. Furthermore, as long as it does not overlap with the change conditions, the activity of the viewing user may be the viewing status of the content (the number of viewing users, viewing time, etc.), etc.
図9を参照して、視聴ユーザによるメッセージの投稿に応じて表示態様を分岐させる場合について説明する。サーバ20のオブジェクト処理部21Eは、メッセージ130を解析して、メッセージの内容が、第1属性に属するか、第2属性に属するかを判定する。また、第1属性に属するメッセージ130の数と、第2属性に属するメッセージ130の数とを算出し、それらを比較する。そして、特定オブジェクト120Aの表示態様を、メッセージの数が多い方の属性に応じて変化させる。 With reference to FIG. 9, a case will be described in which the display mode is branched depending on the message posted by the viewing user. The object processing unit 21E of the server 20 analyzes the message 130 and determines whether the content of the message belongs to the first attribute or the second attribute. It also calculates the number of messages 130 that belong to the first attribute and the number of messages 130 that belong to the second attribute, and compares them. Then, the display mode of the specific object 120A is changed depending on the attribute with the greater number of messages.
図9(a)は、第1属性である「ポジティブ」に属するメッセージが多い場合の動画視聴画面105である。例えば、特定オブジェクト120Cは、「ハート」の花が咲いた「サボテン」となる。 Figure 9 (a) shows the video viewing screen 105 when there are many messages that belong to the first attribute "positive." For example, the specific object 120C is a "cactus" with a "heart" flower in bloom.
図9(b)は、第2属性である「ネガティブ」に属するメッセージが多い場合の動画視聴画面105である。例えば、特定オブジェクト120Dは、「トゲ」が長く伸びた「サボテン」となる。 Figure 9 (b) shows the video viewing screen 105 when there are many messages that belong to the second attribute "negative." For example, the specific object 120D is a "cactus" with long "thorns."
このように、視聴ユーザのアクティビティを特定オブジェクトの表示態様に反映することが可能であるため、視聴ユーザが、コンテンツに積極的に参加することができる。これにより、配信者と視聴ユーザとの間のコミュニケーションを円滑にすることができるので、当該コンテンツの新規視聴ユーザ又はリピーターを増やすことができる。また、例えばアクター(キャラクタ)が、それぞれの属性のメッセージが多い場合に特定オブジェクトがどのような表示態様に変化するかについて、視聴ユーザに事前に報知することによって、視聴ユーザは、自身が期待する表示態様に特定オブジェクトを変化させるために、さらに活発にメッセージを投稿するようになる。また、配信者側にとっては、特定オブジェクトの成長を話題にすることができるので、特定オブジェクトの表示態様を変化させることによって配信者を支援することができる。 In this way, the activity of the viewing user can be reflected in the display mode of the specific object, so the viewing user can actively participate in the content. This facilitates communication between the distributor and the viewing user, and increases the number of new viewing users or repeat users of the content. Also, for example, by notifying the viewing user in advance of how the display mode of the specific object will change when there are many messages of each attribute, the viewing user will be more active in posting messages in order to change the specific object to the display mode that he or she expects. Also, for the distributor, the growth of the specific object can be a topic of conversation, and changing the display mode of the specific object can support the distributor.
次に、図10を参照して、特定オブジェクトの表示態様の変化が、さらに段階的に進んだ状態について説明する。図示の実施形態では、特定オブジェクトは「結実」の表示態様に変化している。つまり、特定オブジェクト120Eは、成果物120Fを含む表示態様となる。動画配信システム1は、成果物120Fを、同じコンテンツ内、又はコンテンツを配信するプラットフォーム上で利用可能な電子データの媒体として扱ってもよい。このとき、視聴ユーザ又は配信者は、クライアント装置10又はサポーターコンピュータ45の操作を通じて、取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与等を行う。成果物120Fは、成果物120Fが生成された動画又はその他の動画へのギフトオブジェクトとして用いることが可能であってもよい。成果物120Fは、例えば、レアリティ等の価値が高いアイテム、配信者の名前が付いたアイテム等である。 Next, referring to FIG. 10, a state in which the change in the display mode of the specific object has progressed further in stages will be described. In the illustrated embodiment, the specific object has changed to a display mode of "fruiting". That is, the specific object 120E has a display mode including the result 120F. The video distribution system 1 may treat the result 120F as a medium of electronic data that can be used in the same content or on the platform that distributes the content. At this time, the viewing user or the distributor may acquire, own, use, manage, exchange, synthesize, strengthen, sell, discard, or give it through the operation of the client device 10 or the supporter computer 45. The result 120F may be used as a gift object for the video in which the result 120F was generated or for other videos. The result 120F is, for example, an item with high value such as rarity, an item named after the distributor, etc.
特定オブジェクト120Eの成果物120Fが視聴ユーザに付与される場合について説明する。サーバ20のオブジェクト処理部21Eは、成果物120Fの付与を、例えば動画内の収穫イベントで実行する。オブジェクト処理部21Eは、収穫イベントを視聴している視聴ユーザを特定する。さらに特定した視聴ユーザの保有リスト23Dに、成果物120Fに関するデータを追加して、成果物120Fと視聴ユーザとを関連付ける。成果物120Fには、物理的挙動をさせるためのデータ(コンポーネント)が設定されていてもよい。そして、収穫イベントにて、成果物120Fに対して物理的挙動を行わせる処理を行って、視聴ユーザ等に関連付けてもよい。例えば、成果物120Fが収穫される場合には、成果物120Fに重力が作用しているかのように、成果物120Fを仮想空間において鉛直方向下方に移動させてもよい。或いは、キャラクタオブジェクトの手等と成果物120Fのコリジョン判定等を行い、キャラクタオブジェクトと成果物120Fとの位置関係が所定の関係を満たすと判定した場合に、キャラクタオブジェクトが成果物120Fを持つように表示してもよい。さらに、キャラクタオブジェクトは、成果物120Fを所定の位置に配置するようにしてもよい。 A case where the result 120F of a specific object 120E is given to a viewing user will be described. The object processing unit 21E of the server 20 performs the giving of the result 120F, for example, in a harvest event in the video. The object processing unit 21E identifies the viewing user who is viewing the harvest event. Furthermore, data regarding the result 120F is added to the possession list 23D of the identified viewing user, and the result 120F and the viewing user are associated. Data (components) for making the result 120F perform a physical behavior may be set in the result 120F. Then, a process for making the result 120F perform a physical behavior in the harvest event may be performed, and the result 120F may be associated with the viewing user, etc. For example, when the result 120F is harvested, the result 120F may be moved vertically downward in the virtual space as if gravity were acting on the result 120F. Alternatively, a collision determination or the like may be performed between the hand or the like of the character object and the result 120F, and if it is determined that the positional relationship between the character object and the result 120F satisfies a predetermined relationship, the character object may be displayed as holding the result 120F. Furthermore, the character object may be arranged to place the result 120F in a predetermined position.
さらに、「結実」のような終盤の段階の特定オブジェクトから、例えば「種」のような新たな特定オブジェクト(成果物)が生成されてもよい。「種」の新たな特定オブジェクトは、同じコンテンツ内又はその他のコンテンツにおいて用いることが可能であってもよい。又は、「種」等の新たな特定オブジェクトを、コンテンツを配信するプラットフォーム上で、交換、売却又は贈与が可能に構成してもよい。このように、視聴ユーザが利用可能な新たな特定オブジェクトを視聴ユーザに付与することで、視聴ユーザに特定オブジェクトを付与することのメリットを高めることができる。 Furthermore, a new specific object (product), such as a "seed," may be generated from a specific object in a final stage, such as "fruiting." The new specific object, the "seed," may be usable within the same content or in other content. Alternatively, the new specific object, such as a "seed," may be configured to be exchangeable, sellable, or giftable on the platform that distributes the content. In this way, by providing a viewing user with a new specific object that the viewing user can use, the benefit of providing the viewing user with a specific object can be increased.
また、「結実」の表示態様の特定オブジェクトにおいて変化条件が満たされた場合、当該特定オブジェクトは非表示とされてもよい。又は、「枯れる」等の次の表示態様を経て、非表示とされてもよい。 In addition, when a change condition is satisfied for a specific object in the "fruiting" display mode, the specific object may be hidden. Or, the specific object may be hidden after passing through the next display mode, such as "withering."
図11に従って、特定オブジェクトの表示態様を変化させる処理手順について説明する。
サーバ20のユーザリクエスト処理部21Dは、視聴ユーザのクライアント装置10から送信されたメッセージを受信する(ステップS10)。ユーザリクエスト処理部21Dは、受信したメッセージを動画に表示させる。
The process of changing the display mode of a specific object will be described with reference to FIG.
The user request processor 21D of the server 20 receives the message sent from the viewing user's client device 10 (step S10). The user request processor 21D displays the received message on the video.
また、サーバ20のオブジェクト処理部21Eは、メッセージの内容を解析する(ステップS11)。そして、解析対象としたメッセージの属性を判定する(ステップS12)。例えば、「かわいい」などの肯定的なメッセージは、「ポジティブ(第1属性)」に属すると判定する。また、「きらい」などの否定的なメッセージは、「ネガティブ(第2属性)」に属すると判定する。 The object processing unit 21E of the server 20 also analyzes the contents of the message (step S11). Then, it determines the attribute of the message being analyzed (step S12). For example, a positive message such as "cute" is determined to belong to "positive (first attribute)". Also, a negative message such as "dislike" is determined to belong to "negative (second attribute)".
さらに、オブジェクト処理部21Eは、属性毎のカウンタを更新する(ステップS13)。例えば、オブジェクト処理部21Eは、判定対象のメッセージが第1属性に属すると判定すると、第1属性に属するカウンタをインクリメントする。 Furthermore, the object processing unit 21E updates the counter for each attribute (step S13). For example, when the object processing unit 21E determines that the message to be judged belongs to the first attribute, it increments the counter belonging to the first attribute.
さらに、オブジェクト処理部21Eは、特定オブジェクトの変化条件が満たされたか否かを判断する(ステップS14)。変化条件は、上述した変化条件に加え、カウンタの値が閾値以上であることであってもよい。 Furthermore, the object processing unit 21E determines whether a change condition for a specific object is satisfied (step S14). In addition to the change conditions described above, the change condition may be that the counter value is equal to or greater than a threshold value.
オブジェクト処理部21Eは、変化条件が満たされたと判断すると(ステップS14:YES)、特定オブジェクトの表示態様を変化させる(ステップS15)。具体的には、オブジェクト処理部21Eは、オブジェクトデータ23Bを読みだして、表示中の特定オブジェクトの表示態様を、次の段階の表示態様に変更する。一方、オブジェクト処理部21Eは、成長タイミングではないと判断すると(ステップS14:NO)、ステップS10に戻り、上記した処理を繰り返す。 When the object processing unit 21E determines that the change condition is met (step S14: YES), it changes the display mode of the specific object (step S15). Specifically, the object processing unit 21E reads out the object data 23B and changes the display mode of the specific object being displayed to the display mode of the next stage. On the other hand, when the object processing unit 21E determines that it is not the time to grow (step S14: NO), it returns to step S10 and repeats the above-mentioned processing.
以上説明したように、上記実施形態によれば、以下の効果が得られる。
(1)クライアント装置に配信される動画において、特定オブジェクトの表示態様が、視聴ユーザのアクティビティに応じて変化する。つまり、視聴ユーザがコンテンツに積極的に参加することができる。これにより、コンテンツの視聴ユーザの数、視聴回数、又は視聴時間の増加を図ることができる。
As described above, according to the above embodiment, the following effects can be obtained.
(1) In a video delivered to a client device, the display mode of a specific object changes according to the activity of a viewing user. In other words, the viewing user can actively participate in the content. This can increase the number of viewing users of the content, the number of viewings, or the viewing time.
(2)動画へ投稿されたメッセージに応じて、特定オブジェクトの表示態様が変化する。これにより、視聴ユーザに、メッセージの投稿への動機を与えることができるので、視聴ユーザがコンテンツに積極的に参加するようになる。 (2) The display mode of a specific object changes according to the message posted to the video. This motivates viewers to post messages, leading to active participation in the content.
(3)特定オブジェクトが「結実」の表示態様に到達した場合、特定オブジェクトに表示された成果物120Fを、視聴ユーザに関連付ける。これにより、視聴ユーザに、特定オブジェクトの表示態様を「結実」まで変化させるようなアクティビティを行う動機を与えることができる。 (3) When the display state of the specific object reaches "fruiting," the result 120F displayed on the specific object is associated with the viewing user. This can motivate the viewing user to perform an activity that will change the display state of the specific object to "fruiting."
(4)特定オブジェクトが、視聴ユーザから表示要求がなされたギフトオブジェクトである場合には、視聴ユーザは、動画の内容に積極的に関与することができる。このため、視聴ユーザからのギフトオブジェクトの提供を活発にすることができる。 (4) If the specific object is a gift object for which a display request has been made by a viewing user, the viewing user can actively participate in the content of the video. This can encourage viewing users to actively provide gift objects.
(第2実施形態)
次に、動画配信システムの第2実施形態を説明する。なお、第2実施形態では、特定オブジェクトの表示態様を分岐させる処理が第1実施形態と異なっている。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
Second Embodiment
Next, a second embodiment of the video distribution system will be described. In the second embodiment, the process of branching the display mode of a specific object is different from that of the first embodiment. Hereinafter, the same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.
本実施形態では、視聴ユーザによって表示要求が行われたギフトオブジェクトに応じて、特定オブジェクトの表示態様を分岐させる。
図12に示すように、動画視聴画面105には、特定オブジェクト130Bとともに、視聴ユーザが表示要求を行ったギフトオブジェクトが表示される。サーバ20のオブジェクト処理部21Eは、表示要求が行われた全てのギフトオブジェクト又は動画に表示されたギフトオブジェクトのうち、最も多いギフトオブジェクトの種類又は属性に応じて、特定オブジェクトの表示態様を変化させる。例えば、オブジェクト処理部21Eは、所定期間内に表示要求が行われたギフトオブジェクトであって、「星」のギフトオブジェクトG1の数と「ハート」のギフトオブジェクトG2の数とを比較する。所定期間は、コンテンツの配信開始時点からの期間でもよいし、所定の配信回でもよいし、所定の配信回に設定された所定の時間帯であってもよい。
In this embodiment, the display mode of a specific object is branched depending on the gift object requested to be displayed by the viewing user.
As shown in Fig. 12, the video viewing screen 105 displays the gift object requested to be displayed by the viewing user together with the specific object 130B. The object processing unit 21E of the server 20 changes the display mode of the specific object according to the type or attribute of the most common gift object among all the gift objects requested to be displayed or the gift objects displayed in the video. For example, the object processing unit 21E compares the number of "star" gift objects G1 and the number of "heart" gift objects G2, which are gift objects requested to be displayed within a predetermined period. The predetermined period may be a period from the start of distribution of the content, a predetermined distribution time, or a predetermined time period set in a predetermined distribution time.
図13(a)に示すように、「ハート」のギフトオブジェクトの表示要求が他のギフトオブジェクトの表示要求よりも多い場合、特定オブジェクト130Cは花が咲いた表示態様となる。 As shown in FIG. 13(a), when there are more display requests for the "heart" gift object than for other gift objects, the specific object 130C is displayed in a blooming flower form.
図13(b)に示すように、「星」のギフトオブジェクトの表示要求が他のギフトオブジェクトの表示要求よりも多い場合、特定オブジェクト130Dは、「ハート」が多い場合に咲く花と異なる花が咲いた表示態様となる。 As shown in FIG. 13(b), when there are more display requests for "star" gift objects than for other gift objects, the specific object 130D is displayed in a state in which a flower blooms that is different from the flower that blooms when there are more "hearts."
図14を参照して、ギフトオブジェクトの種類に応じて特定オブジェクトの表示態様を分岐させる処理について説明する。クライアント装置10は、視聴ユーザによる表示要求の入力操作を受け付けると、表示要求をサーバ20に送信する。サーバ20のオブジェクト処理部21Eは、表示要求が行われたギフトオブジェクトにカウンタが設定されている場合に、ギフトオブジェクト毎のカウンタを更新する(ステップS30)。 With reference to FIG. 14, a process for branching the display mode of a specific object depending on the type of gift object will be described. When the client device 10 receives a display request input operation by the viewing user, the client device 10 transmits the display request to the server 20. If a counter is set for the gift object for which a display request has been made, the object processing unit 21E of the server 20 updates the counter for each gift object (step S30).
サーバ20のオブジェクト処理部21Eは、特定オブジェクトの変化条件が満たされたか否かを判断する(ステップS31)。変化条件は、上述した変化条件に加え、カウンタの値が閾値以上であることであってもよい。オブジェクト処理部21Eは、変化条件が満たされていないと判断すると(ステップS31:NO)、ステップS30に戻る。 The object processing unit 21E of the server 20 determines whether the change condition of a specific object is satisfied (step S31). In addition to the change conditions described above, the change condition may be that the counter value is equal to or greater than a threshold value. If the object processing unit 21E determines that the change condition is not satisfied (step S31: NO), it returns to step S30.
一方、オブジェクト処理部21Eは、変化条件が満たされていると判断すると(ステップS31:YES)、カウンタの値に基づいて、表示要求が最も多く行われたギフトオブジェクトを判定する(ステップS32)。オブジェクト処理部21Eは、例えば、ギフトオブジェクトのうち、「ハート」のギフトオブジェクトが最も多いと判断する。そして、オブジェクト処理部21Eは、表示要求が最も多く行われたギフトオブジェクトに応じて、特定オブジェクトの表示態様を変化させる(ステップS33)。例えば、「ハート」のギフトオブジェクトについて最も多くの表示要求が行われた場合には、特定オブジェクトは花が咲いた表示態様となる。 On the other hand, when the object processing unit 21E determines that the change condition is satisfied (step S31: YES), it determines the gift object for which display requests have been made the most based on the value of the counter (step S32). For example, the object processing unit 21E determines that, among the gift objects, the most are "heart" gift objects. Then, the object processing unit 21E changes the display mode of the specific object according to the gift object for which display requests have been made the most (step S33). For example, if the most display requests have been made for the "heart" gift object, the specific object will have a display mode of blooming flowers.
以上説明したように、本実施形態によれば、上記実施形態に記載の効果の少なくとも一部に加えて以下の効果が得られる。
(5)表示要求が最も多いギフトオブジェクトに応じて、特定オブジェクトの表示態様が変化するので、視聴ユーザに、特定オブジェクトの表示態様を変化させるように活動する動機を与えることができる。これにより、視聴ユーザがコンテンツに積極的に参加することができる。
As described above, according to this embodiment, the following effect can be obtained in addition to at least some of the effects described in the above embodiment.
(5) Since the display mode of a specific object changes according to the gift object with the most frequent display requests, the viewing user can be motivated to take action to change the display mode of the specific object, thereby enabling the viewing user to actively participate in the content.
(第3実施形態)
次に、動画配信システムの第3実施形態を説明する。なお、第3実施形態では、特定オブジェクトの表示態様を変更する処理が第1実施形態と異なっている。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
Third Embodiment
Next, a third embodiment of the video distribution system will be described. In the third embodiment, the process of changing the display mode of a specific object is different from that in the first embodiment. Hereinafter, the same parts as in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.
本実施形態では、配信者の動画の配信状況に応じて、特定オブジェクトの表示態様を変化させる。
図15(a)に示すように、特定オブジェクト140は、配信者を支援するためのオブジェクトであって、配信者に動画配信についてのアドバイスを提供するオブジェクトである。図示の実施形態では、特定オブジェクト140は、配信者へのアドバイスを表示した表示媒体140A(掛け軸、ボード)を有する樹140Bを模した特定オブジェクトである。表示媒体140Aには、運営側が勧める会話のテーマ(例えば「自己紹介をしてみよう」、「みんなに質問してみよう」等)、演技の内容等が記載されている。
In this embodiment, the display mode of a specific object is changed depending on the distribution status of the video of the distributor.
As shown in Fig. 15(a), the specific object 140 is an object for supporting the distributor and for providing the distributor with advice on video distribution. In the illustrated embodiment, the specific object 140 is a specific object that resembles a tree 140B having a display medium 140A (hanging scroll, board) that displays advice to the distributor. The display medium 140A displays the conversation theme (e.g., "Try introducing yourself,""Try asking everyone a question," etc.) recommended by the management side, the content of the performance, etc.
オブジェクト処理部21Eは、配信者データ23Gを参照して、配信者のレベルや動画の配信状況に応じたアドバイスをストレージ23から取得する。そして、当該アドバイスを、表示媒体140Aに表示する。図示の実施形態の特定オブジェクト150は、レベルが比較的低い場合のアドバイスが掲示されたオブジェクトである。 The object processing unit 21E refers to the distributor data 23G and obtains advice from the storage 23 according to the distributor's level and the distribution status of the video. The advice is then displayed on the display medium 140A. The specific object 150 in the illustrated embodiment is an object for which advice for a relatively low level is posted.
アクターは、表示媒体140Aに記載されたアドバイスを用いる場合には、当該アドバイスに従って動画の配信を進行する。例えば、自己紹介をしたり、視聴ユーザに質問を投げかけたりする。オブジェクト処理部21Eは、表示媒体140Aを所定時間表示した後、消去してもよい。 When the actor uses the advice written on the display medium 140A, the actor proceeds with the distribution of the video in accordance with the advice. For example, the actor may introduce himself or ask a question to the viewing user. The object processing unit 21E may erase the display medium 140A after displaying it for a predetermined period of time.
図15(b)に示すように、オブジェクト処理部21Eは、変化条件が満たされると、特定オブジェクト150の表示態様を変化させる。例えば、表示媒体140Aに記載されたアドバイスを、配信者のレベルに応じた内容に変更する。 As shown in FIG. 15(b), when a change condition is satisfied, the object processing unit 21E changes the display mode of the specific object 150. For example, the advice written on the display medium 140A is changed to content that corresponds to the level of the broadcaster.
図16に従って、配信者のレベルに応じて特定オブジェクトの表示態様を変化させる処理手順について説明する。サーバ20のオブジェクト処理部21Eは、配信者のレベルを取得する(ステップS40)。レベルを取得するタイミングは、動画の配信が開始されるときでもよく、動画の配信が終了したときでもよい。オブジェクト処理部21Eは、取得したレベルに基づいて、レベルに関する変化条件が満たされたか否かを判断する(ステップS41)。この場合の変化条件は、レベルが1段階上昇したこと、又はレベルが所定のレベルに到達したこと、レベルが変化してから所定時間又は所定の配信回数が経過したこと等である。又は、変化条件は、視聴ユーザの人数に関する条件であってもよいし、アクターの動作や発話に関する条件であってもよいし、上記各実施形態に記載されたいずれかの条件であってもよい。 The process procedure for changing the display mode of a specific object according to the level of the distributor will be described with reference to FIG. 16. The object processing unit 21E of the server 20 acquires the level of the distributor (step S40). The timing for acquiring the level may be when the distribution of the video starts or when the distribution of the video ends. The object processing unit 21E determines whether a change condition related to the level is satisfied based on the acquired level (step S41). The change condition in this case is that the level has increased by one step, that the level has reached a predetermined level, that a predetermined time or a predetermined number of broadcasts has elapsed since the level changed, etc. Alternatively, the change condition may be a condition related to the number of viewing users, a condition related to the actor's actions or speech, or any of the conditions described in each of the above embodiments.
オブジェクト処理部21Eが、取得したレベルが変化条件を満たさないと判断すると(ステップS41:NO)、ステップS40に戻る。オブジェクト処理部21Eが、取得したレベルが変化条件を満たすと判断すると(ステップS41:YES)、配信者を支援する支援情報を表示する(ステップS42)。例えば、特定オブジェクト150の表示媒体140Aを変更する。支援情報を表示すると、ステップS40に戻り、上記した処理を繰り返す。 If the object processing unit 21E determines that the acquired level does not satisfy the change condition (step S41: NO), the process returns to step S40. If the object processing unit 21E determines that the acquired level satisfies the change condition (step S41: YES), the process displays support information to support the distributor (step S42). For example, the display medium 140A of the specific object 150 is changed. Once the support information is displayed, the process returns to step S40 and the above-mentioned process is repeated.
以上説明したように、本実施形態によれば、上記実施形態に記載の効果の少なくとも一部に加えて以下の効果が得られる。
(7)特定オブジェクトとして、配信者へのアドバイスが記載された表示媒体140Aを表示する。これにより、動画の配信を始めてから間もない配信者であっても、当該アドバイスに従って演技等を行えばよいため、動画の配信及び配信を継続することへの障壁を低くすることができる。また、動画の配信回数が多い配信者であっても、配信回を重ねるにつれ配信内容が重複しやすくなるため、当該アドバイスを動画に取り入れることにより新たな内容の動画を配信することができる。
As described above, according to this embodiment, the following effect can be obtained in addition to at least some of the effects described in the above embodiment.
(7) As a specific object, a display medium 140A containing advice to the distributor is displayed. This allows even distributors who have just started distributing videos to lower the barrier to distributing videos and continuing to distribute videos, since they can simply perform their acts in accordance with the advice. In addition, even distributors who have distributed videos many times tend to distribute videos with overlapping content as they distribute more videos, so by incorporating the advice into their videos, they can distribute videos with new content.
上記各実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・図17に示すように、特定オブジェクト150は、成果物150Aとして、視聴ユーザ又は配信者に付与される媒体が、収穫イベントが発生するまで不明であるもの(例:くす玉)を有していてもよい。オブジェクト処理部21Eは、収穫イベントが発生すると、視聴ユーザ又は配信者に付与される媒体を表示する。例えば、「くす玉」の成果物150Aの中から、オブジェクト(アイテム、ギフトオブジェクト、チケット等)が出現するような演出を行う。そして、オブジェクト処理部21Eは、収穫イベント又は収穫イベントを含む動画を視聴した視聴ユーザ、又は配信者に、成果物150Aから得られたオブジェクトを関連付ける。これによれば、視聴ユーザの少なくとも一部は、成果物150Aの中身が明らかになるまで視聴することとなるため、視聴回数、視聴時間等を増やすことができる。
The above-described embodiments can be modified as follows: The present embodiment and the following modifications can be combined with each other to the extent that no technical contradiction occurs.
As shown in FIG. 17, the specific object 150 may have, as the result 150A, a medium given to the viewing user or the distributor that is unknown until the harvest event occurs (e.g., a balloon). When the harvest event occurs, the object processing unit 21E displays the medium given to the viewing user or the distributor. For example, an effect is performed in which an object (item, gift object, ticket, etc.) appears from the "balloon" result 150A. Then, the object processing unit 21E associates the object obtained from the result 150A with the viewing user or the distributor who has viewed the harvest event or a video including the harvest event. According to this, at least a part of the viewing users will watch until the contents of the result 150A are revealed, so that the number of views, the viewing time, etc. can be increased.
・図18に示すように、複数の特定オブジェクトは、合成されてもよい。図18(a)は、「配信者A」が配信するコンテンツに表示された特定オブジェクト160Aを示す。図18(b)は、「配信者B」が配信するコンテンツに表示された特定オブジェクト160Bを示す。サーバ20は、配信者の使用する端末及び配信者が使用する端末から、特定オブジェクトの合成指示を受信すると、「配信者A」の特定オブジェクト160Aと、「配信者B」の特定オブジェクト160Bとを合成して、特定オブジェクト160C(図18(c))を生成して、動画視聴画面105に表示する。なお、異なる配信者の特定オブジェクトでなくても、コンテンツ内に複数の特定オブジェクトがある場合には、配信者は、これらの特定オブジェクトを合成してもよい。この態様によれば、特定オブジェクトの表示態様の変化だけでなく、視聴ユーザに、合成による表示態様の変化に対する期待感や興味をもたせることができる。 -As shown in FIG. 18, multiple specific objects may be combined. FIG. 18(a) shows a specific object 160A displayed in content distributed by "Distributor A". FIG. 18(b) shows a specific object 160B displayed in content distributed by "Distributor B". When the server 20 receives a specific object combination instruction from the terminal used by the distributor and the terminal used by the distributor, the server 20 combines the specific object 160A of "Distributor A" with the specific object 160B of "Distributor B" to generate a specific object 160C (FIG. 18(c)), which is displayed on the video viewing screen 105. Note that, even if the specific objects are not from different distributors, if there are multiple specific objects in the content, the distributor may combine these specific objects. According to this aspect, not only the display mode of the specific object changes, but also the viewing user can be made to have expectations and interest in the change in the display mode due to the combination.
・上記各実施形態では、特定オブジェクトの成長過程を、視聴ユーザのアクティビティや配信者の動画配信状況に応じて分岐させた。これに代えて、特定オブジェクトの成長過程を、分岐しない複数の段階としてもよい。この態様であっても、変化条件が、ユーザのアクティビティに関するものであれば、視聴ユーザのアクティビティに応じて特定オブジェクトの表示態様が変化するため、視聴ユーザがコンテンツに積極的に参加することができる。 - In each of the above embodiments, the growth process of a specific object is branched depending on the activity of the viewing user and the video distribution status of the distributor. Alternatively, the growth process of a specific object may be divided into multiple stages that do not branch. Even in this form, if the change condition is related to the activity of the user, the display mode of the specific object changes depending on the activity of the viewing user, allowing the viewing user to actively participate in the content.
・サーバ20は、特定オブジェクトの変化条件が満たされた場合に、そのときの日時情報に応じて、特定オブジェクトの表示態様を変化させてもよい。例えば、変化条件が満たされたときが「4月」である場合、特定オブジェクトの表示態様を「桜」の花を含むものとする一方で、同じ条件下で特定オブジェクトにおいて変化条件が満たされたときが「8月」であれば、「ひまわり」の花を含むものとしてもよい。日時情報は、「年月日」に限らず、「時刻」であってもよい。 - When the change condition of a specific object is satisfied, the server 20 may change the display mode of the specific object according to the date and time information at that time. For example, if the change condition is satisfied in "April", the display mode of the specific object may include "cherry blossom" flowers, whereas if the change condition of the specific object is satisfied in "August" under the same conditions, the display mode may include "sunflower" flowers. The date and time information is not limited to "year, month, and date" and may also be "time".
・サーバ20は、特定オブジェクトの変化条件が満たされた場合に、そのときの外的環境に関する情報を取得し、取得した外的環境に関する情報に基づいて特定オブジェクトの表示態様を変化させてもよい。外的環境に関する情報は、天候、気温、クライアント装置10が位置する位置情報等である。サーバ20は、外的環境に関する情報を、クライアント装置10から取得してもよいし、外部サーバから取得してもよい。例えば、サーバ20は、変化条件が満たされたときにクライアント装置10から位置情報を取得し、位置情報に対応する天候を外部サーバから取得する。そして、サーバ20は、位置情報に対応する天候が「雨」である場合には、傘を含む特定オブジェクトを表示したり、特定オブジェクトの周囲に、雨滴のパーティクル等を動的に表示したりしてもよい。 When the change condition of the specific object is satisfied, the server 20 may acquire information about the external environment at that time, and change the display mode of the specific object based on the acquired information about the external environment. The information about the external environment is weather, temperature, location information of the client device 10, etc. The server 20 may acquire the information about the external environment from the client device 10, or from an external server. For example, the server 20 acquires location information from the client device 10 when the change condition is satisfied, and acquires weather corresponding to the location information from the external server. Then, when the weather corresponding to the location information is "rain", the server 20 may display a specific object including an umbrella, or dynamically display raindrop particles around the specific object.
・上記実施形態では、アクターのアクティビティに応じて特定オブジェクトの表示態様を変化させる。これに代えて若しくは加えて、動画の配信状況に応じて、表示態様を変化させてもよい。例えば、配信回数が「10回」に達した場合に、特定オブジェクトの花を「10個」とし、配信回数が「20回」に達した場合に、特定オブジェクトの花を「20個」としてもよい。 In the above embodiment, the display mode of the specific object is changed according to the activity of the actor. Alternatively or additionally, the display mode may be changed according to the distribution status of the video. For example, when the number of distributions reaches "10 times", the number of flowers of the specific object may be "10", and when the number of distributions reaches "20 times", the number of flowers of the specific object may be "20".
・特定オブジェクトは、動画に1つ表示されてもよいし、複数表示されてもよい。
・第3実施形態では、変化条件が満たされた場合に、配信者のレベルに応じた支援情報を表示した。支援情報は、変化条件が満たされたときのアクターの状態に応じて、複数の支援情報の中からいずれか一つを選択してもよい。例えば、サーバ20は、複数の支援情報をストレージ23に記憶し、オブジェクト処理部21Eは、変化条件が満たされたときのアクターの状態に関する情報を取得する。例えば、オブジェクト処理部21Eは、初期位置からのアクターの移動距離、腕が振られた回数等、装着センサ33から取得される各種パラメータに基づき、アクターの動作に関する情報を取得する。そして、オブジェクト処理部21Eは、各種パラメータに基づきアクターの動きが小さいと判断される場合には「踊ってみよう」等の支援情報を表示し、アクターの動きが十分大きいと判断される場合には別の支援情報を表示するか、若しくは支援情報を表示しない。又は、オブジェクト処理部21Eは、マイク44から入力したアクターの音声に基づき、発話量又は発話しない(沈黙した)時間を算出する。オブジェクト処理部21Eは、アクターの発話量が少ないと判断した場合には「歌ってみよう」等の支援情報を表示し、アクターの発話量が十分多いと判断される場合には別の支援情報を表示するか、若しくは支援情報を表示しない。
A specific object may be displayed once or multiple times in a video.
In the third embodiment, when the change condition is satisfied, support information according to the level of the distributor is displayed. The support information may be selected from among a plurality of pieces of support information according to the state of the actor when the change condition is satisfied. For example, the server 20 stores a plurality of pieces of support information in the storage 23, and the object processing unit 21E acquires information about the state of the actor when the change condition is satisfied. For example, the object processing unit 21E acquires information about the movement of the actor based on various parameters acquired from the wearable sensor 33, such as the distance the actor has moved from the initial position and the number of times the arm has been swung. Then, when the object processing unit 21E determines that the movement of the actor is small based on the various parameters, it displays support information such as "Let's dance," and when the movement of the actor is determined to be sufficiently large, it displays other support information or does not display support information. Alternatively, the object processing unit 21E calculates the amount of speech or the time during which the actor does not speak (is silent) based on the voice of the actor input from the microphone 44. When the object processing unit 21E determines that the actor's speech volume is small, it displays support information such as "Let's try singing," and when it determines that the actor's speech volume is sufficiently large, it displays different support information or does not display any support information.
・特定オブジェクト(成長オブジェクト)は、上記各実施形態以外のオブジェクトであってもよい。例えば、各配信回で配信される動画を連続して視聴する連続視聴ユーザの数が、所定人数(「100人」、「200人」)に段階的に達した場合に成長するオブジェクト(盆栽)等であってもよい。 The specific object (growing object) may be an object other than those in the above embodiments. For example, it may be an object (bonsai tree) that grows when the number of continuous viewing users who continuously watch the videos distributed in each distribution episode gradually reaches a predetermined number ("100 people", "200 people"), etc.
・一実施形態においては、アクター及びアクターに装着される複数の装着センサ33の各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該装着センサ33の各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該装着センサ33の各々の位置及び向きを検出してもよい。このように、アクターに装着される複数の装着センサ33の各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルーム内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該装着センサ33の各々の位置及び向きを検出してもよい。一実施形態においては、装着センサ33に代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターの各々に付けられたり、アクターが着用する衣服(スーツ)の一部として設けられる。このように反射マーカーをアクターに設けることにより、アクターを撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。また、トラッキングシステム31は、装着センサ33を用いず、外部センサ32のみで、アクターの動きを検出できるものであってもよい。 In one embodiment, the actor and the multiple wearable sensors 33 worn by the actor may each be equipped with a number of infrared LEDs, and the position and orientation of each of the wearable sensors 33 may be detected by detecting light from the infrared LEDs with an infrared camera installed on the floor or wall of the studio room R. Visible light LEDs may be used instead of infrared LEDs, and the position and orientation of each of the wearable sensors 33 may be detected by detecting light from the visible light LEDs with a visible light camera. In this way, each of the multiple wearable sensors 33 worn by the actor may be provided with a light-emitting unit (e.g., an infrared LED or a visible light LED), and the position and orientation of each of the wearable sensors 33 may be detected by detecting light from the light-emitting unit with a light-receiving unit (e.g., an infrared camera or a visible light camera) installed in the studio room. In one embodiment, multiple reflective markers may be used instead of the wearable sensors 33. The reflective markers may be attached to each actor or provided as part of the clothing (suit) worn by the actor. By providing the actor with reflective markers in this way, the actor can be photographed to generate photographic data, and the photographic data can be image-processed to detect the position and orientation of the reflective markers. In addition, the tracking system 31 may be capable of detecting the movement of the actor using only the external sensor 32, without using the attached sensor 33.
・上記各実施形態及び上記各変形例は、それぞれ組み合わせることができる。
・実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。
次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
[1]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、
動画を配信するサーバと、
視聴ユーザが用いる装置であって、動画を視聴するためのアプリケーションを実装した情報処理端末と、を備え、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
前記情報処理端末から、前記動画に対するメッセージを受信し、
前記メッセージに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信システム。
[2]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、
動画を配信するサーバと、
動画配信における視聴ユーザ又は配信ユーザのアクティビティを記憶するストレージと、
前記視聴ユーザが用いる装置であって、動画を視聴するためのアプリケーションを実装した情報処理端末と、を備え、
前記サーバが、
前記キャラクタオブジェクトと、初期形態から最終形態まで不可逆的に表示態様を複数回変化させる特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
前記アクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信システム。
[3]
前記サーバは、前記特定オブジェクトが前記最終形態まで到達した場合に、当該特定オブジェクトの表示態様を、成果物を含むものとして前記動画に表示し、
前記成果物を、前記動画の視聴ユーザに関連付けて前記ストレージに記憶する、[2]に記載の動画配信システム。
[4]
前記サーバは、前記特定オブジェクトが前記最終形態に到達した場合、当該特定オブジェクトに関連付けられた前記初期形態の新たな特定オブジェクトを生成する、[2]又は[3]に記載の動画配信システム。
[5]
前記サーバは、前記新たな特定オブジェクトを前記視聴ユーザと関連付け、
前記視聴ユーザが用いる情報処理端末から、前記新たな特定オブジェクトが生成された動画とは異なる動画に対して、前記新たな特定オブジェクトの表示要求を受信し、
前記表示要求に基づいて、前記異なる動画に対して前記新たな特定オブジェクトを表示する、[4]に記載の動画配信システム。
[6]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、
動画を配信するサーバと、
動画配信における視聴ユーザ又は配信ユーザのアクティビティを記憶するストレージと、
前記視聴ユーザが用いる装置であって、動画を視聴するためのアプリケーションを実装した情報処理端末と、を備え、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
前記情報処理端末から、前記アクティビティに関する情報を受信し、
前記アクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させ、
複数の前記特定オブジェクトに基づいて、前記特定オブジェクトの合成オブジェクトを生成し、前記動画に表示する、動画配信システム。
[7]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、
動画を配信するサーバと、
動画配信における視聴ユーザ又は配信ユーザのアクティビティを記憶するストレージと、
前記視聴ユーザが用いる装置であって、動画を視聴するためのアプリケーションを実装した情報処理端末と、を備え、
前記サーバが、
前記キャラクタオブジェクトと、前記動画を配信する配信者に向けた動画配信のアドバイスを表示する特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
前記情報処理端末から、前記アクティビティに関する情報を受信し、
前記アクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信システム。
[8]
前記サーバは、動画配信のアドバイスを表示する前記特定オブジェクトを、前記アクティビティに応じて複数回変化させる、[7]に記載の動画配信システム。
[9]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、
動画を配信するサーバと、
動画配信における視聴ユーザ又は配信ユーザのアクティビティを記憶するストレージと、
前記視聴ユーザが用いる装置であって、動画を視聴するためのアプリケーションを実装した情報処理端末と、を備え、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
前記情報処理端末から、前記アクティビティに関する情報を受信し、
前記アクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、当該変化条件が満たされたときの日時情報に応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信システム。
[10]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、
動画を配信するサーバと、
動画配信における視聴ユーザ又は配信ユーザのアクティビティを記憶するストレージと、
前記視聴ユーザが用いる装置であって、動画を視聴するためのアプリケーションを実装した情報処理端末と、を備え、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
前記情報処理端末から、前記アクティビティに関する情報を受信し、
前記アクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、外的環境に関する情報を取得し、前記取得した外的環境に関する情報に基づいて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信システム。
[11]
前記情報処理端末は、当該情報処理端末の入力部への前記視聴ユーザの入力に基づき、前記サーバにギフトオブジェクトの表示要求を送信し、
前記サーバは、前記ギフトオブジェクトに応じて、前記特定オブジェクトの表示態様を変化させる、[1]~[10]のいずれか1項に記載の動画配信システム。
[12]
前記情報処理端末は、前記動画へのギフトオブジェクトとして前記特定オブジェクトの表示要求を前記サーバに送信し、
前記サーバは、前記特定オブジェクトの表示要求に応じて、前記動画に当該特定オブジェクトを表示する[1]~[11]のいずれか1項に記載の動画配信システム。
[13]
動画を配信するサーバと、動画を視聴するためのアプリケーションを実装した情報処理端末とを用いて、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
前記情報処理端末から、前記動画に対するメッセージを受信し、
前記メッセージに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信方法。
[14]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するサーバの動画配信プログラムであって、
前記サーバに、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成するステップと、
前記動画データを視聴ユーザが用いる情報処理端末に送信するステップと、
前記情報処理端末から、前記動画に対するメッセージを受信するステップと、
前記メッセージに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させるステップと、を実行させる、動画配信プログラム。
[15]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末であって、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
前記動画に対するメッセージを前記サーバに送信するステップと、
前記メッセージに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行する情報処理端末。
[16]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末の動画視聴プログラムであって、
前記情報処理端末に、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
前記動画に対するメッセージを前記サーバに送信するステップと、
前記メッセージに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行させる、動画視聴プログラム。
[17]
動画を配信するサーバと、動画を視聴するためのアプリケーションを実装した情報処理端末とを用いて、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、
前記サーバが、
前記キャラクタオブジェクトと、初期状態から最終形態まで不可逆的に表示態様を複数回変化させる特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
視聴ユーザ又は配信ユーザのアクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信方法。
[18]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するサーバの動画配信プログラムであって、
前記サーバに、
前記キャラクタオブジェクトと、初期状態から最終形態まで不可逆的に表示態様を複数回変化させる特定オブジェクトとを含む動画データを生成するステップと、
前記動画データを視聴ユーザが用いる情報処理端末に送信するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させるステップと、を実行させる、動画配信プログラム。
[19]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末であって、
前記キャラクタオブジェクトと、初期状態から最終形態まで不可逆的に表示態様を複数回変化させる特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行する、情報処理端末。
[20]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末の動画視聴プログラムであって、
前記情報処理端末に、
前記キャラクタオブジェクトと、初期状態から最終形態まで不可逆的に表示態様を複数回変化させる特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行させる、動画視聴プログラム。
[21]
動画を配信するサーバと、動画を視聴するためのアプリケーションを実装した情報処理端末とを用いて、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
視聴ユーザ又は配信ユーザのアクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させ、
複数の前記特定オブジェクトに基づいて、前記特定オブジェクトの合成オブジェクトを生成し、前記動画に表示する、動画配信方法。
[22]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するサーバの動画配信プログラムであって、
前記サーバに、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成するステップと、
前記動画データを視聴ユーザが用いる情報処理端末に送信するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させるステップと、
複数の前記特定オブジェクトに基づいて、前記特定オブジェクトの合成オブジェクトを生成し、前記動画に表示するステップと、を実行させる、動画配信プログラム。
[23]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末であって、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、
複数の前記特定オブジェクトに基づいて生成された前記特定オブジェクトの合成オブジェクトを前記動画に表示するステップと、を実行する、情報処理端末。
[24]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末の動画視聴プログラムであって、
前記情報処理端末に、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、
複数の前記特定オブジェクトに基づいて生成された前記特定オブジェクトの合成オブジェクトを前記動画に表示するステップと、を実行させる、動画視聴プログラム。
[25]
動画を配信するサーバと、動画を視聴するためのアプリケーションを実装した情報処理端末とを用いて、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、
前記サーバが、
前記キャラクタオブジェクトと、前記動画を配信する配信者に向けた動画配信のアドバイスを表示する特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
視聴ユーザ又は配信ユーザのアクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信方法。
[26]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するサーバの動画配信プログラムであって、
前記サーバに、
前記キャラクタオブジェクトと、前記動画を配信する配信者に向けた動画配信のアドバイスを表示する特定オブジェクトとを含む動画データを生成するステップと、
前記動画データを視聴ユーザが用いる情報処理端末に送信するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させるステップと、を実行させる、動画配信プログラム。
[27]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末であって、
前記キャラクタオブジェクトと、前記動画を配信する配信者に向けた動画配信のアドバイスを表示する特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行する、情報処理端末。
[28]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末の動画視聴プログラムであって、
前記情報処理端末に、
前記キャラクタオブジェクトと、前記動画を配信する配信者に向けた動画配信のアドバイスを表示する特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行させる、動画視聴プログラム。
[29]
動画を配信するサーバと、動画を視聴するためのアプリケーションを実装した情報処理端末とを用いて、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、当該変化条件が満たされたときの日時情報に応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信方法。
[30]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するサーバの動画配信プログラムであって、
前記サーバに、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成するステップと、
前記動画データを視聴ユーザが用いる情報処理端末に送信するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、当該変化条件が満たされたときの日時情報に応じて、前記動画に表示される前記特定オブジェクトの表示態様を変化させるステップと、を実行させる、動画配信プログラム。
[31]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末であって、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
前記サーバによって視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定された場合、当該変化条件が満たされたときの日時情報に応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行する、情報処理端末。
[32]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末の動画視聴プログラムであって、
前記情報処理端末に、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
前記サーバによって視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定された場合、当該変化条件が満たされたときの日時情報に応じて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行させる、動画視聴プログラム。
[33]
動画を配信するサーバと、動画を視聴するためのアプリケーションを実装した情報処理端末とを用いて、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、
前記サーバが、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成し、
前記動画データを前記情報処理端末に送信し、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、外的環境に関する情報を取得し、前記取得した外的環境に関する情報に基づいて、前記動画に表示される前記特定オブジェクトの表示態様を変化させる、動画配信方法。
[34]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するサーバの動画配信プログラムであって、
前記サーバに、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データを生成するステップと、
前記動画データを視聴ユーザが用いる情報処理端末に送信するステップと、
視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定した場合、外的環境に関する情報を取得し、前記取得した外的環境に関する情報に基づいて、前記動画に表示される前記特定オブジェクトの表示態様を変化させるステップと、を実行させる、動画配信プログラム。
[35]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末であって、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
前記サーバによって視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定された場合に外的環境に関する情報に基づいて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行する情報処理端末。
[36]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をディスプレイに表示する情報処理端末の動画視聴プログラムであって、
前記情報処理端末に、
前記キャラクタオブジェクトと、表示態様の変化を複数回行う特定オブジェクトとを含む動画データをサーバから受信して、前記ディスプレイに表示するステップと、
前記サーバによって視聴ユーザ又は配信ユーザのアクティビティに応じて前記特定オブジェクトの表示態様を変化させる変化条件が満たされたと判定された場合に外的環境に関する情報に基づいて前記特定オブジェクトの表示態様を変化させた動画データを前記サーバから受信して、前記ディスプレイに表示するステップと、を実行させる、動画視聴プログラム。
The above-described embodiments and modifications may be combined with each other.
The method described in the embodiment can be stored as a program that can be executed by a calculator (computer) on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, MO, etc.), a semiconductor memory (ROM, RAM, flash memory, etc.), etc., and can also be distributed by transmitting it via a communication medium. The program stored on the medium side also includes a setting program that configures the software means (including not only execution programs but also tables and data structures) that the computer executes. The computer that realizes this device reads the program recorded on the recording medium, and in some cases, constructs the software means by the setting program, and executes the above-mentioned processing by controlling the operation of this software means. Note that the recording medium referred to in this specification is not limited to a storage medium for distribution, but also includes a storage medium such as a magnetic disk or semiconductor memory provided inside the computer or in a device connected via a network.
Next, the technical ideas that can be understood from the above-described embodiment and other examples will be described below.
[1]
A video distribution system that distributes videos including animations of character objects generated based on the movements of actors, comprising:
A server that distributes videos;
The device is used by a viewing user and includes an information processing terminal having an application for viewing a video,
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
receiving a message for the video from the information processing terminal;
A video distribution system that changes a display mode of the specific object displayed in the video in response to the message.
[2]
A video distribution system that distributes videos including animations of character objects generated based on the movements of actors, comprising:
A server that distributes videos;
A storage device that stores the activity of a viewing user or a broadcasting user in video broadcasting;
The device is used by the viewing user and includes an information processing terminal having an application for viewing a video implemented therein;
The server,
generating video data including the character object and a specific object whose display form is changed irreversibly multiple times from an initial form to a final form;
Transmitting the video data to the information processing terminal;
A video distribution system that changes a display mode of the specific object displayed in the video depending on the activity.
[3]
When the specific object reaches the final form, the server displays a display mode of the specific object in the video as including a resultant product;
The video distribution system according to [2], wherein the deliverable is stored in the storage in association with a user viewing the video.
[4]
The video distribution system according to claim 2 or 3, wherein the server generates a new specific object of the initial form associated with the specific object when the specific object reaches the final form.
[5]
The server associates the new specific object with the viewing user;
receiving, from an information processing terminal used by the viewing user, a display request for the new specific object for a video different from the video in which the new specific object was generated;
The video distribution system according to [4], further comprising: displaying the new specific object for the different video based on the display request.
[6]
A video distribution system that distributes videos including animations of character objects generated based on the movements of actors, comprising:
A server that distributes videos;
A storage device that stores the activity of a viewing user or a broadcasting user in video broadcasting;
The device is used by the viewing user and includes an information processing terminal having an application for viewing a video implemented therein;
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
receiving information about the activity from the information processing terminal;
changing a display mode of the specific object displayed in the video in response to the activity;
A video distribution system that generates a composite object of a specific object based on a plurality of the specific objects and displays the composite object in the video.
[7]
A video distribution system that distributes videos including animations of character objects generated based on the movements of actors, comprising:
A server that distributes videos;
A storage device that stores the activity of a viewing user or a broadcasting user in video broadcasting;
The device is used by the viewing user and includes an information processing terminal having an application for viewing a video implemented therein;
The server,
generating video data including the character object and a specific object displaying advice on video distribution directed to a distributor who distributes the video;
Transmitting the video data to the information processing terminal;
receiving information about the activity from the information processing terminal;
A video distribution system that changes a display mode of the specific object displayed in the video depending on the activity.
[8]
The video distribution system according to [7], wherein the server changes the specific object that displays video distribution advice multiple times depending on the activity.
[9]
A video distribution system that distributes videos including animations of character objects generated based on the movements of actors, comprising:
A server that distributes videos;
A storage device that stores the activity of a viewing user or a broadcasting user in video broadcasting;
The device is used by the viewing user and includes an information processing terminal having an application for viewing a video implemented therein;
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
receiving information about the activity from the information processing terminal;
When it is determined that a change condition for changing the display mode of the specific object in accordance with the activity is satisfied, the video distribution system changes the display mode of the specific object displayed in the video in accordance with the date and time information when the change condition is satisfied.
[10]
A video distribution system that distributes videos including animations of character objects generated based on the movements of actors, comprising:
A server that distributes videos;
A storage device that stores the activity of a viewing user or a broadcasting user in video broadcasting;
The device is used by the viewing user and includes an information processing terminal having an application for viewing a video implemented therein;
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
receiving information about the activity from the information processing terminal;
A video distribution system that, when it is determined that a change condition for changing the display mode of the specific object in accordance with the activity is satisfied, acquires information regarding an external environment, and changes the display mode of the specific object displayed in the video based on the acquired information regarding the external environment.
[11]
the information processing terminal transmits a display request for a gift object to the server based on an input by the viewing user to an input unit of the information processing terminal;
The video distribution system according to any one of claims [1] to [10], wherein the server changes the display mode of the specific object depending on the gift object.
[12]
the information processing terminal transmits to the server a display request for the specific object as a gift object for the video;
The video distribution system according to any one of claims [1] to [11], wherein the server displays the specific object in the video in response to a request to display the specific object.
[13]
A video distribution method for distributing a video including animation of a character object generated based on a movement of an actor, using a server for distributing a video and an information processing terminal having an application for viewing the video implemented therein, comprising the steps of:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
receiving a message for the video from the information processing terminal;
A video distribution method, comprising changing a display mode of the specific object displayed on the video in response to the message.
[14]
A video distribution program for a server that distributes a video including an animation of a character object generated based on a movement of an actor, comprising:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
transmitting the video data to an information processing terminal used by a viewing user;
receiving a message for the video from the information processing terminal;
and changing a display mode of the specific object displayed in the video in response to the message.
[15]
An information processing terminal that displays a moving image including an animation of a character object generated based on a movement of an actor on a display,
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
sending a message to the server for the video;
receiving from the server video data in which the display mode of the specific object is changed in response to the message, and displaying the video data on the display;
[16]
A video viewing program for an information processing terminal that displays a video including an animation of a character object generated based on a movement of an actor on a display, comprising:
The information processing terminal includes:
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
sending a message to the server for the video;
receiving from the server video data in which a display mode of the specific object is changed in response to the message, and displaying the video data on the display;
[17]
A video distribution method for distributing a video including animation of a character object generated based on a movement of an actor, using a server for distributing a video and an information processing terminal having an application for viewing the video implemented therein, comprising the steps of:
The server,
generating video data including the character object and a specific object whose display state is irreversibly changed a plurality of times from an initial state to a final state;
Transmitting the video data to the information processing terminal;
A video distribution method, comprising: changing a display mode of the specific object displayed in the video in accordance with an activity of a viewing user or a distributor user.
[18]
A video distribution program for a server that distributes a video including an animation of a character object generated based on a movement of an actor, comprising:
The server,
generating video data including the character object and a specific object whose display state is irreversibly changed a plurality of times from an initial state to a final state;
transmitting the video data to an information processing terminal used by a viewing user;
and changing a display mode of the specific object displayed in the video in accordance with activity of a viewing user or a broadcasting user.
[19]
An information processing terminal that displays a moving image including an animation of a character object generated based on a movement of an actor on a display,
receiving from a server video data including the character object and a specific object whose display mode is irreversibly changed a plurality of times from an initial state to a final state, and displaying the video data on the display;
receiving from the server video data in which the display mode of the specific object has been changed in accordance with the activity of a viewing user or a broadcasting user, and displaying the video data on the display.
[20]
A video viewing program for an information processing terminal that displays a video including an animation of a character object generated based on a movement of an actor on a display, comprising:
The information processing terminal includes:
receiving from a server video data including the character object and a specific object whose display mode is irreversibly changed a plurality of times from an initial state to a final state, and displaying the video data on the display;
receiving from the server video data in which the display mode of the specific object is changed in accordance with the activity of a viewing user or a distribution user, and displaying the data on the display;
[21]
A video distribution method for distributing a video including animation of a character object generated based on a movement of an actor, using a server for distributing a video and an information processing terminal having an application for viewing the video implemented therein, comprising the steps of:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
changing a display mode of the specific object displayed in the video in response to an activity of a viewing user or a broadcasting user;
A video distribution method comprising: generating a composite object of a specific object based on a plurality of the specific objects; and displaying the composite object in the video.
[22]
A video distribution program for a server that distributes a video including an animation of a character object generated based on a movement of an actor, comprising:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
transmitting the video data to an information processing terminal used by a viewing user;
changing a display mode of the specific object displayed in the video in response to an activity of a viewing user or a broadcasting user;
generating a composite object of the specific object based on a plurality of the specific objects and displaying the composite object in the video.
[23]
An information processing terminal that displays a moving image including an animation of a character object generated based on a movement of an actor on a display,
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
receiving from the server video data in which a display mode of the specific object is changed in accordance with an activity of a viewing user or a broadcasting user, and displaying the video data on the display;
and displaying a composite object of the specific object, which is generated based on a plurality of the specific objects, in the video.
[24]
A video viewing program for an information processing terminal that displays a video including an animation of a character object generated based on a movement of an actor on a display, comprising:
The information processing terminal includes:
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
receiving from the server video data in which a display mode of the specific object is changed in accordance with an activity of a viewing user or a broadcasting user, and displaying the video data on the display;
and displaying a composite object of the specific object, which is generated based on a plurality of the specific objects, in the video.
[25]
A video distribution method for distributing a video including animation of a character object generated based on a movement of an actor, using a server for distributing a video and an information processing terminal having an application for viewing the video implemented therein, comprising the steps of:
The server,
generating video data including the character object and a specific object displaying advice on video distribution directed to a distributor who distributes the video;
Transmitting the video data to the information processing terminal;
A video distribution method, comprising: changing a display mode of the specific object displayed in the video in accordance with activity of a viewing user or a distributor user.
[26]
A video distribution program for a server that distributes a video including an animation of a character object generated based on a movement of an actor, comprising:
The server,
generating video data including the character object and a specific object displaying advice on video distribution directed to a distributor who distributes the video;
transmitting the video data to an information processing terminal used by a viewing user;
and changing a display mode of the specific object displayed in the video in accordance with activity of a viewing user or a broadcasting user.
[27]
An information processing terminal that displays a moving image including an animation of a character object generated based on a movement of an actor on a display,
receiving from a server video data including the character object and a specific object displaying advice on video distribution for a distributor who distributes the video, and displaying the video data on the display;
receiving from the server video data in which the display mode of the specific object is changed in accordance with the activity of a viewing user or a broadcasting user, and displaying the video data on the display.
[28]
A video viewing program for an information processing terminal that displays a video including an animation of a character object generated based on a movement of an actor on a display, comprising:
The information processing terminal includes:
receiving from a server video data including the character object and a specific object displaying advice on video distribution for a distributor who distributes the video, and displaying the video data on the display;
receiving from the server video data in which the display mode of the specific object is changed in accordance with the activity of a viewing user or a distribution user, and displaying the data on the display;
[29]
A video distribution method for distributing a video including animation of a character object generated based on a movement of an actor, using a server for distributing a video and an information processing terminal having an application for viewing the video implemented therein, comprising the steps of:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
A video distribution method, in which, when it is determined that a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is satisfied, the display mode of the specific object displayed in the video is changed in accordance with date and time information when the change condition is satisfied.
[30]
A video distribution program for a server that distributes a video including an animation of a character object generated based on a movement of an actor, comprising:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
transmitting the video data to an information processing terminal used by a viewing user;
A video distribution program that executes a step of changing the display mode of the specific object displayed in the video according to date and time information when a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is determined to be satisfied.
[31]
An information processing terminal that displays a moving image including an animation of a character object generated based on a movement of an actor on a display,
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
When the server determines that a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is satisfied, the information processing terminal executes a step of receiving from the server video data in which the display mode of the specific object has been changed in accordance with date and time information when the change condition was satisfied, and displaying the video data on the display.
[32]
A video viewing program for an information processing terminal that displays a video including an animation of a character object generated based on a movement of an actor on a display, comprising:
The information processing terminal includes:
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
When the server determines that a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is satisfied, the server receives from the server video data in which the display mode of the specific object has been changed in accordance with date and time information when the change condition was satisfied, and displays the video data on the display.
[33]
A video distribution method for distributing a video including animation of a character object generated based on a movement of an actor, using a server for distributing a video and an information processing terminal having an application for viewing the video implemented therein, comprising the steps of:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
Transmitting the video data to the information processing terminal;
A video distribution method, which, when it is determined that a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is satisfied, acquires information regarding an external environment, and changes the display mode of the specific object displayed in the video based on the acquired information regarding the external environment.
[34]
A video distribution program for a server that distributes a video including an animation of a character object generated based on a movement of an actor, comprising:
The server,
generating video data including the character object and a specific object that changes its display mode a plurality of times;
transmitting the video data to an information processing terminal used by a viewing user;
A video distribution program that executes a step of acquiring information regarding the external environment and changing the display mode of the specific object displayed in the video based on the acquired information regarding the external environment when it is determined that a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is satisfied.
[35]
An information processing terminal that displays a moving image including an animation of a character object generated based on a movement of an actor on a display,
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
When the server determines that a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is satisfied, the information processing terminal receives from the server video data in which the display mode of the specific object has been changed based on information regarding the external environment, and displays the video data on the display.
[36]
A video viewing program for an information processing terminal that displays a video including an animation of a character object generated based on a movement of an actor on a display, comprising:
The information processing terminal includes:
receiving from a server video data including the character object and a specific object that changes its display mode a plurality of times, and displaying the video data on the display;
a step of receiving from the server video data in which the display mode of the specific object has been changed based on information about the external environment and displaying the data on the display when the server determines that a change condition for changing the display mode of the specific object in accordance with the activity of a viewing user or a distribution user is satisfied, and displaying the data on the display.
1…動画配信システム、10…クライアント装置、20…サーバ。 1...Video distribution system, 10...Client device, 20...Server.
Claims (18)
動画を配信する1乃至複数のコンピュータが、
前記キャラクタオブジェクトと、表示態様の変化を前記コンテンツ内で複数回行う特定オブジェクトとを含む動画を表示するためのデータを生成し、
生成した前記データを、視聴ユーザが用いる装置であって動画の視聴が可能なアプリケーションを実装した視聴ユーザ装置に送信し、
動画を配信する配信ユーザの前記コンテンツ毎に、前記特定オブジェクトが配置された配信回からの合計配信回数を記録し、
前記合計配信回数が所定回数に達したときに前記特定オブジェクトの表示態様を変化させる、動画配信システム。 A video distribution system that distributes, as content, a video including an animation of a character object generated based on a movement of an actor, multiple times, comprising:
One or more computers that distribute video,
generating data for displaying a moving image including the character object and a specific object whose display mode is changed a plurality of times within the content;
Transmitting the generated data to a viewer user device that is used by a viewer user and has an application capable of viewing a video implemented therein;
Recording a total number of distributions from the distribution time when the specific object was placed for each of the contents of the distribution user who distributes the video;
A video distribution system that changes a display mode of the specific object when the total number of distributions reaches a predetermined number.
前記コンピュータが、
前記視聴ユーザ装置から受信した前記メッセージの数が所定数に到達した場合に前記特定オブジェクトの表示態様を変化させる、請求項1~6のいずれか1項に記載の動画配信システム。 The viewing user device transmits a message for the video;
The computer,
The video distribution system according to any one of claims 1 to 6, wherein a display mode of the specific object is changed when the number of the messages received from the viewing user device reaches a predetermined number.
前記コンピュータが、前記ギフトオブジェクトに応じて前記特定オブジェクトの表示態様を変化させる、請求項1~7のいずれか1項に記載の動画配信システム。 the viewing user device transmits a display request for a gift object to the computer based on an input of the viewing user to an input unit of the viewing user device;
The video distribution system according to any one of claims 1 to 7, wherein the computer changes a display mode of the specific object in accordance with the gift object.
互いに異なる前記ギフトオブジェクトについて、前記表示要求が行われた回数をそれぞれ取得し、
前記特定オブジェクトを、表示回数が行われた回数が多い前記ギフトオブジェクトに応じた表示態様とする、請求項8に記載の動画配信システム。 The computer,
Acquire the number of times the display request has been made for each of the different gift objects;
The video distribution system according to claim 8 , wherein the specific object is displayed in a manner corresponding to the gift object that has been displayed a large number of times.
前記コンピュータが、前記特定オブジェクトの表示要求に応じて当該特定オブジェクトを含む動画を表示するためのデータを生成する、請求項1~16のいずれか1項に記載の動画配信システム。 the viewing user device transmits to the computer a request to display the particular object as a gift object to the video;
The video distribution system according to any one of claims 1 to 16, wherein the computer generates data for displaying a video including the specific object in response to a display request for the specific object.
前記コンピュータが、
前記キャラクタオブジェクトと、表示態様の変化を前記コンテンツ内で複数回行う特定オブジェクトとを含む動画を表示するためのデータを生成する処理と、
生成した前記データを前記視聴ユーザ装置に送信する処理と、
動画を配信する配信ユーザの前記コンテンツ毎に、前記特定オブジェクトが配置された配信回からの合計配信回数を記録する処理と、
前記合計配信回数が所定回数に達したときに前記特定オブジェクトの表示態様を変化させる処理と、を実行する動画配信方法。 A video distribution method for distributing, as content, a video including animation of a character object generated based on a movement of an actor, multiple times using a computer connected to a viewing user device which is a device used by a viewing user and which has an application capable of viewing the video, the method comprising:
The computer,
A process of generating data for displaying a moving image including the character object and a specific object whose display mode is changed multiple times within the content;
transmitting the generated data to the viewer user device;
A process of recording a total number of distributions from a distribution time at which the specific object was placed for each of the contents of a distribution user who distributes a video;
and changing a display mode of the specific object when the total number of deliveries reaches a predetermined number.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023062616A JP7497830B2 (en) | 2019-11-20 | 2023-04-07 | Video distribution system and video distribution method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019209385A JP7261727B2 (en) | 2019-11-20 | 2019-11-20 | Video distribution system, video distribution method and server |
JP2023062616A JP7497830B2 (en) | 2019-11-20 | 2023-04-07 | Video distribution system and video distribution method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019209385A Division JP7261727B2 (en) | 2019-11-20 | 2019-11-20 | Video distribution system, video distribution method and server |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023093558A JP2023093558A (en) | 2023-07-04 |
JP7497830B2 true JP7497830B2 (en) | 2024-06-11 |
Family
ID=71570507
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019209385A Active JP7261727B2 (en) | 2019-11-20 | 2019-11-20 | Video distribution system, video distribution method and server |
JP2023062617A Active JP7513997B2 (en) | 2019-11-20 | 2023-04-07 | Video distribution system and video distribution method |
JP2023062616A Active JP7497830B2 (en) | 2019-11-20 | 2023-04-07 | Video distribution system and video distribution method |
JP2024098457A Pending JP2024114741A (en) | 2019-11-20 | 2024-06-19 | Video distribution system and video distribution method |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019209385A Active JP7261727B2 (en) | 2019-11-20 | 2019-11-20 | Video distribution system, video distribution method and server |
JP2023062617A Active JP7513997B2 (en) | 2019-11-20 | 2023-04-07 | Video distribution system and video distribution method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024098457A Pending JP2024114741A (en) | 2019-11-20 | 2024-06-19 | Video distribution system and video distribution method |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP7261727B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7624198B2 (en) | 2020-12-25 | 2025-01-30 | 株式会社コナミデジタルエンタテインメント | Distribution system, computer program and control method for distribution system |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180765A (en) | 2002-11-29 | 2004-07-02 | Konami Computer Entertainment Yokyo Inc | Data delivery system |
JP2010187858A (en) | 2009-02-17 | 2010-09-02 | Taito Corp | Time-linked image generation program and game machine |
JP2012005652A (en) | 2010-06-24 | 2012-01-12 | Konami Digital Entertainment Co Ltd | Game system, method for controlling game system, and program |
JP2012120098A (en) | 2010-12-03 | 2012-06-21 | Linkt Co Ltd | Information provision system |
JP2016167727A (en) | 2015-03-10 | 2016-09-15 | 株式会社 ディー・エヌ・エー | System, method, and program for distributing video or audio |
JP2017055996A (en) | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | Program, game device, and server system |
JP2018036869A (en) | 2016-08-31 | 2018-03-08 | カシオ計算機株式会社 | Object display system, user terminal equipment, object display method, and program |
WO2018142494A1 (en) | 2017-01-31 | 2018-08-09 | 株式会社 ニコン | Display control system and display control method |
JP6382468B1 (en) | 2018-05-08 | 2018-08-29 | グリー株式会社 | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor |
JP6420930B1 (en) | 2018-08-01 | 2018-11-07 | グリー株式会社 | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor |
JP2018191064A (en) | 2017-04-28 | 2018-11-29 | 株式会社コナミデジタルエンタテインメント | Server device and computer program used for the same |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003046978A (en) | 2001-07-31 | 2003-02-14 | Sony Corp | Device and method for downloading animation, animation transmitting/receiving system, program storing medium, and program |
JP6982998B2 (en) | 2014-07-17 | 2021-12-17 | 株式会社スクウェア・エニックス | Video game processing program and video game processing system |
US11237717B2 (en) | 2015-11-04 | 2022-02-01 | Sony Corporation | Information processing device and information processing method |
JP6367450B1 (en) | 2017-10-31 | 2018-08-01 | 株式会社テクテック | Position game interface system, program, and control method |
-
2019
- 2019-11-20 JP JP2019209385A patent/JP7261727B2/en active Active
-
2023
- 2023-04-07 JP JP2023062617A patent/JP7513997B2/en active Active
- 2023-04-07 JP JP2023062616A patent/JP7497830B2/en active Active
-
2024
- 2024-06-19 JP JP2024098457A patent/JP2024114741A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180765A (en) | 2002-11-29 | 2004-07-02 | Konami Computer Entertainment Yokyo Inc | Data delivery system |
JP2010187858A (en) | 2009-02-17 | 2010-09-02 | Taito Corp | Time-linked image generation program and game machine |
JP2012005652A (en) | 2010-06-24 | 2012-01-12 | Konami Digital Entertainment Co Ltd | Game system, method for controlling game system, and program |
JP2012120098A (en) | 2010-12-03 | 2012-06-21 | Linkt Co Ltd | Information provision system |
JP2016167727A (en) | 2015-03-10 | 2016-09-15 | 株式会社 ディー・エヌ・エー | System, method, and program for distributing video or audio |
JP2017055996A (en) | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | Program, game device, and server system |
JP2018036869A (en) | 2016-08-31 | 2018-03-08 | カシオ計算機株式会社 | Object display system, user terminal equipment, object display method, and program |
WO2018142494A1 (en) | 2017-01-31 | 2018-08-09 | 株式会社 ニコン | Display control system and display control method |
JP2018191064A (en) | 2017-04-28 | 2018-11-29 | 株式会社コナミデジタルエンタテインメント | Server device and computer program used for the same |
JP6382468B1 (en) | 2018-05-08 | 2018-08-29 | グリー株式会社 | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor |
JP6420930B1 (en) | 2018-08-01 | 2018-11-07 | グリー株式会社 | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor |
Also Published As
Publication number | Publication date |
---|---|
JP2023093558A (en) | 2023-07-04 |
JP2023083362A (en) | 2023-06-15 |
JP2024114741A (en) | 2024-08-23 |
JP7513997B2 (en) | 2024-07-10 |
JP7261727B2 (en) | 2023-04-20 |
JP2020109943A (en) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6622440B1 (en) | Video distribution system, video distribution method, video distribution program, information processing terminal, and video viewing program | |
US11949934B2 (en) | Video distribution system, video distribution method, video distribution program, information processing terminal, and video viewing program | |
US12015818B2 (en) | Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, video distribution method, and storage medium storing thereon video distribution program | |
JP6526898B1 (en) | Video distribution system, video distribution method, and video distribution program | |
JP6431233B1 (en) | Video distribution system that distributes video including messages from viewing users | |
CN104011788B (en) | For strengthening and the system and method for virtual reality | |
JP6526934B1 (en) | Video distribution system, video distribution method, and video distribution program | |
CN102656542A (en) | Camera navigation for presentations | |
JP7307923B2 (en) | Computer program, method and server device | |
JP6829241B2 (en) | Video distribution system, video distribution method, video distribution program, information processing terminal and video viewing program | |
JP2024114741A (en) | Video distribution system and video distribution method | |
US12155912B2 (en) | System, method, and program for distributing video | |
JP7470335B2 (en) | Video distribution system, video distribution method, video distribution program and server | |
JP6847138B2 (en) | A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors. | |
JP7032461B2 (en) | A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors. | |
JP6526933B1 (en) | Video distribution system, video distribution method, and video distribution program | |
JP6498832B1 (en) | Video distribution system that distributes video including messages from viewing users | |
JP7357865B1 (en) | Program, information processing method, and information processing device | |
JP7296530B2 (en) | Computer program, method and server device | |
JP6764442B2 (en) | Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors. | |
JP6431242B1 (en) | Video distribution system that distributes video including messages from viewing users | |
JP2020005238A (en) | Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7497830 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |