[go: up one dir, main page]

JP7599181B2 - Hall display system and event implementation method using the same - Google Patents

Hall display system and event implementation method using the same Download PDF

Info

Publication number
JP7599181B2
JP7599181B2 JP2023098822A JP2023098822A JP7599181B2 JP 7599181 B2 JP7599181 B2 JP 7599181B2 JP 2023098822 A JP2023098822 A JP 2023098822A JP 2023098822 A JP2023098822 A JP 2023098822A JP 7599181 B2 JP7599181 B2 JP 7599181B2
Authority
JP
Japan
Prior art keywords
image
screen
camera
sub
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023098822A
Other languages
Japanese (ja)
Other versions
JP2023130363A (en
Inventor
晶麗 平野
崇 堂前
Original Assignee
株式会社ユークス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ユークス filed Critical 株式会社ユークス
Publication of JP2023130363A publication Critical patent/JP2023130363A/en
Application granted granted Critical
Publication of JP7599181B2 publication Critical patent/JP7599181B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、ホール用表示システム及びこれを用いて行うイベントの実施方法に関する。さらに詳しくは、ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システム及びこれを用いて行うイベントの実施方法に関する。 The present invention relates to a hall display system and a method for implementing an event using the same. More specifically, the present invention relates to a hall display system that includes a main screen that displays an animated character operating in the hall as a main character image, a sub-screen that is arranged in the hall separately from the main screen and is capable of displaying an image different from that of the main screen, and a computer that generates the images of the main screen and the sub-screen, and a method for implementing an event using the same.

3D画像を表示するホール用表示システム及びこれを用いて行うイベントの実施方法としては、次の特許文献1の如きものが存在している。この劇場システムでは、メインスクリーンにおいて、ホログラムの前方スクリーンと後方スクリーンの組み合わせで臨場感を得ることを目的としている。一方、近年、さらなる臨場感を求め、メインスクリーンの横にサブスクリーンを設け、例えばキャラクターを異なる角度で表示することで、臨場感を向上させる試みがなされている。 As an example of a hall display system that displays 3D images and a method for implementing an event using this system, one such system is disclosed in the following Patent Document 1. This theater system aims to achieve a sense of realism by combining a holographic front screen and rear screen on the main screen. Meanwhile, in recent years, in pursuit of even greater realism, attempts have been made to improve the sense of realism by setting up a sub-screen next to the main screen and displaying characters at different angles, for example.

特表2017-509027号公報Special table 2017-509027 publication

かかる従来の実情に鑑みて、本発明は、さらに臨場感の高まるホール用表示システム及びこれを用いて行うイベントの実施方法を提供することを目的とする。 In light of this current situation, the present invention aims to provide a hall display system that further enhances the sense of realism, and a method for implementing an event using the same.

上記目的を達成するため、本発明に係るホール用表示システムの特徴は、ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えた構成において、前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、前記キャラクターは映像として表示される第二カメラを所持し、前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、前記生成された映像を前記サブスクリーンに表示し、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されることにある。 In order to achieve the above object, the hall display system according to the present invention is characterized in that it comprises a main screen that displays an animated character operating in the hall as a main character image, a sub-screen that is placed in the hall separately from the main screen and is capable of displaying an image different from that of the main screen, and a computer that generates images for the main screen and the sub-screen, further comprising a first camera that captures the audience seats of the spectators watching both screens, the character has a second camera that is displayed as an image, the range of the character that falls within the virtual field of view of the second camera is generated as an image in the field of view of the second camera, and the generated image is displayed on the sub-screen, and further comprises a space in which the actor operates, a marker that is attached to the body of the actor, and a motion capture device that captures the movements of the actor with the marker, in a place not visible from the audience seats, and the computer has a rendering function that generates a character image in real time that is linked to the captured movements of the actor, the second camera generates an image based on the marker of the actor that exists in the vicinity of where the camera is displayed, and the virtual field of view is determined based on the marker.

上記特徴構成によれば、観客は、第一カメラにより撮影された客席の映像に映る。一方で、キャラクターは、映像として表示される第二カメラを所持する。よって、キャラクターが自身が所持する第二カメラで客席(観客)を撮影する動きをした際に、第二カメラの仮想視野に入るキャラクターの範囲を第二カメラによる視野方向で映像として生成する。そして、その生成された映像をサブスクリーンに表示するので、臨場感を向上させることができ、キャラクターと観客との一体感も増す。 According to the above characteristic configuration, the audience appears in the image of the auditorium captured by the first camera. Meanwhile, the character carries a second camera that is displayed as an image. Therefore, when the character makes a movement to capture the audience (audience) with the second camera that he or she carries, the range of the character that falls within the virtual field of view of the second camera is generated as an image in the field of view of the second camera. The generated image is then displayed on the sub-screen, improving the sense of realism and increasing the sense of unity between the character and the audience.

上記構成において、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定される。これにより、メインキャラクター映像とキャラクターの第二カメラで撮影された選択映像との違いによる違和感を抑えられるので、選択映像のリアリティが増し、臨場感をさらに向上させることができる。 In the above configuration, the system further comprises, in a location not visible from the audience seats, a space in which the actor moves, a marker attached to the actor's body, and a motion capture device that captures the actor's movements using the marker, the computer has a rendering function that generates in real time a character image that is linked to the captured actor's movements, the second camera generates an image based on the actor's marker located in the vicinity of where the camera is displayed, and the virtual field of view is determined based on the marker. This reduces the sense of incongruity caused by differences between the main character image and the selected image captured by the second camera of the character, increasing the reality of the selected image and further enhancing the sense of presence.

上記いずれかの構成において、前記サブスクリーンには、前記第二カメラの仮想視野の前記客席の映像が表示されるものであるとよく、また、前記第二カメラの仮想視野に入る前記客席の範囲を前記第一カメラによる映像から選択映像として選択し、前記サブスクリーンには、前記第二カメラの仮想視野の前記客席の映像及び前記仮想視野に含まれる前記キャラクターの映像が共に表示されるもの(所謂、自撮り映像)であってもよい。特に、自撮り映像では、キャラクターと共に観客が映るので、一体感やライブ感が高まる。 In any of the above configurations, it is preferable that the sub-screen displays an image of the audience in the virtual field of view of the second camera, and the range of the audience that falls within the virtual field of view of the second camera is selected as a selected image from the image captured by the first camera, and the sub-screen displays both the image of the audience in the virtual field of view of the second camera and an image of the character that is included in the virtual field (so-called self-portrait image). In particular, the self-portrait image shows the audience together with the character, enhancing the sense of unity and liveliness.

上記いずれかの構成に加え、前記サブスクリーンに表示される前記客席の映像として前記メインキャラクター映像の表示される基準となる実時刻T0より微小時間Δtだけ遅延した過去時刻(T0-Δt)の映像を用い、前記サブスクリーンの映像は実時刻T0より微小時間Δtだけ遅延した過去時刻(T0-Δt)の映像を用いるものであるとよい。これにより、観客は実時刻T0のメインキャラクター映像と、過去時刻(T0-Δt)の選択映像を同時に見ることとなる。実時刻と過去時刻とを同時に見ると共に、サブスクリーンに遅れた映像が現れることで、中央からサブへと人の注意が移り、その効果によって、空間的な広がり、臨場感をより一層感じるようになる。 In addition to any of the above configurations, it is preferable that the image of the audience displayed on the sub-screen is an image from a past time (T0-Δt) delayed by an infinitesimal time Δt from the real time T0 that is the reference for displaying the main character image, and the image on the sub-screen is an image from a past time (T0-Δt) delayed by an infinitesimal time Δt from the real time T0. This allows the audience to simultaneously see the main character image from real time T0 and a selected image from a past time (T0-Δt). Seeing the real time and the past time simultaneously, and seeing the delayed image on the sub-screen, shifts people's attention from the center to the sub-screen, which has the effect of making the audience feel a greater sense of spatial expansion and realism.

前記メインスクリーンは、ステージ上に傾斜配置されホログラム映像を表示するホログラム再生スクリーンと、ステージ背面に配置される背面スクリーンとを備え、これら両スクリーンの合成画像を観客に表示するものであるとよい。 The main screen preferably comprises a hologram playback screen that is positioned at an angle above the stage and displays hologram images, and a rear screen that is positioned behind the stage, and displays a composite image of both screens to the audience.

前記サブスクリーンは、少なくとも前記メインスクリーンの左右及び/または上に配置されているとよい。これにより、左右及び/または左右への広がりを持たせることができる。 The sub-screens are preferably positioned at least to the left and right and/or above the main screen. This allows for left and right and/or right-left spread.

また、上記目的を達成するため、本発明に係るイベントの実施方法の特徴は、ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システムを用いて行うイベントの実施方法において、前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、前記キャラクターは映像として表示される第二カメラを所持し、前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、前記生成された映像を前記サブスクリーンに表示し、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されることにある。
In addition, in order to achieve the above-mentioned object, a feature of the method of implementing an event according to the present invention is that the method of implementing an event using a hall display system comprising a main screen which displays an animated character operating in a hall as a main character image, a sub-screen which is arranged in the hall separately from the main screen and which is capable of displaying an image different from that of the main screen, and a computer which generates images for the main screen and the sub-screen, further comprises a first camera which photographs the audience seats of spectators watching both screens, the character has a second camera which is displayed as an image, the range of the character which falls within the virtual field of view of the second camera is generated as an image in the direction of the field of view of the second camera, and the generated image is displayed on the sub-screen, and further comprises, in a place not visible from the audience seats, a space in which an actor operates, a marker which is attached to the body of the actor, and a motion capture device which captures the movements of the actor with the marker, the computer has a rendering function which generates in real time a character image which is linked to the captured movements of the actor, the image of the second camera is generated based on the marker of the actor which is located in the vicinity where the camera is displayed, and the virtual field of view is determined based on the marker.

上記本発明に係るホール用表示システム及びこれを用いて行うイベントの実施方法の特徴によれば、さらに臨場感の高まるホール用表示システム及びこれを用いて行うイベントの実施方法を提供しえるに至った。 The above-mentioned features of the hall display system and event implementation method using the same according to the present invention make it possible to provide a hall display system and event implementation method using the same that provide an even more realistic feeling.

本発明の他の目的、構成及び効果については、以下の発明の実施の形態の項から明らかになるであろう。 Other objects, configurations and advantages of the present invention will become apparent from the following detailed description of the preferred embodiments of the invention.

本発明のホールにおける構成を示す斜視図である。FIG. 2 is a perspective view showing the configuration of a hall according to the present invention. ステージ周りの概略の構成を示す側面図である。FIG. 2 is a side view showing a schematic configuration around the stage. 本発明のシステム構成を示す図である。FIG. 1 is a diagram showing a system configuration of the present invention. メインスクリーンの映像を示す図である。FIG. 13 is a diagram showing an image on a main screen. サブスクリーンに映し出される撮影映像を示す図である。FIG. 13 is a diagram showing a captured image projected on a sub-screen. サブスクリーンに映し出される自撮り映像を示す図である。FIG. 13 is a diagram showing a self-portrait image displayed on a sub-screen. メイン、サブスクリーンにおけるキャラクターの姿勢と時間との関係を示す図である。FIG. 13 is a diagram showing the relationship between the posture of a character on the main and sub screens and time. キャラクターが客席を撮影する場合のアクターの状態を示す図である。FIG. 13 shows the state of an actor when the character takes a photo of the audience. キャラクターが客席を撮影する様子を示す図である。FIG. 13 is a diagram showing a character photographing the audience. 客席の映像とキャラクターとの撮影画像との関係を示す図である。A diagram showing the relationship between video of the audience and photographed images of characters. キャラクターが客席を撮影する場合のフロー図である。FIG. 11 is a flow diagram for when a character takes a photo of the audience. キャラクターが自撮りする場合の図6A相当図である。FIG. 6B is a diagram equivalent to FIG. 6A when a character takes a selfie. キャラクターが自撮りする場合の図6B相当図である。FIG. 6B is a diagram equivalent to FIG. 6B when a character takes a selfie. キャラクターの映り込み映像を示す図である。FIG. 13 is a diagram showing a reflected image of a character. キャラクターが自撮りする場合のフロー図である。FIG. 11 is a flow diagram for when a character takes a selfie. ホールにおける構成の第2の実施形態を示す斜視図である。FIG. 11 is a perspective view showing a second embodiment of the configuration in the hall. ホールにおける構成の第3の実施形態を示す斜視図である。FIG. 11 is a perspective view showing a third embodiment of the configuration in the hall. ホールにおける構成の第4の実施形態を示す斜視図である。FIG. 11 is a perspective view showing a fourth embodiment of the configuration in the hall. (a)はステージ周り概略構成の第5の実施形態を示す側面図、(b)は(a)の平面図である。13A is a side view showing a schematic configuration around a stage according to a fifth embodiment, and FIG. 13B is a plan view of FIG. ステージ周り概略構成の第6の実施形態を示す平面図である。FIG. 13 is a plan view showing a schematic configuration around a stage according to a sixth embodiment. ステージ周り及び客席の概略構成の第7の実施形態を示す平面図である。A plan view showing the schematic configuration of the stage and audience seats according to a seventh embodiment.

次に、適宜添付図面を参照しながら、本発明をさらに詳しく説明する。
本発明に係るホール用表示システム1は、図1~3に示すように、大略、メインスクリーン2、左右一対のサブスクリーン3、実照明器具4、スピーカー6、両スクリーン2,3を見る観客の客席AUの映像を撮影する第一カメラ11、コンピュータ50をホールHまたはその近くに備えている。
Next, the present invention will be described in more detail with reference to the accompanying drawings as appropriate.
As shown in Figures 1 to 3, the hall display system 1 of the present invention roughly comprises a main screen 2, a pair of left and right sub-screens 3, lighting fixtures 4, speakers 6, a first camera 11 for capturing images of the audience seats AU of spectators watching both screens 2 and 3, and a computer 50 located in or near the hall H.

ホール用表示システム1は、さらに第三カメラ13及びマイク14をホールHとは別室に備えている。第三カメラ13は、客席AUからは見えない隔離スペースSに設置され、身体に複数のマーカーmを装着したアクターACの動作を撮影し、モーションキャプチャモジュールMC51に送る。マイク14は、声優またはボーカリストの声を録音しリップシンクモジュールLS54に送る。 The hall display system 1 further includes a third camera 13 and a microphone 14 in a room separate from the hall H. The third camera 13 is installed in an isolated space S that is not visible from the audience seats AU, and captures the movements of an actor AC who is wearing multiple markers m on his body, and sends the footage to a motion capture module MC51. The microphone 14 records the voice of the voice actor or vocalist and sends the footage to a lip sync module LS54.

ホールHに設置されるメインスクリーン(メインスクリーン装置)2は、ステージSTに斜めに設置されるホログラム再生スクリーン2a、ステージSTの背面に設置される背面スクリーン2b、ホログラム再生スクリーン2aに映像を映すホログラムプロジェクタ2c、背面スクリーン2bに映像を映す背面プロジェクタ2dを備えている。背面スクリーン2bの映像は、ホログラム再生スクリーン2aを透過して、このホログラム再生スクリーン2aの映像と共に合成されて客席AUから見える。 The main screen (main screen device) 2 installed in Hall H is equipped with a hologram reproduction screen 2a installed diagonally on the stage ST, a rear screen 2b installed behind the stage ST, a hologram projector 2c that projects images onto the hologram reproduction screen 2a, and a rear projector 2d that projects images onto the rear screen 2b. The image on the rear screen 2b passes through the hologram reproduction screen 2a and is composited with the image on the hologram reproduction screen 2a and is visible from the audience seats AU.

一方、各サブスクリーン(サブスクリーン装置)3は、左右の横第一スクリーン3a1及び横第二スクリーン3a2(横スクリーン3a)と、これら両横スクリーン3aにそれぞれ映像を映す第一サブスクリーンプロジェクタ3b1及び第二サブスクリーンプロジェクタ(後者は図示省略、両方併せてサブスクリーンプロジェクタ3b)を備えている。 On the other hand, each sub-screen (sub-screen device) 3 is equipped with a first horizontal screen 3a1 and a second horizontal screen 3a2 (horizontal screen 3a) on the left and right, and a first sub-screen projector 3b1 and a second sub-screen projector (the latter is not shown, both collectively referred to as the sub-screen projector 3b) that project images onto these horizontal screens 3a, respectively.

第一カメラ11は、例えば、ホログラム再生スクリーン2a及び背面スクリーン2bよりも客席AUに近い位置で客席AUに対し真正面から相対(正対)して配置(固定)され、客席AU全体が大凡含まれる範囲(視野)を撮影する。客席AUの真正面から客席AU全体を撮影するので、後述する選択映像MSIにおいて、客席AUの映像BSIとの差異や歪みが生じにくくなり、選択映像MSIの違和感も解消される。また、第一カメラ11は大部分の客席AUをカバーするので、選択映像に映らない客席AUの部分(範囲)が減ることで観客の多くに選択映像に映る機会を与えることができ、臨場感及び一体感も増す。第一カメラ11には、例えば広角カメラが用いられる。また、本発明において、キャラクターCHは、第二カメラとしての仮想カメラCAを有し、客席AUを撮影する動作を行う。 The first camera 11 is, for example, positioned (fixed) facing the audience AU directly from the front at a position closer to the audience AU than the hologram reproduction screen 2a and the rear screen 2b, and captures a range (field of view) that includes roughly the entire audience AU. Since the entire audience AU is captured from directly in front of the audience AU, differences and distortions from the audience AU image BSI in the selected image MSI described below are unlikely to occur, and the sense of incongruity in the selected image MSI is also eliminated. In addition, since the first camera 11 covers most of the audience AU, the portion (range) of the audience AU that is not captured in the selected image is reduced, giving more spectators an opportunity to be captured in the selected image, and increasing the sense of realism and unity. For example, a wide-angle camera is used as the first camera 11. In addition, in the present invention, the character CH has a virtual camera CA as a second camera and performs the operation of capturing the audience AU.

コンピュータ50は、モーションキャプチャモジュールMC51、リアルタイムレンダリングモジュールRR52、映像合成モジュールIM53、リップシンクモジュールLS54、バックステージイメージ生成モジュールBI55、バーチャルライトイメージ生成モジュールVL56、リアルライトコントローラRC58、音楽生成モジュールSG59、各モジュールの時点合わせの基準となるタイムマネジメントコントローラTM60を備えている。 The computer 50 includes a motion capture module MC51, a real-time rendering module RR52, a video synthesis module IM53, a lip sync module LS54, a backstage image generation module BI55, a virtual light image generation module VL56, a real light controller RC58, a music generation module SG59, and a time management controller TM60 that serves as the basis for synchronizing the time of each module.

モーションキャプチャモジュールMC51は、第三カメラ13より撮影されたアクターACの動作を分析し、リアルタイムレンダリングモジュールRR52において動作するキャラクターの3D映像を生成する。第三カメラ13は複数台備えられており、アクターACを異なった角度から撮影し、モーションキャプチャーを行う。通常は、正面の第三カメラ13の撮影方向がメインキャラクターを生成する際の基本方向視D1となる。 The motion capture module MC51 analyzes the movements of the actor AC captured by the third camera 13, and generates a 3D image of the moving character in the real-time rendering module RR52. Multiple third cameras 13 are provided, and capture images of the actor AC from different angles to perform motion capture. Normally, the shooting direction of the front third camera 13 becomes the basic viewing direction D1 when generating the main character.

バーチャルライトイメージ生成モジュールVL56はバーチャル空間での照明のイメージ像を作成し、リアルライトコントローラRC58と相まって光の情報をバックステージイメージ生成モジュールBI55とリアルタイムレンダリングモジュールRR52に送り、照明の状態と矛盾しない陰影付きの映像を生成する。実照明光制御部RL61はリアルライトコントローラRC58に制御され、実照明器具4を動作させてホールH内の実照明を行う。 The virtual light image generation module VL56 creates an image of the lighting in the virtual space, and in conjunction with the real light controller RC58, sends light information to the backstage image generation module BI55 and the real-time rendering module RR52 to generate a shaded image consistent with the lighting conditions. The real lighting control unit RL61 is controlled by the real light controller RC58 and operates the real lighting fixtures 4 to provide real lighting in the hall H.

第一カメラ11により撮影された客席AUの映像BSIは、映像合成モジュールIM53で仮想カメラCAの仮想視野VSの範囲でトリミング(選択)され、キャラクターCHが撮影した撮影映像MSI1としてサブスクリーンプロジェクタ3bで横スクリーン3aに映される。後述する自撮りの場合、上記と同様にトリミングされた客席AUの映像(後述するサブ背景映像BSI2)は、さらに先のリアルタイムレンダリングモジュールRR52のサブキャラクター映像SIと合成され、キャラクターCHの自撮り映像MSI2としてサブスクリーンプロジェクタ3bで横スクリーン3aに映される。一方、ホログラム再生スクリーン2a、背面スクリーン2bには、リアルタイムレンダリングモジュールRR52の映像が、それぞれホログラムプロジェクタ2c、背面プロジェクタ2dによりメインキャラクター映像MIとして映し出される。 The image BSI of the audience AU captured by the first camera 11 is trimmed (selected) by the image synthesis module IM53 to the range of the virtual field of view VS of the virtual camera CA, and projected by the sub-screen projector 3b on the horizontal screen 3a as the captured image MSI1 of the character CH. In the case of a selfie, which will be described later, the image of the audience AU trimmed in the same manner as above (sub-background image BSI2, which will be described later) is further composited with the sub-character image SI of the real-time rendering module RR52, and projected by the sub-screen projector 3b on the horizontal screen 3a as the selfie image MSI2 of the character CH. Meanwhile, the image of the real-time rendering module RR52 is projected as the main character image MI on the hologram playback screen 2a and rear screen 2b by the hologram projector 2c and rear projector 2d, respectively.

リップシンクモジュールLS54はマイク14により録音した声優等の音声を上記メインキャラクター映像に合わせて遅延させる。また、音楽生成モジュールSG59は、BGMや効果音を生成し、これらのBGM等はマイク14の音声と共にサウンドシステム62を通じてスピーカー6によりホールHに流される。 The lip sync module LS54 delays the voice of the voice actor, etc., recorded by the microphone 14 to match the main character image. In addition, the music generation module SG59 generates background music and sound effects, which are then sent to Hall H by the speaker 6 via the sound system 62 along with the voice from the microphone 14.

図1,5に示すように、メインスクリーン2には、キャラクターCH(髪の毛ありCH-A、髪の毛無しCH-B)が映し出されている。これに対し、左右一対のサブスクリーン3には、図1,4B,Cに示すように、選択映像MSIとしてキャラクターCH(CH-A,CH-B)が仮想カメラCAで撮影した映像MSI1,MSI2が映し出されている。なお、同図の例は、左右一対のサブスクリーン3に異なる映像を表示させているが、もちろん同じ選択映像MSIを表示させてもよい。 As shown in Figures 1 and 5, a character CH (CH-A with hair, CH-B without hair) is displayed on the main screen 2. In contrast, a pair of left and right sub-screens 3 display images MSI1 and MSI2 of the character CH (CH-A, CH-B) captured by a virtual camera CA as a selected image MSI, as shown in Figures 1, 4B and C. Note that in the example shown in the figure, different images are displayed on the pair of left and right sub-screens 3, but of course the same selected image MSI may also be displayed.

メインスクリーン2の映像を詳述すると、図4Aに示すように、メインキャラクター映像MIは、メインキャラクター本体映像MI1及びメインキャラクターの陰影MI2とよりなる。さらにこれにメイン背景映像BMIが加わり、メイン合成映像MMIができる。 To elaborate on the image on the main screen 2, as shown in FIG. 4A, the main character image MI is made up of the main character main body image MI1 and the main character's shadow MI2. A main background image BMI is further added to this to create the main composite image MMI.

一方、図4Bに示す例では、横第一スクリーン3a1には、キャラクターCHが撮影した客席AUの映像が撮影映像MSI1として映し出されている。また、図4Cに示す例では、横第二スクリーン3a2には、キャラクターCHが客席AUをバックに自撮りした自撮り映像MSI2が映し出されている。この自撮り映像MSI2において、サブキャラクター映像SIは、サブキャラクター本体映像SI1及びサブキャラクターの陰影SI2よりなる。そして、さらにサブ背景映像(客席AUの映像の一部)BSI2が加わることにより、自撮り映像MSI2ができる。 In the example shown in FIG. 4B, on the first horizontal screen 3a1, an image of the audience AU taken by the character CH is displayed as a shot image MSI1. In the example shown in FIG. 4C, on the second horizontal screen 3a2, a selfie image MSI2 taken by the character CH with the audience AU in the background is displayed. In this selfie image MSI2, the sub-character image SI is made up of the sub-character main body image SI1 and the sub-character's shadow SI2. Then, by adding a sub-background image (part of the image of the audience AU) BSI2, the selfie image MSI2 is created.

メインスクリーン2におけるメイン合成映像MMIは、基本方向視D1でレンダリングされたキャラクターを利用している。この基本方向視D1は、第三カメラ13の方向視と一致する場合もあれば異なる場合もある。一方、基本方向視D1とは異なる方向視D2は、たとえば第一カメラ11の方向視D3を用いることができる。よって、自撮りしているキャラクターCHはメインスクリーン2では客席AUに対し後ろ向きであるが、サブスクリーン3では前向きとなる。 The main composite image MMI on the main screen 2 uses a character rendered in the basic direction view D1. This basic direction view D1 may or may not match the direction view of the third camera 13. On the other hand, the direction view D2 different from the basic direction view D1 may be, for example, the direction view D3 of the first camera 11. Therefore, the character CH taking the selfie faces backwards towards the audience AU on the main screen 2, but faces forward on the sub-screen 3.

ここで、図6,7を参照しながら、キャラクターCHの撮影映像MSI1の生成について詳述する。
キャラクターCH(CH-A)が自身の体の前で仮想カメラCAである第二カメラを客席AUに向けた場合、その映像には客席AUのみが写される。この客席AUの映像BSIには、第一カメラ11の映像が用いられる(ステップS11,12)。
Now, the generation of the photographed image MSI1 of the character CH will be described in detail with reference to FIGS.
When the character CH (CH-A) points the second camera, which is a virtual camera CA, in front of his/her body toward the audience AU, only the audience AU is captured in the image. The image of the first camera 11 is used for the image BSI of the audience AU (steps S11 and S12).

例えば、キャラクターCH(CH-A)が仮想カメラCAである第二カメラとしてスマートフォンSPを手に持って撮影する場合、図6A,6Bに示すように、仮想カメラCAの位置(x,y,z)は、仮想カメラCAに最も近いアクターACの腕のマーカーm0の位置(x0,y0,z0)を基準にスマートフォンSP及びキャラクターCHの設定寸法から算出される。アクターACが、実際にスマートフォンを持つ必要はない。そして、カメラCAの位置に仮想視野VSを付与することで、図6Cに示す如く、第一カメラ11の映像BSIにおけるトリミング範囲TR(TR1)が決定される。トリミング範囲TRは、映像BSIの平面位置情報であるので、x座標(ステージSTの幅(横)方向)及びz座標(鉛直方向)で表される(ステップS13)。そして、この平面位置情報に基づいてトリミングされた映像MSI1(ステップS14)が、サブスクリーン3に表示される(ステップS15)。 For example, when a character CH (CH-A) takes a picture by holding a smartphone SP in his/her hand as a second camera, which is a virtual camera CA, as shown in Figs. 6A and 6B, the position (x, y, z) of the virtual camera CA is calculated from the set dimensions of the smartphone SP and the character CH based on the position (x0, y0, z0) of the marker m0 on the arm of the actor AC, which is closest to the virtual camera CA. The actor AC does not need to actually hold the smartphone. Then, by assigning a virtual field of view VS to the position of the camera CA, the trimming range TR (TR1) in the image BSI of the first camera 11 is determined as shown in Fig. 6C. The trimming range TR is the planar position information of the image BSI, and is therefore expressed by the x coordinate (the width (horizontal) direction of the stage ST) and the z coordinate (vertical direction) (step S13). Then, the image MSI1 (step S14) trimmed based on this planar position information is displayed on the sub-screen 3 (step S15).

次に、図8,9を参照しながら、キャラクターCH(CH-B)の自撮り映像MSI2の生成について詳述する。
キャラクターCHが自身の背中を客席AUに向けて自撮りした場合、その映像には客席AU及びキャラクターCHの体の一部が写される。客席AUの映像としてのサブ背景映像BSI2には、上述と同様に第一カメラ11の映像BSIを図6Cのトリミング範囲TR(TR2)でトリミング(ステップS11~14)した映像が用いられる。
Next, the generation of the selfie image MSI2 of the character CH (CH-B) will be described in detail with reference to FIGS.
When the character CH takes a selfie with his/her back facing the audience AU, the image shows the audience AU and part of the character CH's body. As described above, the image BSI from the first camera 11 is trimmed (steps S11 to S14) in the trimming range TR (TR2) in Fig. 6C for the sub background image BSI2 serving as the image of the audience AU.

ここで、カメラCAの位置(x’,y’,z’)は、上述と同様に基準マーカーm0’の位置(x0’,y0’,z0’)を基準に算出される(ステップS21)。また、映り込む身体の位置情報は、図8Cの例では、腕の位置、顔及び身体の位置情報を含み、先のx座標及びz座標にy座標(ステージSTの前後方向)を加えた3次元位置情報である(ステップS22,23)。この位置情報は、アクターACの各マーカーmの位置情報に基づく。そして、これらの3次元位置情報に基づき、仮想カメラCAの仮想視野VSに映り込むキャラクターCHの部分(範囲)が決定され(ステップS24)、当該部分がレンダリング処理され、サブキャラクター映像SIを生成する(ステップS25)。そして、トリミングされたサブ背景映像BSI2とレンダリング処理されたキャラクターCHのサブキャラクター映像SIとが合成された自撮り映像MSI2(ステップS26)が、サブスクリーン3に表示される(ステップS27)。 Here, the position (x', y', z') of the camera CA is calculated based on the position (x0', y0', z0') of the reference marker m0' as described above (step S21). In addition, the position information of the reflected body is three-dimensional position information including the position information of the arm, face and body in the example of FIG. 8C, and is obtained by adding the y coordinate (front and rear direction of the stage ST) to the previous x and z coordinates (steps S22, S23). This position information is based on the position information of each marker m of the actor AC. Then, based on this three-dimensional position information, the part (range) of the character CH reflected in the virtual field of view VS of the virtual camera CA is determined (step S24), and the part is rendered to generate the sub-character image SI (step S25). Then, the self-portrait image MSI2 (step S26) in which the trimmed sub-background image BSI2 and the rendered sub-character image SI of the character CH are combined is displayed on the sub-screen 3 (step S27).

図1において、実照明器具4からは、実照明光L1が客席AU、ステージST並びにキャラクターCHに照射されている。 In FIG. 1, real illumination light L1 is emitted from the real lighting device 4 onto the audience seats AU, the stage ST, and the characters CH.

図1,3~5に示すように、メインスクリーン2では実時刻T0のキャラクターCHが映し出されている。これに対し、サブスクリーン3では、微小時間Δtだけ遡った過去時刻(T0-Δt)のキャラクターCHが撮影した映像MSI1,2が映し出されている。これら各スクリーンの映像は、各時刻に合わせた実照明器具4の実照明光L1の情報に基づき陰影や背景が生成される。 As shown in Figures 1, 3 to 5, the main screen 2 displays the character CH at real time T0. In contrast, the sub-screen 3 displays images MSI1 and 2 captured by the character CH at a time (T0-Δt) going back an infinitesimal time Δt. The images on each screen have shadows and backgrounds generated based on information about the real illumination light L1 from the real lighting fixture 4 that is set to each time.

映像MSI1,2における客席AUの映像BSI1,2も、微小時間Δtだけ遡った過去時刻(T0-Δt)の映像が用いられている。そして、特に、自撮り映像MSI2の場合、サブキャラクター映像SIも過去時刻(T0-Δt)のものを用いているので、照明光の色が異なる等の矛盾も生じなく、観客はとても自然な感覚をもってサブスクリーン3の映像を受け入れるため、臨場感が自然に認識されることとなる。図5の例では、実時刻(T0)のキャラクターCHは、過去時刻(T0-Δt)での自撮りの姿勢から客席AUに身体を向ける途中の体勢であり、図中の破線の円で囲まれたキャラクターCHがスクリーンに映し出される。 The images BSI1,2 of the audience AU in the images MSI1,2 also use images from a past time (T0-Δt) going back an infinitesimal time Δt. In particular, in the case of the selfie image MSI2, the sub-character image SI also uses an image from a past time (T0-Δt), so there are no inconsistencies such as different lighting colors, and the audience accepts the image on the sub-screen 3 with a very natural sensation, resulting in a natural sense of realism. In the example of Figure 5, the character CH at real time (T0) is in the process of turning his body from the selfie pose at the past time (T0-Δt) towards the audience AU, and the character CH enclosed in a dashed circle in the figure is projected on the screen.

ところで、客席AUの映像BSI1,2は、ハードウエアの性能上、微小時間Δtの遅延を生じる可能性がある。自撮り映像MSI2の場合、ハードウエアの性能に合わせて、サブキャラクター映像SIも微小時間Δtだけ遡った過去の映像を用いても良く、微小時間Δtをハードウエアの遅延の映像合成モジュールIM53のソフトウエア遅延とで調整してもよい。微小時間Δtは望ましくは0.1秒~0.5秒とすると好適に実施可能である。0.1秒以上あれば映像の違いを認識でき、0.5秒を超えると不自然に感じられるからである。 However, the images BSI1 and 2 of the audience seating AU may be delayed by a small time Δt due to the performance of the hardware. In the case of the selfie image MSI2, the sub-character image SI may use an image going back by the small time Δt depending on the performance of the hardware, and the small time Δt may be adjusted by adjusting the hardware delay with the software delay of the image synthesis module IM53. The small time Δt is preferably set to 0.1 to 0.5 seconds for optimal implementation. If it is 0.1 seconds or more, the difference in the images can be recognized, but if it exceeds 0.5 seconds it will appear unnatural.

メインスクリーン2には、メインキャラクター本体映像MI1、メインキャラクターの陰影MI2及びメイン背景映像BMIが合成されて表示される。これらの要素は、ホログラム再生スクリーン2a、背面スクリーン2bに次のような組み合わせで表示されうる。
ケース1)ホログラム再生スクリーン2a;メインキャラクター本体映像MI1、背面スクリーン2b;メインキャラクターの陰影MI2及びメイン背景映像BMI
ケース2)ホログラム再生スクリーン2a;メインキャラクター本体映像MI1及びメインキャラクターの陰影MI2、背面スクリーン2b;メイン背景映像BMI
ケース3)ホログラム再生スクリーン2a;メインキャラクター本体映像MI1、メインキャラクターの陰影MI2及びメイン背景映像BMIの一部(BMI1)、背面スクリーン2b;メイン背景映像BMIの残余(BMI2)
これらの映像のスクリーン割り付けは適宜必要に応じて採用される。
A main character main body image MI1, a main character shadow MI2, and a main background image BMI are synthesized and displayed on the main screen 2. These elements can be displayed on the hologram reproduction screen 2a and the rear screen 2b in the following combinations.
Case 1) Hologram playback screen 2a: main character body image MI1, rear screen 2b: main character shadow MI2 and main background image BMI
Case 2) Hologram playback screen 2a: main character body image MI1 and main character shadow MI2, rear screen 2b: main background image BMI
Case 3) Hologram playback screen 2a: main character body image MI1, main character shadow MI2, and part of main background image BMI (BMI1), rear screen 2b: remainder of main background image BMI (BMI2)
The screen layout of these images will be adapted as appropriate according to need.

なお、上記では、アクターACの動作するスペースやモーションキャプチャ装置を設けた。しかし、図3に示すように、上記イベントの実施の映像、音響、照明等のコントロールを全てレコーディングモジュールRS57に記録し、これを再生させることによりイベントを実施してもよい。 In the above, a space in which the actor AC can operate and a motion capture device are provided. However, as shown in FIG. 3, the event may be carried out by recording all of the controls for the video, audio, lighting, etc., for the event in the recording module RS57 and playing them back.

さらに、レコーディングモジュールRS57に記録された自撮り映像MSI2等の選択映像を、例えば、客席AUの観客の携帯端末等に送信(配信)したり、SNS(ソーシャル・ネットワーキング・サービス:Social Networking Service)等のネットワーク上にリアルタイムで投稿(発信)するようにしてもよい。これにより、客席AUにいる観客以外のファンとも一体感が得られる。 Furthermore, selected images such as the selfie image MSI2 recorded in the recording module RS57 may be sent (distributed) to, for example, mobile devices of spectators in the audience seating AU, or posted (transmitted) in real time on a network such as a social networking service (SNS). This allows a sense of unity to be felt with fans other than the spectators in the audience seating AU.

次に、本発明の別実施形態について説明する。上記第一実施形態と同様の部材には同一の符号を附してある。
上記実施形態において、仮想カメラCAをスマートフォンSPとしたが、これに限られるものではなく、各種の撮影機器でも同様に適用可能である。また、スマートフォンSPを手に持つ例を示したが、キャラクターCHの他の部位でもよく、さらに自撮り棒等の他の撮影道具を用いる撮影手法でも構わない。
Next, another embodiment of the present invention will be described. The same members as those in the first embodiment are designated by the same reference numerals.
In the above embodiment, the virtual camera CA is a smartphone SP, but the present invention is not limited to this and can be applied to various types of photographing devices. Also, although an example in which the smartphone SP is held in the hand is shown, it may be another part of the character CH, or a photographing method using another photographing tool such as a selfie stick may be used.

上記実施形態において、第一カメラ11を客席AUとステージSTの間に配置した。しかし、客席AU全体をほぼ網羅して撮影できるのであれば、第一カメラ11の位置はこれに限られない。例えば、メインスクリーン2(ホログラム再生スクリーン2a)の上方又は後方で客席AUの真正面から客席AU全体を撮影するように第一カメラ11を固定してもよい。この位置であれば、第一カメラ11の位置とメインスクリーン2に映し出されるキャラクターCHの位置が客席AUに対しほぼ同じとなるので、自撮り映像MSI2のリアリティが増す。但し、第一カメラ11にメインスクリーン2に映し出されるキャラクターCHが映り込まないようにしなければならない。 In the above embodiment, the first camera 11 is placed between the audience seats AU and the stage ST. However, the position of the first camera 11 is not limited to this, so long as it can capture an image of almost the entire audience seats AU. For example, the first camera 11 may be fixed above or behind the main screen 2 (hologram reproduction screen 2a) so as to capture an image of the entire audience seats AU from directly in front of the audience seats AU. In this position, the position of the first camera 11 and the position of the character CH projected on the main screen 2 will be almost the same relative to the audience seats AU, increasing the realism of the selfie image MSI2. However, care must be taken to ensure that the character CH projected on the main screen 2 is not reflected in the first camera 11.

上記実施形態では、サブスクリーン3として、左右一対の横スクリーン3a(3a1,3a2)を設けたが、図10の如く、さらにメインスクリーン2の上の上スクリーン3cを追加して設けてもよい。この例では、図6cのトリミング範囲TR3の映像が用いられる。また、図11の如く、左右一対の横スクリーン3a(3a1,3a2)を設けずに、左右一対の上スクリーン3c(3c1,3c2)を設けてもよい。なお、これら上スクリーン3cには、それぞれ対応するプロジェクタが設けられるが、図示省略し、以下同様とする。 In the above embodiment, a pair of left and right horizontal screens 3a (3a1, 3a2) are provided as the sub-screens 3, but as shown in FIG. 10, an upper screen 3c may be additionally provided above the main screen 2. In this example, the image in the trimming range TR3 in FIG. 6c is used. Also, as shown in FIG. 11, instead of providing a pair of left and right horizontal screens 3a (3a1, 3a2), a pair of left and right upper screens 3c (3c1, 3c2) may be provided. Each of these upper screens 3c is provided with a corresponding projector, but this is omitted from the illustration and will be the same hereinafter.

上記実施形態では、メインスクリーン2に映すメイン合成映像MMIに実時刻T0のもの、左右のサブスクリーンに映す選択映像MSIに過去時刻(T0-Δt)のものを用い、スクリーン間の時刻の違いを二段階とした。しかし、3つのスクリーン間の時間を3段階に変えても良い。例えば、メインスクリーン2に実時刻、一方のサブスクリーン3に未来時刻、他法のサブスクリーン3に過去時刻を用いたり、現在、過去、さらに過去等、複数の時刻のものを用いても良い。スクリーンの数と時刻の切り替えは3以上の複数であってもよい。 In the above embodiment, the main composite image MMI projected on the main screen 2 is the real time T0, and the selected images MSI projected on the left and right sub-screens are the past time (T0-Δt), with two stages of time difference between the screens. However, the time between the three screens may be changed to three stages. For example, the real time may be used for the main screen 2, the future time for one sub-screen 3, and the past time for the other sub-screen 3, or multiple times such as the present, past, and further past may be used. The number of screens and the time switching may be three or more.

図12の別実施形態では、左右一対の横スクリーン3a(3a1,3a2)のほかに、左右一対の上スクリーン3c(3c1,3c2)を設けている。そして、左右一対の上スクリーン3c(3c1,3c2)には時刻T0-2Δtの過去の映像(MSI1’,MSI2’)を、左右一対の横スクリーン3a(3a1,3a2)には時刻T0-Δtの過去の映像(MSI1,MSI2)を映している。その他、上記の横スクリーン3aと上スクリーン3cの時刻をこれらと逆にしたり、全てのサブスクリーンを同じ時刻にする他、サブスクリーンの時刻を適宜変化させて選択することができる。 In another embodiment of FIG. 12, in addition to the pair of left and right horizontal screens 3a (3a1, 3a2), a pair of left and right upper screens 3c (3c1, 3c2) are provided. The pair of left and right upper screens 3c (3c1, 3c2) display past images (MSI1', MSI2') from time T0-2Δt, and the pair of left and right horizontal screens 3a (3a1, 3a2) display past images (MSI1, MSI2) from time T0-Δt. In addition, the times of the above horizontal screens 3a and upper screens 3c can be reversed, all sub-screens can be set to the same time, or the time of the sub-screens can be changed and selected as appropriate.

図13の別実施形態では、ステージST上に上述のメインスクリーン2及びサブスクリーン3が背中合わせでさらに1対設けられている。例えば、ホログラム再生スクリーン2aは、符合2aa,2abと表示されるように、符合の最後のアルファベットがaの第1の組とbの第2の組の部材をそれぞれ設けている。また、左右一対の第1横スクリーン3aa(3a1a,3a2a)、左右一対の第2横スクリーン3ab(3a1b,3a2b)には、それぞれ横スクリーンを上下左右に移動させるスクリーン駆動装置70を設け、音と映像に合わせて、サブスクリーン3aを上下及び左右に移動させる。 In another embodiment of FIG. 13, a further pair of the above-mentioned main screen 2 and sub-screen 3 are provided back-to-back on the stage ST. For example, the hologram reproduction screen 2a is provided with a first set of members whose final letters are a and a second set whose final letters are b, as indicated by the symbols 2aa and 2ab. In addition, the pair of left and right first horizontal screens 3aa (3a1a, 3a2a) and the pair of left and right second horizontal screens 3ab (3a1b, 3a2b) are each provided with a screen drive device 70 that moves the horizontal screen up, down, left and right, and moves the sub-screen 3a up, down and left and right in accordance with the sound and image.

図14の別実施形態では、ステージST上に上述のメインスクリーン2及びサブスクリーン3(3cのみ)が背中合わせで90度ずつ変移させて4組設けられている。第1~第4の組において、符合の最後のアルファベットをa~dにより各組を識別している。これらの配置では、周囲360度の範囲から観客はスクリーン2,3を見ることができ、例えば、アリーナの中央にこれらのステージSTを設けることで、より多くの観客をメインスクリーン2に近い位置に着席させることが可能となる。この場合、第1~第4の組において、同じ時刻の映像を映す他、第1~第4の組において、時刻をずらせた映像を映しても構わない。 In another embodiment of FIG. 14, four sets of the above-mentioned main screen 2 and sub-screen 3 (only 3c) are provided on the stage ST, back-to-back and shifted by 90 degrees each. In the first to fourth sets, the last alphabet of the code is a to d to identify each set. In this arrangement, the audience can see the screens 2 and 3 from a 360-degree range around them, and by providing these stages ST in the center of an arena, for example, it is possible to seat more audience members closer to the main screen 2. In this case, in addition to projecting images at the same time on the first to fourth sets, the first to fourth sets may also project images at different times.

図15の別実施形態では、ステージSTの横に設けられた左右一対の第1横スクリーン3a(3a1,3a2)に加え、観客席80に近づくように左右一対の第2横スクリーン3ax(3a1x,3a2x)、第3横スクリーン3ay(3a1y,3a2y)を順次設けても構わない。これら各横スクリーンの映像の時刻は上述の組み合わせに従い適宜変更することができる。 In another embodiment of FIG. 15, in addition to the pair of left and right first horizontal screens 3a (3a1, 3a2) provided beside the stage ST, a pair of left and right second horizontal screens 3ax (3a1x, 3a2x) and a third horizontal screen 3ay (3a1y, 3a2y) may be provided in sequence closer to the audience seats 80. The time of the images on each of these horizontal screens can be changed as appropriate according to the combinations described above.

本発明は、バーチャルキャラクターによるコンサートやイベント等に用いることの可能なホール用表示システム及びこれを用いて行うイベントの実施方法として利用することができる。ホールは屋外も含まれ、ステージ上にスクリーンが設置できればよい。 The present invention can be used as a hall display system that can be used for concerts and events featuring virtual characters, and as a method for implementing events using the system. The hall can be outdoors, and any hall can be used as long as a screen can be installed on the stage.

AU:客席、CH(CH-A、CH-B、CH-C):キャラクター、H:ホール、ST:ステージ、AC:アクター、S:隔離スペース、D1:基本方向視、D2:基本方向視とは異なる方向視、D3:第一カメラの方向視、MI(MIa,MIb):メインキャラクター映像、MI1:メインキャラクター本体映像、MI2:メインキャラクターの陰影、BMI:メイン背景映像、MMI:メイン合成映像、SI:サブキャラクター映像、SI1:サブキャラクター本体映像、SI2:サブキャラクターの陰影、BSI:客席映像、MSI(MSI1,MSI2,MSI1’,MSI2’):選択映像、MSI1:撮影映像、MSI2:自撮り映像、L1:実照明光、T0:実時刻、Δt:微小時間、T0-Δt:過去時刻、m0:基準マーカー、m:マーカー、VS:仮想視野、CA:仮想カメラ(第二カメラ)、TR:トリミング範囲、1:ホール用表示システム、2:メインスクリーン、2a:ホログラム再生スクリーン、2b:背面スクリーン、2c:ホログラムプロジェクタ、2d:背面プロジェクタ、3:サブスクリーン、3a:横スクリーン、3a1:横第一スクリーン、3a2:横第二スクリーン、3b:サブスクリーンプロジェクタ、3b1:第一サブスクリーンプロジェクタ、4:実照明器具、6:スピーカー、11:第一カメラ、13:第三カメラ、14:マイク、50:コンピュータ、MC51:モーションキャプチャモジュール、RR52:リアルタイムレンダリングモジュール、IM53:映像合成モジュール、LS54:リップシンクモジュール、BI55:バックステージイメージ生成モジュール、VL56:バーチャルライトイメージ生成モジュール、VS(VS1,VS2,VS3):仮想視野、RS57:レコーディングモジュール、RC58:リアルライトコントローラ、SG59:音楽生成モジュール、TM60:タイムマネジメントコントローラ、RL61:実照明光制御部、62:サウンドシステム AU: Audience, CH (CH-A, CH-B, CH-C): Character, H: Hall, ST: Stage, AC: Actor, S: Isolated space, D1: View in basic direction, D2: View in direction different from basic direction, D3: View in first camera direction, MI (MIa, MIb): Main character image, MI1: Main character main image, MI2: Main character shadow, BMI: Main background image, MMI: Main composite image, SI: Sub character image, SI1: Sub character main character image, SI2: shadow of sub-character, BSI: image of audience, MSI (MSI1, MSI2, MSI1', MSI2'): selected image, MSI1: shot image, MSI2: self-shot image, L1: actual lighting, T0: actual time, Δt: minute time, T0-Δt: past time, m0: reference marker, m: marker, VS: virtual field of view, CA: virtual camera (second camera), TR: trimming range, 1: hall display system, 2: main screen, 2a: hologram playback screen 2b: Rear screen, 2c: Hologram projector, 2d: Rear projector, 3: Sub-screen, 3a: Horizontal screen, 3a1: First horizontal screen, 3a2: Second horizontal screen, 3b: Sub-screen projector, 3b1: First sub-screen projector, 4: Real lighting equipment, 6: Speaker, 11: First camera, 13: Third camera, 14: Microphone, 50: Computer, MC51: Motion capture module, RR52: Real-time rendering module, IM53: Image synthesis module, LS54: Lip sync module, BI55: Backstage image generation module, VL56: Virtual light image generation module, VS (VS1, VS2, VS3): Virtual field of view, RS57: Recording module, RC58: Real light controller, SG59: Music generation module, TM60: Time management controller, RL61: Real lighting control unit, 62: Sound system

Claims (7)

ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、
前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、
前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システムであって、
前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、
前記キャラクターは映像として表示される第二カメラを所持し、
前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、
前記生成された映像を前記サブスクリーンに表示し、
前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、
前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、
前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されるホール用表示システム。
A main screen that displays the animated characters moving in the hall as main character images;
a sub-screen that is disposed in the hall separately from the main screen and is capable of displaying an image different from that of the main screen;
A hall display system including a computer that generates images of the main screen and the sub-screen,
A first camera is further provided for photographing the audience seating area of the audience watching both screens,
The character has a second camera that is displayed as an image,
A range of the character that falls within a virtual field of view of the second camera is generated as an image in a field of view direction of the second camera;
Displaying the generated image on the sub-screen;
The system further includes a space for an actor to move in a place not visible from the audience seats, a marker to be attached to the body of the actor, and a motion capture device to capture the movement of the actor by the marker,
The computer has a rendering function that generates character images in real time that are linked to the captured actor's movements,
A hole display system in which the second camera is generated as an image based on a marker of the actor located in the vicinity of where the camera is displayed, and the virtual field of view is determined based on the marker.
前記サブスクリーンには、前記第二カメラの仮想視野の前記客席の映像が表示されるものである請求項1記載のホール用表示システム。 The hall display system of claim 1, wherein the sub-screen displays an image of the audience seats in the virtual field of view of the second camera. 前記第二カメラの仮想視野に入る前記客席の範囲を前記第一カメラによる映像から選択映像として選択し、前記サブスクリーンには、前記第二カメラの仮想視野の前記客席の映像及び前記仮想視野に含まれる前記キャラクターの映像が共に表示されるものである請求項1記載のホール用表示システム。 A display system for a hall as described in claim 1, in which the range of the audience seats that falls within the virtual field of view of the second camera is selected as a selected image from the image captured by the first camera, and the image of the audience seats in the virtual field of view of the second camera and the image of the character included in the virtual field of view are both displayed on the sub-screen. 前記サブスクリーンに表示される前記客席の映像として前記メインキャラクター映像の表示される基準となる実時刻T0より微小時間Δtだけ遅延した過去時刻(T0-Δt)の映像を用い、前記サブスクリーンの映像は実時刻T0より微小時間Δtだけ遅延した過去時刻(T0-Δt)の映像を用いるものである請求項1~3のいずれかに記載のホール用表示システム。 A hall display system according to any one of claims 1 to 3, in which the image of the audience displayed on the sub-screen is an image from a past time (T0-Δt) delayed by a minute time Δt from the real time T0 that is the reference for displaying the main character image, and the image on the sub-screen is an image from a past time (T0-Δt) delayed by a minute time Δt from the real time T0. 前記メインスクリーンは、ステージ上に傾斜配置されホログラム映像を表示するホログラム再生スクリーンと、ステージ背面に配置される背面スクリーンとを備え、これら両スクリーンの合成画像を観客に表示するものである請求項1~4のいずれかに記載のホール用表示システム。 The hall display system according to any one of claims 1 to 4, wherein the main screen comprises a hologram playback screen that is arranged at an angle above the stage and displays hologram images, and a rear screen that is arranged behind the stage, and displays a composite image of both screens to the audience. 前記サブスクリーンは、少なくとも前記メインスクリーンの左右及び/または上に配置されている請求項1~5のいずれかに記載のホール用表示システム。 A hall display system according to any one of claims 1 to 5, wherein the sub-screen is disposed at least to the left and right and/or above the main screen. ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、
前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、
前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システムを用いて行うイベントの実施方法であって、
前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、
前記キャラクターは映像として表示される第二カメラを所持し、
前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、
前記生成された映像を前記サブスクリーンに表示し、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、
前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、
前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されるイベントの実施方法。
A main screen that displays the animated characters moving in the hall as main character images;
a sub-screen that is disposed in the hall separately from the main screen and is capable of displaying an image different from that of the main screen;
A method for implementing an event using a hall display system including the main screen and a computer for generating images on the sub-screen, comprising:
A first camera is further provided for photographing the audience seating area of the audience watching both screens,
The character has a second camera that is displayed as an image,
A range of the character that falls within a virtual field of view of the second camera is generated as an image in a field of view direction of the second camera;
The generated image is displayed on the sub-screen, and the system further includes a space for an actor to move, a marker attached to the body of the actor, and a motion capture device that captures the movement of the actor using the marker, in a location not visible from the audience seats;
The computer has a rendering function that generates character images in real time that are linked to the captured actor's movements,
A method for implementing an event in which the second camera is generated as an image based on a marker of the actor located in the vicinity in which the camera is displayed, and the virtual field of view is determined based on the marker.
JP2023098822A 2018-08-09 2023-06-15 Hall display system and event implementation method using the same Active JP7599181B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018150795 2018-08-09
JP2018150795 2018-08-09
JP2019146479A JP7309148B2 (en) 2018-08-09 2019-08-08 Hall display system and method for holding events using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019146479A Division JP7309148B2 (en) 2018-08-09 2019-08-08 Hall display system and method for holding events using the same

Publications (2)

Publication Number Publication Date
JP2023130363A JP2023130363A (en) 2023-09-20
JP7599181B2 true JP7599181B2 (en) 2024-12-13

Family

ID=69620767

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019146479A Active JP7309148B2 (en) 2018-08-09 2019-08-08 Hall display system and method for holding events using the same
JP2023098822A Active JP7599181B2 (en) 2018-08-09 2023-06-15 Hall display system and event implementation method using the same

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019146479A Active JP7309148B2 (en) 2018-08-09 2019-08-08 Hall display system and method for holding events using the same

Country Status (1)

Country Link
JP (2) JP7309148B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005220710A (en) 2004-02-09 2005-08-18 Mitsubishi Heavy Ind Ltd Concert hall, facility having the concert hall, and method of controlling vibration of the concert hole and the facility
JP2007142966A (en) 2005-11-21 2007-06-07 Yamaha Corp Sound pressure measuring device, auditorium, and theater
JP2011053276A (en) 2009-08-31 2011-03-17 Daiichikosho Co Ltd Karaoke system including background image variable display function
US20140333671A1 (en) 2013-05-10 2014-11-13 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2014220722A (en) 2013-05-10 2014-11-20 ソニー株式会社 Display controller, display control method and program
JP2015043571A (en) 2013-08-26 2015-03-05 シゼイ シジブイ カンパニー リミテッド Device and method for managing screening theater parameter
JP2015135581A (en) 2014-01-16 2015-07-27 ヤフー株式会社 Distribution apparatus, distribution method, and program
WO2015151766A1 (en) 2014-03-31 2015-10-08 コニカミノルタ株式会社 Projection photographing system, karaoke device, and simulation device
JP2015184689A (en) 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2016540438A (en) 2013-11-29 2016-12-22 シゼイ シジブイ カンパニー リミテッド Method and apparatus for normalizing content size in multi-screen theater and computer-readable recording medium
JP2017083551A (en) 2015-10-26 2017-05-18 株式会社DMM.futureworks Video projection device, stage setting, and video projection method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005220710A (en) 2004-02-09 2005-08-18 Mitsubishi Heavy Ind Ltd Concert hall, facility having the concert hall, and method of controlling vibration of the concert hole and the facility
JP2007142966A (en) 2005-11-21 2007-06-07 Yamaha Corp Sound pressure measuring device, auditorium, and theater
JP2011053276A (en) 2009-08-31 2011-03-17 Daiichikosho Co Ltd Karaoke system including background image variable display function
US20140333671A1 (en) 2013-05-10 2014-11-13 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2014220722A (en) 2013-05-10 2014-11-20 ソニー株式会社 Display controller, display control method and program
JP2015043571A (en) 2013-08-26 2015-03-05 シゼイ シジブイ カンパニー リミテッド Device and method for managing screening theater parameter
JP2016540438A (en) 2013-11-29 2016-12-22 シゼイ シジブイ カンパニー リミテッド Method and apparatus for normalizing content size in multi-screen theater and computer-readable recording medium
JP2015135581A (en) 2014-01-16 2015-07-27 ヤフー株式会社 Distribution apparatus, distribution method, and program
JP2015184689A (en) 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
WO2015151766A1 (en) 2014-03-31 2015-10-08 コニカミノルタ株式会社 Projection photographing system, karaoke device, and simulation device
JP2017083551A (en) 2015-10-26 2017-05-18 株式会社DMM.futureworks Video projection device, stage setting, and video projection method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Shuji Ishimoto,「MMO「World of Warcraft」でも「自撮り」 自キャラ撮影用のカメラアイテムが導入」,AUTOMATON, online,2015年01月28日,2024年6月6日検索, <URL:https://automaton-media.com/articles/newsjp/mmo-world-of-warcraft-selfie/>
村岡 咲希,「画面内キャラクターとコミュニケーションをとるARコンテンツ「てくてくふぉと」の制作-キャラクターによる写真撮影-」,日本デジタルゲーム学会 第8回次大会 予稿集 [online] DiGRA JAPAN 8th,2018年03月03日,p.183-186,特に、[p.185「4.2.3 キャラクターがプレイヤーの写真を撮影する」欄、等を参照。

Also Published As

Publication number Publication date
JP7309148B2 (en) 2023-07-18
JP2020025869A (en) 2020-02-20
JP2023130363A (en) 2023-09-20

Similar Documents

Publication Publication Date Title
ES2950239T3 (en) Production and distribution of immersive events
JP7589927B2 (en) Gaming Machines
US5964064A (en) Theater with multiple screen three dimensional film projection system
US9849399B2 (en) Background imagery for enhanced pepper&#39;s ghost illusion
KR101882422B1 (en) Live teleporting system and apparatus
US5963247A (en) Visual display systems and a system for producing recordings for visualization thereon and methods therefor
US8243123B1 (en) Three-dimensional camera adjunct
CN210021183U (en) Immersive interactive panoramic holographic theater and performance system
CN105794202B (en) Depth for video and line holographic projections is bonded to
US7209181B2 (en) System and method for compositing of two or more real images in a cinematographic puppetry production
CN110013678A (en) Immersion interacts panorama holography theater performance system, method and application
US20160266543A1 (en) Three-dimensional image source for enhanced pepper&#39;s ghost illusion
KR20180052496A (en) Virtual performance-studio system
JP7599181B2 (en) Hall display system and event implementation method using the same
US20230077552A1 (en) Video Game Engine Assisted Virtual Studio Production Process
WO2019146425A1 (en) Image processing device, image processing method, program, and projection system
WO2023120691A1 (en) Video creation system, video creation device, and program for video creation
JPWO2007116784A1 (en) Video display method and video system
JP2021015417A (en) Image processing apparatus, image distribution system, and image processing method
US20250056101A1 (en) Video creation system, video creation device, and video creation program
KR20240022199A (en) Mobile variable virtual studio system for performances, lectures, and broadcast filming
KR101743874B1 (en) System and Method for Creating Video Contents Using Collaboration of Performing Objects
JP6403649B2 (en) Aerial image rendering device and control method thereof
CA3057723C (en) System, method and software for producing live video containing three-dimensional images that appear to project forward of or vertically above a display
JP6400551B2 (en) Aerial image effect device, control method of aerial image effect device, and video system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240612

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241125

R150 Certificate of patent or registration of utility model

Ref document number: 7599181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150