JP7599181B2 - Hall display system and event implementation method using the same - Google Patents
Hall display system and event implementation method using the same Download PDFInfo
- Publication number
- JP7599181B2 JP7599181B2 JP2023098822A JP2023098822A JP7599181B2 JP 7599181 B2 JP7599181 B2 JP 7599181B2 JP 2023098822 A JP2023098822 A JP 2023098822A JP 2023098822 A JP2023098822 A JP 2023098822A JP 7599181 B2 JP7599181 B2 JP 7599181B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- screen
- camera
- sub
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 14
- 239000003550 marker Substances 0.000 claims description 25
- 238000009877 rendering Methods 0.000 claims description 11
- 239000002131 composite material Substances 0.000 claims description 6
- 230000003111 delayed effect Effects 0.000 claims description 6
- 101000591128 Homo sapiens RNA-binding protein Musashi homolog 2 Proteins 0.000 description 16
- 102100034027 RNA-binding protein Musashi homolog 2 Human genes 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 101000591115 Homo sapiens RNA-binding protein Musashi homolog 1 Proteins 0.000 description 11
- 102100034026 RNA-binding protein Musashi homolog 1 Human genes 0.000 description 11
- 238000009966 trimming Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Projection Apparatus (AREA)
Description
本発明は、ホール用表示システム及びこれを用いて行うイベントの実施方法に関する。さらに詳しくは、ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システム及びこれを用いて行うイベントの実施方法に関する。 The present invention relates to a hall display system and a method for implementing an event using the same. More specifically, the present invention relates to a hall display system that includes a main screen that displays an animated character operating in the hall as a main character image, a sub-screen that is arranged in the hall separately from the main screen and is capable of displaying an image different from that of the main screen, and a computer that generates the images of the main screen and the sub-screen, and a method for implementing an event using the same.
3D画像を表示するホール用表示システム及びこれを用いて行うイベントの実施方法としては、次の特許文献1の如きものが存在している。この劇場システムでは、メインスクリーンにおいて、ホログラムの前方スクリーンと後方スクリーンの組み合わせで臨場感を得ることを目的としている。一方、近年、さらなる臨場感を求め、メインスクリーンの横にサブスクリーンを設け、例えばキャラクターを異なる角度で表示することで、臨場感を向上させる試みがなされている。
As an example of a hall display system that displays 3D images and a method for implementing an event using this system, one such system is disclosed in the following
かかる従来の実情に鑑みて、本発明は、さらに臨場感の高まるホール用表示システム及びこれを用いて行うイベントの実施方法を提供することを目的とする。 In light of this current situation, the present invention aims to provide a hall display system that further enhances the sense of realism, and a method for implementing an event using the same.
上記目的を達成するため、本発明に係るホール用表示システムの特徴は、ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えた構成において、前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、前記キャラクターは映像として表示される第二カメラを所持し、前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、前記生成された映像を前記サブスクリーンに表示し、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されることにある。 In order to achieve the above object, the hall display system according to the present invention is characterized in that it comprises a main screen that displays an animated character operating in the hall as a main character image, a sub-screen that is placed in the hall separately from the main screen and is capable of displaying an image different from that of the main screen, and a computer that generates images for the main screen and the sub-screen, further comprising a first camera that captures the audience seats of the spectators watching both screens, the character has a second camera that is displayed as an image, the range of the character that falls within the virtual field of view of the second camera is generated as an image in the field of view of the second camera, and the generated image is displayed on the sub-screen, and further comprises a space in which the actor operates, a marker that is attached to the body of the actor, and a motion capture device that captures the movements of the actor with the marker, in a place not visible from the audience seats, and the computer has a rendering function that generates a character image in real time that is linked to the captured movements of the actor, the second camera generates an image based on the marker of the actor that exists in the vicinity of where the camera is displayed, and the virtual field of view is determined based on the marker.
上記特徴構成によれば、観客は、第一カメラにより撮影された客席の映像に映る。一方で、キャラクターは、映像として表示される第二カメラを所持する。よって、キャラクターが自身が所持する第二カメラで客席(観客)を撮影する動きをした際に、第二カメラの仮想視野に入るキャラクターの範囲を第二カメラによる視野方向で映像として生成する。そして、その生成された映像をサブスクリーンに表示するので、臨場感を向上させることができ、キャラクターと観客との一体感も増す。 According to the above characteristic configuration, the audience appears in the image of the auditorium captured by the first camera. Meanwhile, the character carries a second camera that is displayed as an image. Therefore, when the character makes a movement to capture the audience (audience) with the second camera that he or she carries, the range of the character that falls within the virtual field of view of the second camera is generated as an image in the field of view of the second camera. The generated image is then displayed on the sub-screen, improving the sense of realism and increasing the sense of unity between the character and the audience.
上記構成において、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定される。これにより、メインキャラクター映像とキャラクターの第二カメラで撮影された選択映像との違いによる違和感を抑えられるので、選択映像のリアリティが増し、臨場感をさらに向上させることができる。 In the above configuration, the system further comprises, in a location not visible from the audience seats, a space in which the actor moves, a marker attached to the actor's body, and a motion capture device that captures the actor's movements using the marker, the computer has a rendering function that generates in real time a character image that is linked to the captured actor's movements, the second camera generates an image based on the actor's marker located in the vicinity of where the camera is displayed, and the virtual field of view is determined based on the marker. This reduces the sense of incongruity caused by differences between the main character image and the selected image captured by the second camera of the character, increasing the reality of the selected image and further enhancing the sense of presence.
上記いずれかの構成において、前記サブスクリーンには、前記第二カメラの仮想視野の前記客席の映像が表示されるものであるとよく、また、前記第二カメラの仮想視野に入る前記客席の範囲を前記第一カメラによる映像から選択映像として選択し、前記サブスクリーンには、前記第二カメラの仮想視野の前記客席の映像及び前記仮想視野に含まれる前記キャラクターの映像が共に表示されるもの(所謂、自撮り映像)であってもよい。特に、自撮り映像では、キャラクターと共に観客が映るので、一体感やライブ感が高まる。 In any of the above configurations, it is preferable that the sub-screen displays an image of the audience in the virtual field of view of the second camera, and the range of the audience that falls within the virtual field of view of the second camera is selected as a selected image from the image captured by the first camera, and the sub-screen displays both the image of the audience in the virtual field of view of the second camera and an image of the character that is included in the virtual field (so-called self-portrait image). In particular, the self-portrait image shows the audience together with the character, enhancing the sense of unity and liveliness.
上記いずれかの構成に加え、前記サブスクリーンに表示される前記客席の映像として前記メインキャラクター映像の表示される基準となる実時刻T0より微小時間Δtだけ遅延した過去時刻(T0-Δt)の映像を用い、前記サブスクリーンの映像は実時刻T0より微小時間Δtだけ遅延した過去時刻(T0-Δt)の映像を用いるものであるとよい。これにより、観客は実時刻T0のメインキャラクター映像と、過去時刻(T0-Δt)の選択映像を同時に見ることとなる。実時刻と過去時刻とを同時に見ると共に、サブスクリーンに遅れた映像が現れることで、中央からサブへと人の注意が移り、その効果によって、空間的な広がり、臨場感をより一層感じるようになる。 In addition to any of the above configurations, it is preferable that the image of the audience displayed on the sub-screen is an image from a past time (T0-Δt) delayed by an infinitesimal time Δt from the real time T0 that is the reference for displaying the main character image, and the image on the sub-screen is an image from a past time (T0-Δt) delayed by an infinitesimal time Δt from the real time T0. This allows the audience to simultaneously see the main character image from real time T0 and a selected image from a past time (T0-Δt). Seeing the real time and the past time simultaneously, and seeing the delayed image on the sub-screen, shifts people's attention from the center to the sub-screen, which has the effect of making the audience feel a greater sense of spatial expansion and realism.
前記メインスクリーンは、ステージ上に傾斜配置されホログラム映像を表示するホログラム再生スクリーンと、ステージ背面に配置される背面スクリーンとを備え、これら両スクリーンの合成画像を観客に表示するものであるとよい。 The main screen preferably comprises a hologram playback screen that is positioned at an angle above the stage and displays hologram images, and a rear screen that is positioned behind the stage, and displays a composite image of both screens to the audience.
前記サブスクリーンは、少なくとも前記メインスクリーンの左右及び/または上に配置されているとよい。これにより、左右及び/または左右への広がりを持たせることができる。 The sub-screens are preferably positioned at least to the left and right and/or above the main screen. This allows for left and right and/or right-left spread.
また、上記目的を達成するため、本発明に係るイベントの実施方法の特徴は、ホールにおいて動作するアニメーションのキャラクターをメインキャラクター映像として表示するメインスクリーンと、前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システムを用いて行うイベントの実施方法において、前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、前記キャラクターは映像として表示される第二カメラを所持し、前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、前記生成された映像を前記サブスクリーンに表示し、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されることにある。
In addition, in order to achieve the above-mentioned object, a feature of the method of implementing an event according to the present invention is that the method of implementing an event using a hall display system comprising a main screen which displays an animated character operating in a hall as a main character image, a sub-screen which is arranged in the hall separately from the main screen and which is capable of displaying an image different from that of the main screen, and a computer which generates images for the main screen and the sub-screen, further comprises a first camera which photographs the audience seats of spectators watching both screens, the character has a second camera which is displayed as an image, the range of the character which falls within the virtual field of view of the second camera is generated as an image in the direction of the field of view of the second camera, and the generated image is displayed on the sub-screen, and further comprises, in a place not visible from the audience seats, a space in which an actor operates, a marker which is attached to the body of the actor, and a motion capture device which captures the movements of the actor with the marker, the computer has a rendering function which generates in real time a character image which is linked to the captured movements of the actor, the image of the second camera is generated based on the marker of the actor which is located in the vicinity where the camera is displayed, and the virtual field of view is determined based on the marker.
上記本発明に係るホール用表示システム及びこれを用いて行うイベントの実施方法の特徴によれば、さらに臨場感の高まるホール用表示システム及びこれを用いて行うイベントの実施方法を提供しえるに至った。 The above-mentioned features of the hall display system and event implementation method using the same according to the present invention make it possible to provide a hall display system and event implementation method using the same that provide an even more realistic feeling.
本発明の他の目的、構成及び効果については、以下の発明の実施の形態の項から明らかになるであろう。 Other objects, configurations and advantages of the present invention will become apparent from the following detailed description of the preferred embodiments of the invention.
次に、適宜添付図面を参照しながら、本発明をさらに詳しく説明する。
本発明に係るホール用表示システム1は、図1~3に示すように、大略、メインスクリーン2、左右一対のサブスクリーン3、実照明器具4、スピーカー6、両スクリーン2,3を見る観客の客席AUの映像を撮影する第一カメラ11、コンピュータ50をホールHまたはその近くに備えている。
Next, the present invention will be described in more detail with reference to the accompanying drawings as appropriate.
As shown in Figures 1 to 3, the
ホール用表示システム1は、さらに第三カメラ13及びマイク14をホールHとは別室に備えている。第三カメラ13は、客席AUからは見えない隔離スペースSに設置され、身体に複数のマーカーmを装着したアクターACの動作を撮影し、モーションキャプチャモジュールMC51に送る。マイク14は、声優またはボーカリストの声を録音しリップシンクモジュールLS54に送る。
The
ホールHに設置されるメインスクリーン(メインスクリーン装置)2は、ステージSTに斜めに設置されるホログラム再生スクリーン2a、ステージSTの背面に設置される背面スクリーン2b、ホログラム再生スクリーン2aに映像を映すホログラムプロジェクタ2c、背面スクリーン2bに映像を映す背面プロジェクタ2dを備えている。背面スクリーン2bの映像は、ホログラム再生スクリーン2aを透過して、このホログラム再生スクリーン2aの映像と共に合成されて客席AUから見える。
The main screen (main screen device) 2 installed in Hall H is equipped with a
一方、各サブスクリーン(サブスクリーン装置)3は、左右の横第一スクリーン3a1及び横第二スクリーン3a2(横スクリーン3a)と、これら両横スクリーン3aにそれぞれ映像を映す第一サブスクリーンプロジェクタ3b1及び第二サブスクリーンプロジェクタ(後者は図示省略、両方併せてサブスクリーンプロジェクタ3b)を備えている。
On the other hand, each sub-screen (sub-screen device) 3 is equipped with a first horizontal screen 3a1 and a second horizontal screen 3a2 (
第一カメラ11は、例えば、ホログラム再生スクリーン2a及び背面スクリーン2bよりも客席AUに近い位置で客席AUに対し真正面から相対(正対)して配置(固定)され、客席AU全体が大凡含まれる範囲(視野)を撮影する。客席AUの真正面から客席AU全体を撮影するので、後述する選択映像MSIにおいて、客席AUの映像BSIとの差異や歪みが生じにくくなり、選択映像MSIの違和感も解消される。また、第一カメラ11は大部分の客席AUをカバーするので、選択映像に映らない客席AUの部分(範囲)が減ることで観客の多くに選択映像に映る機会を与えることができ、臨場感及び一体感も増す。第一カメラ11には、例えば広角カメラが用いられる。また、本発明において、キャラクターCHは、第二カメラとしての仮想カメラCAを有し、客席AUを撮影する動作を行う。
The
コンピュータ50は、モーションキャプチャモジュールMC51、リアルタイムレンダリングモジュールRR52、映像合成モジュールIM53、リップシンクモジュールLS54、バックステージイメージ生成モジュールBI55、バーチャルライトイメージ生成モジュールVL56、リアルライトコントローラRC58、音楽生成モジュールSG59、各モジュールの時点合わせの基準となるタイムマネジメントコントローラTM60を備えている。
The
モーションキャプチャモジュールMC51は、第三カメラ13より撮影されたアクターACの動作を分析し、リアルタイムレンダリングモジュールRR52において動作するキャラクターの3D映像を生成する。第三カメラ13は複数台備えられており、アクターACを異なった角度から撮影し、モーションキャプチャーを行う。通常は、正面の第三カメラ13の撮影方向がメインキャラクターを生成する際の基本方向視D1となる。
The motion capture module MC51 analyzes the movements of the actor AC captured by the
バーチャルライトイメージ生成モジュールVL56はバーチャル空間での照明のイメージ像を作成し、リアルライトコントローラRC58と相まって光の情報をバックステージイメージ生成モジュールBI55とリアルタイムレンダリングモジュールRR52に送り、照明の状態と矛盾しない陰影付きの映像を生成する。実照明光制御部RL61はリアルライトコントローラRC58に制御され、実照明器具4を動作させてホールH内の実照明を行う。
The virtual light image generation module VL56 creates an image of the lighting in the virtual space, and in conjunction with the real light controller RC58, sends light information to the backstage image generation module BI55 and the real-time rendering module RR52 to generate a shaded image consistent with the lighting conditions. The real lighting control unit RL61 is controlled by the real light controller RC58 and operates the
第一カメラ11により撮影された客席AUの映像BSIは、映像合成モジュールIM53で仮想カメラCAの仮想視野VSの範囲でトリミング(選択)され、キャラクターCHが撮影した撮影映像MSI1としてサブスクリーンプロジェクタ3bで横スクリーン3aに映される。後述する自撮りの場合、上記と同様にトリミングされた客席AUの映像(後述するサブ背景映像BSI2)は、さらに先のリアルタイムレンダリングモジュールRR52のサブキャラクター映像SIと合成され、キャラクターCHの自撮り映像MSI2としてサブスクリーンプロジェクタ3bで横スクリーン3aに映される。一方、ホログラム再生スクリーン2a、背面スクリーン2bには、リアルタイムレンダリングモジュールRR52の映像が、それぞれホログラムプロジェクタ2c、背面プロジェクタ2dによりメインキャラクター映像MIとして映し出される。
The image BSI of the audience AU captured by the
リップシンクモジュールLS54はマイク14により録音した声優等の音声を上記メインキャラクター映像に合わせて遅延させる。また、音楽生成モジュールSG59は、BGMや効果音を生成し、これらのBGM等はマイク14の音声と共にサウンドシステム62を通じてスピーカー6によりホールHに流される。
The lip sync module LS54 delays the voice of the voice actor, etc., recorded by the
図1,5に示すように、メインスクリーン2には、キャラクターCH(髪の毛ありCH-A、髪の毛無しCH-B)が映し出されている。これに対し、左右一対のサブスクリーン3には、図1,4B,Cに示すように、選択映像MSIとしてキャラクターCH(CH-A,CH-B)が仮想カメラCAで撮影した映像MSI1,MSI2が映し出されている。なお、同図の例は、左右一対のサブスクリーン3に異なる映像を表示させているが、もちろん同じ選択映像MSIを表示させてもよい。
As shown in Figures 1 and 5, a character CH (CH-A with hair, CH-B without hair) is displayed on the
メインスクリーン2の映像を詳述すると、図4Aに示すように、メインキャラクター映像MIは、メインキャラクター本体映像MI1及びメインキャラクターの陰影MI2とよりなる。さらにこれにメイン背景映像BMIが加わり、メイン合成映像MMIができる。
To elaborate on the image on the
一方、図4Bに示す例では、横第一スクリーン3a1には、キャラクターCHが撮影した客席AUの映像が撮影映像MSI1として映し出されている。また、図4Cに示す例では、横第二スクリーン3a2には、キャラクターCHが客席AUをバックに自撮りした自撮り映像MSI2が映し出されている。この自撮り映像MSI2において、サブキャラクター映像SIは、サブキャラクター本体映像SI1及びサブキャラクターの陰影SI2よりなる。そして、さらにサブ背景映像(客席AUの映像の一部)BSI2が加わることにより、自撮り映像MSI2ができる。 In the example shown in FIG. 4B, on the first horizontal screen 3a1, an image of the audience AU taken by the character CH is displayed as a shot image MSI1. In the example shown in FIG. 4C, on the second horizontal screen 3a2, a selfie image MSI2 taken by the character CH with the audience AU in the background is displayed. In this selfie image MSI2, the sub-character image SI is made up of the sub-character main body image SI1 and the sub-character's shadow SI2. Then, by adding a sub-background image (part of the image of the audience AU) BSI2, the selfie image MSI2 is created.
メインスクリーン2におけるメイン合成映像MMIは、基本方向視D1でレンダリングされたキャラクターを利用している。この基本方向視D1は、第三カメラ13の方向視と一致する場合もあれば異なる場合もある。一方、基本方向視D1とは異なる方向視D2は、たとえば第一カメラ11の方向視D3を用いることができる。よって、自撮りしているキャラクターCHはメインスクリーン2では客席AUに対し後ろ向きであるが、サブスクリーン3では前向きとなる。
The main composite image MMI on the
ここで、図6,7を参照しながら、キャラクターCHの撮影映像MSI1の生成について詳述する。
キャラクターCH(CH-A)が自身の体の前で仮想カメラCAである第二カメラを客席AUに向けた場合、その映像には客席AUのみが写される。この客席AUの映像BSIには、第一カメラ11の映像が用いられる(ステップS11,12)。
Now, the generation of the photographed image MSI1 of the character CH will be described in detail with reference to FIGS.
When the character CH (CH-A) points the second camera, which is a virtual camera CA, in front of his/her body toward the audience AU, only the audience AU is captured in the image. The image of the
例えば、キャラクターCH(CH-A)が仮想カメラCAである第二カメラとしてスマートフォンSPを手に持って撮影する場合、図6A,6Bに示すように、仮想カメラCAの位置(x,y,z)は、仮想カメラCAに最も近いアクターACの腕のマーカーm0の位置(x0,y0,z0)を基準にスマートフォンSP及びキャラクターCHの設定寸法から算出される。アクターACが、実際にスマートフォンを持つ必要はない。そして、カメラCAの位置に仮想視野VSを付与することで、図6Cに示す如く、第一カメラ11の映像BSIにおけるトリミング範囲TR(TR1)が決定される。トリミング範囲TRは、映像BSIの平面位置情報であるので、x座標(ステージSTの幅(横)方向)及びz座標(鉛直方向)で表される(ステップS13)。そして、この平面位置情報に基づいてトリミングされた映像MSI1(ステップS14)が、サブスクリーン3に表示される(ステップS15)。
For example, when a character CH (CH-A) takes a picture by holding a smartphone SP in his/her hand as a second camera, which is a virtual camera CA, as shown in Figs. 6A and 6B, the position (x, y, z) of the virtual camera CA is calculated from the set dimensions of the smartphone SP and the character CH based on the position (x0, y0, z0) of the marker m0 on the arm of the actor AC, which is closest to the virtual camera CA. The actor AC does not need to actually hold the smartphone. Then, by assigning a virtual field of view VS to the position of the camera CA, the trimming range TR (TR1) in the image BSI of the
次に、図8,9を参照しながら、キャラクターCH(CH-B)の自撮り映像MSI2の生成について詳述する。
キャラクターCHが自身の背中を客席AUに向けて自撮りした場合、その映像には客席AU及びキャラクターCHの体の一部が写される。客席AUの映像としてのサブ背景映像BSI2には、上述と同様に第一カメラ11の映像BSIを図6Cのトリミング範囲TR(TR2)でトリミング(ステップS11~14)した映像が用いられる。
Next, the generation of the selfie image MSI2 of the character CH (CH-B) will be described in detail with reference to FIGS.
When the character CH takes a selfie with his/her back facing the audience AU, the image shows the audience AU and part of the character CH's body. As described above, the image BSI from the
ここで、カメラCAの位置(x’,y’,z’)は、上述と同様に基準マーカーm0’の位置(x0’,y0’,z0’)を基準に算出される(ステップS21)。また、映り込む身体の位置情報は、図8Cの例では、腕の位置、顔及び身体の位置情報を含み、先のx座標及びz座標にy座標(ステージSTの前後方向)を加えた3次元位置情報である(ステップS22,23)。この位置情報は、アクターACの各マーカーmの位置情報に基づく。そして、これらの3次元位置情報に基づき、仮想カメラCAの仮想視野VSに映り込むキャラクターCHの部分(範囲)が決定され(ステップS24)、当該部分がレンダリング処理され、サブキャラクター映像SIを生成する(ステップS25)。そして、トリミングされたサブ背景映像BSI2とレンダリング処理されたキャラクターCHのサブキャラクター映像SIとが合成された自撮り映像MSI2(ステップS26)が、サブスクリーン3に表示される(ステップS27)。 Here, the position (x', y', z') of the camera CA is calculated based on the position (x0', y0', z0') of the reference marker m0' as described above (step S21). In addition, the position information of the reflected body is three-dimensional position information including the position information of the arm, face and body in the example of FIG. 8C, and is obtained by adding the y coordinate (front and rear direction of the stage ST) to the previous x and z coordinates (steps S22, S23). This position information is based on the position information of each marker m of the actor AC. Then, based on this three-dimensional position information, the part (range) of the character CH reflected in the virtual field of view VS of the virtual camera CA is determined (step S24), and the part is rendered to generate the sub-character image SI (step S25). Then, the self-portrait image MSI2 (step S26) in which the trimmed sub-background image BSI2 and the rendered sub-character image SI of the character CH are combined is displayed on the sub-screen 3 (step S27).
図1において、実照明器具4からは、実照明光L1が客席AU、ステージST並びにキャラクターCHに照射されている。
In FIG. 1, real illumination light L1 is emitted from the
図1,3~5に示すように、メインスクリーン2では実時刻T0のキャラクターCHが映し出されている。これに対し、サブスクリーン3では、微小時間Δtだけ遡った過去時刻(T0-Δt)のキャラクターCHが撮影した映像MSI1,2が映し出されている。これら各スクリーンの映像は、各時刻に合わせた実照明器具4の実照明光L1の情報に基づき陰影や背景が生成される。
As shown in Figures 1, 3 to 5, the
映像MSI1,2における客席AUの映像BSI1,2も、微小時間Δtだけ遡った過去時刻(T0-Δt)の映像が用いられている。そして、特に、自撮り映像MSI2の場合、サブキャラクター映像SIも過去時刻(T0-Δt)のものを用いているので、照明光の色が異なる等の矛盾も生じなく、観客はとても自然な感覚をもってサブスクリーン3の映像を受け入れるため、臨場感が自然に認識されることとなる。図5の例では、実時刻(T0)のキャラクターCHは、過去時刻(T0-Δt)での自撮りの姿勢から客席AUに身体を向ける途中の体勢であり、図中の破線の円で囲まれたキャラクターCHがスクリーンに映し出される。 The images BSI1,2 of the audience AU in the images MSI1,2 also use images from a past time (T0-Δt) going back an infinitesimal time Δt. In particular, in the case of the selfie image MSI2, the sub-character image SI also uses an image from a past time (T0-Δt), so there are no inconsistencies such as different lighting colors, and the audience accepts the image on the sub-screen 3 with a very natural sensation, resulting in a natural sense of realism. In the example of Figure 5, the character CH at real time (T0) is in the process of turning his body from the selfie pose at the past time (T0-Δt) towards the audience AU, and the character CH enclosed in a dashed circle in the figure is projected on the screen.
ところで、客席AUの映像BSI1,2は、ハードウエアの性能上、微小時間Δtの遅延を生じる可能性がある。自撮り映像MSI2の場合、ハードウエアの性能に合わせて、サブキャラクター映像SIも微小時間Δtだけ遡った過去の映像を用いても良く、微小時間Δtをハードウエアの遅延の映像合成モジュールIM53のソフトウエア遅延とで調整してもよい。微小時間Δtは望ましくは0.1秒~0.5秒とすると好適に実施可能である。0.1秒以上あれば映像の違いを認識でき、0.5秒を超えると不自然に感じられるからである。 However, the images BSI1 and 2 of the audience seating AU may be delayed by a small time Δt due to the performance of the hardware. In the case of the selfie image MSI2, the sub-character image SI may use an image going back by the small time Δt depending on the performance of the hardware, and the small time Δt may be adjusted by adjusting the hardware delay with the software delay of the image synthesis module IM53. The small time Δt is preferably set to 0.1 to 0.5 seconds for optimal implementation. If it is 0.1 seconds or more, the difference in the images can be recognized, but if it exceeds 0.5 seconds it will appear unnatural.
メインスクリーン2には、メインキャラクター本体映像MI1、メインキャラクターの陰影MI2及びメイン背景映像BMIが合成されて表示される。これらの要素は、ホログラム再生スクリーン2a、背面スクリーン2bに次のような組み合わせで表示されうる。
ケース1)ホログラム再生スクリーン2a;メインキャラクター本体映像MI1、背面スクリーン2b;メインキャラクターの陰影MI2及びメイン背景映像BMI
ケース2)ホログラム再生スクリーン2a;メインキャラクター本体映像MI1及びメインキャラクターの陰影MI2、背面スクリーン2b;メイン背景映像BMI
ケース3)ホログラム再生スクリーン2a;メインキャラクター本体映像MI1、メインキャラクターの陰影MI2及びメイン背景映像BMIの一部(BMI1)、背面スクリーン2b;メイン背景映像BMIの残余(BMI2)
これらの映像のスクリーン割り付けは適宜必要に応じて採用される。
A main character main body image MI1, a main character shadow MI2, and a main background image BMI are synthesized and displayed on the
Case 1)
Case 2)
Case 3)
The screen layout of these images will be adapted as appropriate according to need.
なお、上記では、アクターACの動作するスペースやモーションキャプチャ装置を設けた。しかし、図3に示すように、上記イベントの実施の映像、音響、照明等のコントロールを全てレコーディングモジュールRS57に記録し、これを再生させることによりイベントを実施してもよい。 In the above, a space in which the actor AC can operate and a motion capture device are provided. However, as shown in FIG. 3, the event may be carried out by recording all of the controls for the video, audio, lighting, etc., for the event in the recording module RS57 and playing them back.
さらに、レコーディングモジュールRS57に記録された自撮り映像MSI2等の選択映像を、例えば、客席AUの観客の携帯端末等に送信(配信)したり、SNS(ソーシャル・ネットワーキング・サービス:Social Networking Service)等のネットワーク上にリアルタイムで投稿(発信)するようにしてもよい。これにより、客席AUにいる観客以外のファンとも一体感が得られる。 Furthermore, selected images such as the selfie image MSI2 recorded in the recording module RS57 may be sent (distributed) to, for example, mobile devices of spectators in the audience seating AU, or posted (transmitted) in real time on a network such as a social networking service (SNS). This allows a sense of unity to be felt with fans other than the spectators in the audience seating AU.
次に、本発明の別実施形態について説明する。上記第一実施形態と同様の部材には同一の符号を附してある。
上記実施形態において、仮想カメラCAをスマートフォンSPとしたが、これに限られるものではなく、各種の撮影機器でも同様に適用可能である。また、スマートフォンSPを手に持つ例を示したが、キャラクターCHの他の部位でもよく、さらに自撮り棒等の他の撮影道具を用いる撮影手法でも構わない。
Next, another embodiment of the present invention will be described. The same members as those in the first embodiment are designated by the same reference numerals.
In the above embodiment, the virtual camera CA is a smartphone SP, but the present invention is not limited to this and can be applied to various types of photographing devices. Also, although an example in which the smartphone SP is held in the hand is shown, it may be another part of the character CH, or a photographing method using another photographing tool such as a selfie stick may be used.
上記実施形態において、第一カメラ11を客席AUとステージSTの間に配置した。しかし、客席AU全体をほぼ網羅して撮影できるのであれば、第一カメラ11の位置はこれに限られない。例えば、メインスクリーン2(ホログラム再生スクリーン2a)の上方又は後方で客席AUの真正面から客席AU全体を撮影するように第一カメラ11を固定してもよい。この位置であれば、第一カメラ11の位置とメインスクリーン2に映し出されるキャラクターCHの位置が客席AUに対しほぼ同じとなるので、自撮り映像MSI2のリアリティが増す。但し、第一カメラ11にメインスクリーン2に映し出されるキャラクターCHが映り込まないようにしなければならない。
In the above embodiment, the
上記実施形態では、サブスクリーン3として、左右一対の横スクリーン3a(3a1,3a2)を設けたが、図10の如く、さらにメインスクリーン2の上の上スクリーン3cを追加して設けてもよい。この例では、図6cのトリミング範囲TR3の映像が用いられる。また、図11の如く、左右一対の横スクリーン3a(3a1,3a2)を設けずに、左右一対の上スクリーン3c(3c1,3c2)を設けてもよい。なお、これら上スクリーン3cには、それぞれ対応するプロジェクタが設けられるが、図示省略し、以下同様とする。
In the above embodiment, a pair of left and right
上記実施形態では、メインスクリーン2に映すメイン合成映像MMIに実時刻T0のもの、左右のサブスクリーンに映す選択映像MSIに過去時刻(T0-Δt)のものを用い、スクリーン間の時刻の違いを二段階とした。しかし、3つのスクリーン間の時間を3段階に変えても良い。例えば、メインスクリーン2に実時刻、一方のサブスクリーン3に未来時刻、他法のサブスクリーン3に過去時刻を用いたり、現在、過去、さらに過去等、複数の時刻のものを用いても良い。スクリーンの数と時刻の切り替えは3以上の複数であってもよい。
In the above embodiment, the main composite image MMI projected on the
図12の別実施形態では、左右一対の横スクリーン3a(3a1,3a2)のほかに、左右一対の上スクリーン3c(3c1,3c2)を設けている。そして、左右一対の上スクリーン3c(3c1,3c2)には時刻T0-2Δtの過去の映像(MSI1’,MSI2’)を、左右一対の横スクリーン3a(3a1,3a2)には時刻T0-Δtの過去の映像(MSI1,MSI2)を映している。その他、上記の横スクリーン3aと上スクリーン3cの時刻をこれらと逆にしたり、全てのサブスクリーンを同じ時刻にする他、サブスクリーンの時刻を適宜変化させて選択することができる。
In another embodiment of FIG. 12, in addition to the pair of left and right
図13の別実施形態では、ステージST上に上述のメインスクリーン2及びサブスクリーン3が背中合わせでさらに1対設けられている。例えば、ホログラム再生スクリーン2aは、符合2aa,2abと表示されるように、符合の最後のアルファベットがaの第1の組とbの第2の組の部材をそれぞれ設けている。また、左右一対の第1横スクリーン3aa(3a1a,3a2a)、左右一対の第2横スクリーン3ab(3a1b,3a2b)には、それぞれ横スクリーンを上下左右に移動させるスクリーン駆動装置70を設け、音と映像に合わせて、サブスクリーン3aを上下及び左右に移動させる。
In another embodiment of FIG. 13, a further pair of the above-mentioned
図14の別実施形態では、ステージST上に上述のメインスクリーン2及びサブスクリーン3(3cのみ)が背中合わせで90度ずつ変移させて4組設けられている。第1~第4の組において、符合の最後のアルファベットをa~dにより各組を識別している。これらの配置では、周囲360度の範囲から観客はスクリーン2,3を見ることができ、例えば、アリーナの中央にこれらのステージSTを設けることで、より多くの観客をメインスクリーン2に近い位置に着席させることが可能となる。この場合、第1~第4の組において、同じ時刻の映像を映す他、第1~第4の組において、時刻をずらせた映像を映しても構わない。
In another embodiment of FIG. 14, four sets of the above-mentioned
図15の別実施形態では、ステージSTの横に設けられた左右一対の第1横スクリーン3a(3a1,3a2)に加え、観客席80に近づくように左右一対の第2横スクリーン3ax(3a1x,3a2x)、第3横スクリーン3ay(3a1y,3a2y)を順次設けても構わない。これら各横スクリーンの映像の時刻は上述の組み合わせに従い適宜変更することができる。
In another embodiment of FIG. 15, in addition to the pair of left and right first
本発明は、バーチャルキャラクターによるコンサートやイベント等に用いることの可能なホール用表示システム及びこれを用いて行うイベントの実施方法として利用することができる。ホールは屋外も含まれ、ステージ上にスクリーンが設置できればよい。 The present invention can be used as a hall display system that can be used for concerts and events featuring virtual characters, and as a method for implementing events using the system. The hall can be outdoors, and any hall can be used as long as a screen can be installed on the stage.
AU:客席、CH(CH-A、CH-B、CH-C):キャラクター、H:ホール、ST:ステージ、AC:アクター、S:隔離スペース、D1:基本方向視、D2:基本方向視とは異なる方向視、D3:第一カメラの方向視、MI(MIa,MIb):メインキャラクター映像、MI1:メインキャラクター本体映像、MI2:メインキャラクターの陰影、BMI:メイン背景映像、MMI:メイン合成映像、SI:サブキャラクター映像、SI1:サブキャラクター本体映像、SI2:サブキャラクターの陰影、BSI:客席映像、MSI(MSI1,MSI2,MSI1’,MSI2’):選択映像、MSI1:撮影映像、MSI2:自撮り映像、L1:実照明光、T0:実時刻、Δt:微小時間、T0-Δt:過去時刻、m0:基準マーカー、m:マーカー、VS:仮想視野、CA:仮想カメラ(第二カメラ)、TR:トリミング範囲、1:ホール用表示システム、2:メインスクリーン、2a:ホログラム再生スクリーン、2b:背面スクリーン、2c:ホログラムプロジェクタ、2d:背面プロジェクタ、3:サブスクリーン、3a:横スクリーン、3a1:横第一スクリーン、3a2:横第二スクリーン、3b:サブスクリーンプロジェクタ、3b1:第一サブスクリーンプロジェクタ、4:実照明器具、6:スピーカー、11:第一カメラ、13:第三カメラ、14:マイク、50:コンピュータ、MC51:モーションキャプチャモジュール、RR52:リアルタイムレンダリングモジュール、IM53:映像合成モジュール、LS54:リップシンクモジュール、BI55:バックステージイメージ生成モジュール、VL56:バーチャルライトイメージ生成モジュール、VS(VS1,VS2,VS3):仮想視野、RS57:レコーディングモジュール、RC58:リアルライトコントローラ、SG59:音楽生成モジュール、TM60:タイムマネジメントコントローラ、RL61:実照明光制御部、62:サウンドシステム AU: Audience, CH (CH-A, CH-B, CH-C): Character, H: Hall, ST: Stage, AC: Actor, S: Isolated space, D1: View in basic direction, D2: View in direction different from basic direction, D3: View in first camera direction, MI (MIa, MIb): Main character image, MI1: Main character main image, MI2: Main character shadow, BMI: Main background image, MMI: Main composite image, SI: Sub character image, SI1: Sub character main character image, SI2: shadow of sub-character, BSI: image of audience, MSI (MSI1, MSI2, MSI1', MSI2'): selected image, MSI1: shot image, MSI2: self-shot image, L1: actual lighting, T0: actual time, Δt: minute time, T0-Δt: past time, m0: reference marker, m: marker, VS: virtual field of view, CA: virtual camera (second camera), TR: trimming range, 1: hall display system, 2: main screen, 2a: hologram playback screen 2b: Rear screen, 2c: Hologram projector, 2d: Rear projector, 3: Sub-screen, 3a: Horizontal screen, 3a1: First horizontal screen, 3a2: Second horizontal screen, 3b: Sub-screen projector, 3b1: First sub-screen projector, 4: Real lighting equipment, 6: Speaker, 11: First camera, 13: Third camera, 14: Microphone, 50: Computer, MC51: Motion capture module, RR52: Real-time rendering module, IM53: Image synthesis module, LS54: Lip sync module, BI55: Backstage image generation module, VL56: Virtual light image generation module, VS (VS1, VS2, VS3): Virtual field of view, RS57: Recording module, RC58: Real light controller, SG59: Music generation module, TM60: Time management controller, RL61: Real lighting control unit, 62: Sound system
Claims (7)
前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、
前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システムであって、
前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、
前記キャラクターは映像として表示される第二カメラを所持し、
前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、
前記生成された映像を前記サブスクリーンに表示し、
前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、
前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、
前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されるホール用表示システム。 A main screen that displays the animated characters moving in the hall as main character images;
a sub-screen that is disposed in the hall separately from the main screen and is capable of displaying an image different from that of the main screen;
A hall display system including a computer that generates images of the main screen and the sub-screen,
A first camera is further provided for photographing the audience seating area of the audience watching both screens,
The character has a second camera that is displayed as an image,
A range of the character that falls within a virtual field of view of the second camera is generated as an image in a field of view direction of the second camera;
Displaying the generated image on the sub-screen;
The system further includes a space for an actor to move in a place not visible from the audience seats, a marker to be attached to the body of the actor, and a motion capture device to capture the movement of the actor by the marker,
The computer has a rendering function that generates character images in real time that are linked to the captured actor's movements,
A hole display system in which the second camera is generated as an image based on a marker of the actor located in the vicinity of where the camera is displayed, and the virtual field of view is determined based on the marker.
前記メインスクリーンとは別に前記ホール内に配置されてメインスクリーンと異なる映像を表示可能なサブスクリーンと、
前記メインスクリーン及び前記サブスクリーンの映像を生成するコンピュータとを備えたホール用表示システムを用いて行うイベントの実施方法であって、
前記両スクリーンを見る観客の客席を撮影する第一カメラをさらに有し、
前記キャラクターは映像として表示される第二カメラを所持し、
前記第二カメラの仮想視野に入る前記キャラクターの範囲を前記第二カメラによる視野方向で映像として生成し、
前記生成された映像を前記サブスクリーンに表示し、前記客席からは見えない場所に、アクターの動作するスペースと、前記アクターの身体に装着するマーカーと、同アクターの動作を前記マーカーによりキャプチャするモーションキャプチャ装置とをさらに備え、
前記コンピュータはキャプチャされたアクターの動作と連動するキャラクター映像をリアルタイムに生成するレンダリング機能を備えており、
前記第二カメラはこのカメラが表示される近傍に存在する前記アクターのマーカーを基準に映像として生成され、前記仮想視野は当該マーカーを基準に決定されるイベントの実施方法。 A main screen that displays the animated characters moving in the hall as main character images;
a sub-screen that is disposed in the hall separately from the main screen and is capable of displaying an image different from that of the main screen;
A method for implementing an event using a hall display system including the main screen and a computer for generating images on the sub-screen, comprising:
A first camera is further provided for photographing the audience seating area of the audience watching both screens,
The character has a second camera that is displayed as an image,
A range of the character that falls within a virtual field of view of the second camera is generated as an image in a field of view direction of the second camera;
The generated image is displayed on the sub-screen, and the system further includes a space for an actor to move, a marker attached to the body of the actor, and a motion capture device that captures the movement of the actor using the marker, in a location not visible from the audience seats;
The computer has a rendering function that generates character images in real time that are linked to the captured actor's movements,
A method for implementing an event in which the second camera is generated as an image based on a marker of the actor located in the vicinity in which the camera is displayed, and the virtual field of view is determined based on the marker.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018150795 | 2018-08-09 | ||
JP2018150795 | 2018-08-09 | ||
JP2019146479A JP7309148B2 (en) | 2018-08-09 | 2019-08-08 | Hall display system and method for holding events using the same |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019146479A Division JP7309148B2 (en) | 2018-08-09 | 2019-08-08 | Hall display system and method for holding events using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023130363A JP2023130363A (en) | 2023-09-20 |
JP7599181B2 true JP7599181B2 (en) | 2024-12-13 |
Family
ID=69620767
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019146479A Active JP7309148B2 (en) | 2018-08-09 | 2019-08-08 | Hall display system and method for holding events using the same |
JP2023098822A Active JP7599181B2 (en) | 2018-08-09 | 2023-06-15 | Hall display system and event implementation method using the same |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019146479A Active JP7309148B2 (en) | 2018-08-09 | 2019-08-08 | Hall display system and method for holding events using the same |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7309148B2 (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005220710A (en) | 2004-02-09 | 2005-08-18 | Mitsubishi Heavy Ind Ltd | Concert hall, facility having the concert hall, and method of controlling vibration of the concert hole and the facility |
JP2007142966A (en) | 2005-11-21 | 2007-06-07 | Yamaha Corp | Sound pressure measuring device, auditorium, and theater |
JP2011053276A (en) | 2009-08-31 | 2011-03-17 | Daiichikosho Co Ltd | Karaoke system including background image variable display function |
US20140333671A1 (en) | 2013-05-10 | 2014-11-13 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
JP2014220722A (en) | 2013-05-10 | 2014-11-20 | ソニー株式会社 | Display controller, display control method and program |
JP2015043571A (en) | 2013-08-26 | 2015-03-05 | シゼイ シジブイ カンパニー リミテッド | Device and method for managing screening theater parameter |
JP2015135581A (en) | 2014-01-16 | 2015-07-27 | ヤフー株式会社 | Distribution apparatus, distribution method, and program |
WO2015151766A1 (en) | 2014-03-31 | 2015-10-08 | コニカミノルタ株式会社 | Projection photographing system, karaoke device, and simulation device |
JP2015184689A (en) | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | Moving image generation device and program |
JP2016540438A (en) | 2013-11-29 | 2016-12-22 | シゼイ シジブイ カンパニー リミテッド | Method and apparatus for normalizing content size in multi-screen theater and computer-readable recording medium |
JP2017083551A (en) | 2015-10-26 | 2017-05-18 | 株式会社DMM.futureworks | Video projection device, stage setting, and video projection method |
-
2019
- 2019-08-08 JP JP2019146479A patent/JP7309148B2/en active Active
-
2023
- 2023-06-15 JP JP2023098822A patent/JP7599181B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005220710A (en) | 2004-02-09 | 2005-08-18 | Mitsubishi Heavy Ind Ltd | Concert hall, facility having the concert hall, and method of controlling vibration of the concert hole and the facility |
JP2007142966A (en) | 2005-11-21 | 2007-06-07 | Yamaha Corp | Sound pressure measuring device, auditorium, and theater |
JP2011053276A (en) | 2009-08-31 | 2011-03-17 | Daiichikosho Co Ltd | Karaoke system including background image variable display function |
US20140333671A1 (en) | 2013-05-10 | 2014-11-13 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
JP2014220722A (en) | 2013-05-10 | 2014-11-20 | ソニー株式会社 | Display controller, display control method and program |
JP2015043571A (en) | 2013-08-26 | 2015-03-05 | シゼイ シジブイ カンパニー リミテッド | Device and method for managing screening theater parameter |
JP2016540438A (en) | 2013-11-29 | 2016-12-22 | シゼイ シジブイ カンパニー リミテッド | Method and apparatus for normalizing content size in multi-screen theater and computer-readable recording medium |
JP2015135581A (en) | 2014-01-16 | 2015-07-27 | ヤフー株式会社 | Distribution apparatus, distribution method, and program |
JP2015184689A (en) | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | Moving image generation device and program |
WO2015151766A1 (en) | 2014-03-31 | 2015-10-08 | コニカミノルタ株式会社 | Projection photographing system, karaoke device, and simulation device |
JP2017083551A (en) | 2015-10-26 | 2017-05-18 | 株式会社DMM.futureworks | Video projection device, stage setting, and video projection method |
Non-Patent Citations (2)
Title |
---|
Shuji Ishimoto,「MMO「World of Warcraft」でも「自撮り」 自キャラ撮影用のカメラアイテムが導入」,AUTOMATON, online,2015年01月28日,2024年6月6日検索, <URL:https://automaton-media.com/articles/newsjp/mmo-world-of-warcraft-selfie/> |
村岡 咲希,「画面内キャラクターとコミュニケーションをとるARコンテンツ「てくてくふぉと」の制作-キャラクターによる写真撮影-」,日本デジタルゲーム学会 第8回次大会 予稿集 [online] DiGRA JAPAN 8th,2018年03月03日,p.183-186,特に、[p.185「4.2.3 キャラクターがプレイヤーの写真を撮影する」欄、等を参照。 |
Also Published As
Publication number | Publication date |
---|---|
JP7309148B2 (en) | 2023-07-18 |
JP2020025869A (en) | 2020-02-20 |
JP2023130363A (en) | 2023-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2950239T3 (en) | Production and distribution of immersive events | |
JP7589927B2 (en) | Gaming Machines | |
US5964064A (en) | Theater with multiple screen three dimensional film projection system | |
US9849399B2 (en) | Background imagery for enhanced pepper's ghost illusion | |
KR101882422B1 (en) | Live teleporting system and apparatus | |
US5963247A (en) | Visual display systems and a system for producing recordings for visualization thereon and methods therefor | |
US8243123B1 (en) | Three-dimensional camera adjunct | |
CN210021183U (en) | Immersive interactive panoramic holographic theater and performance system | |
CN105794202B (en) | Depth for video and line holographic projections is bonded to | |
US7209181B2 (en) | System and method for compositing of two or more real images in a cinematographic puppetry production | |
CN110013678A (en) | Immersion interacts panorama holography theater performance system, method and application | |
US20160266543A1 (en) | Three-dimensional image source for enhanced pepper's ghost illusion | |
KR20180052496A (en) | Virtual performance-studio system | |
JP7599181B2 (en) | Hall display system and event implementation method using the same | |
US20230077552A1 (en) | Video Game Engine Assisted Virtual Studio Production Process | |
WO2019146425A1 (en) | Image processing device, image processing method, program, and projection system | |
WO2023120691A1 (en) | Video creation system, video creation device, and program for video creation | |
JPWO2007116784A1 (en) | Video display method and video system | |
JP2021015417A (en) | Image processing apparatus, image distribution system, and image processing method | |
US20250056101A1 (en) | Video creation system, video creation device, and video creation program | |
KR20240022199A (en) | Mobile variable virtual studio system for performances, lectures, and broadcast filming | |
KR101743874B1 (en) | System and Method for Creating Video Contents Using Collaboration of Performing Objects | |
JP6403649B2 (en) | Aerial image rendering device and control method thereof | |
CA3057723C (en) | System, method and software for producing live video containing three-dimensional images that appear to project forward of or vertically above a display | |
JP6400551B2 (en) | Aerial image effect device, control method of aerial image effect device, and video system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240612 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7599181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |