JP2020072415A - Video/audio synthesis method - Google Patents
Video/audio synthesis method Download PDFInfo
- Publication number
- JP2020072415A JP2020072415A JP2018206333A JP2018206333A JP2020072415A JP 2020072415 A JP2020072415 A JP 2020072415A JP 2018206333 A JP2018206333 A JP 2018206333A JP 2018206333 A JP2018206333 A JP 2018206333A JP 2020072415 A JP2020072415 A JP 2020072415A
- Authority
- JP
- Japan
- Prior art keywords
- video
- person
- sound
- synthesizing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title abstract description 6
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 61
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 47
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims description 27
- 239000000203 mixture Substances 0.000 claims description 20
- 238000013519 translation Methods 0.000 abstract description 22
- 238000004519 manufacturing process Methods 0.000 abstract description 13
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 239000002131 composite material Substances 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 235000019504 cigarettes Nutrition 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、特に映画ドラマ関係の映像・音声合成方法に関する。 The present invention relates to a video / audio synthesizing method particularly related to movie drama.
従来、外国から日本へ輸入された外国映画コンテンツ、もしくは外国へ輸出された日本の邦画映画コンテンツが、上映&放映&ネット配信される場合、放映される相手国視聴者へドラマ内容を理解させるため二つの映像翻訳技法がある。一つは、画面下に相手国言語に翻訳した字幕をシーンごとに入れ込み、映像と字幕を視聴されることで作品内容を理解させる。もう一つは、ドラマ内に出演する人物の言語音声を、相手国の声優(声だけの人物)が喋り、それの収録した音声に差替え視聴者へ作品内容を理解させる。
このような映像字幕若しくは台詞吹替の二つの手段が存在することで、外国の人物が出演する外国ドラマの映像コンテンツは世界的に輸出販売することが容易となっている。
In the past, when foreign movie contents imported from Japan to Japan or Japanese movie contents exported to foreign countries are screened, broadcasted and distributed online, in order to make the drama content understand to the viewers of the other country. There are two video translation techniques. One is to insert subtitles translated into the language of the other country for each scene at the bottom of the screen so that the contents of the work can be understood by viewing the video and subtitles. The other is that the voice of the person who appears in the drama is spoken by the voice actor of the partner country (person with only voice), and the voice is replaced by the recorded voice so that the viewer understands the content of the work.
The existence of such two means of video subtitles or dialogue dubbing makes it easy to export and sell video contents of foreign dramas in which foreign characters appear worldwide.
このような外国映画の映像コンテンツを視聴する場合、例えば、特許文献1に示されるように、映画で用いられている言語と放映される地域での言語が異なる場合、映像コンテンツの言語情報に基づいて音声認識後放映される地域の言語に翻訳処理された音声が出力でき、また、翻訳処理された音声データを文字情報に変換され字幕等として表示できる情報処理装置が開示されている。これにより、視聴者の語学力によることなく、容易に外国の映画コンテンツを視聴し理解することができる。 When viewing the video content of such a foreign movie, for example, as shown in Patent Document 1, when the language used in the movie and the language in the region to be broadcast are different, based on the language information of the video content. There is disclosed an information processing apparatus capable of outputting a translated voice in a language of a region to be broadcast after voice recognition, and capable of converting the translated voice data into character information and displaying it as a subtitle or the like. As a result, foreign movie contents can be easily viewed and understood regardless of the language ability of the viewer.
しかしながら、特許文献1のように、映像コンテンツの言語情報に基づいて音声翻訳出力や映像字幕が機械的に実現されたとしても、人物の生声やリアルなニュアンスを視聴者は人物が変わっていないため直に受け取ることができない。
また、同じ内容の日本映画を外国映画或いは外国映画を日本映画とする場合、舞台となる全てのセットをそれぞれ製作放映される国にて準備する必要があった。
However, even if the audio translation output and the video subtitle are mechanically realized based on the language information of the video content as in Patent Document 1, the viewer does not change the live voice of the person or the realistic nuance. I cannot receive it directly.
In addition, when a Japanese movie of the same content is used as a foreign movie or a foreign movie is used as a Japanese movie, it is necessary to prepare all the sets to be staged in the countries in which they are produced and aired.
そこで、本発明は、このような課題を解決するために、従来の字幕作成や音声翻訳技術を用いることなく、また、一度製作したセットを再利用することができ、登場する人物を各国放映国の人物が演じた映像コンテンツを製作コスト削減しつつ容易に製作する映像・音声合成方法を提供するものである。 Therefore, according to the present invention, in order to solve such a problem, a set once produced can be reused without using a conventional subtitle creation or voice translation technique, and a person appearing in each country can be broadcast. The present invention provides a video / audio synthesis method for easily producing video contents played by a person while reducing production costs.
このような目的を達成するために、第一の発明の映像と音声を合成する映像・音声合成方法は、
カメラで実写された実写人物映像とコンピュータグラフィックで製作された人物の背景となる舞台映像とを対応付けて合成する映像合成のステップと、
前記実写人物の実録音声と当該実録音声の背景となるサウンド音とを対応付けて合成するサウンド合成のステップと、
さらに、前記映像合成のステップの出力と前記サウンド合成のステップの出力とを合成して映像コンテンツを製作するステップと、
前記映像コンテンツの前記実写人物映像とは異なる人物の実写人物映像に差し替えるステップと、
前記実写人物映像とは異なる人物の実写人物映像と前記舞台映像とを対応付けて合成する映像合成のステップと、
前記映像コンテンツの前記実録音声とは異なる人物の実録音声に差し替え、前記サウンドとを対応付けて合成するサウンド合成のステップと、
さらに、前記異なる人物の映像合成のステップの出力と前記サウンド合成のステップの出力とを合成して映像翻訳コンテンツを製作するステップからなることを特徴とする。
第二の発明は、第一の発明において、前記実写人物映像と前記実録音声の合成及び異なる人物の前記実写人物映像と前記実録音声の合成は同期して行なわれることを特徴とする。
In order to achieve such an object, a video / audio synthesizing method for synthesizing video and audio of the first invention is
A step of image composition for associating and synthesizing a live-action person image actually taken by a camera and a stage image which is a background of a person produced by computer graphic,
A sound synthesizing step of synthesizing the recorded voice of the photographed person and a sound sound which is a background of the recorded voice in association with each other;
Furthermore, a step of synthesizing the output of the image synthesis step and the output of the sound synthesis step to produce a video content,
Replacing with a live-action portrait image of a person different from the live-action portrait image of the video content;
An image synthesizing step of synthesizing a live-action portrait image of a person different from the live-action portrait image and the stage video in association with each other,
Replacing the recorded sound of the video content with the recorded sound of a person, and synthesizing the sound by associating with the sound,
Further, it is characterized in that it comprises a step of producing an image translated content by synthesizing the output of the image synthesis step of the different person and the output of the sound synthesis step.
A second aspect of the invention is characterized in that, in the first aspect of the invention, the synthesis of the live-action person image and the recorded voice and the synthesis of the live-action person image and the recorded voice of different persons are performed in synchronization.
本発明によれば、従来の字幕作成や音声翻訳技術を用いることなく、また、一度製作したセットを再利用することができ、登場する人物を各国放映国の人物が演じた映像コンテンツを製作コスト削減しつつ容易に製作するができることにより、視聴者は自国製作の映像だと認識し、好感、感情移入及び関連消費が向上させることができる。 According to the present invention, the set once produced can be reused without using the conventional captioning or voice translation technology, and the production cost of the video content in which the characters appearing are played by the characters of the broadcasting countries. The ease of production while reducing the number allows the viewer to recognize that the image is produced in his / her own country, and improve the user's liking, empathy and related consumption.
以下、本発明の一実施形態について、添付図面を参照して説明する。本実施形態の基本構成は、カメラなどによる実写映像と背景となるセットのCG映像との合成映像に、効果音等のBGMを含む人物の音声をさらに合成させる映像・音声合成方法である。 An embodiment of the present invention will be described below with reference to the accompanying drawings. The basic configuration of the present embodiment is a video / audio synthesizing method for further synthesizing a person's voice including BGM such as a sound effect to a synthetic video of a live-action video captured by a camera or the like and a CG video of a background set.
まず、日本で放映される邦画、例えば、日本人の役者(以下、人物という。)が日本語を使った映画(以下、映像コンテンツという。)を製作する。その後のプロセスで、本映像コンテンツの人物部分を外国での放映地域、例えば、中国人の中国語を使った映画や米国人が米国語を使った映画に差し替えられた映像・音声翻訳映画(以下、映像翻訳コンテンツという。)を製作する。 First, a Japanese film to be broadcast in Japan, for example, a Japanese actor (hereinafter referred to as a person) makes a movie in Japanese (hereinafter referred to as video content). In the subsequent process, the person part of this video content was replaced in a foreign broadcast area, for example, a Chinese-language movie using Chinese or an American-language video / audio-translated movie (below). , Video translation content).
[映像コンテンツ、映像翻訳コンテンツの製作に係るプロセス]
図2のフローを用いて、映像コンテンツの製作に係る映像と音声を合成するプロセスをステップ順に追って説明する。ただ、ステップS6までは、映像コンテンツの製作準備といえるものであるため簡略に説明する。
ステップS1は、脚本(ストーリー)の作成で、脚本によって実現されるべき映像やシーン、台詞や効果音などのサウンド、また、登場する人物や舞台を想定して完成させていく。
ステップS2は、脚本をベースに映像演出計画(絵コンテの作成)で、脚本を基に登場人物の動きやカメラの位置などを、カットごとに絵で示していく。
ステップS3は、絵コンテをベースに映像で撮影計画映像(映像コンテ)を作成する。
ステップS4は、映像コンテ内容をベースに撮影計画を練る。
ステップS5は、合成撮影用のセットの設計を行う。
[Process related to production of video contents and video translated contents]
The process of synthesizing the video and the audio relating to the production of the video content will be described step by step using the flow of FIG. However, the steps up to step S6 can be said to be preparations for producing the video content, and therefore will be briefly described.
Step S1 is the creation of a script (story), which is completed by assuming images and scenes to be realized by the script, sounds such as dialogue and sound effects, and persons and the stage in which they appear.
A step S2 is a video production plan (creating a storyboard) based on the script, and the movement of the characters, the position of the camera, and the like are shown in a picture for each cut based on the script.
A step S3 creates a shooting plan video (video story) based on the storyboard.
In step S4, a shooting plan is prepared based on the contents of the video story.
In step S5, a set for composite shooting is designed.
次のプロセスとして、ステップS6は、映像合成撮影用のセットを設計製作後、映像合成のクロマキーを行うために適した一色(合成に適した一色を用いる、例えば、緑色、青色)で舞台セットを塗装する。
ステップS7は、ステップS6で作成された一色の合成用舞台セットの中で、人物の演技を撮影と音声の録音とが同時になされる。つまり、音声の録音とは同期している(この状態を符号Tで示す点線で表している)。すなわち、後述する実写人物映像と実録音声の合成及び異なる人物の実写人物映像と実録音声の合成が同期して行なわれることになる。
人物の演技の撮影は、一つのカメラないし2つ以上の複数のカメラが用いられる。本実施形態での説明において、CGなどの映像に対し、実際に撮影された映像を指す用語として区別するため実写という用語を適宜用いる。
As a next process, in step S6, after designing and producing a set for video composition shooting, a stage set is created with one color suitable for performing chroma key for video composition (using one color suitable for composition, for example, green and blue). To paint.
In step S7, a person's performance is photographed and a voice is recorded at the same time in the one-color composition stage set created in step S6. That is, it is synchronized with voice recording (this state is indicated by the dotted line indicated by the symbol T). That is, the synthesis of a live-action portrait image and a recorded voice, which will be described later, and the synthesis of a live-action portrait image of a different person and a recorded voice are performed in synchronization.
One camera or a plurality of cameras of two or more are used for photographing a person's performance. In the description of the present embodiment, the term “actual image” is appropriately used to distinguish an image such as a CG image as a term indicating an image actually taken.
次からのステップS8、S10、S12は、実写とCG画像との映像処理に係るプロセスである。
ステップS8は、被写体となる人物と関係無い色調を背景に人物が演技した映像から、撮影済み映像の背景が抜き取る。つまり、人物だけが切り出され、その色調を光学的にあるいは電子的に抜き出し、排除する。
ステップ10において、撮影済み映像の背景が抜き取られた舞台セットにCG映像を代替して合成する公知技術のクロマキー合成を用いる。つまり、人物の背景には一色となった舞台セットに人物の映像が対応付けて挿入する。
ステップ12は、撮影した人物映像とCG映像を対応付けて合成処理する。
The subsequent steps S8, S10, and S12 are processes relating to video processing of a real image and a CG image.
In step S8, the background of the photographed video is extracted from the video in which the person performs with the background having a color tone unrelated to the person who is the subject. That is, only the person is cut out, and the color tone is extracted optically or electronically and eliminated.
In
In
次からのステップS9、S11は、音声と効果音等のBGMとのサウンド処理に係るプロセスである。また、本実施形態での説明において、効果音等のBGMに対し、実際に録音された俳優の音声を指す用語として区別するため実録という用語を適宜用いる。
ステップS9は、ステップS1〜S2での脚本や絵コンテに基づき、効果音のSEや音楽等のBGMを作成する。
ステップ11は、音声とSE・BGMと対応付けて合成するサウンド処理である。SEとはSound Effect(効果音)の略で、BGMとは、BackGround Music(背景音楽)の略である。
The following steps S9 and S11 are processes relating to sound processing of voice and BGM such as sound effects. In addition, in the description of the present embodiment, the term “actual recording” is appropriately used in order to distinguish BGM such as sound effects as a term indicating a voice of an actor actually recorded.
In step S9, BGM such as SE of sound effects and music is created based on the script and storyboard in steps S1 and S2.
ステップ13において、ステップ12の合成された映像とステップS11の合成されたサウンドを対応付けて、さらに全体的に合成することで映像コンテンツが完成する。
In
次に、上記の一連の処理によって製作された映像コンテンツの日本人を外国人(例えば、中国や米国の人物)に差し替え、映像翻訳コンテンツを製作するプロセスについて、図4を用いて説明する。
図2の映像の実録に係るプロセスのステップS7、S8、S10、サウンドの実録に係るステップS9、S11、映像・音声合成出力ステップS13が、図4の映像の実写に係るプロセスのステップS20、S21、S22、サウンドの実録に係るステップS24、S25,映像・音声合成出力ステップS26と、がそれぞれ対応し同様の処理を行う。すなわち、ステップS20の点線での枠内に示すとおり、日本人が演じた合成用セット(舞台)で、外国人が同じ脚本に沿って演じ、当該人物の実写ならびに音声の実録が同期して行なわれる。
このように、登場する人物を各国放映国の人物に現地を舞台とした映像コンテンツを製作する場合、日本人が演じた合成用セットを再利用することができ、製作コスト削減しつつ容易に製作することができる。
Next, a process of substituting the Japanese of the video content produced by the above series of processing with a foreigner (for example, a person from China or the United States) to produce the video translated content will be described with reference to FIG.
The steps S7, S8, S10 of the process relating to the actual recording of the image in FIG. 2, the steps S9, S11 relating to the actual recording of the sound, the image / voice synthesis output step S13 are the steps S20, S21 of the process relating to the actual recording of the image in FIG. , S22, steps S24 and S25 relating to actual recording of sound, and video / audio synthesis output step S26, respectively, and perform similar processing. That is, as indicated by the dotted frame in step S20, a foreign person plays along with the same script in a composition set (stage) played by a Japanese person, and a live-action and voice recording of the person are performed synchronously. Be done.
In this way, when producing video content where the characters who appear are in the scenes of people in different countries, it is possible to reuse the composition set played by the Japanese people, and it is easy to produce while reducing production costs. can do.
具体的には、ステップS7(S20)では、図3(a)に示すように、音声の実録データ音声JPN001と映像の実写データ実写JPN001とは、相互に合成情報を共有するが時間軸tに沿って紐付けされている。この実録の音声JPN001及び実写映像の実写JPN001に共通して付加されている「JPN001」、「JPN002」....というコードは、後述する映像・サウンド合成制御部10から制御に係る合成情報で、日本人についての映像素材と音声素材の必要な位置に置いて切り貼り編集するキーとなるものである。これにより、複雑な制御や操作を要さずに簡便に映像とサウンドの合成プロセスで製作することができる。
また、中国人についての合成情報であれば、実写CHN001、音声CHN001、米国についての合成情報であれば、実写USA001、音声USA001となる。
なお、本実施形態での説明において、映像データとCGデータとを対応付けて合成するための情報、実録された音声とSE・BGMとを対応付けて合成するための情報、これら全体のデータを対応付けて合成する情報を、単に合成情報として用いている。
Specifically, in step S7 (S20), as shown in FIG. 3A, the voice recording data voice JPN001 and the video image data JPN001 share synthesis information, but on the time axis t. It is tied along. "JPN001", "JPN002", etc., which are commonly added to the audio JPN001 of the actual recording and the actual reproduction JPN001 of the actual image. . . . Is a synthesis information related to control from the video / sound
Further, if it is the synthetic information about Chinese, it is the live-action CHN001 and voice CHN001, and if it is the synthetic information about the United States, it is the live-action USA001 and voice USA001.
In the description of the present embodiment, information for synthesizing video data and CG data in association with each other, information for synthesizing recorded sound and SE / BGM in association with each other, and all of these data will be described. The information to be associated and combined is simply used as combined information.
ステップS12(S23)では、図3(b)に示すように、合成情報であるフレーム情報JPN001を起点とし、実写映像のデータの実写JPN001とCGデータのCGJPN001とが時間軸tに沿って逐次合成されキープする。 In step S12 (S23), as shown in FIG. 3B, starting from the frame information JPN001, which is the composition information, the real image JPN001 of the live image data and the CG data CGJPN001 of the CG data are sequentially combined along the time axis t. And keep it.
ステップS11(S25)では、図3(c)に示すように、合成情報であるフレーム情報JPN001を起点とし、人物音声データの音声JPN001とSE・BGMデータSE/BGMJPN001とが時間軸tに沿って逐次合成されキープする。 In step S11 (S25), as shown in FIG. 3C, with the frame information JPN001 as the synthesis information as a starting point, the voice JPN001 of the human voice data and the SE / BGM data SE / BGMJPN001 are set along the time axis t. Sequentially synthesized and kept.
最終的に、ステップS13(S26)で、図3(d)に示すように、合成情報であるフレーム情報JPN001を起点とし、ステップS12で合成された実写映像のデータの実写JPN001とCGデータのCGJPN001と、ステップS11で合成された人物音声データの音声JPN001とSE・BGMデータSE/BGMJPN001とが時間軸tに沿って逐次合成されキープされ、映像コンテンツ(映像翻訳コンッテンツ)が製作される。 Finally, in step S13 (S26), as shown in FIG. 3D, starting from the frame information JPN001 which is the composition information, the real image JPN001 of the real image data combined in step S12 and the CG data CGJPN001 of the CG data. Then, the voice JPN001 of the human voice data and the SE / BGM data SE / BGMJPN001 synthesized in step S11 are sequentially synthesized and kept along the time axis t, and a video content (video translation content) is produced.
また、ステップS1〜S6までのプロセスにおいて、日本版の映像コンテンツと外国版の映像翻訳コンテンツとで共通する前処理的なプロセスで製作されたCG映像、SE・BGMの素材はそのまま使えるので、重複する図2のステップS1〜S6は省略できる。 In addition, in the processes of steps S1 to S6, the CG images and SE / BGM materials produced by the pre-processing process common to the Japanese version of the video content and the foreign version of the video translated content can be used as they are, so that they are duplicated. The steps S1 to S6 of FIG. 2 can be omitted.
以上の説明のとおり、実写人物映像と人物の背景となる舞台映像とを対応付けて合成する映像合成のステップS12と、実録音声と当該実録音声の背景となるサウンド合成のステップS11と、さらに映像合成出力とサウンド合成出力とを合成して映像コンテンツを製作するステップS13と、実写人物映像とは異なる人物の実写人物映像に差し替えるステップS20と、異なる人物の実写人物映像と舞台映像とを対応付けて合成する映像合成のステップS23と、映像コンテンツの実録音声とは異なる人物の実録音声に差し替えるステップS20、サウンドとを対応付けて合成するサウンド合成のステップS25と、さらに異なる人物の映像合成のステップの出力とサウンド合成のステップの出力とを合成して映像翻訳コンテンツを製作するステップS26により、ステップ7での合成用セットでの人物が日本人で日本語であったのが、ステップS20での合成用セットでの人物を外国人で外国語に差し替えることができ中国版や米国版等の外国版の映像翻訳コンテンツが製作される。 As described above, a step S12 of image synthesis for synthesizing a live-action person image and a stage image which is a background of the person in association with each other, a step S11 of synthesizing the recorded voice and a sound synthesizing the background of the recorded voice, and further the image. Step S13 of producing the video content by synthesizing the synthetic output and the sound synthetic output, step S20 of replacing the actual person image with the actual person image different from the actual person image, and associating the actual person image of the different person with the stage image Step S23 of synthesizing video, step S20 of replacing the recorded voice of the video content with the recorded voice of a person, step S25 of synthesizing the sound in association with the sound, and step of synthesizing the image of a different person. And the output of the sound synthesis step are combined to produce the video translation content. In step S26, the person in the composition set in step 7 was Japanese and Japanese, but the person in the composition set in step S20 can be replaced by a foreigner with a foreign language. Foreign version video translation contents such as US version are produced.
[映像・音声合成方法と提供する映像・音声合成装置の動作機能]
次に、本発明の一実施形態に係る映像・音声合成装置の動作機能について説明する。
図1に示すように、映像・音声合成装置1は、映像部2とサウンド3を制御する映像・サウンド合成制御部10から構成される。
[Video / audio synthesis method and operation function of the provided video / audio synthesizer]
Next, operation functions of the video / audio synthesizing apparatus according to the embodiment of the present invention will be described.
As shown in FIG. 1, the video / audio synthesizing device 1 is composed of a video unit 2 and a video / sound
[映像サウンド合成制御部]
映像サウンド合成制御部10は、映像コンテンツの製作を行なう際に事前に作られたスケジュール表、例えば、各シーン毎の登場人物や必要な衣装・小道具・消え物(壊したり消耗したりして1回しか使えないもの、例えば、破る新聞や火のついた煙草等)などが事細かく書かれ、映像製作を円滑に行なうための香盤表や台詞の台本というべきものが備えている。これにより、映像部2とサウンド3の各部に対し逐次操作制御することができる。
[Video sound synthesis controller]
The video / sound
[映像部]
映像部2は、コンピュータグラフィック(CG)による背景映像を蓄積したCGDB(舞台)11と、CG映像を実写された人物に合せて再生するCG舞台映像再生部12と、日本人による演技映像を蓄積した実写DB(JPN)14と、この実写DB(JPN)14から人物映像を読み出し再生する実写人物映像再生部17と、CGDB(舞台)11と実写DB(JPN)とのデータ情報を共有される撮影データリファレンスDB13と、CG舞台映像再生部12にて再生されたCG映像と実写人物映像再生部17で読み出し再生された人物映像とを合成する実写・CG合成部18と、実写・CG合成部18で合成された映像を出力し表示する映像出力部19の各部から構成されている。
[Video part]
The video unit 2 stores a CGDB (stage) 11 in which background images by computer graphics (CG) are accumulated, a CG stage
また、中国人による演技映像を蓄積した実写DB(CHN)15と、米国人による演技映像を蓄積した実写DB(USA)16とが、図1において示されているが、これらは、日本版映画が製作された後に、中国版映画または米国版映画を製作するときに用いられるもので、日本版映画の製作のプロセスでは用いられない。なお、DBとは、DataBaseの略で、実写DB(CHN)15と実写DB(USA)16のデータベース構造と実写DB(JPN)14のデータベースのフォーマットや構造は同じで、中国人か米国人との人物の違いがあるだけである。 In addition, a live-action DB (CHN) 15 in which acting images by the Chinese are accumulated and a live-action DB (USA) 16 in which acting images by the American are accumulated are shown in FIG. 1. These are Japanese version movies. Is used when making a Chinese or American movie after it has been produced, not in the process of making a Japanese movie. The DB is an abbreviation for DataBase, and the database structure of the live-action DB (CHN) 15 and the live-action DB (USA) 16 is the same as the format and structure of the database of the live-action DB (JPN) 14, and is the same as that of Chinese or American. There is only a difference in the person.
CGDB(舞台)11は、クロマキー合成されて人物映像の背景となる映像がmov形式の3次元(3D)CGデータと時間毎(フレーム毎)の情報で構成されている。例えば、図3(b)は、データフォーマットを模式的に示した図で、CGデータはCGJPN00で、合成情報であるフレーム情報JPN001を起点とし実写映像のデータの実写JPN001とが時間軸tに沿って逐次合成する状態を示している。これらの合成動作は、映像・サウンド合成制御部10からの合成情報によって行われる。これらに付加されている「001」、「002」....というコードは、像素材と音声素材の必要な位置に置いて切り貼り等の編集の合成情報のキーとなる。
なお、CGデータは、3DCGではなく、2次元の2DCGを用いることができる。また、movの他、H.264、MJEG、MPEG4等の映像形式も使用できる。これらのCG作成は、例えば、3ds Max(登録商標)等のソフトウエアツールを用いて行われる。
The CGDB (stage) 11 is composed of three-dimensional (3D) CG data in a mov format, which is a background image of a person image that is chroma key-combined, and time-based (frame-based) information. For example, FIG. 3B is a diagram schematically showing a data format, in which the CG data is CGJPN00, and the frame information JPN001 which is the composition information is used as a starting point and the live-action video data JPN001 is along the time axis t. 2 shows a state of sequentially synthesizing. These synthesizing operations are performed by the synthesizing information from the video / sound synthesizing
Note that two-dimensional 2DCG can be used as the CG data instead of 3DCG. In addition to mov, H.264. Video formats such as H.264, MJEG, and MPEG4 can also be used. These CGs are created by using a software tool such as 3ds Max (registered trademark).
また、CGDB(舞台)11は、事前に脚本、絵コンテに基づき、人物撮影用のセットを作成(机、椅子等も含む)するためにカメラ位置、画角、照明位置、個数などがセットされ、本映像・音声合成装置とは別作業にて一タイトル映画分が製作されている。その後、記録媒体に蓄積されており、例えば、CD−ROMやDVD、ハードディスクなど任意の媒体が使用でき、これら記録媒体からコンピュータにCG映像が供給される。 In addition, the CGDB (stage) 11 is set in advance with the camera position, the angle of view, the lighting position, the number, etc. in order to create a set for photographing a person (including a desk, a chair, etc.) based on a script and a storyboard. , A movie for one title is produced separately from this video / audio synthesizer. After that, any medium such as a CD-ROM, a DVD, and a hard disk, which has been accumulated in the recording medium, can be used, and the CG image is supplied from the recording medium to the computer.
CG舞台映像再生部12は、CG映像を実写された人物に合せてCGデータを抽出し再生する機能を有している。
The CG stage
実写DB(JPN)14は日本人による演技映像のみが、実写DB(CHN)15は中国人による演技映像のみが、実写DB(USA)16は米国人による演技映像のみが蓄積されている。すなわち、ブルーバック環境で演技をしている人物の実写映像を、人物映像のみが切出されたものがデータとして、映画一巻の全体分が記録されている。 The live-action DB (JPN) 14 stores only acting images by Japanese, the live-action DB (CHN) 15 stores only acting images by Chinese, and the live-action DB (USA) 16 stores only acting images by American. That is, the whole of one movie is recorded as the data of a live-action image of a person acting in a blue background environment, in which only the person image is cut out.
実写人物映像再生部17は、日本人の映像コンテンツの製作の場合、実写DB(JPN)14から映像データを抽出し再生する機能を有している。 The live-action person video playback unit 17 has a function of extracting and playing back video data from the live-action DB (JPN) 14 when producing Japanese video content.
撮影データリファレンスDB13は、CGDB(舞台)11と実写DB(JPN)14との合成情報を共有させ同期させる時間的情報を保有する。すなわち、CGDB(舞台)11と実写DB(JPN)14とは、独立して製作されるが、CG舞台と同じ状態で撮影できるようにするため紐付けとなる合成情報が必要となる。すなわち、CGDB(舞台)11のCGデータと実写DB14に記憶されている人物映像データには、合成情報(JPN001等)が予め、CG画像データとセットとなるように付加され、CG映像と人物映像との合成は、この合成情報を用いて行われる。
The shooting
実写・CG合成部18は、素材となる映像や画像を階層状に並べて複雑な形を作り出したり、特殊効果を加えることができる機能を有する。本実施形態では、実写人物映像再生部17からの合成情報が付加された人物映像データ実写JPN001とCG舞台映像再生部12からの合成情報が付加されたCGデータCGJPN001とのフレームを入力源として、1つの画像に生成される。例えば、図3(b)に示されるように、実写JPN001とCGJPN001とが合成情報JPN001、JPN002とが時間軸tに沿って逐次合成される。これにより、映像画像の一色成分の領域がCG画像に置き換えられ合成画像が生成される。
The live-action /
映像出力部19は、実写・CG合成部18で合成された映像を繋げて1本の長い映像を製作する機能を有している。本実施形態では、人物映像データ実写JPN001とCG舞台映像のCGデータCGJPN001などのいくつもの映像素材を1つの画像として並べるように合成出力して、これらの合成映像を確認することができる。
The
なお、本実施形態では、日本人による演技を実写したカメラ位置や照明、音声を収録するマイク位置等の同じ条件で、共通した合成撮影用セット内で外国人が演技している。したがって、実写画像とCG画像との合成する場合、画像の混合比率や位置情報等の調整や補正する作業は不要となる効果がある。 It should be noted that in the present embodiment, the foreigner acts in a common set for composite photography under the same conditions such as the camera position, the lighting, and the microphone position for recording the voice of the Japanese performance. Therefore, when synthesizing the photographed image and the CG image, there is an effect that the work of adjusting or correcting the mixture ratio of the images, the position information, and the like becomes unnecessary.
[サウンド部]
サウンド部3は、日本人による音声を蓄積した実録音声DB(JPN)20と、台詞を実録された人物に合せて再生する実録音声再生部23と、サウンド合成されるSE・BGMを蓄積されたSE・BGMDB24と、SE・BGMDB24から読み出し再生されるSE・BGM再生部25と、SE・BGM再生部26にて再生されたSE・BGMと実録音声部23で読み出し再生された人物音声とを合成する音声・BGM合成部26と、音声・BGM合成部26で合成されたサウンドを出力しモニターできるサウンド出力部27の各部から構成されている。
[Sound part]
The sound unit 3 stores a recorded voice DB (JPN) 20 in which voices of Japanese people are accumulated, a recorded
また、中国人による音声を蓄積した実録音声DB(CHN)21と、米国人による音声を蓄積した実録音声DB(USA)22とが、図1において示されているが、これらは、日本版映画が製作された後に、中国版映画または米国版映画を製作するときに用いられるもので、日本版映画の製作のプロセスでは用いられない。なお、DBとは、DataBaseの略で、実録音声DB(CHN)21と実録音声DB(USA)22のデータベース構造と実録音声DB(JPN)20のデータベースのフォーマットや構造は同じで、音声が日本語ではないだけである。これらは、日本版映画が製作された後に、中国版映画または米国版映画を製作するときに用いられるもので、日本版映画の製作のときには必要ではない。 A recorded voice DB (CHN) 21 in which voices by Chinese are stored and a recorded voice DB (USA) 22 in which voices by Americans are stored are shown in FIG. 1, but these are Japanese version movies. Is used when making a Chinese or American movie after it has been produced, not in the process of making a Japanese movie. DB is an abbreviation of DataBase, and the database structure of the recorded voice DB (CHN) 21 and the recorded voice DB (USA) 22 is the same as the database structure and structure of the recorded voice DB (JPN) 20. It's not just a word. These are used when making a Chinese version movie or an American version movie after the Japanese version movie is produced, and are not necessary when making a Japanese version movie.
SE/BGMDB24は、映像の効果音が必要に応じて収録、蓄積され、wav形式の音楽データ情報で構成されている。例えば、図3(c)は、データフォーマットを模式的に示した図で、SE・BGMデータはSE・BGMJPN001で、合成情報であるJPN001を起点とし音声JPN001とが時間軸tに沿って逐次合成しサウンド化する状態を示している。これらの合成動作は、映像・サウンド合成制御部10からの合成情報によって行われる。
なお、サウンドとなるデータは、無圧縮形式のwavだけではなく、圧縮形式のMP3やWMAで蓄積しておき、再生するときに解凍することでも構わない。
The SE /
The sound data may be stored not only in uncompressed wav but also in compressed MP3 or WMA and decompressed at the time of reproduction.
SE/GBMDB24は、事前に脚本、絵コンテによって、本映像・音声合成装置の機能とは別作業にて一タイトル映画分が製作され記録媒体に蓄積されており、例えば、CD−ROMやDVD、ハードディスクなど任意の媒体が使用できる。
The SE /
SE/BGM再生部25は、SE/BGMデータを抽出し再生する機能を有している。この再生機能は映像サウンド合成制御部10により必要な指示が与えられ、SE/BGMデータが音声・BGM合成部26に転送される。
The SE /
音声・BGM合成部26は、例えば、音声のテイク1をキープして、テイク2、テイク3を重ねて全テイクをキープしてトラックにコピーし、テイクが選び終えたらつなぎ目をクロスフェードで整えていく等の機能を有している。本実施形態では、実録音声再生部23からの合成情報が付加された人物音声データの音声JPN001とSE・BGM再生部12からの合成情報が付加されたSE・BGMデータSE/BGMJPN001を入力源として、1つのサウンドに合成される。例えば、図3(c)に示されるように、音声JPN001とSE・BGM001とが時間軸tに沿って逐次合成され全体をキープする。
ここで、SE・BGM001は、SE/BGMJP001と付していないのは、日本語版であろうと、中国語版や米国語版であろうと、共通した効果音であるためである。
そして、サウンド出力部27で、音声と効果音が合成されたサウンドがステレオ、5.1ch等に分けて出力され、その合成出力サウンドをモニターし確認することができる。
The voice /
Here, SE / BGM001 is not attached with SE / BGMJP001 because it is a common sound effect regardless of whether it is the Japanese version, the Chinese version, or the American version.
Then, in the
なお、サウンド部3には、映像部2にある撮影データリファレンスDB13のような合成情報を共有させ同期させる時間的情報を独立して保有させる機能がない。すなわち、すなわち、実録の音声JPN001、SE/BGMのSE・BGMJPN001、実写映像の実写JPN001及びCGのCGJPN001に共通して付加されている「JPN001」、「JPN002」....というコードが合成情報となっている。この合成情報のコードは、映像素材と音声素材の必要な位置に置いて切り貼り編集するキーとなっている。
これにより、複雑な制御や操作を要さず映像とサウンドの簡便な合成プロセスで製作することができる。
It should be noted that the sound unit 3 does not have a function of independently holding temporal information for sharing and synchronizing synthetic information such as the shooting
As a result, it is possible to produce the image and sound by a simple synthesis process without requiring complicated control or operation.
[映像・サウンド合成出力部]
最終的に、図3(d)に示すように、映像・サウンド合成出力部28において、映像出力部19からの合成されたmov形式の映像とサウンド出力部27からのwav形式のサウンドが合体され、日本版の映像コンテンツ30が製作される。映像・サウンド合成出力部28では、異なる画像データと音声データの形式を合成することができる。
そして、この映像コンテンツを表示、モニターして最終確認することができる。
[Video / sound synthesis output section]
Finally, as shown in FIG. 3D, in the video / sound
Then, this video content can be displayed and monitored for final confirmation.
[映像・音声合成装置による映像翻訳コンテンツの製作]
日本版の映像コンテンツ(JPN版30)から中国版の映像翻訳コンテンツ(CHN版31)や米国版の映像翻訳コンテンツ(USA版32)を製作する映像・音声合成装置1の機能について説明する。
本実施形態では、映像部2では、中国版の映像翻訳コンテンツ(CHN版31)ならば実写DB(CHN)15を選択し、米国版の映像翻訳コンテンツ(USA版32)ならば実写DB(USA)16を選択して、撮影データリファレンスDB13と実写人物映像再生部17とに接続される。
同様にサウンド部3では、中国版の映像翻訳コンテンツ(CHN版31)ならば実録音声DB(CHN)21を選択し、米国版の映像翻訳コンテンツ(USA版32)ならば実録音声DB(USA)22を選択して、実録音声再生部23と接続される。
なお、図1では、中国版の映像翻訳コンテンツ(CHN版31)及び米国版の映像翻訳コンテンツ(USA版32)を記載しているが、他の外国の人物が揃えばこれらに限定されることなく、例えば、韓国版の映像翻訳コンテンツや、フランス版の映像翻訳コンテンツ等も製作が可能である。
[Production of video translation contents by video / audio synthesizer]
The function of the video / speech synthesizer 1 for producing the video translation content of the Chinese version (CHN version 31) and the video translation content of the US version (USA version 32) from the video content of the Japanese version (JPN version 30) will be described.
In the present embodiment, the video section 2 selects the live-action DB (CHN) 15 for the Chinese version of the video-translated content (CHN version 31) and the live-action DB (USA) for the US version of the video-translated content (
Similarly, the sound section 3 selects the recorded audio DB (CHN) 21 for the Chinese version of the video translated content (CHN version 31) and the recorded audio DB (USA) for the US version of the video translated content (USA version 32). 22 is selected and connected to the recorded
1 shows the Chinese version of the video translation content (CHN version 31) and the US version of the video translation content (USA version 32), but it is limited to these if other foreign people are available. Instead, for example, Korean version video translation content, French version video translation content, etc. can be produced.
外国版の映像翻訳コンテンツの製作開始にあたり、中国版の映像翻訳コンテンツ(CHN版31)ならば実写DB(CHN)15を選択し、米国版の映像翻訳コンテンツ(USA版32)ならば実写DB(USA)16を選択して、撮影データリファレンスDB13と実写人物映像再生部17とに接続される。
同様にサウンド部3では、中国版の映像翻訳コンテンツ(CHN版31)ならば実録音声DB(CHN)21を選択し、米国版の映像翻訳コンテンツ(USA版32)ならば実録音声DB(USA)22を選択して、実録音声再生部23と接続される。
これにより、既に製作された映像コンテンツの日本人を外国人の人物に差し替え、映像翻訳コンテンツを製作する機能が整ったことになる。
When the production of the foreign version of the video translation content is started, the live-action DB (CHN) 15 is selected for the Chinese version of the video-translated content (CHN version 31), and the live-action DB (for the US version of the video-translated content (USA version 32) is selected. (USA) 16 is selected and connected to the photographed
Similarly, the sound section 3 selects the recorded audio DB (CHN) 21 for the Chinese version of the video translated content (CHN version 31) and the recorded audio DB (USA) for the US version of the video translated content (USA version 32). 22 is selected and connected to the recorded
As a result, the function of replacing the Japanese in the already-produced video content with a foreign person and producing video-translated content is complete.
つまり、中国版の映像翻訳コンテンツ(CHN版31)の場合、図1の映像部2は、コンピュータグラフィック(CG)による背景映像を蓄積したCGDB(舞台)11と、CG映像を実写された人物に合せて再生するCG舞台映像再生部12と、中国人による演技映像を蓄積した実写DB(CHN)15と、この実写DB(CHN)14から人物映像を読み出し再生する実写人物映像再生部17と、CGDB(舞台)11と実写DB(CHN)とのデータ情報を共有される撮影データリファレンスDB13と、CG舞台映像再生部12にて再生されたCG映像と実写人物映像再生部17で読み出し再生された人物映像とを合成する実写・CG合成部18と、実写・CG合成部18で合成された映像を出力し表示する映像出力部19から構成されている。
That is, in the case of the Chinese version of the video translated content (CHN version 31), the video section 2 of FIG. 1 is displayed on the CGDB (stage) 11 in which the background video of the computer graphic (CG) is accumulated, and the person who has actually shot the CG video. A CG stage
また、サウンド部3は、中国人による台詞音声を蓄積した実録音声DB(CHN)21と、台詞を実録された人物に合せて再生する実録音声再生部23と、サウンド合成されるSE・BGMを蓄積されたSE・BGMDB24と、SE・BGMDB24から読み出し再生されるSE・BGM再生部25と、SE・BGM再生部26にて再生されたSE・BGMと実録音声部23で読み出し再生された人物音声とを合成する音声・BGM合成部26と、音声・BGM合成部26で合成されたサウンドを出力しモニターできるサウンド出力部27から構成されている。
Further, the sound unit 3 includes a recorded voice DB (CHN) 21 in which dialogue voices by Chinese people are accumulated, a recorded
図2の映像の実録に係るプロセスで説明したとおり、日本人が演じた同じ脚本、絵コンテに基づいた人物撮影用の合成セット(舞台)上で、外国人が同じ脚本に沿って演じ、俳優の実写ならびに音声の実録が行なわれる。 As explained in the process of the actual recording of the image in Fig. 2, on the same screenplay that the Japanese played, on the composite set (stage) for shooting people based on storyboards, foreigners performed along the same screenplay and actors. A live-action and voice recording of the movie will be held.
具体的には、カメラ位置、画角、照明位置、マイク位置等が全く同じ条件にセットされる。これにより、日本人が演じ撮影された映像の大きさが同じとなることから位置の合成情報は不要となる。したがって、日本版の映像コンテンツと外国版の映像翻訳コンテンツとで共通する前処理的なプロセスで製作されたCG映像、SE・BGMの素材はそのまま使え、合成用セットでの人物が日本人で日本語であったのに対し、合成用セットでの人物を外国人で外国語に差し替えることができることで、中国版や米国版等の外国版の映像翻訳コンテンツが製作され合理的である。 Specifically, the camera position, the angle of view, the illumination position, the microphone position, etc. are set under exactly the same conditions. As a result, the sizes of the images played and photographed by the Japanese people are the same, so that the position synthesis information is unnecessary. Therefore, the CG images and SE / BGM materials produced by the pre-processing process common to the Japanese version of the video content and the foreign version of the video translated content can be used as they are, and the person in the composition set is Japanese. Although it was a word, it is rational to produce foreign version video translation content such as Chinese version and US version by being able to replace the person in the composition set with a foreign language.
以上、説明のとおり、日本版の映像コンテンツに登場する人物を各国放映国の人物とする映像翻訳コンテンツを容易に製作する映像・音声合成方法によって、視聴者は自国製作の映像だと認識し、好感、感情移入及び関連消費が向上させることができることで、日本映画芸術を飛躍的に向上させることが可能となる。 As described above, the viewer recognizes that it is a video produced in his / her country by the video / speech synthesis method that easily produces video translation content in which the person who appears in the Japanese version of the video content is the person in each broadcasting country. By improving liking, empathy and related consumption, it is possible to dramatically improve Japanese movie art.
1 映像・音声合成装置
2 映像部
3 サウンド部
10 映像・サウンド合成制御部
11 CG DB(舞台)
12 CG舞台映像生成部
13 撮影データリファレンスDB
14 実写DB(JPN)
15 実写DB(CHN)
16 実写DB(USA)
17 実写人物映像再生部
18 実写・CG合成部
19 映像出力部
20 実録音声DB(JPN)
21 実録音声DB(CHN)
22 実録音声DB(USA)
23 実録音声再生部
24 SE/BGM DB
25 SE/BGM再生部
26 音声・BGM合成部
27 サウンド出力部
28 映像・サウンド合成出力部
30 JPN版(映像コンテンツ)
31 CHN版(映像翻訳コンテンツ)
32 USA版(映像翻訳コンテンツ)
1 Video / Sound Synthesis Device 2 Video Section 3
12 CG stage
14 Live-action DB (JPN)
15 Live-action DB (CHN)
16 Live-action DB (USA)
17 Live-action person
21 Recorded Voice DB (CHN)
22 Recorded Voice DB (USA)
23 Recorded
25 SE /
31 CHN version (video translation content)
32 USA version (video translation content)
Claims (2)
カメラで実写された実写人物映像とコンピュータグラフィックで製作された人物の背景となる舞台映像とを対応付けて合成する映像合成のステップと、
前記実写人物の実録音声と当該実録音声の背景となるサウンド音とを対応付けて合成するサウンド合成のステップと、
さらに、前記映像合成のステップの出力と前記サウンド合成のステップの出力とを合成して映像コンテンツを製作するステップと、
前記映像コンテンツの前記実写人物映像とは異なる人物の実写人物映像に差し替えるステップと、
前記異なる人物の実写人物と映像前記舞台映像とを対応付けて合成する映像合成のステップと、
前記映像コンテンツの前記実録音声とは異なる人物の実録音声に差し替え、前記サウンドとを対応付けて合成するサウンド合成のステップと、
さらに、前記異なる人物の映像合成のステップの出力と前記サウンド合成のステップの出力とを合成して映像翻訳コンテンツを製作するステップからなることを特徴とする映像・音声合成方法。 A method for synthesizing video and audio, which comprises:
A step of image composition for associating and synthesizing a live-action person image actually taken by a camera and a stage image which is a background of a person produced by computer graphic,
A sound synthesizing step of synthesizing the recorded voice of the photographed person and a sound sound which is a background of the recorded voice in association with each other;
Furthermore, a step of synthesizing the output of the image synthesis step and the output of the sound synthesis step to produce a video content,
Replacing with a live-action portrait image of a person different from the live-action portrait image of the video content;
A video synthesizing step of synthesizing the live-action person of the different person and the video image in association with each other,
Replacing the recorded sound of the video content with the recorded sound of a person, and synthesizing the sound by associating with the sound,
The method according to claim 1, further comprising the step of synthesizing the output of the video synthesizing step of the different person and the output of the sound synthesizing step to produce a video translated content.
2. The video / audio synthesizing method according to claim 1, wherein the synthesizing of the photographed person image and the recorded voice and the synthesization of the photographed person image of the different person and the recorded voice are performed in synchronization.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018206333A JP7267568B2 (en) | 2018-11-01 | 2018-11-01 | Video/audio synthesis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018206333A JP7267568B2 (en) | 2018-11-01 | 2018-11-01 | Video/audio synthesis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020072415A true JP2020072415A (en) | 2020-05-07 |
JP7267568B2 JP7267568B2 (en) | 2023-05-02 |
Family
ID=70548198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018206333A Active JP7267568B2 (en) | 2018-11-01 | 2018-11-01 | Video/audio synthesis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7267568B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10233963A (en) * | 1997-02-18 | 1998-09-02 | Hoei:Kk | Synthesizer for video signal |
JP2003009177A (en) * | 2001-06-21 | 2003-01-10 | For-A Co Ltd | Image compositing system |
JP2004172862A (en) * | 2002-11-19 | 2004-06-17 | Megachips System Solutions Inc | Image composition method and composite image delivery system |
JP2010057050A (en) * | 2008-08-29 | 2010-03-11 | Sharp Corp | Information terminal device, information distribution device, information distribution system, and program |
-
2018
- 2018-11-01 JP JP2018206333A patent/JP7267568B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10233963A (en) * | 1997-02-18 | 1998-09-02 | Hoei:Kk | Synthesizer for video signal |
JP2003009177A (en) * | 2001-06-21 | 2003-01-10 | For-A Co Ltd | Image compositing system |
JP2004172862A (en) * | 2002-11-19 | 2004-06-17 | Megachips System Solutions Inc | Image composition method and composite image delivery system |
JP2010057050A (en) * | 2008-08-29 | 2010-03-11 | Sharp Corp | Information terminal device, information distribution device, information distribution system, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7267568B2 (en) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9143721B2 (en) | Content preparation systems and methods for interactive video systems | |
US20060285654A1 (en) | System and method for performing automatic dubbing on an audio-visual stream | |
US20080260184A1 (en) | Virtual Recording Studio | |
CN107241646A (en) | The edit methods and device of multimedia video | |
JP2008167032A (en) | Video sound output apparatus, and video sound output method | |
JP2012217144A (en) | Image editing device, image editing method, and program | |
KR101944365B1 (en) | Method and apparatus for generating synchronization of content, and interface module thereof | |
WO2006100304A2 (en) | Authoring audiovisual content | |
JP2006528864A (en) | Information recording medium on which scenario is recorded, recording apparatus and recording method, reproducing apparatus for information recording medium, and scenario searching method | |
WO2009157152A1 (en) | Synthesis device and synthesis method | |
JP7267568B2 (en) | Video/audio synthesis method | |
Dwyer | Chapter 1. Undoing dubbing: Singin’in the Rain | |
JP4052561B2 (en) | VIDEO Attached Audio Data Recording Method, VIDEO Attached Audio Data Recording Device, and VIDEO Attached Audio Data Recording Program | |
KR101980414B1 (en) | Method and System for Extensible Video Rendering | |
JP4645955B2 (en) | How to create video data with audio | |
Keating et al. | Researching the history of audiovisual translation | |
JP2006339817A (en) | Information processor and display method thereof | |
Гузова | Film and TV Directing | |
JP2005191826A (en) | VIDEO EDITING DEVICE, VIDEO REPRODUCTION DEVICE, ANGLE VIDEO DISPLAY DATA, RECORDING MEDIUM CONTAINING THE ANGLE VIDEO DISPLAY DATA, VIDEO EDITING METHOD, AND VIDEO REPRODUCING METHOD | |
TWI677240B (en) | System for using multimedia symbols to present storyboard and method thereof | |
KR20050075082A (en) | Manufacture system of music video using karaoke | |
KR20220142723A (en) | Electronic apparatus that outputs subtitle on screen where video is played based on voice recognition and operating method thereof | |
KR200347187Y1 (en) | Manufacture System of Music Video Using Karaoke | |
JP2006109211A (en) | Movie synthesizer | |
KR20000049304A (en) | Photograph apparatus and method for music video using a karaoke system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20181109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7267568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |