JP6948934B2 - コンテンツ加工システム、端末装置、およびプログラム - Google Patents
コンテンツ加工システム、端末装置、およびプログラム Download PDFInfo
- Publication number
- JP6948934B2 JP6948934B2 JP2017243198A JP2017243198A JP6948934B2 JP 6948934 B2 JP6948934 B2 JP 6948934B2 JP 2017243198 A JP2017243198 A JP 2017243198A JP 2017243198 A JP2017243198 A JP 2017243198A JP 6948934 B2 JP6948934 B2 JP 6948934B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- original
- file
- unit
- segment file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
図1は、本実施形態による配信システムの概略機能構成を示すブロック図である。この図において、符号0は、配信システムである。図示するように、配信システム0は、コンテンツ加工システム1と、エンコーダー装置6と、ウェブサーバー装置7と、受信端末8と、を含んで構成される。ウェブサーバー装置7とコンテンツ加工システム1との間は、インターネット100によって接続されており、両者間での通信が可能である。また、コンテンツ加工システム1と受信端末8との間も、インターネット100によって接続されており、両者間での通信が可能である。なお、コンテンツ加工システム1や、エンコーダー装置6や、ウェブサーバー装置7や、受信端末8として、それぞれ専用の装置を用いてもよいし、コンピューターを用いて実現してもよい。
コンテンツ加工システム1は、ウェブサーバー装置7から配信されたコンテンツを受信し、加工し、加工済みのコンテンツを再配信する。ここでコンテンツの加工とは、例えば、コンテンツ(映像、音声、テキスト等)の追加や、一部のコンテンツの差し替えである。
エンコーダー装置6は、映像や音声等のコンテンツを符号化する装置である。
ウェブサーバー装置7は、エンコーダー装置6によって符号化されたコンテンツをHTTPライブストリーミング形式で配信する。HTTPライブストリーミングには、例えば、HLS(HTTP Live Streaming)やMPEG−DASH(Dynamic Adaptive Streaming over HTTP)といった技術を用いることができる。HLSやMPEG−DASH自体は、既存技術である。なお、「HTTP」は、ハイパーテキスト転送プロトコルを意味する。
受信端末8は、コンテンツ加工システム1から配信されるコンテンツを受信し、再生する。
端末装置3は、デコーダー部41と、再生部42と、エンコーダー部48と、セグメント化部49と、を含んで構成される。なお、端末装置3のより詳細な構成については、後で図2を参照しながら説明する。
ここに列挙した各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリーや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能を、コンピューターおよびソフトウェアによって実現するようにしてもよい。
コンテンツは、1つまたは複数の素材で構成される。
素材は、映像や、音声や、テキストや、その他である。ここで、素材としてのテキストには、例えば、字幕テキストのように受信側の装置の画面に表示されるテキストもあれば、受信側のプログラムによって処理されるテキストもある。テキストは、例えば、プレーンテキストや、XML形式のデータ等である。
映像や音声は、適宜、符号化されている。
映像や音声やテキストなどといった素材は、適宜、セグメント化されている。セグメントは、コンテンツの素材を所定の時間長で切った断片である。セグメントの長さは、典型的には数秒程度である。コンテンツは、セグメント単位のファイルとして、配信され、必要に応じて保存され、管理される。1セグメント分のファイルを、セグメントファイルと呼ぶ場合がある。コンテンツの各セグメントには、開始時刻(提示開始時刻)および時間長が関連付けられている。開始時刻は、絶対時刻あるいは相対時刻として表現される。なお、開始時刻の代わりに、各セグメントが何らかのタイミング情報に関連付けられていてもよい。このタイミング情報は、例えば、コンテンツを送出する側のシステムにおけるクロック参照情報(「タイムスタンプ」とも呼ばれる)である。このようなタイミング情報は、配信時や再生時における時刻と厳密に一致していなくてもよい。ただし、こう言ったタイミング情報により、連続するセグメント間での相対的な時間関係は把握可能である。以下において、この種のタイミング情報を用いる場合も含めて、セグメントの「開始時刻」と呼ぶ。
なお、セグメントは、フラグメント、チャンク、断片などとも呼ばれる。
コンテンツが複数の素材で構成される場合、それら複数の素材は、各セグメントに関連付けられた開始時刻の情報によって同期する。
コンテンツは、1つまたは複数の素材で構成される。つまり、コンテンツが、1時点で複数の素材を含んでいてもよい。例えば、あるコンテンツが、ある時点において映像の素材と音声の素材とを含んでいてもよい。また、あるコンテンツが、ある時点において複数の音声素材、あるいは複数の映像素材を含んでいてもよい。あるコンテンツは、ある時点において任意の数の素材を含んでいてもよい。
コンテンツをパススルーするよう指示された場合、マニュフェスト生成部22は、オリジナルセグメントファイルのみを再生するための加工マニュフェストファイルを生成する。また、その場合、ウェブサーバー部28は、オリジナルセグメントファイルと加工マニュフェストファイルとのみを配信する。
マニュフェスト取得部21は、ウェブサーバー装置7から送信されるマニュフェストファイルを取得する。つまり、マニュフェスト取得部21は、ハイパーテキスト転送プロトコルを用いたストリーミングのオリジナルコンテンツに含まれるオリジナルマニュフェストファイルを取得する。
マニュフェスト生成部22は、マニュフェスト取得部21が取得したマニュフェストファイルに基づき、またセグメント選択部26が選択するセグメントファイルに基づき、新たなマニュフェストファイルを生成し、ウェブサーバー部28に渡す。マニュフェスト生成部22が生成するマニュフェストファイルは、コンテンツ加工システム1が実施する加工内容に対応するものである。つまり、マニュフェスト生成部22は、オリジナルマニュフェストファイルに基づいて、オリジナルセグメントファイル(オリジナルコンテンツのセグメントファイル)と追加セグメントファイル(追加コンテンツのセグメントファイル)とが同期するように、加工マニュフェストファイル(加工コンテンツのマニュフェストファイル)を生成する。
セグメント選択部26は、セグメント取得部25が取得したセグメントファイルと、端末装置3から渡されるセグメントファイルとから、配信対象とするセグメントファイルを選択する。セグメント選択部26は、配信対象として選択したセグメントファイルをウェブサーバー部28に渡す。
マニュフェスト解析部32は、マニュフェスト取得部31から渡されたマニュフェストファイルを解析する。即ち、マニュフェスト解析部32は、ウェブサーバー装置7から配信されるコンテンツの構造を解析する。具体的には、マニュフェスト解析部32は、マニュフェストファイルから、取得すべきセグメントファイルに関して、その所在情報と開始時刻とを抽出する。マニュフェスト解析部32は、解析結果に基づきセグメントのアクセス情報をセグメント取得部33に渡す。具体的には、マニュフェスト解析部32は、取得すべきセグメントファイルの所在情報と開始時刻の情報を、セグメント取得部33に渡す。さらに、マニュフェスト解析部32が、セグメントファイルの時間長の情報を抽出してセグメント取得部33に渡してもよい。また、マニュフェスト解析部32は、マニュフェストファイルからセグメントファイルの構成の情報と、各セグメントファイルの時刻情報とを抽出する。マニュフェスト解析部32は、抽出した情報(各セグメントファイルの時刻情報等)をセグメント化部49に渡す。
例えば、コンテンツ生成部43は、デコーダー部41が出力する映像または音声を解析することによってオリジナルセグメントファイルに基づく追加コンテンツを自動的に生成することができる。
また、コンテンツ生成部43は、前記デコーダー部が出力する映像または音声の認識処理を行うことによって得られるテキストデータを含んだ前記追加コンテンツを生成することができる。
また、コンテンツ生成部43は、例えば、デコーダー部41においてデコードされた音声に含まれる発話文章の音声認識を行い、その文章を書き起こしたテキストデータを出力する。
また、コンテンツ生成部43は、例えば、デコーダー部41においてデコードされた音声に含まれる発話文章の言語翻訳処理を行い、翻訳後の文章を、テキストとしてあるいは音声として出力する。
また、コンテンツ生成部43は、例えば、デコーダー部41においてデコードされた音声に含まれる発話文章に対する応答を、人工知能等を用いて生成し、生成した応答文章を、テキストとしてあるいは音声として出力する。
また、コンテンツ生成部43は、例えば、デコーダー部41においてデコードされた音声のフーリエ解析処理を行い、フーリエ解析の結果のデータを出力する。
また、コンテンツ生成部43は、例えば、デコーダー部41においてデコードされた映像に基づいて認識処理(画像認識、文字認識等)を行い、認識処理の結果を出力する。
また、コンテンツ生成部43は、例えば、デコーダー部41においてデコードされた映像に関する各種の画像処理を行い、画像処理の結果を出力する。
また、コンテンツ生成部43は、例えば、デコーダー部41においてデコードされた映像および音声の内容に関する認識処理を行い、映像および音声内に特定のシーンが検出された場合に、効果音あるいは特定の映像・画像を出力する。
また、コンテンツ生成部43が、上に例示した処理だけでなく、デコーダー部41から渡されるコンテンツに基づいて様々な処理を行い、新たなコンテンツを生成するようにしてもよい。
なお、上で例示したコンテンツ生成部43による処理に含まれる、音声認識処理、言語翻訳処理、人工知能による応答処理、フーリエ変換処理、認識処理、画像処理等の処理自体は、既存技術により実現可能なものである。
なお、A/Vインターフェース部44は、単に「インターフェース部」とも呼ばれる。
なお、新たなコンテンツは、追加用のコンテンツや、差し替え用のコンテンツである。
アップロード部50は、セグメント化部49から渡されたセグメントファイルを、サーバー装置2にアップロードする。
例えば、端末装置3が映像および音声を含むオリジナルコンテンツを取得し、そのコンテンツに追加の音声コンテンツを付加する場合、次の3つのコンテンツがサーバー装置2から再配信されることとなる。即ち、オリジナルコンテンツに含まれる音声であるオリジナル音声と、端末側で付加する音声である付加音声と、オリジナルコンテンツに含まれるオリジナル映像の3つのコンテンツである。これらの3つのコンテンツ相互間で、同期ずれは生じない。よって、例えば、上記のオリジナル映像とオリジナル音声とを再生する場合にも、上記のオリジナル映像と付加音声とを再生する場合にも、映像と音声との間で同期ずれは生じない。
ストリーム211は、コンテンツ追加のストリームである。即ち、ストリーム211は、オリジナルのストリーム200に含まれるコンテンツを維持したまま、さらに端末処理203において生成された追加のコンテンツを含んだストリームである。
ストリーム212は、コンテンツ差し替えのストリームである。即ち、ストリーム212は、オリジナルのストリーム200に含まれるコンテンツのうちの少なくとも一部を、端末処理203において生成された追加のコンテンツで置き換えたストリームである。
ストリーム213は、パススルーのストリームである。即ち、ストリーム213は、オリジナルのストリーム200にコンテンツを追加したり、ストリーム200のコンテンツを差し替えたりすることなく、ストリーム200をそのまま再配信する。
第1行目の「#EXTM3U」は、ファイルのヘッダーであり、このファイルが拡張M3Uファイルであることを表している。
第2行目の「#EXT−X−VERSION:3」は、マニュフェストファイルのバージョン番号が「3」であることを表している。
第3行目の「#EXT−X−INDEPENDENT−SEGMENTS」は、当該マスタープレイリストから参照されるすべてのプレイリスト内のあるセグメント内のコンテンツが、他のセグメントの情報から独立であることを表すタグである。つまり、あるセグメント内のコンテンツは、他のセグメントの情報なしに復号可能である。
第4行目から第17行目までは、7本のストリームを定義している情報である。第4行目と第5行目とのペアが、第1のストリームを定義する。第6行目と第7行目とのペアが、第2のストリームを定義する。第8行目と第9行目とのペアが、第3のストリームを定義する。第10行目と第11行目とのペアが、第4のストリームを定義する。第12行目と第13行目とのペアが、第5のストリームを定義する。第14行目と第15行目とのペアが、第6のストリームを定義する。第16行目と第17行目とのペアが、第7のストリームを定義する。各ストリームの情報は、「#EXT−X−STREAM−INF」タグと、プレイリストファイルのファイル名(m3u8ファイル名)の情報とで構成される。「#EXT−X−STREAM−INF」タグは、「BANDWIDTH」と、「AVERAGE−BANDWIDTH」と、「CODECS」と、「RESOLUTION」と、「FRAME−RATE」と、「CLOSED−CAPTION」の各パラメーターを有している。「BANDWIDTH」は、帯域幅を表す。「AVERAGE−BANDWIDTH」は、平均帯域幅を表す。「CODECS」は、符号化および復号の情報を表す。「RESOLUTION」は、映像の解像度を表す。「FRAME−RATE」は、フレームレート(単位時間当たりフレーム数)を表す。「CLOSED−CAPTION」は、クローズドキャプションの有無を表す。
各ストリームのm3u8ファイルは、例えば第5行目の「test2_270.m3u8」のように、相対的な位置の情報としてマニュフェストファイルに記述される。
第1行目の「#EXTM3U」(ヘッダー)と、第2行目の「#EXT−X−VERSION:3」(バージョン情報)とは、図6において説明したものと同様である。
しかし、第3行目の「#EXT−X−MEDIA」タグが「NAME=mixed」(混合音声)という記述を持つのに対して、第4行目の「#EXT−X−MEDIA」タグは「NAME=original」(オリジナル音声)という記述を持つ。このように、第3行目と第4行目とでは、音声メディアの名称が異なる。また、第3行目が「DEFAULT=YES」(デフォルト音声である)という記述を持つのに対して、第4行目は「DEFAULT=NO」(デフォルト音声ではない)という記述を持つ。また、第3行目の「#EXT−X−MEDIA」タグが指定するプレイリストファイルのURLは「mixed/playlist.m3u8」である。一方、第4行目の「#EXT−X−MEDIA」タグが指定するプレイリストファイルのURLは「original/playlist.m3u8」である。
なお、混合音声(mixed)は、例えば、スポーツイベントの中継映像において、オリジナルの配信元からの音声(例えば、イベント会場音声)と、コンテンツ加工システム1で入力される音声(例えば、日本語解説等)とをミックスしたものである。
加工コンテンツIDは、コンテンツ加工システム1において生成した加工コンテンツをユニークに識別するための情報である。図示する例では、加工コンテンツIDとして、オリジナルコンテンツIDと枝番(4ケタの数値)とを用いているが、データの形式に特に制約はない。なお、加工コンテンツIDは、端末装置3側で付与するようにしてもよいし、サーバー装置2側で付与するようにしてもよい。
被置換系列リストは、オリジナルコンテンツには存在していたがこの加工コンテンツで置換されたセグメントファイルの系列の情報である。被置換系列リストに含まれる系列数は任意である。図示する例では、被置換系列リスト(同図(B))は、2個の系列を有している。これは、オリジナルコンテンツが含む複数の系列のうちの2個の系列が被置換系列であることを表す。被置換系列リストは、表形式のデータであり、系列IDと、系列種別と、開始時刻と、終了時刻の各項目を有している。系列IDは、セグメントフィルの系列をユニークに識別するための情報である。系列種別は、系列の種別(例えば、映像、音声、映像プラス音声、字幕等)を表す情報である。開始時刻は、当該被置換系列の置換が開始される時刻を、年月日、時分秒、および秒未満の通し番号の形式で表した情報である。終了時刻は、当該被置換系列の置換が終了される時刻を、開始時刻と同様の形式で表した情報である。
追加系列リストは、オリジナルコンテンツには存在せずこの加工コンテンツで追加されたセグメントファイルの系列の情報である。追加系列リストに含まれる系列数は任意である。図示する例では、追加系列リスト(同図(C))は、2個の系列を有している。これは、当該加工コンテンツにおいて2個の系列が追加されることを表す。追加系列リストは、表形式のデータであり、被置換系列リストと同様に、系列IDと、系列種別と、開始時刻と、終了時刻の各項目を有している。開始時刻は、当該追加系列の追加が開始される時刻を表す。終了時刻は、当該追加系列の追加が終了する時刻を表す。
加工者IDは、当該加工コンテンツを生成する者(ユーザーや事業者等)をユニークに識別するための情報である。
例えば、スポーツ競技の映像および音声が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。当該スポーツ競技をスタジアム等で観戦しているユーザーが、端末装置3(例えば、スマートフォン等)においてコンテンツ加工用のアプリケーションプログラム(以下において「アプリ」と呼ぶ場合あり)を立ち上げる。ユーザーの操作により、当該スタジアム内で、端末装置3は動画を撮影し、追加コンテンツとしてサーバー装置2にアップロードすることができる。また、ユーザーの入力操作等により、端末装置3はコメントテキストをサーバー装置2にアップロードすることができる。それら追加のコンテンツを含んだ加工コンテンツが、コンテンツ加工システム1から配信される。その加工コンテンツを、他のユーザーの端末装置3が受信し、さらに別のコンテンツ(映像、音声、テキスト等)を追加することができる。このようなコンテンツの追加は、多段階的に行ってもよい。また、その加工コンテンツを、コンテンツ配信事業者等が加工・編集して配信することができる。つまり、オリジナルコンテンツに、多数のユーザーがコンテンツを付加して多元的にコンテンツを楽しむことが可能となる。
例えば、スポーツイベントに関連して、聖火リレーの模様、および関連する映像および音声が、スポーツ競技の映像および音声が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。例えば、聖火リレーで運ばれる聖火トーチに、360度撮影可能な小型のカメラを取り付ける。また、その聖火トーチに、小型の端末装置3を取り付ける。聖火トーチに取り付けられた端末装置3は、聖火視点の360度動画を、追加コンテンツとしてサーバー装置2にアップロードする。また、聖火リレーを沿道で応援する一般ユーザーは、端末装置3(例えば、スマートフォン等)でリレーの模様を撮影し、追加コンテンツとしてサーバー装置2にアップロードする。サーバー装置は、追加コンテンツを含んだ映像コンテンツを、ウェブサーバー部28から再配信する。
これにより、聖火視点の映像や一般ユーザーが撮影した映像を用いたコンテンツを楽しむことが可能となる。沿道で聖火リレーを応援する誰もが、コンテンツの制作者として参加することができる。
例えば、映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。その映像撮影現場に近い場所にいる単数または複数のユーザーは、端末装置3(例えば、スマートフォン等)を用いて、オリジナル映像に映るオブジェクトを、それぞれ別の角度から、撮影する。各ユーザーの端末装置3は、各視点から映した映像を、追加コンテンツとして、サーバー装置2にアップロードする。例えば、同一のオブジェクトを3台以上の端末装置3で、それぞれ異なる角度から撮影する。それらの複数の視点から同一のオブジェクトを映した映像を、VR(バーチャルリアリティ)映像として、ウェブサーバー部28から再配信することができる。
例えば、スポーツ競技の映像および音声が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。視聴者であるユーザーは、端末装置3(例えば、スマートフォン等)において、お気に入りの選手を予め登録しておく。端末装置3は、登録されたお気に入り選手の顔画像や、あるいは顔画像の特徴量のデータを予め保存しておく。端末装置3は、顔認識機能を実行させることにより、オリジナルコンテンツの映像において、お気に入り選手が登場したシーンを検出する。端末装置3は、お気に入り選手が登場したシーンが検出されると、例えば、ユーザーに対する通知を行ったり、タイムライン上にチャプターマークを付与したり、当該選手が登場する場面のみをつなぎあわせた自動編集ハイライト動画を生成し表示したりする。これにより、特定の野球選手の打席の場面や、特定のゴルフ選手のショットの場面や、特定のサッカー選手がプレイする場面などを、映像で楽しむことができる。
端末装置3は、そのようなコンテンツに、さらに情報を付加することができる。例えば、端末装置3は、ユーザーの操作により、自動的な顔認識では検出できなかったお気に入り選手の登場シーンを追加(補正)することができる。端末装置3は、この追加情報(メタデータ)を、例えばテキストコンテンツとして追加する。また、端末装置3は、ユーザーの操作により、顔認識によって抽出されたシーンのそれぞれにシーン名称を付与することができる。端末装置3は、この追加情報(シーン名称を表すテキスト)を、コンテンツとして追加する。また、端末装置3は、顔認識によって抽出されたシーンのそれぞれに「いいね」属性を付加することができる。端末装置3は、この追加情報(「いいね」を表すメタデータ)を、例えばテキストコンテンツとして追加する。このように、端末装置3は、メタデータの修飾機能を有する。コンテンツ加工システム1は、これらのメタデータを端末装置3から収集し、メタデータを付加した加工コンテンツを再配信することができる。また、オリジナルコンテンツの制作者は、収集されたメタデータをリアルタイムに取込み、オリジナルコンテンツに反映させることも可能となる。
例えば、スピードスケートや、スキーや、陸上競技や、水泳などでは、タイムが競われるが、競技者がスタートするタイミングがまちまちである場合がある。ウェブサーバー装置7は、その時にスタートする競技者の映像を、オリジナルコンテンツとして配信する。一方、端末装置3は、既にスタートした競技者の映像を予め受信し、録画保存している。そして、端末装置3は、現時点でウェブサーバー装置7から配信されている競技映像に同期させて、自らが録画保存している映像を追加する。このとき、複数の競技者のスタートのタイミングが同期するよう制御する。サーバー装置2は、ウェブサーバー装置7から配信されている映像(リアルタイム映像)と、端末装置3によって追加された映像(タイムシフトの録画映像)とを同時に配信することができる。これにより、受信端末8側では、スタートのタイミングが異なる競技者同士を、時間的に重ねあわせて視聴することが可能となる。
例えば、映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。一方、道路上(例えば、通学路)や公園などの公共スペースなどの複数の箇所に、予め端末装置3を設置しておく。各端末装置3は、ウェブサーバー装置7からオリジナルコンテンツを受信するとともに、設置された場所(道路や公園等)の映像を撮影して、追加コンテンツとしてその映像をサーバー装置2に提供する。サーバー装置2のウェブサーバー部28は、端末装置3から提供された映像も追加コンテンツとして含めて再配信する。受信端末8側では、複数の端末装置3からの映像を同期させて、同時に視聴することが可能となる。
オリジナルコンテンツがウェブサーバー装置7から配信される。例えば観光地等に複数の端末装置3が設置される。各端末装置3は、設置された場所を撮影し、高画質映像(または画像)を追加コンテンツとしてサーバー装置2に提供する。サーバー装置2は、追加コンテンツを含んだコンテンツを配信する。さらに、端末装置3は、特定の場所(観光地等)および時刻を鍵として、映像(または画像)を検索する。サーバー装置2は、検索された映像(または画像)を配信する。ここで、例えば、オンデマンド配信の仕組みを用いてもよい。端末装置3は、配信された映像(または画像)と、自らが有する撮影手段で撮影した映像(または画像)とを合成して、記念映像(または記念写真)を作成することができる。端末装置3は、合成処理によって得られた映像(または画像)を、さらなる追加コンテンツとして、サーバー装置2に提供する。サーバー装置2は、さらに、追加されたコンテンツを含む加工コンテンツを配信する。
例えば、スポーツ競技の映像等が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3のコンテンツ生成部43は、受信した映像のフレームを間引くことによって、簡易スロー映像を生成する。端末装置3は、生成したスロー映像をライブストリーム中に挿入して、サーバー装置2に提供する。サーバー装置2は、スロー映像の挿入された映像を、再配信する。
さらに、端末装置3は、再配信された映像(スロー映像入り)を受信し、ユーザーの入力操作等により、ライブコメントのテキストを生成する。端末装置3は、このライブコメントのテキストコンテンツをサーバー装置2に提供する。サーバー装置2は、渡されたテキストコンテンツを追加した加工コンテンツを、再配信する。
例えば、スポーツ中継や、音楽ライブの中継や、舞台(演劇等)の中継の映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。オリジナルコンテンツとして配信される映像は、例えば8K(横7680画素×縦4320画素)といった高解像で撮影された映像である。また、オリジナルコンテンツとして配信される映像は、典型的には、固定カメラおよび広角レンズを用いて撮影された映像である。端末装置3は、オリジナルコンテンツの一部の領域をクロッピングすることによって得られる映像ストリームを生成する。つまり、クロッピング映像は、オリジナルの映像よりも画素数が少ない。また、端末装置3が、複数のクロッピング映像間での切り替え(スイッチング)を行うようにしてもよい。つまり、仮想カメラスイッチングを実現する。このクロッピングおよびスイッチングによる映像ストリームの生成を、端末装置3内のコンテンツ生成部43が行う。サーバー装置2は、端末装置3によって生成された映像を、再配信する。
なお、コンテンツ生成部43が、自動的にクロッピングする領域を選択したり、自動的にカメラの仮想スイッチングを行ったりするようにしてもよい。自動的なクロッピングや、自動的な仮想スイッチングを行うためには、例えば、AI(人工知能)の技術を利用する。具体的には、予め、クロッピングやスイッチングの結果得られる映像に評価値を付与することにより、学習処理を行っておく。そして、学習済みのAIによって、クロッピングや仮想スイッチングを行うようにする。
さらに、再配信されたクロッピング映像を端末装置3が受信してもよい。そして、例えばユーザーの操作等により、ライブコメントのテキストデータを端末装置3が取得する。端末装置3は、取得したテキストのデータを追加コンテンツとして、サーバー装置2に提供する。サーバー装置2は、端末装置3から提供されたライブコメントのテキストデータも、コンテンツとして再配信する。
例えば、記者会見や、ニュースの現場からの中継や、スポーツ中継の映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3は、上記のオリジナルコンテンツを再生しながら、ユーザーの操作等に基づき予め記憶しておいたクリップ映像を差し替え画像として挿入し、新たな映像コンテンツを生成する。このとき、例えば、オリジナルコンテンツに含まれる音声の差し替えは行わず、その音声をそのまま再送信(パススルー)する。挿入するクリップ映像は、例えば、当該記者会見やニュースやスポーツ中継に関連するVTR映像である。端末装置3は、生成された新たなコンテンツをサーバー装置2に提供する。サーバー装置2は、差し替え映像を伴う新たな映像コンテンツを、再配信する。
これにより、現場(記者会見、ニュース中継、スポーツ中継等)では、カメラ映像のライブ配信を行うだけで済む。つまり、現場で必要とする機材は、カメラと、小型ライブ配信用のエンコーダー装置のみである。そして、端末装置3側で必要な映像クリップを挿入する操作を行うことができる。コンテンツ加工システム1側では、映像のライブストリーミングをデコードしたり再エンコードしたりすることなく、映像の差し替え装入が可能となる。
さらに、再配信された映像(クリップ映像が差し替えとして挿入された映像)を端末装置3が受信してもよい。そして、例えばユーザーの操作等により、ライブコメントのテキストデータを端末装置3が取得する。端末装置3は、取得したテキストのデータを追加コンテンツとして、サーバー装置2に提供する。サーバー装置2は、端末装置3から提供されたライブコメントのテキストデータも、コンテンツとして再配信する。
例えば、スポーツ中継の映像および音声が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3(例えば、スマートフォン)は、配信された上記オリジナルコンテンツを受信して再生する。また、端末装置3は、オリジナルコンテンツを再生しながら、ユーザーの発話音声を取得し、追加の音声コンテンツを生成する。端末装置3は、生成した音声コンテンツをサーバー装置2に渡す。サーバー装置2は、オリジナルコンテンツに含まれる映像と、端末装置3によって生成された音声とを少なくとも含んだコンテンツを再配信する。これにより、ソーシャルコメンタリーサービス(Social Commentary Service)が実現できる。
また、サーバー装置2は、複数の端末装置3から渡される音声のコンテンツを、相互に同期させ、つまりサーバー装置2上で統合して、オリジナルの映像とともに再配信してもよい。これにより、複数のユーザーによるコメンタリーを、オリジナルの映像に付加して配信することができる。
さらに、端末装置3は、コメンタリーの追加されたコンテンツ(加工コンテンツ)を受信する。そして、端末装置3は、ユーザーの操作等に基づき、コメンタリーの評価情報(例えば、レーティング数値の情報)を取得し、この評価情報を例えば追加のテキストコンテンツとして生成する。端末装置3は、追加のテキストコンテンツをサーバー装置2に渡す。サーバー装置2は、必要に応じて評価情報を適宜処理して、元のコンテンツと共に再配信することができる。これにより、多数の音声トラック(コメンタリーのコンテンツ)のそれぞれに対して、ユーザーの評価情報を付加することができる。これにより、ユーザーからの人気が高い、質の良いコメンタリーを、効率よく選択することも可能となる。
例えば、スポーツ中継等のライブ映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。不特定多数のユーザーの端末装置3が、そのコンテンツを受信するとともに、ユーザーの音声によるコメントを取得し、音声のコンテンツを生成する。端末装置3は、生成された音声のコンテンツをサーバー装置2に渡す。サーバー装置2は、端末装置3から渡される音声のコンテンツを受け取る。サーバー装置2は、多数の端末装置3からそれぞれの音声のコンテンツを受信し、それらを統合してもよい。サーバー装置2は、オリジナルコンテンツに含まれる映像と、端末装置3から受け取った音声とを少なくとも含んだ加工コンテンツを、再配信する。
受信端末8は、オリジナルコンテンツの映像と、端末装置3によって生成された多数のユーザーのコメントとを同期して再生することができる。つまり、受信端末8では、あたかもスポーツ競技が行われている現場のような雰囲気に混合された音声とともに、オリジナルの映像を鑑賞することが可能となる。つまり、視聴ユーザーは、現場の一体感を味わうことができる。
また、サーバー装置2が複数の端末装置3からの音声コメントのコンテンツを集める際に、友人同士の複数のユーザーが持つ端末装置3からの音声コメントのみを統合して再配信するようにしてもよい。また、サーバー装置2が、特定のチームあるいは選手を贔屓にするユーザーが持つ端末装置3からの音声コメントのみを統合して再配信するようにしてもよい。
例えば、音楽の演奏音を含む映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3は、オリジナルコンテンツの映像を受信して再生するとともに、当該端末装置3のユーザーによる歌唱や、ユーザーによる楽器演奏の音声を、取得する。端末装置3は、音声のコンテンツを生成する。端末装置3は、追加された音声のコンテンツをサーバー装置2に渡す。サーバー装置2は、端末装置3から渡された音声のコンテンツと、オリジナルコンテンツの映像(音声が付加されていてもよい)とを同期させ、再配信する。サーバー装置2は、複数の端末装置3から渡された音声のコンテンツを、オリジナルコンテンツの映像と同期させ、再配信してもよい。これにより、複数の演奏者や歌唱者による仮想音楽セッションを実現することが可能となる。
また、端末装置3は、歌唱するユーザーあるいは楽器を演奏するユーザーを撮影した映像を、さらに追加コンテンツとして取得するようにしてもよい。端末装置3は、取得した映像を、サーバー装置2に渡す。サーバー装置2は、端末装置3から渡された映像をも、オリジナルのコンテンツと同期させ、配信する。
また、複数の端末装置3は、必ずしも同時にセッションする必要はない。つまり、ある端末装置3と他の端末装置3との間で、オリジナルコンテンツを再生するタイミングが異なっており、その結果として歌唱あるいは楽器演奏の音声や映像を取得するタイミングが異なっていても良い。その場合、サーバー装置2は、それぞれのタイミングで取得された追加コンテンツ(映像や音声)を端末装置3から取得し、すべての追加コンテンツを、オリジナルコンテンツのタイミングに同期させて、再配信する。これにより、各端末装置3のユーザーが同時に歌唱あるいは演奏しなくても、セッションのコンテンツを生成することができる。
また、サーバー装置2が、受信端末8に加工コンテンツを配信する際に、例えば受信端末8からの要求に基づいて、特定の音声トラックあるいは特定の映像トラックのみを選択して配信するようにしてもよい。あるいは、受信端末8側で、特定の音声トラックあるいは特定の映像トラックのみを選択して再生するようにしてもよい。
また、サーバー装置2が、受信端末8に加工コンテンツを配信する際に、各音声トラックのボリューム(音量)レベルを任意の比率でミックスするようにしてもよい。これにより、例えば、楽器重視の音声コンテンツや、歌唱重視の音声コンテンツなど、複数のパターンのコンテンツを配信することができるようになる。
例えば、映画やアニメーション等の映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3は、そのオリジナルコンテンツの映像を受信し、再生する。端末装置3は、オリジナルコンテンツの映像のタイミングに合わせて発話されるユーザーの音声を取得する。端末装置3は、音声のコンテンツを生成し、サーバー装置2に渡す。サーバー装置2は、端末装置3から渡された追加の音声コンテンツと、オリジナルコンテンツである映像とを同期させ、再配信する。
また、サーバー装置2は、複数の端末装置3から追加の音声コンテンツを受信し、複数の音声コンテンツをオリジナルコンテンツに同期させて再配信することもできる。これにより、複数のユーザーが異なる役割を分担してアフレコを行うことが可能となる。サーバー装置2は、複数の端末装置3からの追加の音声コンテンツを、同時に受信してもよいし、異なるタイミングで受信してもよい。
また、サーバー装置2は、1台の端末装置3から、複数回、追加の音声コンテンツを受信し、それら複数の音声コンテンツを、オリジナルの映像コンテンツに同期させて再配信してもよい。これにより、1人のユーザーが、複数の役割を演じながらアフレコを行うことも可能となる。
また、サーバー装置2から再配信された加工コンテンツを、端末装置3が受信するとともに、端末装置3のユーザーが、加工コンテンツへの投票や、評価数値の入力などを行うようにしてもよい。これにより、端末装置3は、様々な加工コンテンツの人気のテキストデータを追加コンテンツとして取得する。端末装置3は、このテキストデータを、サーバー装置2に渡す。サーバー装置2は、加工コンテンツごとの人気を表すテキストデータのコンテンツを、再配信することができる。この仕組みにより、例えば、どの加工コンテンツ(映像)が面白かったかを競うイベントを行うこともできる。
例えば、スポーツイベントの中継映像が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。当該スポーツイベントの実況者や解説者の操作により、端末装置3は、当該オリジナルコンテンツの映像(音声を伴っていてもよい)を受信し、再生する。実況者および解説者は、同じ場所に居てもよいし、異なる場所に居てもよい。また、端末装置3は、実況者および解説者の音声を取得し、追加の音声コンテンツを生成する。端末装置3は、生成した音声コンテンツを、サーバー装置2に渡す。サーバー装置2は、オリジナルコンテンツである映像と、端末装置3によって生成された音声コンテンツとを、同期させて配信する。これにより、実況者および解説者は、特定の言語による実況音声および解説音声をコンテンツに付加することができる。また、言語ごとに(例えば、日本語、英語、中国語、フランス語、・・・等)、実況者および解説者が実況音声および解説音声のコンテンツを発し、追加コンテンツを生成するようにしてもよい。また、実況者と解説者が相互に離れていても、その掛け合い音声によるコンテンツを生成することが可能となる。これにより、例えば大規模なスポーツイベントの、多言語実況等が可能となる。
例えば、何らかの映像コンテンツ(音楽ライブ、トークライブ等を含む任意のコンテンツ)が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3は、そのオリジナルコンテンツを受信し、再生する。また、端末装置3は、ユーザーの音声を取得し、音声による追加コンテンツを生成する。端末装置3は、生成された音声コンテンツを、サーバー装置2に渡す。サーバー装置2は、受信した追加コンテンツを、オリジナルコンテンツと同期させて、再配信する。
サーバー装置2は、複数の端末装置3から追加コンテンツ(音声)を受信し、それらをミックスして再配信してもよい。
この仕組みにより、動画配信サービスにおいて、ユーザーが音声コメントを共有することが可能となる。
例えば、大規模スポーツイベントの中継映像(音声を含む)が、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。いわゆるパブリックビューイング会場において、端末装置3(PC等)が、オリジナルコンテンツの映像および音声を再生する。映像はパブリックビューイング会場の大画面に表示され、音声はスピーカー等から出力される。端末装置3は、パブリックビューイング会場の観客の音声を取得し、音声コンテンツを生成する。端末装置3は、生成した追加コンテンツをサーバー装置2に渡す。サーバー装置2は、端末装置3から渡された追加の音声コンテンツと、オリジナルコンテンツとを同期させ、それらを再配信する。これにより、受信端末8は、スポーツイベントが行われている会場の音声だけではなく、パブリックビューイング会場の音声をも含んだコンテンツを受信し、再生することができる。
パブリックビューイング会場は、当該スポーツイベントの会場と同地域に存在していてもよいし、遠隔地(異なる国を含む)に存在していてもよい。スポーツイベントの会場とパブリックビューイングの会場とが離れている場合には、スポーツイベントの会場に居る観客の客層と、パブリックビューイングの会場に居る観客の客層とが異なる場合もある。例えば、両会場の観客で、贔屓の選手、贔屓のチーム、文化的背景等が異なる場合もあり得る。この場合、受信端末8側では、配信される加工コンテンツを通して、スポーツイベント会場の音声による臨場感とは異なる、パブリックビューイング会場の音声による臨場感をも味わうことが可能となる。
ユーザーの操作等に基づき、端末装置3は、検索エンジンのサーバー装置に対して検索キーワードを送信する。検索キーワードは、例えば「汐留から日本橋まで」といったように、移動の出発地と目的地の地名を含むものである。このときのユーザーの意図は、道案内の情報を得ることである。すると、オリジナルコンテンツとして、検索キーワードに対応した基本移動映像がウェブサーバー装置7から配信される。検索キーワードが「汐留から日本橋まで」である場合、基本移動映像はそれらの地点間の移動のルートにおける映像である。基本移動映像は、予め、データベースに格納されている。また、基本移動映像には位置情報(経度,緯度)や、時刻情報や、移動手段に関する情報が関連付けられている。なお、基本移動映像が、時間帯毎に予め準備されていてもよい。その場合、実際の時間帯に最も近い時間帯の基本移動映像がオリジナルコンテンツとして配信される。また、基本移動映像は、複数の映像をつなぎ合わせたものであってもよい。例えば、汐留から日本橋までの基本移動映像は、汐留から銀座四丁目までの移動映像と、銀座四丁目から日本橋までの移動映像とをつなぎ合わせたものであってよい。端末装置3は、オリジナルコンテンツである基本移動映像を受信し、再生する。また、端末装置3内のコンテンツ生成部43は、基本移動映像に関連付けられているデータを抽出する。例えば、コンテンツ生成部43は、移動中の位置情報(座標情報)を抽出する。そして、コンテンツ生成部43は、抽出した位置情報に基づいて他のデータベース(例えば、端末装置3自身が持つデータベース、またはインターネットを介してアクセスするサーバー上のデータベース)を検索し、位置に関連した情報を取得する。位置に関連した情報は、例えば、観光スポットの案内情報(場所、見どころ、歴史的背景等)や、飲食店の情報(場所、メニュー等)や、他の店舗の情報(場所、業態、販売物等)などである。位置に関連した情報は、例えば、テキスト情報で与えられる。コンテンツ生成部43は、オリジナルコンテンツである移動映像と、上記の観光スポットや飲食店や店舗の情報とに基づいて、複合コンテンツを生成する。この複合コンテンツにおいて、観光スポットや飲食店や店舗の情報は、例えば、映像内の特定の場所において表示される画像やテキストを含む。端末装置3は、新たに生成したコンテンツ(移動映像と店舗等の情報の複合コンテンツ)をサーバー装置2に渡す。サーバー装置2は、加工されたコンテンツを再配信する。再配信されたコンテンツは、端末装置3自身で閲覧することもできるし、他の受信端末8で閲覧することもできる。
これにより、観光スポットや店舗等の情報を、わかりやすく観光客らに提供することができる。また、基本移動情報に関連付けて、広告情報を提供するようにしてもよい。
例えば、任意の映像または音声(両方を含んでもよい)のコンテンツが、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3はそのオリジナルコンテンツを受信し、端末装置3のデコーダー部41はコンテンツをデコードして映像や音声等をコンテンツ生成部43に提供する。コンテンツ生成部43は、映像認識エンジンおよび音声認識エンジンを備えている。コンテンツ生成部43の映像認識エンジンは、デコーダー部41から供給される映像の認識処理を行い、映像に含まれている人物やオブジェクトやシーンが何であるかを認識し、認識結果のテキストデータを出力する。また、コンテンツ生成部43の音声認識エンジンは、デコーダー部41から供給される音声の認識処理を行い、音声に含まれる語や文章が何であるかを認識し、認識結果のテキストデータを出力する。さらに、コンテンツ生成部43は、映像認識や音声認識の結果として得られるテキストデータを、検索キー用のメタデータとして利用しやすい形に編集し、出力する。検索キー用のメタデータでは、検索語と、映像コンテンツや音声コンテンツにおける時刻位置(例えば、コンテンツの開始時からの相対時刻等)とが相互に関連付けられている。また、検索語と、映像等のシーンとが相互に関連付けられていてもよい。映像コンテンツをシーンの切り替えのポイントで分割したり、音声コンテンツを所定の長さの無音区間で分割したりすることは、既存技術を用いて行うことができる。端末装置3は、検索キー用メタデータとして生成したテキストデータを、サーバー装置2に渡す。サーバー装置2は、オリジナルコンテンツとともに、端末装置3から渡されたテキストデータを再配信する。コンテンツ加工システム1から再配信された加工コンテンツを受信する受信端末8側では、検索キー用のメタデータを参照することにより、映像コンテンツや音声コンテンツ内の検索語に該当する箇所をすばやくサーチする(例えば、頭出しする)ことが可能となる。つまり、受信端末8を操作する視聴者は、所望のシーン等を手軽に視聴することが可能となる。
例えば、任意の映像または音声(両方を含んでもよい)のコンテンツが、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3はそのオリジナルコンテンツを受信し、端末装置3のデコーダー部41はコンテンツをデコードして映像や音声等をコンテンツ生成部43に提供する。コンテンツ生成部43は、音声認識エンジンを備えている。コンテンツ生成部43の音声認識エンジンは、デコーダー部41から供給される音声の認識処理を行い、音声から文字起こしテキストデータを出力する。また、コンテンツ生成部43は、自動的に、あるいは少なくとも一部で校閲者の操作にも基づいて、上記テキストデータから字幕テキストデータを生成する。例えば、字幕テキストデータは、タイムドテキストとして、あるいはタイムライン型テキストデータとして出力される。端末装置3は、生成された字幕テキストデータを、サーバー装置2に渡す。サーバー装置2は、オリジナルコンテンツと同期させる形で、端末装置3から渡されたテキストデータを再配信する。この加工コンテンツを受信する受信端末8側では、オリジナルコンテンツとともに字幕テキストを表示することが可能となる。あるいは、受信端末8側では、字幕テキストに対して所定の処理を行った結果を、オリジナルコンテンツに関連付けて出力することができる。
例えば、任意の映像または音声(両方を含んでもよい)のコンテンツが、オリジナルコンテンツとして、ウェブサーバー装置7から配信される。端末装置3はそのオリジナルコンテンツを受信し、端末装置3のデコーダー部41はコンテンツをデコードして映像や音声等をコンテンツ生成部43に提供する。コンテンツ生成部43は、映像認識エンジンや音声認識エンジンを備えている。これらの認識エンジンは、人工知能の技術を援用するものであってもよい。コンテンツ生成部43は、映像や音声を認識し解析することによって、オリジナルコンテンツ中の主要イベントを抽出する。この主要イベントは、例えば、音声の内容や、音圧レベルや、映像の内容や、映像内の特定のパターン等に基づき、学習済みの人工知能によって抽出される。コンテンツ生成部43は、オリジナルコンテンツ中の、主要イベントを含む断片をハイライトシーンとして認識し、例えば複数のハイライトシーンのみを切り出して連結することにより、ハイライト映像(または音声)を生成する。ハイライト映像等は「ハイライトクリップ」とも呼ばれる。端末装置3は、このハイライトクリップのコンテンツをサーバー装置2に渡す。サーバー装置2は、オリジナルコンテンツとともに、端末装置3から渡されたハイライトクリップを再配信する。あるいは、サーバー装置2は、オリジナルコンテンツを置換して、端末装置3から渡されたハイライトクリップのみを再配信する。この仕組みにより、映像や音声のコンテンツのハイライトのみを容易に配信することが可能となる。
また、オリジナルのセグメントファイルの一部を差し替える形で上記の追加のコンテンツを配信することにより、コンテンツの差し替えを、比較的小規模な装置構成で実現することができる。
また、本実施形態を利用して、多岐にわたるサービスを実現することができる。
1 コンテンツ加工システム(コンテンツ加工装置)
2 サーバー装置
3 端末装置
6 エンコーダー装置
7 ウェブサーバー装置
8 受信端末
21 マニュフェスト取得部
22 マニュフェスト生成部
25 セグメント取得部
26 セグメント選択部
28 ウェブサーバー部(再配信部)
31 マニュフェスト取得部
32 マニュフェスト解析部
33 セグメント取得部
35 時刻解析部
41 デコーダー部
42 再生部
43 コンテンツ生成部
44 A/Vインターフェース部(インターフェース部)
45 ミキサー部
48 エンコーダー部
49 セグメント化部
50 アップロード部
Claims (10)
- ハイパーテキスト転送プロトコルを用いたストリーミングのオリジナルコンテンツに含まれるオリジナルマニュフェストファイルを取得するマニュフェスト取得部と、
前記オリジナルコンテンツに含まれるオリジナルセグメントファイルを取得するセグメント取得部と、
前記オリジナルセグメントファイルをデコードし、出力するデコーダー部と、
デコードされた前記オリジナルセグメントファイルに関連付けられる形で新たに追加される追加コンテンツを取得するインターフェース部と、
前記追加コンテンツをエンコードするエンコーダー部と、
エンコードされた前記追加コンテンツを、前記オリジナルセグメントファイルの時刻に同期するようにセグメント化することによって追加セグメントファイルを生成するセグメント化部と、
前記オリジナルマニュフェストファイルに基づいて、前記オリジナルセグメントファイルと前記追加セグメントファイルとが同期するように、加工マニュフェストファイルを生成するマニュフェスト生成部と、
前記オリジナルセグメントファイルと、前記追加セグメントファイルと、前記加工マニュフェストファイルとを、加工コンテンツとして、ハイパーテキスト転送プロトコルを用いて配信する再配信部と、
を具備するコンテンツ加工システム。 - 前記マニュフェスト生成部は、取得した前記オリジナルセグメントファイルのすべてを含み、且つ前記追加セグメントファイルを含んだ追加型加工コンテンツを再生するための前記加工マニュフェストファイルを生成する、
ことを特徴とする請求項1に記載のコンテンツ加工システム。 - 前記マニュフェスト生成部は、取得した前記オリジナルセグメントファイルのうちの一部のみを含み、且つ前記追加セグメントファイルを含んだ差し替え型加工コンテンツを再生するための前記加工マニュフェストファイルを生成する、
ことを特徴とする請求項1に記載のコンテンツ加工システム。 - サーバー装置と端末装置とを含むコンテンツ加工システムであって、
端末装置は、
ハイパーテキスト転送プロトコルを用いたストリーミングのオリジナルコンテンツに含まれるオリジナルマニュフェストファイルを取得するマニュフェスト取得部と、
前記オリジナルコンテンツに含まれるオリジナルセグメントファイルを取得するセグメント取得部と、
前記オリジナルセグメントファイルをデコードし、出力するデコーダー部と、
デコードされた前記オリジナルセグメントファイルに関連付けられる形で新たに追加される追加コンテンツを取得するインターフェース部と、
前記追加コンテンツをエンコードするエンコーダー部と、
エンコードされた前記追加コンテンツを、前記オリジナルセグメントファイルの時刻に同期するようにセグメント化することによって追加セグメントファイルを生成するセグメント化部と、
を具備し、
前記サーバー装置は、
前記オリジナルマニュフェストファイルに基づいて、前記オリジナルセグメントファイルと前記追加セグメントファイルとが同期するように、加工マニュフェストファイルを生成するマニュフェスト生成部と、
前記オリジナルセグメントファイルと、前記追加セグメントファイルと、前記加工マニュフェストファイルとを、加工コンテンツとして、ハイパーテキスト転送プロトコルを用いて配信する再配信部と、
を具備する、
コンテンツ加工システム。 - 前記オリジナルセグメントファイルは、映像または音声の少なくともいずれかを符号化してなるデータを格納したものであり、
前記デコーダー部が出力する映像または音声を解析することによって前記オリジナルセグメントファイルに基づく前記追加コンテンツを自動的に生成するコンテンツ生成部、
をさらに具備する請求項1から4までのいずれか一項に記載のコンテンツ加工システム。 - 前記コンテンツ生成部は、前記デコーダー部が出力する映像または音声の認識処理を行うことによって得られるテキストデータを含んだ前記追加コンテンツを生成する、
請求項5に記載のコンテンツ加工システム。 - 前記マニュフェスト生成部は、外部からの指示に基づき、前記オリジナルセグメントファイルのみを再生するための加工マニュフェストファイルを生成する機能を備え、
前記再配信部は、外部からの前記指示に基づき、前記オリジナルセグメントファイルと前記加工マニュフェストファイルとのみを配信する機能を備える、
請求項1から6までのいずれか一項に記載のコンテンツ加工システム。 - ハイパーテキスト転送プロトコルを用いたストリーミングのオリジナルコンテンツに含まれるオリジナルマニュフェストファイルを取得するマニュフェスト取得部と、
前記オリジナルコンテンツに含まれるオリジナルセグメントファイルを取得するセグメント取得部と、
前記オリジナルセグメントファイルをデコードし、出力するデコーダー部と、
デコードされた前記オリジナルセグメントファイルに関連付けられる形で新たに追加される追加コンテンツを取得するインターフェース部と、
前記追加コンテンツをエンコードするエンコーダー部と、
エンコードされた前記追加コンテンツを、前記オリジナルセグメントファイルの時刻に同期するようにセグメント化することによって追加セグメントファイルを生成するセグメント化部と、
を具備する端末装置。 - コンピューターを、
ハイパーテキスト転送プロトコルを用いたストリーミングのオリジナルコンテンツに含まれるオリジナルマニュフェストファイルを取得するマニュフェスト取得部と、
前記オリジナルコンテンツに含まれるオリジナルセグメントファイルを取得するセグメント取得部と、
前記オリジナルセグメントファイルをデコードし、出力するデコーダー部と、
デコードされた前記オリジナルセグメントファイルに関連付けられる形で新たに追加される追加コンテンツを取得するインターフェース部と、
前記追加コンテンツをエンコードするエンコーダー部と、
エンコードされた前記追加コンテンツを、前記オリジナルセグメントファイルの時刻に同期するようにセグメント化することによって追加セグメントファイルを生成するセグメント化部と、
前記オリジナルマニュフェストファイルに基づいて、前記オリジナルセグメントファイルと前記追加セグメントファイルとが同期するように、加工マニュフェストファイルを生成するマニュフェスト生成部と、
前記オリジナルセグメントファイルと、前記追加セグメントファイルと、前記加工マニュフェストファイルとを、加工コンテンツとして、ハイパーテキスト転送プロトコルを用いて配信する再配信部と、
を具備するコンテンツ加工システムとして機能させるためのプログラム。 - コンピューターを、
ハイパーテキスト転送プロトコルを用いたストリーミングのオリジナルコンテンツに含まれるオリジナルマニュフェストファイルを取得するマニュフェスト取得部と、
前記オリジナルコンテンツに含まれるオリジナルセグメントファイルを取得するセグメント取得部と、
前記オリジナルセグメントファイルをデコードし、出力するデコーダー部と、
デコードされた前記オリジナルセグメントファイルに関連付けられる形で新たに追加される追加コンテンツを取得するインターフェース部と、
前記追加コンテンツをエンコードするエンコーダー部と、
エンコードされた前記追加コンテンツを、前記オリジナルセグメントファイルの時刻に同期するようにセグメント化することによって追加セグメントファイルを生成するセグメント化部と、
を具備する端末装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017243198A JP6948934B2 (ja) | 2017-12-19 | 2017-12-19 | コンテンツ加工システム、端末装置、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017243198A JP6948934B2 (ja) | 2017-12-19 | 2017-12-19 | コンテンツ加工システム、端末装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019110480A JP2019110480A (ja) | 2019-07-04 |
JP6948934B2 true JP6948934B2 (ja) | 2021-10-13 |
Family
ID=67180253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017243198A Active JP6948934B2 (ja) | 2017-12-19 | 2017-12-19 | コンテンツ加工システム、端末装置、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6948934B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7424801B2 (ja) * | 2019-11-12 | 2024-01-30 | 株式会社Tbsテレビ | テキストデータを用いた映像編集出力制御装置、テキストデータを用いた映像編集出力方法、及びプログラム |
JP2023027825A (ja) * | 2021-08-18 | 2023-03-03 | ヤマハ株式会社 | 制御システムの動作方法、制御システムおよびプログラム |
JP7423020B1 (ja) | 2023-05-08 | 2024-01-29 | 17Live株式会社 | プレイリスト生成のためのシステム及び方法 |
JP7538574B1 (ja) | 2024-04-19 | 2024-08-22 | 史睦 川口 | 動画生成装置、動画生成方法、動画生成プログラムおよび動画生成システム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110246172A1 (en) * | 2010-03-30 | 2011-10-06 | Polycom, Inc. | Method and System for Adding Translation in a Videoconference |
JP5909546B2 (ja) * | 2012-04-03 | 2016-04-26 | 株式会社ビットメディア | 映像ストリーミング配信のための装置及び方法 |
JP2016213684A (ja) * | 2015-05-08 | 2016-12-15 | 株式会社リクルートホールディングス | コンテンツ配信システム |
-
2017
- 2017-12-19 JP JP2017243198A patent/JP6948934B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019110480A (ja) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12223984B2 (en) | Synthesizing a presentation from multiple media clips | |
US11240538B2 (en) | Methods and systems for network based video clip generation and management | |
US20240112704A1 (en) | Systems and methods for media production and editing | |
KR100641848B1 (ko) | 디지탈 영상 콘텐츠의 배신 시스템 및 재생 방법 및 그 재생 프로그램을 기록한 기록 매체 | |
JP6948934B2 (ja) | コンテンツ加工システム、端末装置、およびプログラム | |
US11070888B1 (en) | Content structure aware multimedia streaming service for movies, TV shows and multimedia contents | |
US20190075366A1 (en) | System and method for internet audio/video delivery | |
JP2020537248A (ja) | 高品質のエクスペリエンスのためのオーディオメッセージの効率的な配信および使用のための方法および装置 | |
KR100837721B1 (ko) | 개인화된 디지털 방송 콘텐츠의 소비를 위한 통합 형식인코딩 장치와, 이의 디코딩 장치 및 인코딩 방법 | |
KR102069897B1 (ko) | 사용자 영상 생성 방법 및 이를 위한 장치 | |
KR100826683B1 (ko) | 주문형 비디오 시스템의 챕터 정보 제공 방법 | |
US20160127807A1 (en) | Dynamically determined audiovisual content guidebook | |
Cremer et al. | Machine-assisted editing of user-generated content | |
KR101409019B1 (ko) | 콘텐츠 생성 방법 및 그 장치 | |
Kato et al. | A location-free commentary adding system for live streaming using a cloud infrastructure | |
JP2014200002A (ja) | 字幕配信システムおよび字幕映像再生装置 | |
COLEY | CHAPTER SIX “BOWIE’S WAIATA”: RADIO DOCUMENTARY AND FANDOM | |
JP2001243140A (ja) | データ配信方法及びその装置並びにそのプログラムを記憶した媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201120 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210811 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6948934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |