JP2003256432A - 映像素材情報記述方法、遠隔検索システム、遠隔検索方法、編集装置および遠隔検索端末、遠隔編集システム、遠隔編集方法、編集装置および遠隔編集端末、ならびに、映像素材情報記憶装置および方法 - Google Patents
映像素材情報記述方法、遠隔検索システム、遠隔検索方法、編集装置および遠隔検索端末、遠隔編集システム、遠隔編集方法、編集装置および遠隔編集端末、ならびに、映像素材情報記憶装置および方法Info
- Publication number
- JP2003256432A JP2003256432A JP2002060328A JP2002060328A JP2003256432A JP 2003256432 A JP2003256432 A JP 2003256432A JP 2002060328 A JP2002060328 A JP 2002060328A JP 2002060328 A JP2002060328 A JP 2002060328A JP 2003256432 A JP2003256432 A JP 2003256432A
- Authority
- JP
- Japan
- Prior art keywords
- video
- video material
- editing
- search
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
に対する遠隔地からの検索を、より的確に行うことがで
きるようにする。 【解決手段】 アーカイブ2内の映像素材の属性情報が
MPEG−7ファイルに記述されDB化される。このフ
ァイルには、更に、素材の代表静止画及び音声が記述さ
れる。遠隔検索/編集端末1で、ジャンル辞書に基づき
素材がDBから検索され、検索結果がMPEG−7ファ
イルでアーカイブ2から端末1に送信される。端末1で
は、送信されたファイルに基づき必要な素材が選択さ
れ、編集が行われる。編集結果は、EDLデータとして
編集装置3に送信される。編集装置3では、送信された
EDLデータに基づき、アーカイブ2から素材を入手し
て実際の編集作業が自動的に行われる。アーカイブ2及
び編集装置3の遠隔地にある端末1からアーカイブ2内
の素材が容易に検索でき、実際の編集作業も自動的に行
われる。
Description
ラリに蓄積された映像素材を遠隔地から検索し、検索さ
れた映像素材を用いた編集作業を遠隔地から行う際に用
いて好適な映像素材情報記述方法、遠隔検索システム、
遠隔検索方法、遠隔検索装置および遠隔検索端末、遠隔
編集システム、遠隔編集方法、遠隔編集装置および遠隔
編集端末、ならびに、映像素材記憶装置および方法に関
する。
材の編集を、通信ネットワークを介して遠隔地の編集端
末装置から行うような遠隔編集システムが提案されてい
る。編集端末装置による編集結果は、遠隔編集端末に対
して遠隔地にある編集センタに送信され、編集センタで
は、この編集結果に基づきアーカイブから映像素材を取
り出し、編集を行い、編集済みの映像として出力する。
ステムの一例の構成を概略的に示す。大容量アーカイブ
310は、例えば多数のハードディスク装置から構成さ
れ、極めて多数の映像素材を格納可能とされている。大
容量アーカイブ310に格納された映像素材は、所定の
方法で検索して取り出すことができる。このような大容
量アーカイブ310を擁するアーカイブセンタ300
と、大規模な編集システム311を擁する編集センタ3
01と、比較的小規模な編集作業を行うことができる遠
隔編集端末302とが通信ネットワーク304で互いに
接続される。
システム311を制御して、大容量アーカイブ310に
蓄積されている映像素材を用いた編集作業を行うのが目
的とされている。通信ネットワーク304を例えばイン
ターネットとすることで、遠隔編集端末302が大容量
アーカイブ310および編集センタ301に対して遙か
に離れた場所にあっても、大容量アーカイブ310に格
納された映像素材を用いた編集作業を遠隔編集端末30
2で行うことができるようにするものである。
2が操作され、遠隔編集端末302から大容量アーカイ
ブ310に対して、通信ネットワーク304を介して、
必要な映像素材の検索が要求される。大容量アーカイブ
310では、この要求に基づき映像素材の検索を行い、
検索された映像素材によるビデオ信号を通信ネットワー
ク304を介して遠隔編集端末302に送信する。この
場合、ビデオ信号は、所定の圧縮符号化方式で圧縮符号
化されて送信される。遠隔編集端末302では、送信さ
れたビデオ信号を用いて編集作業が行われる。編集結果
は、例えばIN点、OUT点、エフェクト処理内容など
の編集結果データとして、通信ネットワーク304を介
して編集システム311に送信される。
結果データに基づき、大容量アーカイブ310から遠隔
編集端末302で編集に用いられたのと同じ映像素材を
得る。このときには、映像素材は、高画質を保つために
圧縮符号化されずに、例えばSMPTE 259Mによ
り規定されるSDI(Serial Digital Interface)などの
伝送フォーマットにより伝送される。編集センタ301
では、遠隔編集端末302から送信された編集結果デー
タに基づき映像素材を用いて編集を行う。編集結果の映
像は、例えばビデオテープ313に記録される。
ーカイブ310に格納された極めて多数の映像素材の中
から、オペレータが必要とする映像素材を的確に検索で
きる必要がある。従来では、キーワードによるテキスト
検索が多く行われていた。これは、例えば、大容量アー
カイブ310に映像素材を格納する際に、格納される映
像素材のキーワードとなるテキストが入力され、入力さ
れたテキストは、映像素材と関連付けられて大容量アー
カイブ310に格納される。この映像素材と関連付けら
れたテキストに基づき、映像素材のキーワード検索を行
う。
検索が可能なシステムも出現している。例えば、大容量
アーカイブ310に映像素材を格納する際に、格納され
る映像素材から静止画像や映像素材そのものである動画
像を、例えばシーンチェンジを検出することにより自動
的に抽出し、抽出された静止画像や動画像が映像素材と
関連付けられて大容量アーカイブ310に格納される。
れた静止画像や動画像をプレビューしながら必要な映像
素材を探し出すことができる。これを上述のテキストに
基づく検索と組み合わせることで、テキストにより検索
された映像素材を、その映像素材に関連付けられた静止
画像や動画像でプレビューすることができ、より的確に
映像素材の検索を行うことができる。
よる検索は、検索に必要なデータの伝送量が少なくて済
み、通信ネットワークにおける利用に適しているといえ
る。しかしながら、キーワード検索では、情報量が少な
いため、なかなか必要な映像素材を検索結果として得ら
れないという問題点があった。
の所定の1フレームを自動的に抽出した静止画では、必
ずしもその映像素材を的確に表現しているとはいえず、
この場合にも、なかなか必要な映像素材を検索結果とし
て得られないという問題点があった。
索を行えば、上述のテキストによる検索や静止画による
検索よりも高い精度で必要な映像素材を検索結果として
得ることができることが期待される。しかしながら、こ
の場合、動画像データは、データ容量が大きくなるた
め、データ転送の際に通信トラフィックを圧迫し、通信
ネットワークを経由しての利用に適していないという問
題点があった。
にインターネットを利用することで、インターネットに
接続された家庭用のコンピュータ装置なども、上述した
編集端末装置302として用いることができるようにな
る。この場合、編集においては、編集に用いられる映像
素材の動画像データの全てを通信ネットワーク304を
経由して伝送するには、極めて長時間を伝送に要する
か、若しくは、データ転送レートが極めて高速なネット
ワークが必要とされることになる。そのため、インター
ネットからの利用を考えると、動画像を用いて映像素材
を検索することは、現実的ではないという問題点があっ
た。
ーカイブに格納されている映像素材に対する遠隔地から
の検索を、より的確に行うことができるような映像素材
情報記述方法、遠隔検索システム、遠隔検索方法、遠隔
検索装置および遠隔検索端末、遠隔編集システム、遠隔
編集方法、遠隔編集装置および遠隔編集端末、ならび
に、映像素材記憶装置および方法を提供することにあ
る。
題を解決するために、映像データベースを世界共通に利
用するために検索用語を共通化したデータベースに用い
られる映像素材情報記述方法において、映像素材の属性
情報を、映像素材を全体および部分に分けて記述し、映
像素材の全体および部分のそれぞれの属性情報の記述に
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて、検索に必要なデータを記
述すると共に、映像素材に対応する静止画および音声を
埋め込むようにしたことを特徴とする映像素材情報記述
方法である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の検索を行うようにし
た遠隔検索システムにおいて、映像素材が蓄積される映
像アーカイブと、映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて検索に必要なデータが映像
素材の属性情報として記述されると共に、映像素材に対
応する静止画および音声が埋め込まれたデータが格納さ
れるデータベースと、映像アーカイブおよびデータベー
スと地理的に離れた場所にあり、映像アーカイブに蓄積
された映像素材の検索を行う検索要求を通信ネットワー
クを介してデータベースに送信する遠隔検索端末とを有
し、遠隔検索端末による検索要求に対する検索結果は、
共通化された検索用語により記述されたファイルとして
通信ネットワークを介してデータベースから遠隔検索端
末に送信されるようにしたことを特徴とする遠隔検索シ
ステムである。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の検索を行うようにし
た遠隔検索方法において、映像素材が映像アーカイブに
蓄積されるステップと、映像アーカイブに蓄積された映
像素材の、映像素材が全体および部分に分けられたそれ
ぞれに対し、映像データベースを世界共通に利用するた
めに共通化された検索用語を用いて検索に必要なデータ
が映像素材の属性情報として記述されると共に、映像素
材に対応する静止画および音声が埋め込まれたデータが
データベースに格納されるステップと、映像アーカイブ
およびデータベースと地理的に離れた場所にある遠隔検
索端末から、映像アーカイブに蓄積された映像素材の検
索を行う検索要求を通信ネットワークを介してデータベ
ースに送信する送信のステップとを有し、遠隔検索端末
による検索要求に対する検索結果が共通化された検索用
語により記述されたファイルとして通信手段を介してデ
ータベースから遠隔検索端末に送信されるようにしたこ
とを特徴とする遠隔検索方法である。
を行う編集装置において、遠隔検索端末から送信され
た、遠隔検索端末により映像アーカイブに蓄積された映
像素材の、映像素材が全体および部分に分けられたそれ
ぞれに対し映像データベースを世界共通に利用するため
に共通化された検索用語を用いて検索に必要なデータが
映像素材の属性情報として記述されると共に、映像素材
に対応する静止画および音声が埋め込まれたデータが格
納されるデータベースが検索された結果で得られた静止
画および音声に基づき行われた編集の結果を示す編集結
果データを受信する受信手段と、受信手段により受信さ
れた編集結果データに基づき、映像アーカイブからの映
像素材の入手および入手された映像素材に対する編集を
行う編集手段とを有し、編集手段による編集は、編集結
果データに基づき自動的に行うことが可能とされたこと
を特徴とする編集装置である。
を行う編集方法において、遠隔検索端末から送信され
た、遠隔検索端末により映像アーカイブに蓄積された映
像素材の、映像素材が全体および部分に分けられたそれ
ぞれに対し映像データベースを世界共通に利用するため
に共通化された検索用語を用いて検索に必要なデータが
記述されると共に、映像素材に対応する静止画および音
声が埋め込まれた属性情報が格納されるデータベースが
検索された結果で得られた静止画および音声に基づき行
われた編集の結果を示す編集結果データを受信する受信
のステップと、受信のステップにより受信された編集結
果データに基づき、映像アーカイブからの映像素材の入
手および入手された映像素材に対する編集を行う編集の
ステップとを有し、編集のステップによる編集は、編集
結果データに基づき自動的に行うことが可能とされたこ
とを特徴とする編集方法である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の検索を行うようにし
た遠隔検索端末において、映像素材が蓄積される映像ア
ーカイブに蓄積された映像素材の検索を行う検索要求
を、映像アーカイブに蓄積された映像素材の、映像素材
が全体および部分に分けられたそれぞれに対し、映像デ
ータベースを世界共通に利用するために共通化された検
索用語を用いて検索に必要なデータが映像素材の属性情
報として記述されると共に、映像素材に対応する静止画
および音声が埋め込まれたデータが格納されるデータベ
ースに通信ネットワークを介して送信する遠隔検索手段
と、遠隔検索手段による検索要求に対する検索結果がデ
ータベースから送信された共通化された検索用語により
記述されたファイルを通信ネットワークを介して受信
し、受信されたファイルに埋め込まれた静止画および音
声を取り出す手段とを有し、映像アーカイブおよびデー
タベースと地理的に離れた場所にあることを特徴とする
遠隔検索端末である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて遠隔検索端末で映像素材の検索
を行うようにした遠隔検索方法において、映像素材が蓄
積される映像アーカイブに蓄積された映像素材の検索を
行う検索要求を、映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて検索に必要なデータが映像
素材の属性情報として記述されると共に、映像素材に対
応する静止画および音声が埋め込まれたデータが格納さ
れるデータベースに、映像アーカイブおよびデータベー
スと地理的に離れた場所にある遠隔検索端末から通信ネ
ットワークを介して送信する遠隔検索のステップと、遠
隔検索のステップによる検索要求に対する検索結果がデ
ータベースから送信された共通化された検索用語により
記述されたファイルが遠隔検索端末により通信ネットワ
ークを介して受信され、受信されたファイルに埋め込ま
れた静止画および音声を取り出すステップとを有するこ
とを特徴とする遠隔検索方法である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法において、映像
素材の属性情報を、映像素材を全体および部分に分けて
記述し、映像素材の全体および部分のそれぞれの属性情
報の記述に対し、映像データベースを世界共通に利用す
るために共通化された検索用語を用いて、映像素材を用
いた編集に必要なデータを記述するようにしたことを特
徴とする映像素材情報記述方法である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を行うようにし
た遠隔編集システムにおいて、映像素材が蓄積される映
像アーカイブと、映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて映像素材を用いた編集に必
要なデータが映像素材の属性情報として記述されるデー
タが格納されるデータベースと、映像アーカイブおよび
データベースと地理的に離れた場所にあり、映像アーカ
イブに蓄積された映像素材の属性情報として記述された
編集に必要なデータを用いて映像素材の編集を行い、編
集の結果を示す編集結果データを通信ネットワークを介
して送信する遠隔編集端末と、遠隔編集端末から送信さ
れた編集結果情報に基づき、映像アーカイブから映像素
材を入手し、入手された映像素材に対して編集を行う編
集装置とを有し、編集に必要なデータは、共通化された
検索用語を用いて記述されたファイルで遠隔編集装置に
供給され、編集装置による編集は、編集結果情報に基づ
き自動的に行うことが可能とされたことを特徴とする遠
隔編集システムである。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を行うようにし
た遠隔編集方法において、映像素材を映像アーカイブに
蓄積するステップと、映像アーカイブに蓄積された映像
素材の、映像素材が全体および部分に分けられたそれぞ
れに対し、映像データベースを世界共通に利用するため
に共通化された検索用語を用いて映像素材を用いた編集
に必要なデータが映像素材の属性情報として記述される
データをデータベースに格納するステップと、映像アー
カイブおよびデータベースと地理的に離れた場所にあ
り、映像アーカイブに蓄積された映像素材の属性情報と
して記述された編集に必要なデータを用いて映像素材の
編集を行い、編集の結果を示す編集結果データを遠隔編
集端末より通信ネットワークを介して送信する送信のス
テップと、送信のステップにより送信された編集結果情
報に基づき、映像アーカイブから映像素材を入手し、入
手された映像素材に対して編集装置により編集を行うス
テップとを有し、編集に必要なデータは、共通化された
検索用語を用いて記述されたファイルで遠隔編集装置に
供給され、編集装置による編集は、編集結果情報に基づ
き自動的に行うことが可能とされたことを特徴とする遠
隔編集方法である。
を行う編集装置において、映像素材が蓄積される映像ア
ーカイブおよび映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて映像素材を用いた編集に必
要なデータが映像素材の属性情報として記述されるデー
タが格納されるデータベースと地理的に離れた場所にあ
る、映像アーカイブに蓄積された映像素材の属性情報と
して記述された編集に必要なデータを用いて映像素材の
編集を行う遠隔編集端末から送信された、編集の結果を
示す編集結果データを通信ネットワークを介して受信す
る受信手段と、受信手段により受信された編集結果デー
タに基づき、映像アーカイブからの映像素材の入手およ
び入手された映像素材に対する編集を行う編集手段とを
有し、編集手段による編集は、編集結果データに基づき
自動的に行うことが可能とされたことを特徴とする編集
装置である。
を行う編集方法において、映像素材が蓄積される映像ア
ーカイブおよび映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて映像素材を用いた編集に必
要なデータが映像素材の属性情報として記述されるデー
タが格納されるデータベースと地理的に離れた場所にあ
る、映像アーカイブに蓄積された映像素材の属性情報と
して記述された編集に必要なデータを用いて映像素材の
編集を行う遠隔編集端末から送信された、編集の結果を
示す編集結果データを通信ネットワークを介して受信す
る受信のステップと、受信のステップにより受信された
編集結果データに基づき、映像アーカイブからの映像素
材の入手および入手された映像素材に対する編集を行う
編集のステップとを有し、編集のステップによる編集
は、編集結果データに基づき自動的に行うことが可能と
されたことを特徴とする編集方法である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を行うようにし
た遠隔編集端末において、映像アーカイブに蓄積された
映像素材の、映像素材が全体および部分に分けられたそ
れぞれに対し、映像データベースを世界共通に利用する
ために共通化された検索用語を用いて映像素材を用いた
編集に必要なデータが記述される属性情報を用いて映像
素材の編集を行う編集手段と、編集手段による編集の結
果を編集装置に対して通信ネットワークを介して送信す
る送信手段とを有し、映像アーカイブおよびデータベー
スと地理的に離れた場所にあることを特徴とする遠隔編
集端末である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を遠隔編集端末
で行う遠隔編集方法において、映像アーカイブに蓄積さ
れた映像素材の、映像素材が全体および部分に分けられ
たそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて映像素材を用
いた編集に必要なデータが記述される属性情報を用い
て、映像アーカイブおよびデータベースと地理的に離れ
た場所にある遠隔編集端末で映像素材の編集を行う編集
のステップと、編集のステップによる編集の結果を編集
装置に対して通信ネットワークを介して送信する送信の
ステップとを有することを特徴とする遠隔編集方法であ
る。
界共通に利用するために共通化された検索用語で記述さ
れた映像素材の属性情報を記憶する映像素材情報記憶装
置において、映像アーカイブに蓄積される映像素材の全
体および部分のそれぞれに対し、映像データベースを世
界共通に利用するために共通化された検索用語を用いて
検索に必要なデータが映像素材の属性情報として記述さ
れると共に、映像素材に対応する静止画および音声が埋
め込まれたデータが記憶されることを特徴とする映像素
材情報記憶装置である。
界共通に利用するために共通化された検索用語で記述さ
れた映像素材の属性情報を記憶する映像素材情報記憶方
法において、映像アーカイブに蓄積される映像素材の全
体および部分のそれぞれに対し、映像データベースを世
界共通に利用するために共通化された検索用語を用いて
検索に必要なデータが映像素材の属性情報として記述さ
れると共に、映像素材に対応する静止画および音声が埋
め込まれたデータが映像素材情報記憶装置に記憶される
ことを特徴とする映像素材情報記憶方法である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記憶装置において、映像
アーカイブに蓄積される映像素材の全体および部分のそ
れぞれに対し、映像データベースを世界共通に利用する
ために共通化された検索用語を用いて映像素材を用いた
編集に必要なデータが映像素材の属性情報として記述さ
れたデータが記憶されることを特徴とする映像素材情報
記憶装置である。
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記憶装置に映像素材情報
を記憶する映像素材情報記憶方法において、映像アーカ
イブに蓄積される映像素材の全体および部分のそれぞれ
に対し、映像データベースを世界共通に利用するために
共通化された検索用語を用いて映像素材を用いた編集に
必要なデータが映像素材の属性情報として記述されたデ
ータが映像素材情報記憶装置に記憶されることを特徴と
する映像素材情報記憶方法である。
映像アーカイブに対し、映像アーカイブと地理的に離れ
た場所から映像素材を検索し、検索された映像素材を用
いて編集を行う遠隔編集システムにおいて、映像アーカ
イブに蓄積された映像素材のテキストベースの属性情報
と、映像素材に対応する静止画および音声が登録された
データベースと、映像アーカイブと地理的に離れた場所
にあり、映像アーカイブに蓄積された映像素材をデータ
ベースに登録された属性情報と静止画および音声とに基
づき検索すると共に、検索による検索結果に基づき映像
素材を用いた編集を行い、編集の結果を編集結果データ
として出力する検索編集端末と、検索編集端末から出力
された編集結果データに基づき、映像アーカイブから映
像素材を入手し、入手された映像素材を用いて実際の編
集を行う編集装置とを有することを特徴とする遠隔編集
システムである。
映像アーカイブに対し、映像アーカイブと地理的に離れ
た場所から映像素材を検索し、検索された映像素材を用
いて編集を行う遠隔編集方法において、映像アーカイブ
に蓄積された映像素材のテキストベースの属性情報と、
映像素材に対応する静止画および音声がデータベースに
登録されるステップと、映像アーカイブと地理的に離れ
た場所にある検索編集端末により、映像アーカイブに蓄
積された映像素材がデータベースに登録された属性情報
と静止画および音声とに基づき検索されると共に、検索
による検索結果に基づき映像素材を用いた編集が行わ
れ、編集の結果が編集結果データとして出力されるステ
ップと、検索編集端末から出力された編集結果データに
基づき、映像アーカイブから映像素材を入手し、入手さ
れた映像素材を用いて編集装置で実際の編集を行うステ
ップとを有することを特徴とする遠隔編集方法である。
は、映像素材の属性情報を、映像素材を全体および部分
に分けて記述し、映像素材の全体および部分のそれぞれ
の属性情報の記述に対し、映像データベースを世界共通
に利用するために共通化された検索用語を用いて、検索
に必要なデータを記述すると共に、映像素材に対応する
静止画および音声を埋め込むようにしているため、映像
素材の属性情報に基づく映像素材の検索が容易であると
共に、映像素材の検索を当該映像素材の静止画および音
声を参照しながら行うことができる。
の発明は、映像素材が蓄積される映像アーカイブと、映
像アーカイブに蓄積された映像素材の、映像素材が全体
および部分に分けられたそれぞれに対し、映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて検索に必要なデータが映像素材の属性情報とし
て記述されると共に、映像素材に対応する静止画および
音声が埋め込まれたデータが格納されるデータベース
と、映像アーカイブおよびデータベースと地理的に離れ
た場所にあり、映像アーカイブに蓄積された映像素材の
検索を行う検索要求を通信ネットワークを介してデータ
ベースに送信する遠隔検索端末とを有し、遠隔検索端末
による検索要求に対する検索結果は、共通化された検索
用語により記述されたファイルとして通信ネットワーク
を介してデータベースから遠隔検索端末に送信されるよ
うにしているため、映像アーカイブに蓄積された映像素
材の検索を、映像アーカイブおよびデータベースから地
理的に離れた場所にある遠隔検索端末から容易に行うこ
とができると共に、映像素材の検索を当該映像素材の静
止画および音声を参照しながら行うことができる。
の発明は、遠隔検索端末から送信された、遠隔検索端末
により映像アーカイブに蓄積された映像素材の、映像素
材が全体および部分に分けられたそれぞれに対し映像デ
ータベースを世界共通に利用するために共通化された検
索用語を用いて検索に必要なデータが記述されると共
に、映像素材に対応する静止画および音声が埋め込まれ
た属性情報が格納されるデータベースが検索された結果
で得られた静止画および音声に基づき行われた編集の結
果を示す編集結果データを受信し、受信された編集結果
データに基づき、映像アーカイブからの映像素材の入手
および入手された映像素材に対する編集を自動的に行う
ことが可能とされているため、映像アーカイブおよびデ
ータベースから地理的に離れた場所にある遠隔検索端末
からの指示に基づき、実際に映像アーカイブに蓄積され
ている映像素材を用いた編集を行うことができる。
の発明は、映像素材が蓄積される映像アーカイブに蓄積
された映像素材の検索を行う検索要求を、映像アーカイ
ブおよびデータベースと地理的に離れた場所から、映像
アーカイブに蓄積された映像素材の、映像素材が全体お
よび部分に分けられたそれぞれに対し、映像データベー
スを世界共通に利用するために共通化された検索用語を
用いて検索に必要なデータが映像素材の属性情報として
記述されると共に、映像素材に対応する静止画および音
声が埋め込まれたデータが格納されるデータベースに通
信ネットワークを介して送信し、送信された検索要求に
対する検索結果がデータベースから送信された共通化さ
れた検索用語により記述されたファイルを通信ネットワ
ークを介して受信し、受信されたファイルに埋め込まれ
た静止画および音声を取り出すようにしているため、映
像アーカイブおよびデータベースから地理的に離れた場
所で、映像アーカイブに蓄積されている映像素材の検索
を行うことができると共に、検索を当該映像素材の静止
画および音声を参照しながら行うことができる。
材の属性情報を、映像素材を全体および部分に分けて記
述し、映像素材の全体および部分のそれぞれの属性情報
の記述に対し、映像データベースを世界共通に利用する
ために共通化された検索用語を用いて、映像素材を用い
た編集に必要なデータを記述するようにしているため、
映像素材の属性情報に基づき当該映像素材を用いた編集
を行うことができる。
の発明は、映像素材が蓄積される映像アーカイブと、映
像アーカイブに蓄積された映像素材の、映像素材が全体
および部分に分けられたそれぞれに対し、映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて映像素材を用いた編集に必要なデータが映像素
材の属性情報として記述されるデータが格納されるデー
タベースと、映像アーカイブおよびデータベースと地理
的に離れた場所にあり、映像アーカイブに蓄積された映
像素材の属性情報として記述された編集に必要なデータ
を用いて映像素材の編集を行い、編集の結果を示す編集
結果データを通信ネットワークを介して送信する遠隔編
集端末と、遠隔編集端末から送信された編集結果情報に
基づき、映像アーカイブから映像素材を入手し、入手さ
れた映像素材に対して編集を行う編集装置とを有し、編
集に必要なデータは、共通化された検索用語を用いて記
述されたファイルで遠隔編集装置に供給され、編集装置
による編集は、編集結果情報に基づき自動的に行うこと
が可能とされたいるため、映像アーカイブおよびデータ
ベースから地理的に離れた場所から、映像アーカイブに
蓄積された映像素材を用いた実際の編集を行うことがで
きる。
の発明は、映像素材が蓄積される映像アーカイブおよび
映像アーカイブに蓄積された映像素材の、映像素材が全
体および部分に分けられたそれぞれに対し、映像データ
ベースを世界共通に利用するために共通化された検索用
語を用いて映像素材を用いた編集に必要なデータが映像
素材の属性情報として記述されるデータが格納されるデ
ータベースと地理的に離れた場所にある、映像アーカイ
ブに蓄積された映像素材の属性情報として記述された編
集に必要なデータを用いて映像素材の編集を行う遠隔編
集端末から送信された、編集の結果を示す編集結果デー
タを通信ネットワークを介して受信し、受信された編集
結果データに基づき映像アーカイブからの映像素材の入
手および入手された映像素材に対する編集を自動的に行
うことが可能とされているため、映像アーカイブおよび
データベースから地理的に離れた場所にある遠隔編集端
末からの指示に基づき、実際に映像アーカイブに蓄積さ
れている映像素材を用いた編集を行うことができる。
の発明は、映像アーカイブおよびデータベースと地理的
に離れた場所から、映像アーカイブに蓄積された映像素
材の、映像素材が全体および部分に分けられたそれぞれ
に対し、映像データベースを世界共通に利用するために
共通化された検索用語を用いて映像素材を用いた編集に
必要なデータが記述される属性情報を用いて行われた映
像素材の編集の結果を、編集装置に対して通信ネットワ
ークを介して送信するようにしているため、映像アーカ
イブおよびデータベースから地理的に離れた場所で、映
像アーカイブに蓄積されている映像素材を用いた編集を
行うことができる。
は、映像アーカイブに蓄積される映像素材の全体および
部分のそれぞれに対し、映像データベースを世界共通に
利用するために共通化された検索用語を用いて検索に必
要なデータが映像素材の属性情報として記述されると共
に、映像素材に対応する静止画および音声が埋め込まれ
たデータが記憶されるため、記憶された属性情報を用い
ることで、映像アーカイブに蓄積された映像素材の検索
が容易であると共に、検索を当該映像素材の静止画およ
び音声を参照しながら行うことができる。
の発明は、映像アーカイブに蓄積される映像素材の全体
および部分のそれぞれに対し、映像データベースを世界
共通に利用するために共通化された検索用語を用いて映
像素材を用いた編集に必要なデータが映像素材の属性情
報として記述されたデータが記憶されるため、記憶され
た属性情報を用いることで、映像アーカイブに蓄積され
た映像素材を用いた編集を行うことができる。
の発明は、映像アーカイブに蓄積された映像素材のテキ
ストベースの属性情報と、映像素材に対応する静止画お
よび音声が登録されたデータベースを、映像アーカイブ
と地理的に離れた場所にある検索編集端末により、映像
アーカイブに蓄積された映像素材を属性情報と静止画お
よび音声とに基づき検索すると共に、検索による検索結
果に基づき映像素材を用いた編集を行い、編集の結果を
編集結果データとして出力し、検索編集端末から出力さ
れた編集結果データに基づき、映像アーカイブから映像
素材を入手し、入手された映像素材を用いて編集装置に
より実際の編集を行うようにしているため、映像アーカ
イブから地理的に離れた場所にある検索編集端末で映像
アーカイブに蓄積された映像素材を用いた編集を行う場
合に、映像アーカイブと検索編集端末との間の通信トラ
フィックを抑えることができる。
を、図面を参照しながら説明する。図1は、この発明に
適用可能な遠隔編集システムの一例の構成を概略的に示
す。遠隔検索/編集端末1、大容量映像アーカイブ2お
よび映像編集装置3は、互いにネットワーク4で接続さ
れている。ネットワーク4は、例えばインターネットで
ある。遠隔検索/編集端末1は、大容量映像アーカイブ
2および映像編集装置3に対して地理的に離れた場所で
ある遠隔地に設けられる。
ハードディスク装置などから構成され、大容量を有し、
極めて多数の映像素材が蓄積可能とされる。また、大容
量映像アーカイブ2に蓄積された映像素材に関する情報
がデータベースに登録される。このデータベースに対し
て所定の書式に基づき検索条件を入力することで、大容
量映像アーカイブ2に蓄積された映像素材が検索され、
検索結果として検索条件に応じた映像素材を出力できる
ようになっている。
編集して出力するもので、例えば入力された複数の映像
素材を所定の指示に基づきカット編集で繋ぎ合わせ、1
本の映像コンテンツとして出力する。この映像編集装置
3は、編集に用いる映像素材を識別可能な識別情報や編
集ポイントを示すタイムコードなどの、編集に必要なデ
ータを外部から供給することで、編集作業を自動的に行
うことができるようにされている。
4に接続可能とされた一般的なコンピュータ装置、例え
ばパーソナルコンピュータを用いることができる。この
遠隔検索/編集端末1は、GUI(Graphical User Inte
rface)が適用され、マウスなどのポインティングデバイ
スを用いたユーザによる直感的な操作が可能とされてい
る。例えば、画面に所定に配置され表示されたボタンな
どを、ポインティングデバイスから出力される座標情報
に基づき指示し、ポインティングデバイスに対して所定
の操作を行うことで、表示されたボタンに割り当てられ
た機能を実行させることができる。以下、このポインテ
ィングデバイスを用いたボタン表示に対する一連の処理
を、「ボタンを操作する」、「ボタンを押す」などと表
現する。勿論、ポインティングデバイスだけでなく、例
えばキーボードなどの他の入力手段を用いて所定の機能
を実行させるようにもできる。さらに、遠隔検索/編集
端末1は、ディジタル音声データをアナログ音声データ
に変換して音声出力する、音声再生手段を備える。
カイブ2に蓄積された映像素材を用いた、遠隔検索/編
集端末1による遠隔からの編集は、概略的には、次のよ
うに行われる。先ず、映像素材が大容量映像アーカイブ
2に蓄積および登録される。このとき、当該映像素材の
検索および編集に必要な当該映像素材の属性情報が所定
の書式により記述されたファイルが生成される。このフ
ァイルは、当該映像素材に関連付けられて、大容量映像
アーカイブ2のデータベースに登録される。
のジャンル辞書に基づき当該映像素材に対してジャンル
が設定される。
カイブ2に対して、インターネット4を介してコンテン
ツに必要な素材の検索が行われる。検索のキーワードと
して、ジャンルを用いることができる。検索結果は、上
述の所定の書式で記述されたファイルとして、大容量映
像アーカイブ2から遠隔検索/編集端末1にネットワー
ク4を介して送信される。
たファイルの中から、編集に必要な属性情報を得て、そ
の属性情報に基づき映像素材の編集が行われる。編集が
確定したら、編集内容に基づき編集結果データが生成さ
れる。編集結果データは、EDL(Edit Decision List)
データと称される、再生側および記録側のIN点および
OUT点、エフェクト情報などからなる編集リストデー
タとして記述される。このEDLデータは、遠隔検索/
編集端末1から映像編集装置3に対してインターネット
4を介して送信される。
ータに基づき必要な映像素材を大容量映像アーカイブ2
から入手し、EDLデータの記述に従って編集作業が行
われる。映像素材は、例えばMPEG(Moving Pictures
Experts Group)−1、MPEG−2あるいはMPEG
−4といった圧縮符号化方式で圧縮符号化されて、大容
量映像アーカイブ2から映像編集装置3に送信される。
カイブ2に蓄積および登録する際に、適宜分割位置を指
定することができる。また、映像素材に対して、その映
像素材を代表する画像が代表静止画として指定される。
代表画像と共に、さらに音声を代表音声として指定する
こともできる。これら映像素材の分割と、代表静止画お
よび音声の指定は、例えば撮影者など当該映像素材の提
供者により行われる。
よび音声の指定の例を示す。図2Aに一例が示されるよ
うに、素材番号Aで示される映像素材は、その内容に基
づき3の部分に分割されるように、分割位置が指定され
る。指定された分割位置で分割されたそれぞれを部分素
材と称する。また、以下では、分割位置を指定すること
を、単に、分割と称する。例えば、素材番号Aが「野鳥
の生態」を収録した映像素材である場合、映像の内容に
基づき、先頭の部分素材−1が野鳥の群を遠景で撮影し
た映像、中間の部分素材−2が野鳥一羽毎のクローズア
ップで撮影した映像、最後の部分素材−3が周囲の風景
を撮影した映像というように、この映像素材が3の部分
素材に分割される。分割位置は、例えばこの映像素材の
提供者により指定される。
別するための分類番号が付与され、例えば、素材番号A
の素材の各部分素材−1、2および3がそれぞれ素材番
号A−1、A−2、A−3のように表される。
た映像素材の各部分素材をさらに分割することもでき
る。図2Bの例では、部分素材−2がさらに3の部分素
材−a、部分素材−bおよび部分素材−cに分割され
る。この場合も、分割された各部分素材に対してより詳
細な分類番号が付与され、部分2の各部分a、bおよび
cは、例えば素材番号A−2−a、A−2−b、A−2
−cのように表される。
および代表音声を指定することができる。図2Cに一例
が示されるように、部分素材の任意の位置が指定され
る。部分素材から、指定された位置に対応する静止画像
データが抽出されると共に、指定された位置から所定時
間長の音声データが抽出される。位置は、この映像素材
の提供者が自身の主観に基づき、例えば「お勧めシー
ン」のように指定することができる。また、位置は、1
の映像素材に対して複数、例えば、部分素材のそれぞれ
に対して指定することができる。
においてユニークな番号であり、後述するコンテンツI
Dを用いることができる。
表静止画および代表音声は、遠隔検索/編集端末1から
の指示に基づく大容量映像アーカイブ2における映像素
材の検索結果を示すファイルに埋め込まれて、ネットワ
ーク4を介して遠隔検索/編集端末1に送信される。こ
のファイルを受信した遠隔検索/編集端末1では、ファ
イルに埋め込まれた代表静止画および代表音声を抽出し
て表示や再生を行う。遠隔検索/編集端末1のオペレー
タは、この代表静止画や代表音声を参照することで、必
要な映像素材を的確に選択することができる。
イブ2における検索結果を送信するためのファイルを、
現在MPEG(Moving Pictures Experts Group)で策定
中の規格である、MPEG−7に基づき記述する。MP
EG−7は、正式名称が「Multimedia Content Descrip
tion Interface」(ISO/IEC 15938によ
る)とされ、マルチメディアコンテンツの検索を目的と
した規格である。MPEG−7によれば、マルチメディ
アコンテンツのデータベースを世界共通に利用するため
に、マルチメディアコンテンツに対する検索用語が共通
化される。MPEG−7は、従来のMPEG−1、MP
EG−2およびMPEG−4といった映像および音声デ
ータの圧縮符号化および伝送方式に置き換わるものでは
なく、これらのディジタル映像の付帯情報として用いら
れるものである。
説明し、続けて、この発明による遠隔編集システムに対
するMPEG−7の具体的な適用例について説明する。
PEG−7が扱うメディアは、ビデオ・オーディオのみ
ならず、静止画やグラフィックスなどが含まれる。ま
た、MPEG−7では、映像のタイムコードに基づく開
始時間と長さによって内容を記述する部分を特定するた
め、タイムコード若しくはそれに代わる位置情報さえあ
れば、アナログ映像を記述することが可能とされる。
に示す。MPEG−7では、主な標準化対象として、内
容記述ツールを定義するための言語(DDL:Descript
ionDefinition Language)、記述スキーム(DS:Desc
ription Scheme)および記述子(D:Descriptor)が定
められる。また、テキストとして表現される内容記述デ
ータをバイナリデータとして圧縮する仕組みおよびバイ
ナリデータからテキストデータへ伸長する仕組みも標準
化対象とされる。このMPEG−7におけるバイナリデ
ータおよびテキストデータの圧縮伸長方式は、BiM(B
inary format for MPEG-7)と称される。
タデータと称される。これは、内容を記述する対象とな
る映像データに対して、内容記述データは、記述対象の
映像データから派生したデータとみられるからである。
図4は、メタデータの利用の一例を示す。メタデータ5
2により、例えばコンピュータ装置のGUI(Graphical
User Interface)50を介して映像データ53が間接的
に扱われる。メタデータ52は、コンピュータ装置など
のプロセッサ51から直接的に操作されることで、映像
データ53を扱うこともできる。
てプロセッサ51によりメタデータ52が検索され、検
索結果に基づき映像データ53が参照される。例えば映
像データ53の部分データが参照された場合、当該部分
データがプロセッサ51に渡され、再生されてGUI5
0により表示などされる。
る記述方法を定義するための言語は、DDL(Descripti
on Definition Language)と称される。DDLは、ベー
ス言語としてXML(Extensible Markup Language)スキ
ーマが用いられる。さらに、マルチメディア内容記述で
必要となる、MPEG−7特有の拡張がMPEG−7の
規格に含まれる。MPEG−7では、内容記述をXML
を用いて行うことによりインターネットとの親和性が高
まると共に、XML関連の多くの有用なツールが利用可
能となる。
め、データ量が膨大になりデータ伝送時や蓄積時に問題
となる可能性がある。そのため、MPEG−7では、上
述した独自の圧縮ツールBiMが標準化されている。B
iMは、MPEG−7のデータを、部分的な更新・削除
・追加・アクセスが可能なように構造化されたバイナリ
データへと圧縮する。但し、ビジュアル関連の記述スキ
ーマ(DS)および記述子(D)においては、独自にバ
イナリシンタックスを決めることでバイナリデータを操
作できる規格とされる。
タ)には、ローレベルな記述データとハイレベルな記述
データの2種類がある。
号や音響・音声信号の特徴量であり、その多くは計算機
によって自動計算される。したがって、ローレベルな記
述データに基づく検索は、先ず、与えられた参照映像に
対して特徴量が計算され、次に、計算された特徴量と検
索対象の映像の特徴量との類似度が計算され、類似度の
高い映像が検索される。これらローレベルな記述データ
としては、画像信号については、フレーム全体または被
写体を対象とした色、テクスチャ、形、動き、領域など
の特徴点が規格化される。また、音響・音声信号につい
ては、無音、音声、音色、効果音、メロディなどの特徴
点が規格化される。
テキストで記述するもので、その多くは人手によって入
力される。ハイレベルな内容記述のフレームワークは、
書籍のメタファを用いて設計される。すなわち、例えば
目次と索引があり、目次では章・節が入れ子の階層構造
をとることができ、キーワードが分かっている場合は、
索引を用いて該当部分を見つけ出すこともできるような
構造となっている。なお、映像コンテンツにおいては、
例えば、チャプタおよびハイライトシーンをそれぞれ目
次および索引に対応させることができる。このような階
層構造をとることで、データ全体を見なくても、必要な
部分を容易に検索することができる。
−7においてMDS(Multimedia Description Scheme)
として規定される。MDSの詳細については後述する。
スのMPEG−7メタデータについて、より詳細に説明
する。DDLは、MPEG−7規格パート2として規定
される、MPEG−7メタデータ用のスキーマ定義言語
である。上述したように、DDLは、W3C(World Wid
e Web Consortium)で標準化策定されたスキーマ言語で
あるXMLスキーマをベースに、マルチメディアコンテ
ンツの特徴記述に必要な各種データ型等を追加すること
により規定されている。すなわち、MPEG−7のメタ
データはXML(eXtensible Markup Language)を用いて
表現されることとなる。
EG−7標準となる、MPEG−7メタデータを形成す
るためのスキーマ(schema)定義である。スキーマ定義
(または単に「スキーマ」)とは、個々のメタデータの
構文法(Syntax;内包される要素とその構造)を規定する
ものである。スキーマが定義され、その定義に則ってメ
タデータが生成される。MPEG−7規格中の各メタデ
ータに対応するスキーマ定義は、対応する他のそれぞれ
の規格パート(パート3(ビジュアル)、パート4(オ
ーディオ)およびパート5(MDS))において規定さ
れている。
用いて与えられるメタデータの一例を示す。図5Aに例
示されるスキーマ定義によって、メタデータの各要素が
定義される。図5Aのスキーマ定義によって与えられる
メタデータは、図5Bに見られるように、開始タグと終
了タグとで挟まれた要素内にさらに開始タグおよび終了
タグで挟まれた要素が含まれるネスト構造を持つ。この
構造は、包含する要素を包含される要素より上位のノー
ドに対応付けた木構造によって表される。図6は、図5
Bに示されるメタデータを木構造で表したメタデータ木
を示す。
の構造が決定され、スキーマ定義を知れば、対応するメ
タデータ木の形状が決定され、その木の各々のノードに
対応するメタデータ要素の種別を一意に特定することが
可能となる。すなわち、スキーマ定義を与えることによ
って、MPEG−7メタデータの符号化/復号化を、純
粋なツリーデータの符号化/復号化に置き換えて処理す
ることができる。
トを示す。図7に示されるように、MPEG−7のデー
タフォーマットは、デコーダ規程(Decoder Configurati
on)、アクセスユニット(Access Unit:AU)、フラグメ
ント更新ユニット(FragmentUpdate Unit:FUU)およ
びフラグメントペイロード(Fragment Payload)の各構成
要素からなる多層構造を有する。
PEG−7のメタデータ木と対応付けられる。図8は、
MPEG−7のデータフォーマットとメタデータ木との
対応関係の例を示す。図8に示されるように、メタデー
タ木のツリーデータが細かなサブツリーに分解され、分
解された各サブツリー毎にデータ化されてフラグメント
ペイロードに格納される。MPEG−7においては、ツ
リーデータは、アクセスユニットおよびフラグメント更
新ユニットを用いて分割され、小運用単位として扱われ
る。
ーマットの各構成要素について説明する。デコーダ規程
は、MPEG−7データフォーマットの先頭に配置さ
れ、続くデータをデコードするための情報が記録され
る。ここには、定義スキーマへの参照ポインタ(URN
(Uniform Resource Name)による指定)が登録されてお
り、続くメタデータがどのスキーマ定義により生成され
たものであるかを与える。
デコーダ規程に続く、1または複数のアクセスユニット
からなる。アクセスユニット(AU)は、MPEG−7
メタデータをシステム上で扱うための基本概念であり、
その定義はある単一時間に扱うメタデータ(サブツリー
データ)のセットとされる。すなわち、アクセスユニッ
トは、時間情報と関連付けられる最小構成単位である。
アクセスユニットは、ヘッダと1または複数のフラグメ
ント更新ユニットとからなる。
マンド情報、パス情報およびフラグメントペイロードか
らなる。後述するバイナリフォーマットでは、複数のフ
ラグメントペイロードがサポートされる。テキストフォ
ーマットにおけるフラグメント更新ユニットでは、フラ
グメントペイロード数が1に限定される。
メント更新ユニットに含まれるフラグメントペイロー
ド、すなわちサブツリーデータをハンドリングする。ツ
リーデータの再構成やメタデータ要素の更新を行うため
の情報となるコマンド情報、パス情報がフラグメントペ
イロードに付加されて、ハンドリングの単位とされる。
コマンド情報は、サブツリーデータの処理方法を示す。
パス情報は、処理を実行するツリー上のノード位置情報
を示す。また、各フラグメントペイロードには、上述し
た図8に示されるように、分解された各サブツリーがデ
ータ化されて格納される。
して、XMLテキスト形式をベースとしたテキストフォ
ーマットであるTeM(Textual format for MPEG-7)
と、2値表現であるバイナリフォーマットであるBiM
(Binary format for MPEG-7)の2種類が定義される。
1対1の対応を持った仕様であり、上述の、デコーダ規
程、アクセスユニット、フラグメント更新ユニット、フ
ラグメントペイロードといった共通の構造要素を持つ。
ただし、TeMは、可読性を持ち、テキストベースであ
るから任意位置でのデータハンドリングやデータの拡張
などが容易であるのに対し、ビットデータ化されたBi
Mでは、それらは容易でない。このため、BiMでは、
アクセスマーカによる独自のランダムアクセス機能や独
自の拡張機能、データ長情報の埋め込みによる未定義デ
ータのスキップ機能などを用意することで、それらの機
能要求を満たしている。
BiMについて説明する。既に述べているように、MP
EG−7メタデータは、木構造を有した所謂ツリーデー
タであり、上述したDDLすなわちスキーマ言語によっ
て与えられたスキーマ定義に基づいて生成される。Bi
Mは、このようなスキーマ定義によって与えられる木構
造を持ったメタデータを統一的に符号化・復号化するも
のである。すなわち、BiMは、MPEG−7メタデー
タのみならず、既存の言語系のメタデータ、XMLデー
タなどにも原理的に適用可能である。
号化/複合化およびサブツリー符号化/複合化の2つの
技術要素から構成される。図9は、これら2つの技術要
素を概念的に示す。ナビゲーション符号は、上述したフ
ラグメント更新ユニットにおけるコマンド情報およびパ
ス情報符号に相当する。サブツリー符号は、上述したフ
ラグメントペイロードに格納されるサブツリーが効率的
にバイナリデータ化されたものである。
単位として、ツリーデータの任意のノード位置における
サブツリーデータの追加、削除、置換といった機能を実
現している。この機能を用いることで、ツリーデータを
分割した各サブツリーデータについて、特に順序関係等
の制約を持たせず、任意の順序でサブツリーデータの授
受が可能な、ツリーデータ(メタデータ)の動的なデー
タ更新が可能とされる。この機能を実現するため、ナビ
ゲーション符号では、コマンド情報とパス情報とが符号
化されて与えられる。
を更新するフラグメント更新コマンド(Fragment Update
Command)であって、実行される処理に応じて与えられ
る。フラグメント更新コマンドには、「追加(add)」、
「置換(replace)」「削除(delete)」および「リセット
(reset)」の4種がある。
うに、後述するパス情報により与えられるツリーのノー
ド位置に、同フラグメント更新ユニット中のフラグメン
トペイロードに格納されたサブツリーを追加する。「置
換」は、図10Bに一例が示されるように、パス情報で
示されたノード位置のサブツリーをフラグメントペイロ
ード中のサブツリーと置き換える。「削除」は、図10
Cに一例が示されるように、パス情報で示されたノード
位置以下のサブツリーを削除する。したがって、「削
除」コマンドでは、フラグメント更新ユニット中にフラ
グメントペイロードが含まれない。「リセット」は、ツ
リーを初期状態に戻す。リセットコマンドでは、フラグ
メント更新ユニット中にパス情報およびフラグメントペ
イロードが含まれない。
ンドを実行するツリーデータの中のノード位置を表す。
BiMでは、ナビゲーションモードおよびナビゲーショ
ンパスにより表される。
により、ナビゲーションパスに関して以下のモードが指
定される。 (1)ナビゲーションパスが絶対パスおよび相対パスの
何れであるか (2)ランダムアクセスマーカーの有無 (3)フラグメントペイロードが単一および複数の何れ
であるか
ョンモードによって、絶対パスおよび相対パスの何れで
あるかが指定される。図11は、絶対パスおよび相対パ
スを概略的に示す。絶対パスモードでは、図11Aに一
例が示されるように、ツリーのルートノードから指定す
るノード位置までに辿るパスの全ての枝符号(総枝符
号)が記録される。相対パスモードでは、図11Bに一
例が示されるように、前段の処理終了時における現在ノ
ードから指定するノード位置までの総枝符号が記録され
る。
辿る時点で通過する各枝で、繋がれたノード間の関係を
与える符号である。枝符号により、あるノードから見た
次のノードが何番目の子ノードであるか、何番目の子ノ
ードの何番目の実現値であるか、または、親ノードに当
たるかが示される。
タデータが持つ各種要素に対応している。また、メタデ
ータが同種の要素を複数持つ場合、それらは区別される
必要がある。このため、枝符号には、スキーマ枝符号(S
chema Branch Code)と位置符号(Position Code)とが含
まれる。スキーマ枝符号により、要素種別、すなわち何
番目の子ノードであるかが示される。位置符号により、
複数同種要素の区別、すなわちその子ノードの何番目の
実現値であるかが示される。
数、すなわちそのメタデータが持つ要素の種別数、およ
び、各子ノードの実現値の数、すなわちそのメタデータ
がとり得る同種要素の数は、スキーマ定義によって規定
され、その数に応じた最小のビット数によって枝符号が
与えられる。このことから、BiMでは、スキーマ定義
に対して最適な符号量でナビゲーション符号化が行われ
る。
サブツリーのバイナリデータ(符号)は、スキーマ定義
が与えられることで適応的に生成される。図12は、M
PEG−7システムのBiMにおいて、サブツリー符号
に対して規定されるデコードプロセスを示す。
過程を示す有限状態オートマトン102が生成される。
入力されたサブツリー符号103から逐次読み込まれる
ビットによって、有限状態オートマトン102内の遷移
状態が決定されることにより、サブツリー符号のデコー
ドが実行され、サブツリーデータ104が得られる。
前段において、スキーマ最適化処理101によりスキー
マ100が最適化される。この最適化により、バイナリ
表現時に効率が最大(符号量が最小)となるようにスキ
ーマから定義されるサブツリーのデータ構文ツリー(Syn
tax Tree)が、変形可能な最もシンプルな形状のツリー
へと変換される。分割された各々のサブツリーは、木構
造として閉じているため、このような最適化処理が可能
である。この最適化処理によって、BiMのサブツリー
符号は、スキーマ定義に対して最適な符号量で与えられ
る。
れるスキーマ定義に基づき生成されるデータ構文ツリー
およびデコーダオートマトン(有限状態オートマトン1
02)の例をそれぞれ示す。図5Bのメタデータサブツ
リーに対するバイナリデータ(サブツリー符号103)
は、メタデータ中の各インスタンス”Watanab
e”、”Shuichi”、”28”のバイナリデータ
が直列的に並んだデータとして与えられる。このデータ
は、図14に一例が示されるように、デコーダオートマ
トンにより一語ずつ読み込まれ、その都度、状態が更新
されながら(q0、q1、q2、・・・)、サブツリー
符号がデコードされる。
chi”のようなstring(文字列)データは、UTF(U
niversal multiple-octet coded character set transf
ormation format)−8で、”28”のようなinteger
(整数)データは、BiMの独自形式で、それぞれバイ
ナリ化される。
図15は、MDSにより規定された各種ツール群の分類
に基づくMDSの概観図を示す。図15に示されるよう
に、MDSを構成するツールは、大別して以下の6種類
に分類される。 (1)基本要素(Basic elements) (2)コンテンツ管理ツール(Content management) (3)コンテンツ記述ツール(Content description) (4)コンテンツ・ナビゲーションおよびアクセス・ツ
ール(Navigation & Access) (5)コンテンツ組織化ツール(Content organization) (6)ユーザ関連ツール(User interaction) 以下、各カテゴリにおける代表的なツールについて順次
説明する。
−7スキーマアーキテクチャを定義するMPEG−7ス
キーマ定義ツール(Schema Tools)、マルチメディア・コ
ンテンツを記述する上で必要となる基本データ型(Basic
datatypes)、記述対象コンテンツへの参照を目的とし
たメディア参照ツール(Links & media localization)お
よび他のツールの構成要素として使用される基本ツール
(Basic Tools)が規定されている。
て、MPEG−7で規定された各ツールの継承関係を定
義するアーキテクチャ定義ツール、MPEG−7メタデ
ータの開始タグ(Root element)である<Mpeg7>、コンテ
ンツ記述作業に応じて後述する完全記述版MPEG−7
メタデータを生成する上での導入部となる各種上位要素
(Top level element)が規定されている。
は、ツール間の継承関係を、一般的に用いられるプログ
ラム言語であるC++やJava(登録商標)における
クラス継承関係へのマッピングが可能となるよう、型中
心主義(Type centric approach)が採用される。これに
より、MPEG−7メタデータの開始タグ<Mpeg7>は、
MPEG−7スキーマで定義されたツール群の中で唯一
の大域要素(Global element)である。すなわち、MPE
G−7スキーマ検証済みメタデータは、必ずタグ<Mpeg7
>から開始される。
定義された各種基本データ型に加え、MPEG−7では
マルチメディアコンテンツを記述する上で必要となる基
本データ型が追加的に規定される。例えば、バイナリデ
ータにおける割当ビット数に対応した整数データ型、ベ
クトルや行列を表すデータ型、MIME(Multipurpose
Internet Mail Extensions)に則ったメディア型、IS
O標準に則り国、地域、貨幣を表すデータ型などが規定
される。
なるコンテンツへの参照ツールとして、識別子(UniqueI
D)、ビデオ等コンテンツの特定の一部分をそのコンテン
ツが持つ時間軸に基づいて参照するMediaTime、これら
を統合した形での一般的なメディア参照ツールであるMe
diaLocatorなどが規定される。なお、識別子で規定され
るのは、各種識別子を格納するための場所(placeholde
r)であり、データ型UniqueIDにおいては、任意のスキー
ムに基づく識別子を格納することができる。
ル、基本データ型およびメディア参照ツール以外のツー
ル中、特に他の様々なツールの構成要素として共通して
使用されるツールは、基本ツール(Basic Tools)と称さ
れる。例えば、まとまった制限語彙(Controlled terms)
を外部参照スキーマとして定義するためのClassi
ficationScheme DS(Description Sch
eme)、ClassificationScheme D
Sを参照するためのControlledTermUs
e、人、グループ、組織を記述するAgent DS、
場所を記述するPlace DS、グラフ構成を記述す
るGraph DS、メタデータ間の関連を記述するR
elation DS、メタデータ要素間の順序を記述
するOrderingKey DS、コンテンツに対す
る視聴者の感性情報を記述するAffective D
Sなどが基本ツールとして定義される。
注釈記述ツールとして、自由書式に基づくテキスト注釈
を可能とするFreeTextAnnotationの
他、6W1Hに基づくテキスト注釈を可能とするStr
ucturedAnnotation、単語間の関連も
含めた構造化文書としてのテキスト注釈を可能とするD
ependancyStructureなどが規定され
る。
は、記述対象コンテンツのメディアに関する記述を行う
メディア関連記述ツール(Media)、コンテンツの制作に
関する記述を行う制作関連記述ツール(Creation & Prod
uction)、コンテンツの使用に関する記述を行うコンテ
ンツ使用形態記述ツール(Usage)が規定される。
aInformation DSが提供される。このM
ediaInformation DSにおいては、各
種のメディア形式記述ツール(MediaFormatD)が定義され
る。さらに、MediaInformation DS
では、メディア形式の変換に関するMediaTran
scodingHints D(Descriptor)、メディア
の質を記述するMediaQuality D、これら
の記述内容と記述対象となる複数のマルチメディアコン
テンツとの関連を記述するMediaInstance
DSが定義される。
onInformation DSが提供される。Cr
eationInformation DSにおいて
は、制作情報(タイトル、制作者、制作場所、制作日
等)を記述するCreationDSが定義される。さ
らに、CreationInformation DS
においては、様々な側面からのマルチメディア・コンテ
ンツの分類を記述するClassification
DS、関連コンテンツの記述を可能とするRelate
dMaterial DSが定義される。
UsageInformationDSが提供される。
UsageInformation DSにおいては、
権利情報を記述するRights Dが定義される。さ
らに、UsageInformation DSにおい
て、コンテンツの使用条件を記述するAvailabi
lity DS、コンテンツの使用記録を記述するUs
ageRecordDSが定義される。
は、コンテンツの構造を記述するコンテンツ構造記述ツ
ール(Structural aspects)、コンテンツの意味内容を記
述するコンテンツ意味内容記述ツール(Semantic aspect
s)が規定される。
メディアコンテンツの構造の記述に関するツールが提供
される。一般的な映像音声コンテンツの構造を記述する
ツールとしては、静止画を記述するためのStillR
egion DS、動画像を記述するためのVideo
Segment DSが提供される。さらに、コンテン
ツ構造記述ツールにより、動画像内で時空間的に変化す
る視覚オブジェクトを記述するMovingRegio
n DS、音声コンテンツを記述するAudioSeg
ment DSが提供される。
より、映像音声情報をまとめて記述するためのAudi
oVisualSegment DS、AudioVi
sualRegion DSが提供される。Audio
VisualSegmentDSは、上述のVideo
Segment DSとAudioSegmentDS
とが足し合わされたツールに相当する。同様に、Aud
ioVisualRegion DSは、上述のMov
ingRegion DSとAudioSegment
DSとが足し合わされたツールに相当する。また、一
般のマルチメディア・コンテンツを記述するためのMu
ltimediaSegmentDSが提供される。
るそれぞれのツールは、何れも、他のツールが対象とす
るコンテンツ形態の記述へと再帰的に分割(Decompositi
on)可能とされている。これにより、例えば、最初にA
udioVisualSegment DSを用いて記
述されたあるビデオ・コンテンツは、視覚的および聴覚
的特徴を独立して記述できるようVideoSegme
nt DSおよびAudioSegment DSを用
いた記述に分割される。また例えば、あるキーフレーム
を静止画として記述すべくVideoSegment
DSを用いた記述は、さらにStillRegion
DSに基づく記述へと分割される。このことは、これら
のツールによってコンテンツの構造が階層的に表現でき
ることを示している。
字幕など動画および静止画上のテキストを記述するVi
deoText DSおよびImageText D
S、動画の背景を一つの静止画として表現するためのM
osaic DSなどが映像音声コンテンツ構造記述ツ
ールから派生したものとして定義される。さらに、手書
き文字における時空間情報を記述するためのInkSe
gment DS、ビデオ・プログラムを解析すること
で抽出される編集工程を記述するVideoEditi
ng DS、これら記述されたコンテンツの論理構造要
素間の関連を記述するための各種Relation D
Sがコンテンツ構造記述ツールにより準備される。
emantic DSなどの、コンテンツの意味内容を
記述するためのツールが提供される。また、コンテンツ
意味内容記述ツールにより、コンテンツが捉えた世界(N
arrative World)を構成する意味的実体(Object)を記述
するためのObject DS、この世界で生起するイ
ベントの記述を可能としたEvent DS、それらを
包括する概念を記述するためのConcept DSが
提供される。
ールの構成要素として、エージェント、時間、場所を記
述するための基本ツールがそれぞれAgentObje
ctDS、SemanticTime DS、Sema
nticPlace DSとして規定されている。加え
て、コンテンツの意味内容記述間の関連を記述するため
の各種Relation DSが提供される。
アクセスツールカテゴリでは、コンテンツの要約を記述
するコンテンツ要約記述ツール(Summaries)、信号処理
に基づいたコンテンツの様々な見え方を記述するコンテ
ンツビュー記述ツール(View)、あるコンテンツから得ら
れる様々な派生コンテンツを記述する派生コンテンツ記
述ツール(Variations)が規定される。
メディアコンテンツの要約を記述するツールとして、要
約自体に階層的な構造を持たせることにより様々な再生
時間および精度の要約をまとめて記述することを可能と
したHierachicalSummary DS、要
約構成要素の重要度に応じて再生時間を動的に変化させ
る等の柔軟な再生方法の記述も含んだ要約の記述を提供
するSequentialSummary DSが提供
される。なお、これら要約の構成要素としてはビデオ・
クリップの他、キーフレームなどの静止画やオーディオ
・クリップ等もその対象に含まれる。
ディアコンテンツに対して時空間および周波数空間にお
ける様々な信号処理を施した場合の見え方を記述するた
めのツールセットである。コンテンツビュー記述ツール
により、マルチメディアコンテンツの空間における部分
領域を指定するPartition、各種フィルタリン
グを記述するFilteringを構成要素として、信
号処理後の様々な見え方を記述するView DS、そ
れら各種見え方の関連を階層的に記述するためのVie
wDecomposition DSなどが提供され
る。
種信号処理その他により様々な派生コンテンツを生成す
ることができる。上述したコンテンツ要約は、派生コン
テンツの一例である。派生コンテンツは、この他にも、
データサイズ圧縮のためのフレームレートや標本化数な
ど各種パラメータの変更によるもの、メディア形式その
ものの変換によるもの、音声のテキスト変換など、コン
テンツの形態そのものを変更したものなどがある。これ
らマルチメディアコンテンツの様々な派生コンテンツ生
成に関して、その生成履歴、元コンテンツの再現性、優
先度、派生コンテンツ間の各種関連等を記述するための
ツールとして、派生コンテンツ記述ツールによりVar
iation DSが提供される。
では、複数のコンテンツおよびそれらの記述データの集
合体を直接記述するコンテンツ集合体記述ツール(Colle
ction)、マルチメディアコンテンツや記述の集合として
の特徴を様々なモデルに基づいて記述するためのモデル
記述ツール(Models)が規定される。
ルチメディアコンテンツやコンテンツ記述そのものの集
合体を記述するためのツールが提供される。この中で、
特にこれらの集合体を直接記述するツールとしてCol
lection DSが提供される。Collecti
on DSは、さらに、コンテンツの集合体を記述する
ためのContentCollection DS、コ
ンテンツの構造記述の集合体を記述するためのSegm
entCollection DS、映像あるいは音声
などの特徴記述の集合体を記述するためのDescri
ptorCollection DS、意味内容記述に
おける概念記述の集合体を記述するためのConcep
tCollection DSなどに分類される。また
これら集合体記述間の関係を記述するツールとしてSt
ructuredCollection DSが規定さ
れる。
テンツあるいはコンテンツ記述の集合体そのものを直接
記述するのに対し、これら集合体から抽出される特徴を
モデルに基づいて記述するためのツールとしてMode
l DSが規定される。具体的には、確率統計モデルを
用いるProbabilityModel DS、隠れ
マルコフモデル(HMM)など有限状態モデルを用いる
FiniteStateModel DS、これらのモ
デリング結果と意味的内容記述とを関連づけるAnal
yticModel DS、コンテンツの集合と意味的
内容記述を関連付けるClassificationM
odel DSなどが規定される。
ユーザ嗜好を記述するユーザ嗜好記述ツール(User Pref
erences)およびユーザの動作履歴を記述するユーザ動作
履歴記述ツール(User History)が規定される。
eferences DSが提供される。UserPr
eferences DSにおいては、タイトル、制作
者など各種制作情報に関する嗜好を記述するCreat
ionPreferences DS、ジャンル、使用
言語、リリース時期など各種分類情報に関する嗜好を記
述するClassificationPreferen
ces DS、メディア種、供給元、供給時期など各種
供給元情報に関する嗜好を記述するSourcePre
ferences DS、要約方法、要約条件など各種
ブラウジング方法に関する嗜好を記述するBrowsi
ngPreferences DSなどが提供される。
また、これらの組み合わせを階層的に記述するツールと
して、FilteringAndSearchPref
erences DSが規定される。
geHistory DSが提供される。UsageH
istory DSにおいては、UserAction
History DSによって、過去のマルチメディア
・コンテンツ視聴の際のユーザの動作履歴および視聴し
たコンテンツとの関連が記述できる。
記述について、より具体的に説明する。上述したよう
に、MPEG−7スキーマ検証済み記述データは、テキ
ストデータとしては、<mpeg7>タグで始まるXML文書
として与えられる。ここで、MPEG−7においては、
記述データは、次のいずれかの形態をとる。 (1)記述単位版MPEG−7メタデータ(Description
Unit) (2)完全記述版MPEG−7メタデータ(Complete De
scription)
タについて説明する。MPEG−7において、Dあるい
はDSとして定義されたツールは、全てそれ自身の記述
データを単独で生成(instantiate)することができる。
このようにして生成された記述データが記述単位版MP
EG−7メタデータと称される。図16は、記述単位版
MPEG−7メタデータの一例の記述を示す。この図1
6に示される記述は、とある住所をPlace DSを
用いて記述した例である。
EG−7メタデータでは、開始タグ<Mpeg7>におけるt
ype属性の値として「descriptionUni
t」を与えることにより、この記述データが記述単位版
MPEG−7メタデータであることが示される。この場
合、開始タグに続く要素は、要素<DescriptionUnit>と
なり、それが持つxsi:type属性の値により、実
際に要素<DescriptionUnit>内に生成される記述データ
の文書モデル(Content model)が与えられる。つまり、
図16においては、Place DSで定義された文書
モデルに従って要素<Name>、要素<GeographicPosition>
などの要素が生成されることとなる。なお、この図16
の例におけるMPEG−7スキーマ内の定義名は、「P
laceType」とされる。
なツールも、この様な形態の記述データを生成すること
ができる。また、MPEG−7の規格書のパート3、パ
ート4で規定されたツールの多くは視覚的あるいは聴覚
的な特徴を記述するためのD(Descriptor)として定義さ
れていることから、例えばPart3で定義されたツー
ルのひとつであるDominantColor Dに基
づく視覚特徴記述データも、このような形態で生成する
ことができる。
は、その多くがデータ型として定義されている。これら
のツールにおいては、単独で記述データを生成すること
ができない。これは、データ型として定義される多くの
ツールが他のDあるいはDSを構成する要素の一部とし
て使用されることを前提として定義されているためであ
る。例えば、上述のMediaTimeは、データ型と
して定義された結果、それ単独の記述データを記述単位
版MPEG−7メタデータとして生成することができな
い。
任意のDおよびDSに基づく記述データを生成すること
ができる。しかしながら、例えば図16のPlace
DSに基く場所の記述例では、この記述データが単独で
存在しても、それがあるマルチメディア・コンテンツ記
述の中でどの様な位置付けあるいは役割を果たしている
のかは自明ではない。つまり記述単位版MPEG−7メ
タデータは、それが使用されるコンテキスト(context)
とは無関係に生成することができるため、相互運用性(I
nteroperability)を図るためには、予め当該アプリケー
ション間でそのコンテキストを取り決めておく必要があ
る。
ついて説明する。MPEG−7メタデータにおいて、開
始タグ<Mpeg7>におけるtype属性値として「com
plete」を与えた場合、そのメタデータは、完全記
述版MPEG−7メタデータと称される。これは、与え
られた記述データが特定のコンテンツ記述作業という観
点から見た場合に、それ自身で自己完結した記述データ
であることを示している。図17は、完全記述版MPE
G−7メタデータの一例の記述を示す。図17は、静止
画に対するコンテンツ記述作業で得られるであろう記述
データの例である。
要素<ContentDescription>により、これがコンテンツ記
述データであることが示される。ここで、特にxsi:
type属性が「ContentEntityTyp
e」という値とされていることから、このメタデータが
静止画、動画等のマルチメディアコンテンツそのものに
対する記述データであることが示される。続く要素<Mul
timediaContent>により、その要素のxsi:type
属性値の「ImageType」と共に、対象となるコ
ンテンツが静止画であることが示される。また、要素<I
mage>によって、StillRegion DSに従っ
た静止画の具体的な記述が示される。
記述データが対象とする静止画への参照が示され、要素
<TextAnnotation>により、自由書式に基づテキスト注釈
が記述される。また、要素<VisualDescriptor>により、
この静止画の映像特徴が記述される。この要素のxs
i:type属性の値として「DominantCol
orType」が与えられていることから、その内部に
はPart3で規定されているDominantCol
or Dに従った映像特徴が記述される。
EG−7メタデータにおいては、開始タグ<Mpeg7>に続
く上位要素(Top level element)によって、あるマルチ
メディアコンテンツの記述作業という観点から見た場合
に記述データが従うべきスキーマが選択的に取り込まれ
る。
値および上位要素の関係を示す。図18に示されるよう
に、完全記述版MPEG−7メタデータにおいては、先
ず、それがあるマルチメディアコンテンツの内容の記述
(Content Description)かコンテンツ管理に関する記述
(Content Management)かに分類される。分類結果は、最
上位要素としてタグ<ContentDescription>あるいはタグ
<ContentManagement>で開始することで、それぞれ示さ
れる。
場合には、さらに、マルチメディアコンテンツそのもの
を対象とした記述(Content Entity)かあるいはコンテン
ツの派生物他を対象とした記述(Content Abstraction)
かに分類される。コンテンツそのものを対象とした記述
であれば、タグ<ContentDescription>に続いてタグ<Mul
timediaContent>が生成され、これに含まれるxsi:
type属性値で静止画(ImageType)、動画(VideoType)
などのコンテンツ種が具体的に指定される。
と分類された場合には、要素<ContentDescription>が持
つxsi:type属性に設定される値によって、それ
が含む記述データが意味内容記述(WorldDescription)、
モデル記述(Model Description)あるいは要約記述(Summ
ary Description)などであることが示される。
この発明の実施の一形態による遠隔編集システムについ
て、より詳細に説明する。先ず、図19を用いて、この
実施の一形態による映像素材の大容量映像アーカイブ2
への登録と、登録された映像素材の遠隔検索/編集装置
1による検索について説明する。なお、図19におい
て、上述した図1と共通する部分には同一の符号を付
し、詳細な説明を省略する。
メラ10で撮影された映像が映像素材11として出力さ
れる。映像素材11は、大容量映像アーカイブ2の映像
素材蓄積部であるアーカイブ12に蓄積される。
割は、例えば映像素材11をアーカイブ12に蓄積する
際に行うことができる。映像素材11の提供者(例えば
当該映像素材11の撮影者)などにより、映像素材11
上の分割位置が例えば当該映像素材11のオリジナルタ
イムコードに基づき指定される。分割位置は、当該映像
素材11の提供者など、位置指定を行う者により任意に
指定することができる。
材から、例えば撮影者が気に入っている部分素材やお勧
めの部分素材(以下、お勧め部分素材)などが当該映像
素材11の提供者により選択される。そして、選択され
たお勧め部分素材を代表するような場面が選択され、静
止画として保持される。この代表場面の静止画を、代表
静止画と称する。さらに、代表静止画に対応した音声
(代表音声と称する)を所定時間分(例えば5秒間分)
だけ保持することができる。
の映像素材11に対して複数を指定することができる。
例えば、映像素材11が分割された各部分素材に対し
て、それぞれ代表静止画および代表音声を指定すること
ができる。また、映像素材11の分割や、代表静止画お
よび代表音声の指定などは、例えば後述する登録端末1
3から行うようにできる。これに限らず、アーカイブ1
2に対して、これらの処理を行うようにされた専用のイ
ンターフェイスを設けてもよい。
際に、登録端末13により、映像素材11の属性情報が
入力される。1本の映像素材11に対して、例えば「素
材番号」、「ジャンル分類」、「タイトル名」、「素材
の長さ」、「撮影場所」、「撮影年月日」および「オリ
ジナルタイムコードとの差」が属性情報として入力され
る。さらに、映像素材11が分割された部分素材に対し
て、より詳細な属性情報が記述される。例えば、「部分
タイトル名」、「開始タイムコード」、「部分素材の長
さ」、「代表静止画」および「代表音声」などが部分素
材の属性情報として記述される。
材11が持つ固有のタイムコードで、撮影時のタイムコ
ードまたはアーカイブ12に登録時のタイムコードであ
る。オリジナルタイムコードを用いることにより、一度
編集されたEDLデータは、何処に持っていっても通用
する汎用EDLとすることができる。
材の属性情報は、上述したMPEG−7のフォーマット
で以て記述され、MPEG−7ファイルとされてデータ
ベース15に登録される。また、映像素材11に関して
保持された上述の代表静止画および代表音声は、所定の
データ形式に変換されてMPEG−7ファイルに埋め込
まれる。このMPEG−7のフォーマットによる映像素
材11の属性情報の記述については、より具体的な例を
用いて後述する。
項目「ジャンル分類」は、ジャンル辞書14と称される
テーブルを参照して入力すると、後の映像素材11の検
索が容易になり、好ましい。ジャンル辞書14は、マル
チメディアコンテンツに対して考えられるジャンルを階
層的に表現したテーブルである。ジャンル辞書14は、
大容量映像アーカイブ2、例えばデータベース15内に
持たせてもよいし、インターネット4を介してアクセス
可能な別の場所に設けてもよい。
す。この例では、「イベント」、「情報」、「文化」、
「風景」および「その他」といった、大分類されたジャ
ンルの下にそれぞれ中分類されたジャンルが設定され、
さらに中分類されたジャンルのそれぞれに対して、より
具体的な項目に小分類されたジャンルが設けられる。
中分類「伝統」、「特技」および「生活」が設けられ
る。さらに、例えば中分類「伝統」に対して、小分類
「黒川能」、「高松和紙」、「科織り」および「天童焼
き」が設けられる。なお、大分類「文化」に対する中分
類「生活」のように、中分類に対する小分類が設けられ
ない場合も有り得る。
一存在するように示されているが、実際には、インター
ネット4(図19では省略されている)上に複数を設け
ることができる。このように、それぞれ異なる分類が行
われたジャンル辞書14をインターネット4上に複数、
設けることによって、ユーザは、目的に応じたジャンル
辞書14を適宜、選択して参照することができる。
像素材の利用方法に応じて異なってくると考えられる。
例えば、図20に示されるジャンル辞書14は、地方か
らの情報発信に用いられることが想定されているため、
ジャンルの大分類、中分類および小分類が上述したよう
に、その地域に特化した項目とされている。別の目的の
ためのジャンル辞書14’においては、異なる分類を行
った方がユーザにとって使い易いことが考えられる。
素材の、遠隔検索/編集装置1による検索は、例えば次
のようにして行われる。先ず、ユーザにより、遠隔検索
/編集装置1からジャンル辞書14にアクセスされ、ユ
ーザによりジャンル辞書14に対してキーワードが入力
される。このキーワードに応じてジャンル辞書14が検
索され、検索結果が遠隔検索/編集装置1に送信され
る。遠隔検索/編集装置1では、この検索結果に基づき
ユーザが必要としている映像素材11に関するジャンル
の絞り込みが行われる。
ル辞書14にアクセスすると、アクセスされたジャンル
辞書14の大分類の項目が一覧で遠隔検索/編集装置1
の画面に表示される。ユーザにより、表示された大分類
の一覧から一つのジャンルが選択されると、選択情報が
遠隔検索/編集装置1からジャンル辞書14に対して送
信される。送信された選択情報に基づき、選択された大
分類のジャンルの下に設けられた中分類の各項目が遠隔
検索/編集装置1に送信され、遠隔検索/編集装置1の
画面に一覧表示される。以下同様にして、中分類の一覧
から一つジャンルが選択され、選択された中分類のジャ
ンルの下に設けられた小分類の項目が表示され、小分類
の項目から所望のジャンルが選択される。
ータベース15が検索され、「ジャンル分類」として対
応するジャンルの記述がなされたMPEG−7ファイル
が検索結果として出力される。この検索結果のMPEG
−7ファイルが遠隔検索/編集端末1に送信される。遠
隔検索/編集端末1では、送られてきたMPEG−7フ
ァイルに埋め込まれた代表静止画および代表音声が抜き
出される。
表静止画は、遠隔検索/編集端末1において表示され
る。代表音声を再生することもできる。遠隔検索/編集
端末1における編集作業は、この代表画像や代表音声を
用いて判断され、必要な部分素材が幾つか組み合わされ
て映像が制作される。この編集作業の結果として、ED
Lデータが生成される。
るMPEG−7ファイルに記述されたオリジナルタイム
コード(部分素材のオリジナル開始タイムコード)およ
び部分素材の長さに基づき、部分素材のオリジナル開始
タイムコードおよびオリジナル終了タイムコードが得ら
れる。これらオチ時なる開始および終了タイムコード
と、編集に用いた部分素材に対応するMPEG−7ファ
イルに記述された素材番号とに基づき、編集結果のED
Lデータが生成される。
づき映像素材の選択および編集を行うための画面表示の
例を示す。図21Aは、代表静止画および代表音声を用
いて所望の映像素材11を選択する、映像素材選択画面
150の例を示す。タイトルバー151には、例えば検
索により絞り込まれたジャンルがその過程と共に表示さ
れる。表示部152、152、・・・に、検索結果のM
PEG−7ファイルから抜き出された代表静止画が表示
される。この例では、検索により絞り込まれた小分類に
おいて、複数の映像素材11が検索結果として得られ、
それら複数の映像素材11の代表静止画が152、15
2、・・・にそれぞれ表示される。
53および154は、それぞれ音声再生およびテキスト
表示を指示する。例えば、マウスなどのポインティング
デバイスによりボタン153を所定に操作することで、
遠隔検索/編集端末1の音声再生手段により、直上の表
示部152に表示された代表静止画に対応した映像素材
11の代表音声が再生される。
で、直上の表示部152に表示された代表静止画に対応
した映像素材11の属性情報がテキストベースで表示さ
れる。例えば、ボタン154を操作することにより、当
該映像素材11の撮影者、撮影年月日、撮影場所、コン
テンツID、オリジナルタイムコード、長さなどの情報
が表示される。このテキストベースの表示は、図示され
ない別の表示画面上に表示するようにできる。
止画および代表音声を表示および再生できるようにされ
ているため、ユーザは、必要な素材を容易に選択するこ
とができる。また、映像素材11において、単なるシー
ンチェンジ点などの静止画ではなく、映像素材11の提
供者などによるお勧め場面が代表静止画として用いられ
ているため、ユーザは、その映像素材11の特徴を容易
に把握することができる。
ではなく、静止画を用いて映像素材11を選択するよう
にしているため、この検索結果をインターネット4を介
して伝送する際のトラフィックを節約することができ
る。
の代表静止画は、例えば320画素×200画素程度の
サイズであって、これをJPEGなどの圧縮符号化方式
を用いて圧縮すれば、そのファイルサイズは、高々10
数kB(キロバイト)程度となる。同様に、代表音声に
ついても、数秒間の音声データを、ビットレートを落と
し、さらに、MP3などの圧縮符号化方式で圧縮すれ
ば、そのファイルサイズは、高々10数kBとすること
ができる。また、代表静止画や代表音声が埋め込まれて
いない、MPEG−7ファイルそのもののサイズを10
kB程度としても、これらの合計サイズは、30kB〜
50kB程度となる。
0件、収集しても、全体のデータ量は、数MB(メガバ
イト)程度である。伝送路の高速化が進んだ現在におい
ては、100件程度の映像素材の収集は、十分実用的で
あるといえる。
部152、152、・・・に代表静止画が表示された映
像素材11、11、・・・を用いた編集は、例えば次の
ようにしてなされる。図21Bは、この編集を行う一例
の編集画面160を示す。ここで、コンピュータ装置、
特にパーソナルコンピュータのOS(Operating System)
として流通しているものの多くは、GUIの機能の一つ
として、ファイルやオブジェクトの移動などの操作を直
感的に行うようにされた、ドラッグ&ドロップと称され
る機能をサポートしている。この例では、ドラッグ&ド
ロップを用いて、編集作業を直感的に行うことが可能な
ようにされている。
装置の画面上で、ポインティングデバイスの動作に対応
した位置を示すカーソルが所望のオブジェクト(アイコ
ンなど)上にあるときに、ポインティングデバイスに対
して所定の操作を行う当該オブジェクトを選択状態に
し、選択状態を保持したままポインティングデバイスを
操作し、保持された当該オブジェクトを画面上の所望の
位置に移動させる(ドラッグ)。ここで、ポインティン
グデバイスによる選択状態を解除することで、当該オブ
ジェクトを当該位置に置く(ドロップ)。これらの操作
をまとめて、ドラッグ&ドロップと称する。ドロップさ
れた位置がプログラムにより所定の指定がなされた位置
であれば、当該位置にドロップされたオブジェクトに応
じた処理が行われるようにできる。
を映像素材選択画面150と並列的あるいは同時に起動
させる。編集画面160および映像素材選択画面150
を同一のアプリケーションで実現させることも容易であ
る。映像素材編集画面150の表示部152、152、
・・・に表示された代表静止画や対応する代表音声、テ
キスト情報などに基づき必要な映像素材11を選択し、
選択された映像素材11に対応した代表静止画(表示部
152)を上述のドラッグ&ドロップにより編集画面1
60のトラック画面161へ移動させる。その結果、ト
ラック画面161上に、移動された代表静止画が表示1
62のように表示される。この処理を繰り返すと、トラ
ック画面161に対して、編集結果の時間軸すなわち再
生順に対応して代表静止画162、162、・・・が並
べられて表示される。なお、代表静止画162、16
2、・・・は、必要に応じて、例えば上述したドラッグ
&ドロップの手法を用いて並べ替えることができる。
ップに限らず、例えばキーボードから必要な情報を入力
することで行うようにしてもよい。
ら、例えば決定ボタン164を押すことで編集の決定が
指示され、トラック画面161に表示された代表静止画
162、162、・・・に対応する映像素材11の属性
情報に基づき、編集結果を示すEDL(Edit Decision L
ist)データが生成される。このEDLデータは、図示さ
れない映像編集装置3に送信される。映像編集装置3で
は、このEDLデータに基づき、大容量映像アーカイブ
2から映像素材11を取り出し、取り出した映像素材1
1を用いて編集が行われる。この編集は、EDLデータ
に基づき自動的に行うことが可能である。
述について、図22〜図27を用いて、より具体的に説
明する。これら図22〜図27は、ある一つの映像素材
11に関する同一のMPEG−7ファイルからの抜粋で
ある。
な記述がなされる、MPEG−7ファイルの冒頭部分の
一例の抜粋を示す。この冒頭部分により、このMPEG
−7ファイルそのものの情報が示される。最初のタグに
より、このファイルがXMLで記述されている旨と、こ
のファイルの文字コードのエンコード方式がシフトJI
S(Japan Industrial Standard)方式であること旨とが
示される。また、このMPEG−7ファイルの作成など
に用いられたソフトウェアの情報などが示される。
り記述される映像素材11そのものの情報が記述される
部分の一例の抜粋を示す。この図23に示される部分に
おいて、映像素材11を特定する情報や、映像素材11
が存在する場所の情報が記述される。この図23の例で
は、映像素材11を特定するために、コンテンツIDが
用いられている。タグ「<InstanceIdentifier ....>」
およびタグ「</InstanceIdentifier>」で挟まれた部分
に、当該MPEG−7ファイルにより示される映像素材
11のコンテンツIDが例えば「0027/20010
805」のように記述される。なお、ここで記述される
コンテンツIDは一例であって、正式なものとは異な
る。
MPEG−7ファイルで示される映像素材11の場所を
特定する情報が記述される。タグ「<MediaUti>」および
タグ「</MediaUri>」で挟まれた部分に、当該映像素材
11のデータベース上の場所情報がURI(Universal R
esource Identifier)で記述される。場所情報がURI
で記述されているため、当該映像素材11がインターネ
ット4上の何処にあっても、その場所を示すことができ
る。
および「タグ</MediaRelTimePoint>」により当該映像素
材11の開始ポイントが記述される。これは、例えば上
述のURIで示される動画ファイル中の、当該映像素材
11の開始位置である。この例では、開始ポイントが
「P0DT0H0M0S0N30F」であるとされる。
このうち、「P」がポイントであることを示し、「D
T」が日、「H」が時刻、「M」が分、「S」が秒、
「N」がフレームをそれぞれ示す。最後の「30F」
は、1秒間のフレーム表示が30フレームであることを
示す。この例では、上述のURIで示される動画ファイ
ルの先頭が当該映像素材11の開始フレームであること
が示される。
およびタグ「</MediaIncrDuration ...>」により、当該
映像素材11の長さ(Duration)がフレーム単
位で記述される。この例では、当該映像素材11が39
03フレーム分の長さ(130秒+3フレーム)を有す
ることが示される。なお、長さの単位情報は、タグ「<M
ediaIncrDuration ...>」中の記述「timeUnit=" ...
"」の部分で指定される。
イトルが記述される部分の例を示す。タグ「<Name ...
>」およびタグ「</Name>」で挟まれた部分に、当該映像
素材11のタイトル「Hanagasa 2001」が
記述される。
タイムコードと上述の図23に示される開始ポイントと
の差分が記述される部分の例を示す。コメントタグ「<!
-- OrigTC ... -->」中に、「+00T0H30M20
S10N30F」として、差分すなわちオリジナルタイ
ムコードに対する映像素材11の開始ポイントのオフセ
ットが記述される。このように、オリジナルタイムコー
ドとの差分を記述しておくことで、当該映像素材11の
オリジナルタイムコードを再生することができる。
部分素材に関する属性情報が記述される部分の例を示
す。この例では、タグ「<FreeTextAnnotation ...>」お
よびタグ「</FreeTextAnnotation>」により挟まれた部
分に、当該部分素材のタイトルが記述される。タグ「<M
ediaRelTimePoint ...>」およびタグ「</MediaRelTimeP
oint>」で挟まれた部分に、当該部分素材の当該映像素
材11内における開始位置「P0DT0H0M0S0N
30F」が記述される。これにより、当該部分素材が当
該映像素材11の先頭から開始されることが示される。
また、タグ「<MediaIncrDuration ...>」およびタグ「<
MediaIncrDuration>」で挟まれた部分に、当該部分素材
の長さが記述される。
部分素材のタイトルが「Yamagata Holid
ay Tourists」であって、0日0時0分0秒
0フレーム目から開始され、この部分素材の長さが24
98フレーム、すなわち、1分23秒8フレーム分ある
ことが示される。
素材に関する属性情報の記述の例を示す。この図27に
示される記述は、上述の図26に示した記述と同一のフ
ォーマットであるため、詳細な説明を省略する。この図
27に示される記述によれば、当該部分素材のタイトル
が「Sembatsu Team」であって、開始位置
が0日0時1分23分8フレーム目で、長さが1405
フレーム、すなわち46秒あることが示される。また、
この図27に示される記述の部分素材が上述の図26に
示した部分素材の直後から開始されることが分かる。
に、映像素材11から分割された複数の部分素材の属性
情報を記述することができる。例えば、上述の図26お
よび図27に示される部分素材の記述は、同一のMPE
G−7ファイル内に記述される。
MPEG−7ファイルに対して代表静止画および代表音
声を埋め込むようにしている。図28は、代表静止画お
よび代表音声が埋め込まれたMPEG−7ファイルの一
例の記述を示す。代表静止画および代表音声のMPEG
−7ファイルへの埋め込みは、例えば次のようにしてな
される。
れ、例えばJPEG(Joint Photographic Experts Grou
p)方式で圧縮符号化されてJPEGファイルとされて保
持される。JPEGファイルそのものは、バイナリデー
タで表現されているため、テキストフォーマットである
上述のTeMで表現されるMPEG−7ファイルにその
ままでは埋め込むことができない。そこで、バイナリデ
ータのJPEGファイルを、ASCIIコードによるテ
キストデータにエンコードする。
と称されるエンコード方式を用いることができる。この
Base64では、バイナリデータを6ビットごとに分
割し、分割されたそれぞれに対して先頭に2ビットのデ
ータ「00」を付加する。こうして生成された8ビット
のコードをASCIIコードに対応付けることで、バイ
ナリデータをASCIIコードにエンコードする。この
Base64によれば、全てのバイナリデータをASC
IIコードからなるテキストデータに変換することがで
きる。
ードされたJPEGファイルは、すなわちテキストデー
タであるので、MPEG−7ファイルに埋め込むことが
できる。また、埋め込まれたデータは、テキストデータ
を構成するASCIIコードのそれぞれについて、8ビ
ットからなるASCIIコードの先頭2ビットを削除す
ることで、元のバイナリデータにデコードされる。
同様にしてASCIIコードにエンコードすることで、
MPEG−7ファイルに埋め込むことができる。デコー
ド方法も、上述と同様である。
びタグ「<Name>」で挟まれた部分に、以下にJPEGフ
ァイルが埋め込まれることが記述され、タグ「</Classi
ficationScheme>」の次に、テキストデータにエンコー
ドされた代表静止画200が埋め込まれる。代表音声に
ついても同様に、タグ「<Name ...>」およびタグ「</Na
me>」で挟まれた部分に、以下に音声ファイル(この場
合は、MP3(Moving Pictures Experts Group 1 Audio
Layer 3)形式に圧縮符号化された音声ファイル)が埋
め込まれることが記述され、タグ「</ClassificationSc
heme>」の次に、テキストデータにエンコードされた代
表音声201が埋め込まれる。
いては、元々バイナリデータで表現される代表静止画と
代表音声とがテキストデータに変換されて、TeM形式
のMPEG−7ファイルに記述される。そのため、この
ファイルは、全体としてテキストデータで記述されるこ
とになり、MPEG−7により規定される上述したBi
Mによりバイナリ表現に変換することができるようにな
る。
集結果であるEDLデータの一例を模式的に示す。ED
Lデータは、上述したMPEG−7ファイルの記述か
ら、主にタイムコードに関する情報を抜き出して演算し
たものである。このEDLデータを編集装置3にかける
ことで、編集を実行できる。
像に付されるタイトルが記述される。タイトルは、例え
ば、上述した図21Bの編集画面160による編集を行
うタイミングで入力することができる。カットは、この
図29の例では、「0001」、「0002」、・・・
のように番号が付され、タイトルで示される編集映像が
4つのカットから成ることが示される。カットは、例え
ば、上述した、映像素材11が分割された部分素材に対
応する。
るカット(部分素材)それぞれの情報が記述される。部
分素材の情報は、それぞれの部分素材の元である映像素
材11のMPEG−7ファイルの内容に基づき記述され
る。例えば、番号「0001」のカットは、図26示さ
れるMPEG−7ファイルの記述に対応するもので、当
該部分素材の元である映像素材11を示すコンテンツI
D(「0027/20010805」)が記述され、当
該部分素材に対して付されたタイトル(「Yamaga
ta Holiday Tourist」)が記述され
る。
TR OUT」により、当該部分素材の映像素材11上
の位置が記述される。この位置は、図26に示される開
始位置の記述に、図25に示される映像素材11全体の
オフセットが加味されたものである。項目「P−VTR
IN」が開始点、項目「P−VTR OUT」が終了
点を示す。この例では、映像素材11における当該部分
素材の開始位置「0日0時0分0秒0フレーム」にオフ
セット「0日0時30分20秒10フレーム」が加味さ
れ、開始点が「0日0時30分20秒10フレーム」と
される。終了点は、当該映像素材11のMPEG−7フ
ァイルに記述された当該部分素材の「長さ(Durat
ion)」に基づき求めることができる。
TR OUT」により、当該部分素材が編集先の記録媒
体(例えばビデオテープ)に記録されるときの位置が記
述される。項目「R−VTR IN」が開始点、項目
「R−VTR OUT」が終了点を示す。この例では、
開始点が「0日0時0分0秒0フレーム」とされている
が、実際には、編集先の記録媒体における任意の点を開
始点として指定することができる。
材(部分素材)を特定する情報と、映像素材中の位置情
報とがMPEG−7ファイルから抽出されて記述される
と共に、編集先の位置情報が記述され、EDLデータが
生成される。映像素材(部分素材)の情報は、図21B
で上述した編集画面160において、複数の映像素材
(部分素材)が選択されていれば、選択された映像素材
(部分素材)の情報が全て記述される。この図28の例
では、図21Bの編集画面160において例えば4つ映
像素材(部分素材)が選択され、選択された素材が番号
「0001」、「0002」、「0003」および「0
004」でそれぞれ示される情報として、記述される。
記述の順番、すなわち、編集先の映像における再生順
は、上述したように、編集画面160のトラック画面1
61上の代表静止画162、162、・・・の順番に対
応する。
ネットワーク4を介して編集装置3に送信される。編集
装置3では、このEDLデータに記述されたコンテンツ
IDに基づき、編集に必要な映像素材11が検索され
る。上述したように、コンテンツIDは、世界唯一とさ
れているので、EDLデータに記述されている映像素材
11がインターネット4上の何処にあっても、当該映像
素材11の場所を特定でき、当該映像素材11を編集装
置3に供給することができる。
給されると、EDLデータに記述された開始および終了
位置情報や編集先での記録開始および終了位置情報など
に基づき、映像素材11を用いて編集作業が行われる。
編集作業は、EDLデータにより、自動的に実行するこ
とができる。編集された映像は、例えばビデオテープに
収録される。勿論、インターネット4を介して遠隔検索
/編集端末1に送信してもよい。
説明する。コンテンツIDは、コンテンツIDフォーラ
ム(MPEG−21)により提案されている、マルチメ
ディアコンテンツに対する世界唯一の識別コードの規格
である。映像素材に対してコンテンツIDを適用するこ
とで、映像素材の検索を容易に行うことができると共
に、著作権の保護を行うことができる。
す。コンテンツIDの構成には、図30Aに示されるよ
うに、コンテンツを識別するためのIDセンタ管理番号
(ユニークコードと称される)、コンテンツ制作時に決
まるコンテンツ属性および権利属性、ならびに、流通時
に決まる権利運用属性、流通属性および分配属性が用意
される。さらに、コンテンツIDには、今後の属性拡張
を可能にする自由領域とコンテンツIDのバリデーショ
ン用のシステム管理情報が用意される。
うに、3段階の管理方法を有する。第一段階(#1)
は、ユニークコードによる管理である。ユニークコード
は、データベースアクセスのキーとなる。このため、こ
のユニークコードは、電子透かしの対象とされる。図3
0Bは、ユニークコードの構成をより詳細に示す。最初
の16ビットは、予め決められた識別情報であり、バー
ジョン番号、地域コードおよびID管理センタ番号が割
り当てられる。ID管理センタ番号に続けて、このコン
テンツIDにより管理されるコンテンツの著作物を示す
著作物IDや、このコンテンツの発行に関するIDであ
る発行IDが格納される。この著作物ID/発行ID
は、任意長とされ、コンテンツID管理センタにより割
り付け可能なユニークなIDである。
Content Descriptor)による管理である。このDCD
は、ユニークコードに対してコンテンツIDを構成する
一部の属性が加えられたものである。電子透かしを行わ
ない場合には、このDCDがデータベースへのアクセス
のキーとなる。第三段階(#3)は、コンテンツIDの
全てによる管理である。すなわち、第三段階では、ユニ
ークコードに対してコンテンツIDを構成する全ての属
性が加えられたものでコンテンツIDが管理される。第
三段階では、コンテンツIDがコンテンツID管理セン
ターにある知的財産権管理データベースで集中管理され
る。このような管理方式を用いることにより、映像デー
タそのものに電子透かしとして重畳するデータを、最小
限(例えばユニークコードのみ)にすることができる。
る著作物ID/発行IDの領域に、当該コンテンツID
により管理される映像素材のオリジナルタイムコードを
埋め込むことが提案されている。ここで、埋め込まれる
オリジナルタイムコードは、例えば当該映像素材の開始
点のオリジナルタイムコードとする。
イムコードを埋め込む際の、コンテンツID内のユニー
クコードの一例の構成を示す。この図31の例では、図
31Aに示されるように、ユニークコードに100ビッ
トが割り当てられる。100ビットのうち、予め決めら
れた識別情報が格納される先頭側の16ビットを除く、
コンテンツID管理センタにより割り付け可能な84ビ
ット(以下、センタ内番号と称する)を2つに分け、セ
ンタ内番号のうち前半の20ビットを素材IDまたは完
成品IDとし、後半の64ビットがオリジナルタイムコ
ードとされる。
頭のビットがこのコンテンツIDで管理される映像が素
材であるか、完成品であるかを示すフラグとされる。図
31Bおよび図31Cは、それぞれ素材および完成品に
対するユニークコードの一例の構成を示す。完成品に対
するユニークコードでは、図31Cに示されるように、
オリジナルタイムコードが埋め込まれない。
込まれたコンテンツIDを用いた編集システムの一例の
構成を示す。なお、この図32において、上述した図1
および図19に対応する部分には同一の符号を付し、詳
細な説明を省略する。
ジナルの映像素材11が大容量映像アーカイブ2に供給
される。VTR21により、この映像素材11からオリ
ジナルタイムコードおよび映像素材11に関する属性情
報が抽出される。属性情報は、人手によって入力するこ
ともできる。オリジナルタイムコードは、コンテンツI
D生成部22に供給される。また、属性情報は、MPE
G−7エンコーダ23に供給される。
された映像素材11は、アーカイブ12に供給され、登
録および蓄積される。このとき、アーカイブ2に登録さ
れた映像素材11に対して、データベース管理部24に
よりこのアーカイブ2においてユニークな素材IDが生
成される。素材IDは、データベース15に当該素材1
1の管理情報として登録されると共に、コンテンツID
生成部22に供給される。
録される際には、上述したように、映像素材11の分割
や、代表静止画および代表音声の指定などが行われる。
たオリジナルタイムコードおよび素材IDを用いて、当
該映像素材11に世界的にユニークなコンテンツIDが
生成される。すなわち、上述した図31Bに示されるよ
うにして、ユニークコード内のセンタ内番号84ビット
のうち後半64ビットにオリジナルタイムコードが埋め
込まれ、前半20ビットの先頭1ビットを除く19ビッ
トを用いて素材IDが格納される。このコンテンツID
は、MPEG−7エンコーダ23に供給される。
21から供給された当該映像素材11の属性情報と、コ
ンテンツID生成部22から供給されたコンテンツID
とを用いて、当該映像素材11に対するMPEG−7フ
ァイルが生成される。生成されたMPEG−7ファイル
は、当該映像素材11と関連付けられて、データベース
15に登録される。
ンツIDを電子透かし技術を用いて埋め込むことができ
る。例えば、特開平11−164129号に記載される
技術を用いて、映像信号をDCT(Discrete Cosine Tra
nsform)した際の低周波領域に、コンテンツIDを埋め
込むことができる。VTR21で再生された映像素材1
1の映像信号に対して、重畳化部25によりコンテンツ
IDが電子透かしにより埋め込まれる。コンテンツID
が埋め込まれた映像素材11がアーカイブ12に登録お
よび蓄積される。
データベース管理部24にキーワードが送信され、この
キーワードに基づき図示されないジャンル辞書14にお
ける絞り込み処理などが行われ、データベース15が検
索される。検索の結果得られた映像素材11の情報がM
PEG−7ファイルとして遠隔検索/編集端末1に返さ
れる。遠隔検索/編集端末1では、このMPEG−7フ
ァイルに埋め込まれた代表静止画や代表音声、属性情報
などに基づき、必要な映像素材や部分素材がユーザによ
り選択され、映像素材11の編集作業が行われる。編集
が決定されると、編集結果が記述された、上述したよう
なEDLデータが遠隔検索/編集端末1から編集装置3
に送信される。
に記述されているコンテンツIDに基づき、編集に用い
られる映像素材11が検索される。例えば、図示しない
が、コンテンツIDに基づきコンテンツID管理センタ
に対して、当該コンテンツIDが示す映像素材11の場
所が問い合わされる。問い合わせの結果得られた場所情
報に基づき例えばアーカイブ12から当該映像素材11
が入手される。
おいて一旦、ローカルサーバ30に格納される。そし
て、遠隔検索/編集端末1から送られたEDLデータに
基づくタイムコード変換/コントロール部33の制御に
基づき、ローカルサーバ30で映像素材11が再生され
る。例えば、EDLデータに記述された映像素材11の
開始および終了位置情報に基づき、映像素材11の再生
が制御される。
コンテンツIDが重畳されている場合には、重畳化復号
部34により映像素材11に重畳されているコンテンツ
IDが抽出され、タイムコード変換/コントロール部3
3に供給される。タイムコード変換/コントロール部3
3では、このコンテンツIDに含まれるオリジナルタイ
ムコードに基づき、映像素材11のタイムコードのオフ
セット処理などを行うことができる。
11がスイッチャやミキサなどからなる編集装置である
SW/MIX31に供給され、EDLデータに従い実際
の映像信号に対する編集処理が行われる。編集処理は、
EDLデータに従い自動的に行うことができる。編集さ
れた完成品は、VTR32に供給され、例えばビデオテ
ープ40に記録される。
像アーカイブに登録される映像素材に対する属性情報
が、共通化された検索用語に基づきテキストベースのデ
ータでデータベースに登録される。そのため、映像アー
カイブに登録された映像素材を、遠隔からでも素早く検
索できる効果がある。
が属性情報に埋め込まれているので、映像素材の検索を
より正確に行うことができる効果がある。
索に際して、映像素材そのものを集めることなく、映像
素材の属性情報のみを集めるようにしているため、イン
ターネットなどのネットワーク経由での検索情報の入手
を高速に行うことができる効果がある。
像素材の属性情報には、映像素材の所在を示す場所情報
や、映像素材のオリジナルタイムコードなどの編集に必
要な情報が記述されている。このため、映像素材の属性
情報のみを入手することで、当該映像素材に対する編集
操作が可能となり、編集結果をEDLデータとして出力
することが可能となる効果がある。
きるため、映像素材の遠隔からの自動編集を実現できる
効果がある。
の構成を概略的に示す略線図である。
の例を示す略線図である。
である。
るメタデータの一例を示す略線図である。
木を示す略線図である。
図である。
タ木との対応関係の例を示す略線図である。
ー符号化/複合化の2つの技術要素を概念的に示す略線
図である。
的に示す略線図である。
図である。
ブツリー符号に対して規定されるデコードプロセスを示
す略線図である。
ツリーの一例を示す略線図である。
ートマトンの一例を示す略線図である。
に基づくMDSの概観図である。
記述を示す略線図である。
記述を示す略線図である。
上位要素の取り得るべき値および上位要素の関係を示す
略線図である。
容量映像アーカイブへの登録と、登録された映像素材の
遠隔検索/編集装置による検索について説明するための
略線図である。
の選択および編集を行うための画面表示の例を示す略線
図である。
図である。
図である。
図である。
図である。
図である。
図である。
PEG−7ファイルの一例の記述を示す略線図である。
ある。
る。
埋め込む際のコンテンツID内のユニークコードの一例
の構成を示す略線図である。
テンツIDを用いた遠隔編集システムの一例の構成を示
す略線図である。
成を概略的に示す略線図である。
カイブ、3・・・映像編集装置、4・・・ネットワー
ク、11・・・映像素材、12・・・アーカイブ、13
・・・登録端末、14・・・ジャンル辞書、15・・・
データベース、22・・・コンテンツID生成部、23
・・・MPEG−7エンコーダ、24・・・データベー
ス管理部、30・・・ローカルサーバ、31・・・SW
/MIX、33・・・タイムコード変換/コントロール
部、150・・・映像素材選択画面、160・・・編集
画面
Claims (50)
- 【請求項1】 映像データベースを世界共通に利用する
ために検索用語を共通化したデータベースに用いられる
映像素材情報記述方法において、 映像素材の属性情報を、該映像素材を全体および部分に
分けて記述し、該映像素材の該全体および該部分のそれ
ぞれの上記属性情報の記述に対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て、検索に必要なデータを記述すると共に、上記映像素
材に対応する静止画および音声を埋め込むようにしたこ
とを特徴とする映像素材情報記述方法。 - 【請求項2】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記述方
法。 - 【請求項3】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材の内容に対応
したジャンル情報であることを特徴とする映像素材情報
記述方法。 - 【請求項4】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材に対して付与
されたタイトル名であることを特徴とする映像素材情報
記述方法。 - 【請求項5】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記述方
法。 - 【請求項6】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材が撮影された
場所を示す撮影場所情報であることを特徴とする映像素
材情報記述方法。 - 【請求項7】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材が撮影された
日時を示す撮影日時情報であることを特徴とする映像素
材情報記述方法。 - 【請求項8】 請求項1に記載の映像素材情報記述方法
において、 上記静止画および音声は、上記映像素材の全体および/
または部分の任意の位置に対応する静止画および音声で
あることを特徴とする映像素材情報記述方法。 - 【請求項9】 請求項1に記載の映像素材情報記述方法
において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記述方法。 - 【請求項10】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の検索を行うようにした遠隔検索シス
テムにおいて、 映像素材が蓄積される映像アーカイブと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて検索に必要なデータが上記映像素
材の属性情報として記述されると共に、上記映像素材に
対応する静止画および音声が埋め込まれたデータが格納
されるデータベースと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあり、上記映像アーカイブに蓄積された上
記映像素材の検索を行う検索要求を通信ネットワークを
介して上記データベースに送信する遠隔検索端末とを有
し、 上記遠隔検索端末による上記検索要求に対する検索結果
は、上記共通化された検索用語により記述されたファイ
ルとして上記通信ネットワークを介して上記データベー
スから上記遠隔検索端末に送信されるようにしたことを
特徴とする遠隔検索システム。 - 【請求項11】 請求項10に記載の遠隔検索システム
において、 上記遠隔検索端末による上記検索は、上記ファイルに基
づき、上記検索に必要なデータによるテキスト検索によ
り行われると共に、上記静止画および音声を参照しなが
らに行うことが可能とされたことを特徴とする遠隔検索
システム。 - 【請求項12】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の検索を行うようにした遠隔検索方法
において、 映像素材が映像アーカイブに蓄積されるステップと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて検索に必要なデータが上記映像素
材の属性情報として記述されると共に、上記映像素材に
対応する静止画および音声が埋め込まれたデータがデー
タベースに格納されるステップと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にある遠隔検索端末から、上記映像アーカイ
ブに蓄積された上記映像素材の検索を行う検索要求を通
信ネットワークを介して上記データベースに送信する送
信のステップとを有し、 上記遠隔検索端末による上記検索要求に対する検索結果
が上記共通化された検索用語により記述されたファイル
として上記通信ネットワークを介して上記データベース
から上記遠隔検索端末に送信されるようにしたことを特
徴とする遠隔検索方法。 - 【請求項13】 映像素材を用いた編集を行う編集装置
において、 遠隔検索端末から送信された、該遠隔検索端末により映
像アーカイブに蓄積された映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて検索に必要なデータが上記映像素材の属性情報
として記述されると共に、上記映像素材に対応する静止
画および音声が埋め込まれた属性情報が格納されるデー
タベースが検索された結果で得られた上記静止画および
音声に基づき行われた編集の結果を示す編集結果データ
を受信する受信手段と、 上記受信手段により受信された上記編集結果データに基
づき、上記映像アーカイブからの映像素材の入手および
入手された映像素材に対する編集を行う編集手段とを有
し、 上記編集手段による編集は、上記編集結果データに基づ
き自動的に行うことが可能とされたことを特徴とする編
集装置。 - 【請求項14】 映像素材を用いた編集を行う編集方法
において、 遠隔検索端末から送信された、該遠隔検索端末により映
像アーカイブに蓄積された映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて検索に必要なデータが上記映像素材の属性情報
として記述されると共に、上記映像素材に対応する静止
画および音声が埋め込まれた属性情報が格納されるデー
タベースが検索された結果で得られた上記静止画および
音声に基づき行われた編集の結果を示す編集結果データ
を受信する受信のステップと、 上記受信のステップにより受信された上記編集結果デー
タに基づき、上記映像アーカイブからの映像素材の入手
および入手された映像素材に対する編集を行う編集のス
テップとを有し、 上記編集のステップによる編集は、上記編集結果データ
に基づき自動的に行うことが可能とされたことを特徴と
する編集方法。 - 【請求項15】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の検索を行うようにした遠隔検索端末
において、 映像素材が蓄積される映像アーカイブに蓄積された上記
映像素材の検索を行う検索要求を、上記映像アーカイブ
に蓄積された上記映像素材の、該映像素材が全体および
部分に分けられたそれぞれに対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て検索に必要なデータが上記映像素材の属性情報として
記述されると共に、上記映像素材に対応する静止画およ
び音声が埋め込まれたデータが格納されるデータベース
に通信ネットワークを介して送信する遠隔検索手段と、 上記遠隔検索手段による上記検索要求に対する検索結果
が上記データベースから送信された上記共通化された検
索用語により記述されたファイルを上記通信ネットワー
クを介して受信し、受信された上記ファイルに埋め込ま
れた上記静止画および音声を取り出す手段とを有し、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあることを特徴とする遠隔検索端末。 - 【請求項16】 請求項15に記載の遠隔検索端末にお
いて、 上記遠隔検索端末による上記検索は、上記ファイルに基
づき、上記検索に必要なデータによるテキスト検索によ
り行われると共に、上記静止画および音声により行うこ
とが可能とされたことを特徴とする遠隔検索端末。 - 【請求項17】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて遠隔検索端末で映像素材の検索を行うようにし
た遠隔検索方法において、 映像素材が蓄積される映像アーカイブに蓄積された上記
映像素材の検索を行う検索要求を、上記映像アーカイブ
に蓄積された上記映像素材の、該映像素材が全体および
部分に分けられたそれぞれに対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て検索に必要なデータが上記映像素材の属性情報として
記述されると共に、上記映像素材に対応する静止画およ
び音声が埋め込まれたデータが格納されるデータベース
に、上記映像アーカイブおよび上記データベースと地理
的に離れた場所にある遠隔検索端末から通信ネットワー
クを介して送信する遠隔検索のステップと、 上記遠隔検索のステップによる上記検索要求に対する検
索結果が上記データベースから送信された上記共通化さ
れた検索用語により記述されたファイルが上記遠隔検索
端末により上記通信ネットワークを介して受信され、受
信された上記ファイルに埋め込まれた上記静止画および
音声を取り出すステップとを有することを特徴とする遠
隔検索方法。 - 【請求項18】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法において、 映像素材の属性情報を、該映像素材を全体および部分に
分けて記述し、該映像素材の該全体および該部分のそれ
ぞれの上記属性情報の記述に対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て、上記映像素材を用いた編集に必要なデータを記述す
るようにしたことを特徴とする映像素材情報記述方法。 - 【請求項19】 請求項18に記載の映像素材情報記述
方法において、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記述方
法。 - 【請求項20】 請求項18に記載の映像素材情報記述
方法において、 上記編集に必要なデータは、上記映像素材の開始位置を
示すタイムコードであることを特徴とする映像素材情報
記述方法。 - 【請求項21】 請求項18に記載の映像素材情報記述
方法において、 上記編集に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記述方
法。 - 【請求項22】 請求項18に記載の映像素材情報記述
方法において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記述方法。 - 【請求項23】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を行うようにした遠隔編集シス
テムにおいて、 映像素材が蓄積される映像アーカイブと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて該映像素材を用いた編集に必要な
データが上記映像素材の属性情報として記述されるデー
タが格納されるデータベースと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあり、上記映像アーカイブに蓄積された上
記映像素材の上記属性情報として記述された上記編集に
必要なデータを用いて上記映像素材の編集を行い、該編
集の結果を示す編集結果データを通信ネットワークを介
して送信する遠隔編集端末と、 上記遠隔編集端末から送信された上記編集結果情報に基
づき、上記映像アーカイブから映像素材を入手し、入手
された該映像素材に対して編集を行う編集装置とを有
し、 上記編集に必要なデータは、上記共通化された検索用語
を用いて記述されたファイルで上記遠隔編集装置に供給
され、上記編集装置による上記編集は、上記編集結果情
報に基づき自動的に行うことが可能とされたことを特徴
とする遠隔編集システム。 - 【請求項24】 請求項23に記載の遠隔編集システム
において、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報、上記映像素材の開始位置を示すタイムコード
および上記映像素材の長さを示す長さ情報であって、上
記遠隔編集端末は、上記ファイルから上記識別情報、上
記タイムコードおよび上記長さ情報を取り出し、取り出
されたこれらの情報に基づき上記編集を行い上記編集結
果データを生成することを特徴とする遠隔編集システ
ム。 - 【請求項25】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を行うようにした遠隔編集方法
において、 映像素材を映像アーカイブに蓄積するステップと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて該映像素材を用いた編集に必要な
データが上記映像素材の属性情報として記述されるデー
タをデータベースに格納するステップと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあり、上記映像アーカイブに蓄積された上
記映像素材の上記属性情報として記述された上記編集に
必要なデータを用いて上記映像素材の編集を行い、該編
集の結果を示す編集結果データを通信ネットワークによ
り遠隔編集端末より送信する送信のステップと、 上記送信のステップにより送信された上記編集結果情報
に基づき、上記映像アーカイブから映像素材を入手し、
入手された該映像素材に対して編集装置により編集を行
うステップとを有し、 上記編集に必要なデータは、上記共通化された検索用語
を用いて記述されたファイルで上記遠隔編集装置に供給
され、上記編集装置による上記編集は、上記編集結果情
報に基づき自動的に行うことが可能とされたことを特徴
とする遠隔編集方法。 - 【請求項26】 映像素材を用いた編集を行う編集装置
において、 映像素材が蓄積される映像アーカイブおよび上記映像ア
ーカイブに蓄積された上記映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し、映像データ
ベースを世界共通に利用するために共通化された検索用
語を用いて該映像素材を用いた編集に必要なデータが上
記映像素材の属性情報として記述されるデータが格納さ
れるデータベースと地理的に離れた場所にある、上記映
像アーカイブに蓄積された上記映像素材の上記属性情報
として記述された上記編集に必要なデータを用いて上記
映像素材の編集を行う遠隔編集端末から送信された、該
編集の結果を示す編集結果データを通信ネットワークを
介して受信する受信手段と、 上記受信手段により受信された上記編集結果データに基
づき、上記映像アーカイブからの映像素材の入手および
入手された映像素材に対する編集を行う編集手段とを有
し、 上記編集手段による編集は、上記編集結果データに基づ
き自動的に行うことが可能とされたことを特徴とする編
集装置。 - 【請求項27】 請求項26に記載の編集装置におい
て、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報、上記映像素材の開始位置を示すタイムコード
および上記映像素材の長さを示す長さ情報であることを
特徴とする編集装置。 - 【請求項28】 映像素材を用いた編集を行う編集方法
において、 映像素材が蓄積される映像アーカイブおよび上記映像ア
ーカイブに蓄積された上記映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し、映像データ
ベースを世界共通に利用するために共通化された検索用
語を用いて該映像素材を用いた編集に必要なデータが上
記映像素材の属性情報として記述されるデータが格納さ
れるデータベースと地理的に離れた場所にある、上記映
像アーカイブに蓄積された上記映像素材の上記属性情報
として記述された上記編集に必要なデータを用いて上記
映像素材の編集を行う遠隔編集端末から送信された、該
編集の結果を示す編集結果データを通信ネットワークを
介して受信する受信のステップと、 上記受信のステップにより受信された上記編集結果デー
タに基づき、上記映像アーカイブからの映像素材の入手
および入手された該映像素材に対する編集を行う編集の
ステップとを有し、 上記編集のステップによる編集は、上記編集結果データ
に基づき自動的に行うことが可能とされたことを特徴と
する編集方法。 - 【請求項29】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を行うようにした遠隔編集端末
において、 映像アーカイブに蓄積された映像素材の、該映像素材が
全体および部分に分けられたそれぞれに対し、映像デー
タベースを世界共通に利用するために共通化された検索
用語を用いて該映像素材を用いた編集に必要なデータが
記述される属性情報を用いて映像素材の編集を行う編集
手段と、 上記編集手段による編集の結果を編集装置に対して通信
ネットワークを介して送信する送信手段とを有し、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあることを特徴とする遠隔編集端末。 - 【請求項30】 請求項29に記載の遠隔編集端末にお
いて、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報、上記映像素材の開始位置を示すタイムコード
および上記映像素材の長さを示す長さ情報であることを
特徴とする遠隔編集端末。 - 【請求項31】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を遠隔編集端末で行う遠隔編集
方法において、 映像アーカイブに蓄積された映像素材の、該映像素材が
全体および部分に分けられたそれぞれに対し、映像デー
タベースを世界共通に利用するために共通化された検索
用語を用いて該映像素材を用いた編集に必要なデータが
記述される属性情報を用いて、上記映像アーカイブおよ
び上記データベースと地理的に離れた場所にある遠隔編
集端末で上記映像素材の編集を行う編集のステップと、 上記編集のステップによる編集の結果を編集装置に対し
て通信ネットワークを介して送信する送信のステップと
を有することを特徴とする遠隔編集方法。 - 【請求項32】 映像データベースを世界共通に利用す
るために共通化された検索用語で記述された映像素材の
属性情報を記憶する映像素材情報記憶装置において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて検索に必要な
データが上記映像素材の属性情報として記述されると共
に、上記映像素材に対応する静止画および音声が埋め込
まれたデータが記憶されることを特徴とする映像素材情
報記憶装置。 - 【請求項33】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記憶装
置。 - 【請求項34】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材の内容に対応
したジャンル情報であることを特徴とする映像素材情報
記憶装置。 - 【請求項35】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材に対して付与
されたタイトル名であることを特徴とする映像素材情報
記憶装置。 - 【請求項36】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記憶装
置。 - 【請求項37】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材が撮影された
場所を示す撮影場所情報であることを特徴とする映像素
材情報記憶装置。 - 【請求項38】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材が撮影された
日時を示す撮影日時情報であることを特徴とする映像素
材情報記憶装置。 - 【請求項39】 請求項32に記載の映像素材情報記憶
装置において、 上記静止画および音声は、上記映像素材の全体および/
または部分の任意の位置に対応する静止画および音声で
あることを特徴とする映像素材情報記憶装置。 - 【請求項40】 請求項32に記載の映像素材情報記憶
装置において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記憶装置。 - 【請求項41】 映像データベースを世界共通に利用す
るために共通化された検索用語で記述された映像素材の
属性情報を記憶する映像素材情報記憶方法において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて検索に必要な
データが上記映像素材の属性情報として記述されると共
に、上記映像素材に対応する静止画および音声が埋め込
まれたデータが映像素材情報記憶装置に記憶されること
を特徴とする映像素材情報記憶方法。 - 【請求項42】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記憶装置において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて上記映像素材
を用いた編集に必要なデータが上記映像素材の属性情報
として記述されたデータが記憶されることを特徴とする
映像素材情報記憶装置。 - 【請求項43】 請求項42に記載の映像素材情報記憶
装置において、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記憶装
置。 - 【請求項44】 請求項42に記載の映像素材情報記憶
装置において、 上記編集に必要なデータは、上記映像素材の開始位置を
示すタイムコードであることを特徴とする映像素材情報
記憶装置。 - 【請求項45】 請求項42に記載の映像素材情報記憶
装置において、 上記編集に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記憶装
置。 - 【請求項46】 請求項42に記載の映像素材情報記憶
装置において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記憶装置。 - 【請求項47】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記憶装置に映像素材情報を記憶する映像
素材情報記憶方法において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて上記映像素材
を用いた編集に必要なデータが上記映像素材の属性情報
として記述されたデータが映像素材情報記憶装置に記憶
されることを特徴とする映像素材情報記憶方法。 - 【請求項48】 映像素材が蓄積された映像アーカイブ
に対し、映像アーカイブと地理的に離れた場所から映像
素材を検索し、検索された映像素材を用いて編集を行う
遠隔編集システムにおいて、 映像アーカイブに蓄積された映像素材のテキストベース
の属性情報と、該映像素材に対応する静止画および音声
が登録されたデータベースと、 上記映像アーカイブと地理的に離れた場所にあり、上記
映像アーカイブに蓄積された上記映像素材を上記データ
ベースに登録された上記属性情報と上記静止画および音
声とに基づき検索すると共に、該検索による検索結果に
基づき上記映像素材を用いた編集を行い、該編集の結果
を編集結果データとして出力する検索編集端末と、 上記検索編集端末から出力された上記編集結果データに
基づき、上記映像アーカイブから上記映像素材を入手
し、入手された該映像素材を用いて実際の編集を行う編
集装置とを有することを特徴とする遠隔編集システム。 - 【請求項49】 請求項48に記載の遠隔編集システム
において、 上記データベースに登録される上記属性情報、ならび
に、上記静止画および音声は、映像データベースを世界
共通に利用するために検索用語を共通化したデータベー
スに用いられる映像素材情報記述方法に基づき記述さ
れ、上記検索編集端末による上記データベースの検索結
果は、上記映像素材情報記述方法に基づき上記属性情報
と上記静止画および音声とが記述されたファイルとして
上記データベースから上記検索編集端末に送信されるこ
とを特徴とする遠隔編集システム。 - 【請求項50】 映像素材が蓄積された映像アーカイブ
に対し、映像アーカイブと地理的に離れた場所から映像
素材を検索し、検索された映像素材を用いて編集を行う
遠隔編集方法において、 映像アーカイブに蓄積された映像素材のテキストベース
の属性情報と、該映像素材に対応する静止画および音声
がデータベースに登録されるステップと、 上記映像アーカイブと地理的に離れた場所にある検索編
集端末により、上記映像アーカイブに蓄積された上記映
像素材が上記データベースに登録された上記属性情報と
上記静止画および音声とに基づき検索されると共に、該
検索による検索結果に基づき上記映像素材を用いた編集
が行われ、該編集の結果が編集結果データとして出力さ
れるステップと、 上記検索編集端末から出力された上記編集結果データに
基づき、上記映像アーカイブから上記映像素材を入手
し、入手された該映像素材を用いて編集装置で実際の編
集を行うステップとを有することを特徴とする遠隔編集
方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002060328A JP2003256432A (ja) | 2002-03-06 | 2002-03-06 | 映像素材情報記述方法、遠隔検索システム、遠隔検索方法、編集装置および遠隔検索端末、遠隔編集システム、遠隔編集方法、編集装置および遠隔編集端末、ならびに、映像素材情報記憶装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002060328A JP2003256432A (ja) | 2002-03-06 | 2002-03-06 | 映像素材情報記述方法、遠隔検索システム、遠隔検索方法、編集装置および遠隔検索端末、遠隔編集システム、遠隔編集方法、編集装置および遠隔編集端末、ならびに、映像素材情報記憶装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003256432A true JP2003256432A (ja) | 2003-09-12 |
JP2003256432A5 JP2003256432A5 (ja) | 2005-07-28 |
Family
ID=28669730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002060328A Pending JP2003256432A (ja) | 2002-03-06 | 2002-03-06 | 映像素材情報記述方法、遠隔検索システム、遠隔検索方法、編集装置および遠隔検索端末、遠隔編集システム、遠隔編集方法、編集装置および遠隔編集端末、ならびに、映像素材情報記憶装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003256432A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005119680A1 (en) * | 2004-05-28 | 2005-12-15 | Intel Corporation | Method and apparatus to edit a media file |
WO2006001238A1 (ja) * | 2004-06-23 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd. | アーカイブ管理装置、アーカイブ管理システム及びアーカイブ管理プログラム |
WO2006016185A1 (en) * | 2004-08-13 | 2006-02-16 | Rpptv Limited | Remote program production |
EP1758398A1 (en) | 2005-08-23 | 2007-02-28 | Syneola SA | Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability |
JP2007241496A (ja) * | 2006-03-07 | 2007-09-20 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
JP2008219908A (ja) * | 2008-03-21 | 2008-09-18 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US7505904B2 (en) | 2004-12-20 | 2009-03-17 | Canon Kabushiki Kaisha | Database construction apparatus and method |
US7814416B2 (en) | 2004-01-13 | 2010-10-12 | Sony Corporation | Information processing apparatus, method, program, and system for data searching using linking information |
JP2011003193A (ja) * | 2009-06-19 | 2011-01-06 | Ipeer Multimedia Internatl Ltd | マルチメディア識別システム及び方法 |
US8713444B2 (en) | 2005-02-15 | 2014-04-29 | Microsoft Corporation | System and method for browsing tabbed-heterogeneous windows |
JP2017503394A (ja) * | 2014-12-14 | 2017-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 映像処理方法、映像処理装置および表示装置 |
US9973728B2 (en) | 2014-12-14 | 2018-05-15 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
JP7319475B1 (ja) * | 2022-03-30 | 2023-08-01 | 株式会社Robon | メタデータ管理システム、メタデータ管理方法、プログラム |
-
2002
- 2002-03-06 JP JP2002060328A patent/JP2003256432A/ja active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7814416B2 (en) | 2004-01-13 | 2010-10-12 | Sony Corporation | Information processing apparatus, method, program, and system for data searching using linking information |
US7844648B2 (en) | 2004-01-13 | 2010-11-30 | Sony Corporation | Information processing apparatus, information processing method, and program facilitating editing and checking of data |
WO2005119680A1 (en) * | 2004-05-28 | 2005-12-15 | Intel Corporation | Method and apparatus to edit a media file |
WO2006001238A1 (ja) * | 2004-06-23 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd. | アーカイブ管理装置、アーカイブ管理システム及びアーカイブ管理プログラム |
JP2006042317A (ja) * | 2004-06-23 | 2006-02-09 | Matsushita Electric Ind Co Ltd | アーカイブ管理装置、アーカイブ管理システム及びアーカイブ管理プログラム |
WO2006016185A1 (en) * | 2004-08-13 | 2006-02-16 | Rpptv Limited | Remote program production |
GB2433810A (en) * | 2004-08-13 | 2007-07-04 | Rpptv Ltd | Remote program production |
US7505904B2 (en) | 2004-12-20 | 2009-03-17 | Canon Kabushiki Kaisha | Database construction apparatus and method |
US9626079B2 (en) | 2005-02-15 | 2017-04-18 | Microsoft Technology Licensing, Llc | System and method for browsing tabbed-heterogeneous windows |
US8713444B2 (en) | 2005-02-15 | 2014-04-29 | Microsoft Corporation | System and method for browsing tabbed-heterogeneous windows |
US8280827B2 (en) | 2005-08-23 | 2012-10-02 | Syneola Luxembourg Sa | Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability |
EP1758398A1 (en) | 2005-08-23 | 2007-02-28 | Syneola SA | Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability |
JP2007241496A (ja) * | 2006-03-07 | 2007-09-20 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
US8170269B2 (en) | 2006-03-07 | 2012-05-01 | Sony Corporation | Image processing apparatus, image processing method, and program |
JP4618166B2 (ja) * | 2006-03-07 | 2011-01-26 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2008219908A (ja) * | 2008-03-21 | 2008-09-18 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP4591527B2 (ja) * | 2008-03-21 | 2010-12-01 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2011003193A (ja) * | 2009-06-19 | 2011-01-06 | Ipeer Multimedia Internatl Ltd | マルチメディア識別システム及び方法 |
US9973728B2 (en) | 2014-12-14 | 2018-05-15 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
JP2017503394A (ja) * | 2014-12-14 | 2017-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 映像処理方法、映像処理装置および表示装置 |
US20180227539A1 (en) | 2014-12-14 | 2018-08-09 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
US10284808B2 (en) | 2014-12-14 | 2019-05-07 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
US10567700B2 (en) | 2014-12-14 | 2020-02-18 | SZ DJI Technology Co., Ltd. | Methods and systems of video processing |
US10771734B2 (en) | 2014-12-14 | 2020-09-08 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
US11095847B2 (en) | 2014-12-14 | 2021-08-17 | SZ DJI Technology Co., Ltd. | Methods and systems of video processing |
JP7319475B1 (ja) * | 2022-03-30 | 2023-08-01 | 株式会社Robon | メタデータ管理システム、メタデータ管理方法、プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4652462B2 (ja) | メタデータ処理方法 | |
JP5340517B2 (ja) | マルチメディア情報に対するメタ・ディスクリプタ | |
CN100385559C (zh) | 标识和处理音频和/或视频材料的处理器、系统和方法 | |
US7809760B2 (en) | Multimedia integration description scheme, method and system for MPEG-7 | |
US7181757B1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
JP2001028722A (ja) | 動画像管理装置及び動画像管理システム | |
KR100371813B1 (ko) | 효율적인 비디오 개관 및 브라우징을 위한 요약 비디오 기술구조 및 이의 기록매체, 이를 이용한 요약 비디오 기술 데이터 생성 방법 및 생성시스템, 요약 비디오 기술 데이터의 브라우징 장치 및 브라우징 방법. | |
JP2002532918A (ja) | 映像記述システムおよび方法 | |
CN101840719B (zh) | 用于包括元数据的存储介质的再现和/或记录设备 | |
CN106790558B (zh) | 一种影片多版本整合存储和提取系统 | |
JP2003256432A (ja) | 映像素材情報記述方法、遠隔検索システム、遠隔検索方法、編集装置および遠隔検索端末、遠隔編集システム、遠隔編集方法、編集装置および遠隔編集端末、ならびに、映像素材情報記憶装置および方法 | |
JP2001306599A (ja) | 映像の階層的管理方法および階層的管理装置並びに階層的管理プログラムを記録した記録媒体 | |
JP4732418B2 (ja) | メタデータ処理方法 | |
KR100319160B1 (ko) | 사건구간을기반으로하는동영상검색방법과검색데이타구성방법 | |
JP2006042317A (ja) | アーカイブ管理装置、アーカイブ管理システム及びアーカイブ管理プログラム | |
CN106791539B (zh) | 一种电影数字节目的存储和提取方法 | |
JP2004334992A (ja) | 記録装置及び再生装置 | |
JP4652389B2 (ja) | メタデータ処理方法 | |
JP3690313B2 (ja) | 動画像管理装置、情報入力方法および動画像検索方法 | |
KR100518846B1 (ko) | 내용기반 동영상 검색 및 브라우징을 위한 동영상 데이타 구성방법 | |
Adami et al. | ToCAI: a framework for Indexing and Retrieval of Multimedia Documents | |
Izquierdo et al. | Bringing user satisfaction to media access: The IST BUSMAN Project | |
Chen et al. | MediaManager: a distributed multimedia management system for content-based retrieval, authoring and presentation | |
Wakita et al. | Extended Package-Segment Model and Adaptable Applications | |
Hasegawa et al. | Content Production Technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040513 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040517 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040909 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050422 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050422 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080304 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080321 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080501 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080708 |