JP4359085B2 - Content feature extraction device - Google Patents
Content feature extraction device Download PDFInfo
- Publication number
- JP4359085B2 JP4359085B2 JP2003186107A JP2003186107A JP4359085B2 JP 4359085 B2 JP4359085 B2 JP 4359085B2 JP 2003186107 A JP2003186107 A JP 2003186107A JP 2003186107 A JP2003186107 A JP 2003186107A JP 4359085 B2 JP4359085 B2 JP 4359085B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- content
- feature amount
- distribution
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、ネットワークや記録媒体を介して流通しているコンテンツの特徴量抽出し、この抽出した特徴量を不正流通検出や類似検索に利用するコンテンツ特徴量抽出装置に関する。
【0002】
【従来の技術】
近年のネットワークの高速化や記録媒体の大容量化に伴い、映像データ、音声データ等からなる大容量のデジタルコンテンツ(以下、コンテンツとする)を、高速のネットワークである公衆通信回線(光ファイバ通信回線、ADSL等)により配信、または、大容量の記録媒体である光ディスク(DVD等)により流通させることを、誰でも容易に行える環境が整備されている。
【0003】
また、ネットワークを介して配信されたコンテンツは蓄積が容易であり、記録媒体に記録されたコンテンツは配送が容易であるので、当該コンテンツの著作権者(以下、単に「著作権者」とする)や当該コンテンツを配信する配信事業者(以下、「コンテンツプロバイダ」とする)の許可を得ることなく、蓄積したコンテンツを複製した後、ネットワークを介して再配信したり、当該コンテンツを改竄(かいざん)したりするなど、不正行為を行うことが容易である。この不正行為がコンテンツを流通させる上での大きな阻害要因となっている。
【0004】
特に、著作権者やコンテンツプロバイダの許可(許諾)を得ることなく、コンテンツの複製、再配信(再送信)を行う不正行為よる不正流通コンテンツは、著作権者やコンテンツプロバイダに多大な金銭的不利益をもたらすので、このような不正流通コンテンツを高精度、且つ、短時間に検出し、不正行為の抑止を図ることができる技術的な手段が模索されている。
【0005】
また、インターネットの普及やデジタル情報機器(ストレージ装置等)の高性能化に伴い、大容量のコンテンツである動画像コンテンツ(大容量マルチメディアデータ)の利用が一般化している。このため、インターネット上やストレージ装置内に保持された膨大な数のコンテンツの中から、利用者が要望する特定のコンテンツを効率よく検索する手段が求められている。
【0006】
不正流通コンテンツの検出や、特定のコンテンツの検索を行うために、コンテンツを構成する映像データの輝度や色情報等から当該コンテンツの特徴を表す特徴量データを抽出し、この抽出した特徴量データをコンテンツ間の同一性や類似性の判定(検定)に利用する特徴量抽出技術が有効な手段として提案されている。
【0007】
従来の特徴量抽出技術の一つに、例えば、非特許文献1に記載されているように、放送番組の輝度及び色信号の時間軌跡を特徴量とし、この特徴量を手がかりにして動画像検索を実現するものがある。この手法では、まず、テレビ放送番組をMPEG−2に変換し、MPEG−2ストリームの各イントラフレームのDC成分を用いて、フレームの平均色情報を求める。続いて、このフレームの平均色情報を3次元の色空間に配置し、このフレームの平均色情報の軌跡を時間軸に投影し波形情報に変換する。そして、この波形情報で特定される波形を拡大縮小して、比較することによって動画像検索(動画像の類似検索)を行っている。
【0008】
ここで、図11を参照して、従来の動画像の類似検索を行う際の特徴量抽出方法および比較方法について説明する。
【0009】
この図11は、従来のコンテンツ特徴量抽出装置のブロック図であり、この図11に示したように、コンテンツ特徴量抽出装置101は、動画像データ輝度・色差データ平均化部103と、参照コンテンツ輝度・色差データ平均化部105と、ダイナミックレンジ調整部107と、波形比較部109と、分散値算出部111と、閾値判定部113とを備えている。
【0010】
動画像データ輝度・色差データ平均化部103は、動画像データを入力として、この動画像データの輝度信号(Y)と、色差信号(Cb、Cr)とを用い、これらの信号をフレーム単位で平均化し、特徴量データ(波形)を出力するものである。
【0011】
参照コンテンツ輝度・色差データ平均化部105は、参照コンテンツを入力として、この参照コンテンツの動画像データの輝度信号(Y)と、色差信号(Cb、Cr)とを用い、これらの信号をフレーム単位で平均化し、比較波形データを出力するものである。
【0012】
ダイナミックレンジ調整部107は、動画像データ輝度・色差データ平均化部103から出力された調整対象の波形である特徴量データの最大値および最小値を、参照コンテンツ輝度・色差データ平均化部105から出力された比較波形データの最大値および最小値に合わせるものである。
【0013】
波形比較部109は、ダイナミックレンジ調整部107で最大値および最小値が調整された特徴量データおよび比較波形データの波形を比較する、つまり、各時点における両波形の差分値を、差分データ系列として出力するものである。
【0014】
分散値算出部111は、波形比較部109から出力された差分データ系列から分散値を算出するものである。
【0015】
閾値判定部113は、分散値算出部111で算出された分散値と、予め設定された閾値とに基づいて、閾値判定を行って、両波形(特徴量データ、比較波形データ)の一致、不一致を判定し、動画像データと参照コンテンツとの類似性を検出するものである。
【0016】
また、コンテンツの特徴量を抽出する従来の技術に関して、例えば、ISO/IEC15938−3「MPEG−7 ビジュアル記述」では、映像データ(映像信号)の特徴を記述し、この記述した特徴を抽出する特徴量抽出アルゴリズムが規定されている。このビジュアル記述は、主として、映像データ(映像信号)ベースでの類似検索・フィルタリングのために用いられることが想定されており、このビジュアル記述の中で、映像データ上の色や形状等の低レベルの特徴量を記述する具体的なものとして、色の空間的な配置を周波数軸上で表現する「色配置記述(Color Layout)」が定義されている。
【0017】
この色配置記述は、人間の視覚特性を反映させたもので、コンテンツを構成する各画像フレームに対して、高精度の検索を可能にしている。つまり、色配置記述によって、コンテンツ同士の類似性を検定する際に、不要な情報を周波数軸上で削除することができる。その結果、コンテンツの特徴を記述するデータ量が減少する。
【0018】
【非特許文献1】
高橋、富永、杉浦、横井、寺島著“特徴的な動画像の画紋を用いた高能率動画像検索法”画像電子学会誌、第29巻、第6号、pp818
−pp825(2000)
【0019】
【発明が解決しようとする課題】
しかしながら、図11に示した従来のコンテンツ特徴量抽出装置101では、時間軸方向の波形データである特徴量データを動画像データの特徴量としているため、長時間の放送番組等のコンテンツでは、特徴量データのデータ量が膨大となってしまうという問題がある。
【0020】
また、コンテンツ特徴量抽出装置101では、時間軸上において、直接、特徴量データと比較波形データとを比較しているので、編集されたコンテンツを検定する場合、例えば、放送番組の冒頭、途中または最後の部分が削除され、元々の放送番組と比較して欠落が生じている場合には、コンテンツの同一性または類似性の検出精度が著しく低下するという問題がある。
【0021】
さらに、従来のビジュアル記述では、映像データ中の1フレームの画像データを対象に特徴量抽出を行っているので、このビジュアル記述を動画像データであるコンテンツに適用する場合、特徴量データのデータ量が膨大となり、さらに、編集されたコンテンツに対する耐性(検出精度を保つこと)が考慮されていない、つまり、コンテンツの同一性または類似性の検出精度が著しく低下するという問題がある。
【0022】
そこで、本発明の目的は前記した従来の技術が有する課題を解消し、特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検出精度を維持することができるコンテンツ特徴量抽出装置、コンテンツ特徴量抽出プログラムおよびコンテンツ特徴量抽出方法を提供することにある。
【0023】
【課題を解決するための手段】
本発明は、前記した目的を達成するため、以下に示す構成とした。
請求項1記載のコンテンツ特徴量抽出装置は、コンテンツを提供するコンテンツ提供事業者から提供され、ネットワークまたは記録媒体を介して流通する流通コンテンツを構成する特定の周波数パターンで表される流通コンテンツ特徴量データを抽出すると共に、この流通コンテンツ特徴量データと、前記コンテンツを構成する特定の周波数パターンで表される参照コンテンツ特徴量データとを比較するコンテンツ特徴量抽出装置であって、参照コンテンツ特徴量データ蓄積手段と、流通コンテンツ特徴量データ抽出手段と、特徴量データ比較手段と、を備え、流通コンテンツ特徴量データ抽出手段は、画素データ平均化手段と、データ並べ替え手段と、周波数変換手段と、周波数データ平均化手段と、周波数データ総和算出手段とを有していることを特徴とする。
【0024】
かかる構成によれば、コンテンツ特徴量抽出装置は、参照コンテンツ特徴量データ蓄積手段に予め、コンテンツの特徴量である参照コンテンツ特徴量データを蓄積しており、まず、流通コンテンツ特徴量データ抽出手段によって、ネットワークまたは記録媒体(例えば、光ディスク(DVD等))を介して流通している流通コンテンツを、当該ネットワークまたは当該記録媒体を介して取得し、この取得した流通コンテンツから流通コンテンツ特徴量データを抽出する。これら参照コンテンツ特徴量データまたは流通コンテンツ特徴量データは、コンテンツまたは流通コンテンツを構成する特定の周波数パターン(固有の波形パターン)を示すものであり、例えば、コンテンツまたは流通コンテンツの各画素の色の配置に基づいて、コンテンツまたは流通コンテンツ毎に一義的に決定されるものである。つまり、コンテンツまたは流通コンテンツの各画素は当該コンテンツまたは当該流通コンテンツの一時系列データであり、参照コンテンツ特徴量データまたは流通コンテンツ特徴量データはこの一時系列データから単一のデータとして生成したものである。また、これら参照コンテンツ特徴量データまたは流通コンテンツ特徴量データは、MPEG−21で提案されている“Finger Print”(画紋)に相当するものである。
【0025】
そして、このコンテンツ特徴量抽出装置は、特徴量データ比較手段によって、参照コンテンツ特徴量データ蓄積手段に蓄積している参照コンテンツ特徴量データと、流通コンテンツ特徴量データ抽出手段で抽出された流通コンテンツ特徴量データとを比較する。この特徴量データ比較手段による比較した結果に基づいて、例えば、流通コンテンツが不正に複写され再送信されたものである場合に、当該流通コンテンツとコンテンツプロバイダの提供したコンテンツとが同一のものであることを特定することができる。
【0027】
また、コンテンツ特徴量抽出装置の流通コンテンツ特徴量データ抽出手段は、画素データ平均化手段によって、流通コンテンツに含まれる各画素に関する画素データを、当該流通コンテンツを構成するフレーム単位またはフィールド単位で平均化し、データ並べ替え手段によって、画素データ平均化手段で平均化された所定単位画素データを並べ替えて時系列データとする。なお、流通コンテンツに含まれる各画素に関する画素データは、輝度データや連続するフレームにおける各画素の色差データ(Cb、Cr等)や、色信号データ(RGB)等であって、これらの組み合わせであってもよい。
【0028】
続いて、このコンテンツ特徴量抽出装置の流通コンテンツ特徴量データ抽出手段は、周波数変換手段によって、データ並べ替え手段で並べ替えられた時系列データを一定長毎に周波数変換し、周波数データとし、この周波数データを周波数データ平均化手段によって、周波数毎に平均化する。そして、このコンテンツ特徴量抽出装置の流通コンテンツ特徴量データ抽出手段は、周波数データ総和算出手段によって、周波数データ平均化手段で平均化された平均化周波数データを周波数全域に亘って総和し、この総和した平均化周波数データを特徴量データとする。つまり、このコンテンツ特徴量抽出装置では、流通コンテンツ特徴量データ抽出手段の周波数変換手段によって、時系列データを周波数データにすることによって、コンテンツの一時系列のデータである輝度データから単一のデータである周波数データを生成しており、この周波数データを平均化し、周波数全域に亘る総和を求めて、この総和を特徴量データ(流通コンテンツ特徴量データ)としている。
【0029】
請求項2記載のコンテンツ特徴量抽出装置は、請求項1に記載のコンテンツ特徴量抽出装置において、前記データ並べ替え手段は、前記所定単位画素データを一定間隔毎に選択して配列し、この配列を1つのフレーム単位または1つのフィールド単位ずつ順次ずらしながら繰り返して、並べ替えることを特徴とする。
【0030】
かかる構成によれば、コンテンツ特徴量抽出装置の流通コンテンツ特徴量データ抽出手段は、データ並べ替え手段によって、所定単位画素データを一定間隔毎に選択して配列し、この配列を1つのフレーム単位または1つのフィールド単位ずつ順次ずらしながら繰り返して並べることで、新たな時系列データ(データ系列)を得ることができる。
【0031】
請求項3記載のコンテンツ特徴量抽出装置は、請求項1又は請求項2に記載のコンテンツ特徴量抽出装置において、前記コンテンツおよび前記流通コンテンツが複数のシーンで構成されており、前記コンテンツの特徴量である参照コンテンツ特徴量データが前記シーンに対応する参照シーン特徴量データを含み、前記流通コンテンツの特徴量である流通コンテンツ特徴量データが前記シーンに対応する流通シーン特徴量データを含むことを特徴とする。
【0032】
かかる構成によれば、コンテンツ特徴量抽出装置は、複数のシーンからなるコンテンツおよび流通コンテンツを取り扱うことが可能であり、参照コンテンツ特徴量データが各シーンに対応する参照シーン特徴量データを含み、流通コンテンツ特徴量データが各シーンに対応する流通シーン特徴量データを含んでいるので、これらの参照シーン特徴量データおよび流通シーン特徴量データに基づいて、所望する流通コンテンツの特定するシーンを検索することができる。
【0033】
請求項4記載のコンテンツ特徴量抽出装置は、請求項1から請求項3のいずれか一項に記載のコンテンツ特徴量抽出装置において、前記特徴量データ比較手段は、前記流通コンテンツの流通コンテンツ特徴量データと前記コンテンツの参照コンテンツ特徴量データとの差の絶対値と、予め設定した特徴量データ同一性閾値とに基づいて、前記流通コンテンツと前記コンテンツとの同一性を検出する同一性検出手段を有していることを特徴とする。
【0034】
かかる構成によれば、コンテンツ特徴量抽出装置は、同一性検出手段によって、特徴量データ同一性閾値に基づいて、流通コンテンツとコンテンツとの同一性を検出する。これによって、不正流通コンテンツを検出することができる。
【0035】
請求項5記載のコンテンツ特徴量抽出装置は、請求項1から請求項4のいずれか一項に記載のコンテンツ特徴量抽出装置において、前記特徴量データ比較手段は、前記流通コンテンツの流通コンテンツ特徴量データと前記コンテンツの参照コンテンツ特徴量データとの差の絶対値と、予め設定した特徴量データ類似性閾値とに基づいて、前記流通コンテンツと前記コンテンツとの類似性を検出する類似性検出手段を有していることを特徴とする。
【0036】
かかる構成によれば、コンテンツ特徴量抽出装置は、類似性検出手段によって、特徴量データ類似性閾値に基づいて、流通コンテンツとコンテンツとの類似性を検出する。これによって、コンテンツと似かよった流通コンテンツを検索することができる。
【0041】
【発明の実施の形態】
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
(コンテンツ特徴量抽出装置の構成)
図1はコンテンツ特徴量抽出装置のブロック図である。この図1に示すように、コンテンツ特徴量抽出装置1は、参照コンテンツ(参照番組)の特徴量である参照コンテンツ特徴量データを抽出して蓄積していると共に、流通コンテンツの特徴量である流通コンテンツ特徴量データを抽出し、これらの特徴量データを比較して、不正に流通している不正流通コンテンツの検出や番組(コンテンツの一種)の特定シーンを検索するもので、参照コンテンツ特徴量データ抽出・管理部3と、流通コンテンツ特徴量データ抽出・比較部5とを備えている。
【0042】
これら参照コンテンツ特徴量データまたは流通コンテンツ特徴量データは、コンテンツまたは流通コンテンツを構成する特定の周波数パターン(固有の波形パターン)を示すものであり、参照コンテンツまたは流通コンテンツを特定する特徴量、つまり、人物を特定する指紋に当たる「画紋」といえるものである。例えば、参照コンテンツ特徴量データまたは流通コンテンツ特徴量データは、参照コンテンツまたは流通コンテンツの各画素の色(画素データ)の配置に基づいて、コンテンツまたは流通コンテンツ毎に一義的に決定されるものである(詳細は後記する)。
【0043】
なお、このコンテンツ特徴量抽出装置1はネットワークに接続される一般的なサーバをベースに構成されたものであり、各部、各手段は、当該サーバのハードウェア資源(CPU、メモリ、ハードディスク等)を、新たに記述したソフトウェアによって協同的に活用し、この活用した結果を機能的に特定したものである。
【0044】
また、この実施の形態では、これら参照コンテンツ特徴量データ抽出・管理部3と流通コンテンツ特徴量データ抽出・比較部5とは、コンテンツ特徴量抽出装置1の各部として構成されているが、これらは単体の装置(サーバ)とし、データおよび制御信号を送受信可能に構成してもよい。
【0045】
参照コンテンツ特徴量データ抽出・管理部3は、参照コンテンツ(参照番組)の特徴量である参照コンテンツ特徴量データを抽出して蓄積するもので、参照コンテンツ特徴量データ抽出手段7と、参照コンテンツ特徴量データ蓄積手段9と、特徴量データ管理手段11とを備えている。参照コンテンツ(参照番組)が請求項に記載したコンテンツに相当しており、不正流通コンテンツの比較対象、検索対象となる一つまたは複数の参照用のコンテンツ(番組)のことを指している。
【0046】
参照コンテンツ特徴量データ抽出手段7は、参照コンテンツの特徴量である参照コンテンツ特徴量データを当該参照コンテンツから抽出して、参照コンテンツ特徴量データ蓄積手段9に出力するものである。この参照コンテンツ特徴量データ抽出手段7における参照コンテンツ特徴量データの抽出は、後記する流通コンテンツ特徴量データ抽出手段と同様の抽出方法によって行われる。参照コンテンツ特徴量データは、参照コンテンツの各フレーム中の輝度データの当該フレーム毎に平均化したものを、時系列に並べ替えて周波数変換し、この周波数に変換した周波数データを総和したものである。つまり、参照コンテンツ特徴量データは、参照コンテンツ(参照番組)の一時系列データ(各フレームの輝度データ)を単一のものとして取り扱えるようにしたものであるといえる。
【0047】
なお、この実施の形態では、参照コンテンツ特徴量データは、参照コンテンツの各フレーム中の輝度データを使用して求めたが、例えば、色差データ(Cb、Cr等)や色信号データ(RGB)を使用して求めてもよい。つまり、参照コンテンツ特徴量データは、参照コンテンツに含まれている画素に関する画素データに基づいて求めることができる。
【0048】
また、参照コンテンツが複数のシーンから構成されている場合には、参照コンテンツ特徴量データは、各シーンに対応するように求められる。つまり、各シーン毎に振られているメタデータに基づいて、各シーン毎の特徴量である参照シーン特徴量データが割り当てられる。
【0049】
参照コンテンツ特徴量データ蓄積手段9は、参照コンテンツ特徴量データ抽出手段7で抽出された参照コンテンツ特徴量データを蓄積するものである。この参照コンテンツ特徴量データ蓄積手段9は、特徴量データ管理手段11の管理下にあるもので、この特徴量データ管理手段11からの出力された制御信号(参照コンテンツ特徴量データ順次出力信号)に基づいて、蓄積している参照コンテンツ特徴量データを流通コンテンツ特徴量データ抽出・比較部5の特徴量データ比較手段17(後記する)に、順次出力するものである。
【0050】
特徴量データ管理手段11は、参照コンテンツ特徴量データ抽出・管理部3の制御を司るもので、流通コンテンツ特徴量データ抽出・比較部5から出力された制御信号(参照コンテンツ特徴量データ出力開始信号)に基づいて、当該参照コンテンツ特徴量データ抽出・管理部3(参照コンテンツ特徴量データ蓄積手段9)から参照コンテンツ特徴量データを出力するものである。
【0051】
流通コンテンツ特徴量データ抽出・比較部5は、ネットワーク(インターネット、イントラネット等)や記録媒体(光ディスク(DVD等)、VTR等)を介して、流通している流通コンテンツ(検索対象番組/シーン)の特徴量である流通コンテンツ特徴量データを抽出し、この流通コンテンツ特徴量データと参照コンテンツ特徴量データとを比較するもので、流通コンテンツ特徴量データ抽出手段13と、制御手段15と、特徴量データ比較手段17と、結果表示手段19とを備えている。
【0052】
流通コンテンツ特徴量データ抽出手段13は、入力された流通コンテンツ(検索対象番組/シーン)の特徴量である流通コンテンツ特徴量データを抽出するもので、輝度データ平均化手段13aと、データ並べ替え手段13bと、周波数変換手段13cと、周波数データ平均化手段13dと、周波数データ総和算出手段13eとを備えている。この流通コンテンツ特徴量データ抽出手段13は、制御手段15から出力された制御信号(流通コンテンツ特徴量データ出力開始信号)に基づいて、流通コンテンツから流通コンテンツ特徴量データの抽出を開始する。
【0053】
なお、流通コンテンツが複数のシーンから構成されている場合には、流通コンテンツ特徴量データは、各シーンに対応するように求められる。つまり、各シーン毎に振られているメタデータに基づいて、各シーン毎の特徴量である流通シーン特徴量データが割り当てられる。
【0054】
輝度データ平均化手段13aは、流通コンテンツの動画像データを、連続するフレーム(フィールド)における各画素の輝度値(輝度データ)として入力し、この輝度値(輝度データ)を平均化した平均輝度値(所定単位輝度データ)を求めるもの、つまり、輝度値(輝度データ)の平均化処理を行うものである。
【0055】
この輝度データ平均化手段13aによる輝度値(輝度データ)の平均化処理では、各フレーム(各フィールド)について、このフレーム(フィールド)中の全画素の輝度値(輝度データ)の平均値を算出している。ここでは、輝度値(輝度データ)の平均値として、全画素の輝度値(輝度データ)の総和を全画素数で除算した値を用いている。
【0056】
また、任意のブロックサイズ(例えば、水平8画素×垂直8ライン)の小ブロックに分割した全ブロックに対してDCT(Discrete Cosine Transform;離散コサンイン変換)演算処理を施し、小ブロック毎のDC(直流)係数を求め、このDC(直流)係数の平均値を用いてもよい。
【0057】
或いは、各フレーム(フィールド)における全画素を任意数のブロックに分割し、各ブロックにおける全画素の輝度値を平均化して、縮小画像を作成し、当該縮小画像に対してDCT演算処理を施してDC係数を求めてもよい。
【0058】
なお、この実施の形態では、流通コンテンツ特徴量データ抽出手段13へ入力された流通コンテンツの連続するフレーム(フィールド)における各画素の輝度値(輝度データ)としているが、これに限定されず、例えば、連続するフレームにおける各画素の色差データ(Cb、Cr)や色信号データ(RGB)等を用いてもよく、また、これら輝度データ、色差データ、色信号データの任意の組み合わせであってもよい。この輝度値(輝度データ)が請求項に記載した画素データに、平均輝度値(所定単位輝度データ)が所定単位画素データに相当するものである。
【0059】
データ並べ替え手段13bは、輝度データ平均化手段13aで求められた平均輝度値(所定単位輝度データ)を時系列に並べ替えて新規データ系列(時系列データ)とする、データ並べ替え処理を行うものである。つまり、このデータ並べ替え手段13bは、一定間隔毎に平均輝度値(所定単位輝度データ)を選択して配列し、この配列を1つのフレーム単位または1つのフィールド単位ずつ順次ずらしながら繰り返して並べ替える。以下、新規データ系列(時系列データ)の1周期分を平均輝度値サンプル系列とする。なお、このデータ並べ替え手段13bにおける平均輝度値(所定単位輝度データ)の並べ替えの詳細(概念)については後記する(図5を使用)。
【0060】
周波数変換手段13cは、データ並べ替え手段13bで並べ替えられた新規データ系列(時系列データ)の複数の平均輝度値サンプル系列に対して、一定長毎にDFT(Discrete Fourier Transform;離散フーリエ変換)またはFFT(Fast Fourier Transform;高速フーリエ変換)等の周波数変換処理を施すものである。この周波数変換手段13cで周波数変換された新規データ系列(時系列データ)を周波数データとする。
【0061】
なお、輝度データ平均化手段13aによる輝度値(輝度データ)の平均化処理におけるフレーム(フィールド)、データ並べ替え手段13bによるデータ並べ替え処理における平均輝度値(所定単位輝度データ)の選択間隔、周波数変換手段13cによる周波数変換処理における平均輝度値サンプル系列は、コンテンツの同一性または類似性の検出精度や、コンテンツ特徴量抽出装置1の処理速度を勘案して決定されるものである。
【0062】
周波数データ平均化手段13dは、周波数変換手段13cで周波数変換された複数の周波数データを周波数毎に平均化した周波数特性データ(平均化周波数データ)を求める、周波数データ平均化処理を行うものである。この周波数データ平均化手段13dは、求めた平均化周波数データを周波数データ総和算出手段13eに出力する。なお、周波数特性データ(平均化周波数データ)は、周波数における対数表現による電力と、フレーム周波数で正規化した周波数とによって表される。
【0063】
周波数データ総和算出手段13eは、周波数データ平均化手段13dで求められた周波数特性データ(平均化周波数データ)を周波数全域に亘って総和した総和平均化周波数データを、流通コンテンツ特徴量データとして、特徴量データ比較手段17に出力するものである。つまり、この周波数データ総和算出手段13eでは、周波数全域に亘って、全電力の対数値の総和を算出して、この値を流通コンテンツ特徴量データとしている。
【0064】
制御手段15は、コンテンツ特徴量抽出装置1の全体の制御を司るもので、参照コンテンツ特徴量データ抽出・管理部3の特徴量データ管理手段11に制御信号(参照コンテンツ特徴量データ出力開始信号)と、流通コンテンツ特徴量データ抽出手段13に制御信号(流通コンテンツ特徴量データ出力開始信号)と、特徴量データ比較手段17に閾値とを出力するものである。
【0065】
この制御手段15は図示を省略した記録手段に、予め設定した閾値を記録(保持)しており、この閾値は、特徴量データ同一性閾値と、特徴量データ類似性閾値とである。
【0066】
特徴量データ同一性閾値は、特徴量データ比較手段17において、参照コンテンツ特徴量データと流通コンテンツ特徴量データとに基づいて、流通コンテンツが参照コンテンツと同一のものであるかどうかを判定する際の基準となるものである。流通コンテンツが参照コンテンツと同一のものであると判定された場合には、流通コンテンツが正規のルートを経由して配布され、流通しているとは言い難く、不正流通コンテンツであると断定される。
【0067】
特徴量データ類似性閾値は、特徴量データ比較手段17において、参照コンテンツ特徴量データと流通コンテンツ特徴量データとに基づいて、流通コンテンツが参照コンテンツと類似しているものであるかどうかを判定する際の基準となるものである。つまり、この特徴量データ類似性閾値は、所望の流通コンテンツ(検索対象番組)や流通コンテンツの一部であるシーンを検索する際に、参照コンテンツ(参照番組)の参照コンテンツ特徴量データ(参照シーン特徴量データ)と共に利用されるものである。
【0068】
なお、この実施の形態では、制御手段15の図示を省略した記録手段に閾値が記録されているが、特徴量データ比較手段17に記録されている態様であってもよい。この場合、制御信号15から特徴量データ比較手段17には、閾値を活用して、参照コンテンツ特徴量データと流通コンテンツ特徴量データとを比較させる制御信号(閾値活用信号)が出力される。
【0069】
特徴量データ比較手段17は、参照コンテンツ特徴量データ蓄積手段9から出力された参照コンテンツ特徴量データと、流通コンテンツ特徴量データ抽出手段13で抽出された流通コンテンツ特徴量データと、制御手段15から出力された閾値とに基づいて、参照コンテンツと流通コンテンツとが、同一、類似、または非類似であるかを比較するもので、同一性検出手段17aと、類似性検出手段17bとを備えている。
【0070】
同一性検出手段17aは、参照コンテンツ特徴量データと流通コンテンツ特徴量データの差の絶対値と、特徴量データ同一性閾値とに基づいて、参照コンテンツと流通コンテンツとの同一性を検出するものである。
【0071】
類似性検出手段17bは、参照コンテンツ特徴量データと流通コンテンツ特徴量データの差の絶対値と、特徴量データ類似性閾値とに基づいて、参照コンテンツと流通コンテンツとの類似性を検出するものである。
【0072】
つまり、この特徴量データ比較手段17では、同一性検出手段17aと類似性検出手段17bとによって、同一性、類似性が検出されなかった場合には、参照コンテンツと流通コンテンツとは非類似であるとされる。
【0073】
結果表示手段19は、特徴量データ比較手段17による比較結果を表示させるためのものである。この結果表示手段19には、参照コンテンツと流通コンテンツが同一である旨の表示や、参照コンテンツの各シーンの参照シーン特徴量データに基づいて検索された流通コンテンツの数量や当該流通コンテンツのタイトル名等が表示される。
【0074】
このコンテンツ特徴量抽出装置1によれば、参照コンテンツ特徴量データ蓄積手段9に、参照コンテンツの特徴量である参照コンテンツ特徴量データが蓄積されており、流通コンテンツ特徴量データ抽出手段13によって、ネットワークまたは記録媒体を介して流通している流通コンテンツが、当該ネットワークまたは当該記録媒体を介して取得され、この取得された流通コンテンツから流通コンテンツ特徴量データが抽出される。特徴量データ比較手段17によって、参照コンテンツ特徴量データと流通コンテンツ特徴量データとが比較される。これらの特徴量データの比較に基づいて、参照コンテンツと流通コンテンツとの同一性、または、類似性を検出することができる。
【0075】
また、このコンテンツ特徴量抽出装置1によれば、流通コンテンツ特徴量データ抽出手段13の輝度データ平均化手段13aによって、流通コンテンツの輝度データが当該流通コンテンツを構成するフレーム単位またはフィールド単位で平均化され、データ並べ替え手段13bによって、輝度データ平均化手段13aで平均化された所定単位輝度データが並べ替えられて時系列データとされる。続いて、周波数変換手段13cによって、データ並べ替え手段13bで並べ替えられた時系列データが一定長毎に周波数変換され、周波数データとされ、この周波数データが周波数データ平均化手段13dによって、周波数毎に平均化される。そして、周波数データ総和算出手段13eによって、周波数データ平均化手段13dで平均化された平均化周波数データが周波数全域に亘って総和され、この総和された平均化周波数データが特徴量データとされる。
【0076】
つまり、このコンテンツ特徴量抽出装置1では、周波数変換手段13cによって、時系列データを周波数データにすることによって、コンテンツの一時系列のデータである輝度データから複数の周波数データを生成しており、この周波数データを平均化し、周波数全域に亘る総和を求めて、この総和を流通コンテンツ特徴量データとしているので、データ量を増加させることなく、参照コンテンツと流通コンテンツとの同一性または類似性の検出精度を維持することができる。
【0077】
すなわち、このコンテンツ特徴量抽出装置1を、放送番組等のコンテンツ(参照コンテンツ)の提供者であるコンテンツプロバイダが利用することにより、外部のインターネット、或いは、内部のイントラネットを介して、または、光ディスク(例えば、DVD)等の記録媒体を介して、流通する流通コンテンツの特徴量(流通コンテンツ特徴量データ)と、当該コンテンツプロバイダが保有するコンテンツの特徴量(参照コンテンツ特徴量データ)とを比較し、これらの同一性を検出することによって、不正流通コンテンツを検出することができる。
【0078】
また、このコンテンツ特徴量抽出装置1は、検索対象となるコンテンツの特徴量(流通コンテンツ特徴量データ)と、参照するコンテンツ(参照コンテンツ)の特徴量(参照コンテンツ特徴量データ)とを比較し、これらの類似性を検定することにより、コンテンツプロバイダが保存管理している番組群(参照コンテンツの集合)から目的とする検索対象番組やシーンを検索することができる。
【0079】
さらに、このコンテンツ特徴量抽出装置1によれば、流通コンテンツ特徴量データ抽出手段13が、データ並べ替え手段13bによって、所定単位輝度データを一定間隔毎に選択して配列し、この配列を1つのフレーム単位または1つのフィールド単位ずつ順次ずらしながら繰り返して並べることで、新たな時系列データ(データ系列)を得ることができる。
【0080】
さらにまた、このコンテンツ特徴量抽出装置1によれば、複数のシーンからなる参照コンテンツおよび流通コンテンツを取り扱うことが可能であり、参照コンテンツ特徴量データが各シーンに対応する参照シーン特徴量データを含み、流通コンテンツ特徴量データが各シーンに対応する流通シーン特徴量データを含んでいるので、これらの参照シーン特徴量データおよび流通シーン特徴量データに基づいて、所望する流通コンテンツの特定するシーンを検索することができる。
【0081】
そしてまた、このコンテンツ特徴量抽出装置1によれば、特徴量データ比較手段17の同一性検出手段17aによって、特徴量データ同一性閾値に基づいて、参照コンテンツと流通コンテンツとの同一性を検出する。これによって、不正流通コンテンツを検出することができる。
【0082】
或いはまた、このコンテンツ特徴量抽出装置1によれば、特徴量データ比較手段17の類似性検出手段17bによって、特徴量データ類似性閾値に基づいて、流通コンテンツと参照コンテンツとの類似性を検出する。これによって、参照コンテンツと似かよった流通コンテンツ(所望する番組等)を検索することができる。
【0083】
なお、流通コンテンツおよび参照コンテンツのそれぞれに関し、入力する流通コンテンツおよび参照コンテンツである動画像データ系列の振幅レベルが相互に著しく異なり、特徴量データ比較手段17における比較判定に影響を及ぼす場合には、それぞれの動画像データ系列を当該動画像データ系列の各最大値で正規化する処理を施した後に、データ並べ替え手段13bによるデータ並べ替え処理以降の処理を行うことにすればよい。
【0084】
また、この実施の形態では、コンテンツ特徴量抽出装置1が動画像データからなるコンテンツを処理する場合について説明したが、音声データからなる楽曲のコンテンツを処理することも可能であり、動画像データと音声データとを組み合わせて、特徴量データ(参照コンテンツ特徴量データ、流通コンテンツ特徴量データ)の検出を行うことも可能である。なお、音声データからなる楽曲のコンテンツを処理する場合、特徴量データ(参照コンテンツ特徴量データ、流通コンテンツ特徴量データ)は、音声データの波形パターン、周波数スペクトラム等によって表されることとなる。
【0085】
(コンテンツ特徴量抽出装置の動作)
次に、図2に示すフローチャートを参照して、コンテンツ特徴量抽出装置1の動作について説明する(適宜、図1参照)。
まず、コンテンツ特徴量抽出装置1は、参照コンテンツ特徴量データ抽出手段7によって参照コンテンツ特徴量データを抽出する(S1)。この抽出した参照コンテンツ特徴量データを参照コンテンツ特徴量データ蓄積手段9に蓄積する(S2)。
【0086】
そして、制御手段15によって、閾値(特徴量データ同一性閾値Th1、特徴量データ類似性閾値Th2)を特徴量データ比較手段17に入力する(S3)と共に、制御信号(流通コンテンツ特徴量データ出力開始信号)を流通コンテンツ特徴量データ抽出手段13に、制御信号(参照コンテンツ特徴量データ出力開始信号)を特徴量データ管理手段11に入力する。
【0087】
すると、流通コンテンツ特徴量データ抽出手段13によって、流通コンテンツ特徴量データg1を抽出し(S4)、特徴量データ比較手段17に出力する。続いて、特徴量データ管理手段11によって制御信号(参照コンテンツ特徴量データ順次出力信号)を参照コンテンツ特徴量データ蓄積手段9に出力し、この制御信号(参照コンテンツ特徴量データ順次出力信号)によって参照コンテンツ特徴量データ蓄積手段9から蓄積している参照コンテンツ特徴量データg2を特徴量データ比較手段17に出力する(S5)。
【0088】
そして、特徴量データ比較手段17によって、特徴量データ同一性閾値Th1よりも、流通コンテンツ特徴量データg1と参照コンテンツ特徴量データg2との差の絶対値の方が小さい値となるか、または、特徴量データ類似性閾値Th2よりも、流通コンテンツ特徴量データg1と参照コンテンツ特徴量データg2との差の絶対値の方が小さい値となるかが判定される(S6)。
【0089】
特徴量データ同一性閾値Th1よりも、流通コンテンツ特徴量データg1と参照コンテンツ特徴量データg2との差の絶対値の方が小さい値と判定された場合、または、特徴量データ類似性閾値Th2よりも、流通コンテンツ特徴量データg1と参照コンテンツ特徴量データg2との差の絶対値の方が小さい値と判定された場合(S6、Yes)、流通コンテンツと参照コンテンツとは、同一のコンテンツであるか、類似番組(類似しているコンテンツ)であると判定される(S7)。
【0090】
また、特徴量データ同一性閾値Th1よりも、流通コンテンツ特徴量データg1と参照コンテンツ特徴量データg2との差の絶対値の方が小さい値と判定されなかった場合、または、特徴量データ類似性閾値Th2よりも、流通コンテンツ特徴量データg1と参照コンテンツ特徴量データg2との差の絶対値の方が小さい値と判定されなかった場合(S6、No)、流通コンテンツと参照コンテンツとは、別のコンテンツであるか、異種番組(類似していないコンテンツ)であると判定される(S8)。
【0091】
これらS5からS8までの処理が参照コンテンツ特徴量データ蓄積手段9に蓄積されている参照コンテンツ特徴量データのデータ数(所定回数)に至るまで(S9、No)繰り返され、所定回数に至った場合(S9、Yes)動作は終了する。
【0092】
(平均輝度値の時間変化について)
次に、図3、図4を参照して、平均輝度値(所定単位輝度データ)の時間変化について説明する(適宜、図1参照)。
【0093】
この図3、図4は、コンテンツ特徴量抽出装置1の流通コンテンツ特徴量データ抽出手段13の輝度データ平均化手段13aにおいて、輝度値(輝度データ)を平均化処理した後の平均輝度値(所定単位輝度データ)の時間変化を示したものである。
【0094】
より具体的に説明すると、図3は、約10分間の放送番組Aにおける連続するフレーム17920フレームの平均輝度値を求め、冒頭の3000フレームについて、時系列に従ってグラフとしてプロットした事例を示すものである。図4は、図3の波形の一部を拡大したものである。この図3、図4において、縦軸は平均輝度値、横軸は連続するフレーム番号を示している。
【0095】
この事例では、各フレームを水平8ブロック×垂直8ブロックの64ブロックに分割し、各ブロックにおける全画素の輝度値(輝度値データ)を平均化して水平8画素×垂直8ラインの縮小画像を作成し、当該縮小画像に対してDCT演算処理を施し、DC係数を求め、このDC係数を平均値輝度値(所定単位輝度データ)とした。この図3に示すように、得られた平均値輝度値を時系列に並べ替えることにより、平均輝度値の時間変化を把握することができる。
【0096】
また、図4は、図3のグラフの一部(フレーム番号700からフレーム番号1400まで)を、時間軸(フレーム)方向に拡大して示したものである。この図4に示すように、隣接するフレーム同士の平均輝度値の差は小さい。つまり、シーンチェンジ等、画面の大きな変化が発生する場合を除いて、通常、3秒程度(90フレームに相当)の時間内では、平均輝度値の変動が少ないことがわかる。
【0097】
(データ並べ替え処理の概念について)
次に、図5を参照して、データ並べ替え手段13bによるデータ並べ替え処理の概念について説明する。図5は、データ並べ替えの概念を模式的に、記号を使用して説明したものである。
【0098】
この図5に示すように、コンテンツ特徴量抽出装置1のデータ並べ替え手段13bによって、一定間隔毎に、平均値輝度値(所定単位輝度データ)を選択して配列し、この操作を1フレームずつ順次ずらしながら繰り返すことにより、新規データ系列(時系列データ)を得る。
【0099】
つまり、[平均輝度値の時間変化]に示した、時刻1から20までの記号“黒丸”、“三角”、“四角”、“バツ”“回転した四角”が[新規データ系列]では、同一記号同士が連続するように並び替えられており、各同一記号同士の集合により、平均輝度値サンプル系列が構成されている。例えば、新規データ系列における平均輝度値サンプル系列の“黒丸”は、時刻1、時刻6、時刻11、時刻16の平均輝度値の集合である。
【0100】
このデータ並べ替え手段13bによる操作によって、流通コンテンツのデータ量によらず、流通コンテンツ全体の平均輝度値の時間変化を少ないデータ量で表現することができ、流通コンテンツが妥当な長さのデータ系列である場合、このデータ並べ替え手段13b以降の処理、つまり、周波数変換処理を効率的に行うことが可能になる。
【0101】
(平均輝度値サンプル系列の重ね合わせについて)
次に、図6を参照して、平均輝度値サンプル系列の重ね合わせについて説明する。
【0102】
図6は、平均輝度値(所定単位輝度データ)を70フレーム間隔で、図5を使用して説明したデータ並べ替え手段13bによるデータ並べ替え処理を行って、得られた平均輝度サンプル系列を10周期おきに7波形重ねた結果を示したものである。この図6において、縦軸は平均輝度値、横軸は平均輝度サンプル系列1周期内の位置を表している。ここで、div(A,B)はA÷Bの商を意味している。図4を使用して説明したように、隣接するフレームの平均輝度値の差は小さいので、各波形ともほぼ一致している。
【0103】
(番組データの周波数特性について)
次に、図7を参照して、番組データの周波数特性について説明する(適宜、図1参照)。
【0104】
図7は、番組A(以下、コンテンツAとする)と、このコンテンツAの冒頭10%を削減して作成した削減コンテンツA1と、別の番組B(以下、コンテンツBとする)と、このコンテンツBの冒頭10%を削減して作成した削減コンテンツB1と、の4つのコンテンツA、A1、B、B1(動画像データ)について、輝度データ平均化手段13aによる輝度値(輝度データ)の平均化処理、データ並べ替え手段13bによるデータ並べ替え処理、周波数変換手段13cによる周波数変換処理および周波数データ平均化手段13dによる周波数データ平均化処理を施した結果得られた周波数特性の事例を示している。なお、周波数変換手段13cによる周波数変換処理にはFFTを用いている。この図7において、縦軸は各周波数における対数表現による電力、横軸はフレーム周波数で正規化した周波数を表している。
【0105】
この図7に示すように、異なる番組間、つまり、コンテンツAとコンテンツBとの違いを周波数特性によって識別できる。また、コンテンツAとこのコンテンツAの冒頭を10%削減した削減コンテンツA1と、コンテンツBとこのコンテンツB1の冒頭を10%削減した削減コンテンツB1との周波数特性に高い相関を有していることがわかる。
【0106】
(特徴量データの算出結果の事例について)
次に、図8を参照して、特徴量データ(参照コンテンツ特徴量データ、流通コンテンツ特徴量データ)の算出結果の事例について説明する(適宜、図1参照)。
【0107】
図8は、図7を使用して説明したコンテンツA、削減コンテンツA1、コンテンツB、削減コンテンツB1について、これらの輝度データ(輝度信号;Y)および色差データ(色差信号Cb、Cr)をコンテンツ特徴量抽出装置1の流通コンテンツ特徴量データ抽出手段13に入力した場合に得られた流通コンテンツ特徴量データを示したものである。
【0108】
この図8に示すように、輝度データ(輝度信号;Y)および色差データ(色差信号Cb、Cr)について、コンテンツAと削減コンテンツA1とは近接した流通コンテンツ特徴量データをもち、コンテンツBと削減コンテンツB1とは近接した流通コンテンツ特徴量データをもっていることがわかる。
【0109】
(特徴量データによる番組間の距離評価結果の事例について)
次に、図9を参照して、特徴量データ(参照コンテンツ特徴量データ、流通コンテンツ特徴量データ)の番組間(コンテンツ間)の距離評価結果の事例について説明する(適宜、図1参照)。
【0110】
図9は、流通コンテンツ特徴量データ抽出手段13に入力される輝度値(輝度データ)、つまり、輝度信号Y以外に、色差データ(Cb、Cr等)、つまり、色差信号(Cb、Cr)が入力される場合の、コンテンツA、削減コンテンツA1、コンテンツB、削減コンテンツB1の距離評価結果の事例を示したものである。
【0111】
この距離評価結果は、輝度信号Yを用いて求められた流通コンテンツ特徴量データg1Y、輝度信号Yを用いて求められた参照コンテンツ特徴量データg2Y、色差信号Cbを用いて求められた流通コンテンツ特徴量データg1Cb、色差信号Cbを用いて求められた参照コンテンツ特徴量データg2Cb、色差信号Crを用いて求められた流通コンテンツ特徴量データg1Cr、色差信号Crを用いて求められた参照コンテンツ特徴量データg2Crとして、流通コンテンツと参照コンテンツ間の番組間距離(コンテンツ間距離)をDとする場合、
【0112】
【数1】
【0113】
この(1)式によって、コンテンツA、削減コンテンツA1、コンテンツB、削減コンテンツB1の番組間距離(コンテンツ間距離)Dを求め、一覧表にしたものである。
【0114】
この図9に示すように、異なる番組間(コンテンツ間)、つまりコンテンツAとコンテンツBとの距離に比べ、コンテンツAと冒頭10%を削減した削減コンテンツA1との距離、または、コンテンツBと冒頭10%を削減した削減コンテンツB1との距離の方が十分に小さく、適当の閾値(特徴量データ同一性閾値)を設けることによって、番組間(コンテンツ間)の同一性の検出を高精度に行うことができる。
【0115】
(参照コンテンツ特徴量データの抽出と管理の概念について)
次に、図10を参照して、参照コンテンツ特徴量データ抽出・管理部3における参照コンテンツ特徴量データの抽出と管理の概念について説明する。
【0116】
この図10に示すように、番組(参照コンテンツ)が複数のシーン(シーン1、シーン2、・・・シーン(n−1)、シーンn)から構成されており、各シーン毎の特徴量(特徴量1、特徴量2、・・・特徴量(n−1)、特徴量n;参照シーン特徴量データ)が設定されている。
【0117】
これら各シーン毎に特徴量(参照シーン特徴量データ)が纏められて、番組(参照コンテンツ)全体の特徴量(参照コンテンツ特徴量データ)として、参照コンテンツ特徴量データ蓄積手段9に蓄積され、特徴量データ管理手段11によって管理されている。つまり、特徴量データ管理手段11から出力される制御信号によって、参照シーン特徴量データまたは参照コンテンツ特徴量データのいずれかが選択されて、特徴量データ比較部17に出力される。
【0118】
以上、一実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。
例えば、コンテンツ特徴量抽出装置1の各構成の処理を汎用的なコンピュータ言語で記述したコンテンツ特徴量抽出プログラムとみなすこともできるし、各構成の処理を一つずつの過程ととらえたコンテンツ特徴量抽出方法とみなすことも可能である。これらの場合、コンテンツ特徴量抽出装置1と同様の効果を得ることができる。
【0119】
【発明の効果】
請求項1記載の発明によれば、これらの特徴量データの比較に基づいて、コンテンツと流通コンテンツとの同一性、または、類似性を検出することができる。
【0120】
請求項1記載の発明によれば、コンテンツの一時系列のデータである輝度データから単一のデータである周波数データを生成しており、この周波数データを平均化し、周波数全域に亘る総和を求めて、この総和を流通コンテンツ特徴量データとしているので、データ量を増加させることなく、コンテンツと流通コンテンツとの同一性または類似性の検出精度を維持することができる。
【0121】
請求項2記載の発明によれば、所定単位画素データを一定間隔毎に選択して配列し、この配列を1つのフレーム単位または1つのフィールド単位ずつ順次ずらしながら繰り返して並べることで、新たな時系列データ(データ系列)を得ることができ、これ以降の処理、例えば、周波数変換処理等を容易に行うことができる。
【0122】
請求項3記載の発明によれば、参照コンテンツ特徴量データが各シーンに対応する参照シーン特徴量データを含み、流通コンテンツ特徴量データが各シーンに対応する流通シーン特徴量データを含んでいるので、これらの参照シーン特徴量データおよび流通シーン特徴量データに基づいて、所望する流通コンテンツの特定するシーンを検索することができる。
【0123】
請求項4記載の発明によれば、特徴量データ同一性閾値に基づいて、コンテンツと流通コンテンツとの同一性を検出する。これによって、不正流通コンテンツを検出することができる。
【0124】
請求項5記載の発明によれば、特徴量データ類似性閾値に基づいて、流通コンテンツとコンテンツとの類似性を検出する。これによって、コンテンツと似かよった流通コンテンツ(所望する番組等)を検索することができる。
【図面の簡単な説明】
【図1】本発明による一実施の形態であるコンテンツ特徴量抽出装置のブロック図である。
【図2】図1に示したコンテンツ特徴量抽出装置の動作を説明したフローチャートである。
【図3】輝度値を平均化処理した後の平均輝度値の時間変化を示した図である。
【図4】図3に示した平均輝度値の時間変化の一部を拡大して示した図である。
【図5】データ並べ替え処理の概念について説明した図である。
【図6】平均輝度値サンプル系列の重ね合わせについて説明した図である。
【図7】番組データの周波数特性について説明した図である。
【図8】特徴量データの算出結果の事例について説明した図である。
【図9】特徴量データの番組間の距離評価結果の事例について説明した図である。
【図10】参照コンテンツ特徴量データ抽出・管理部における参照コンテンツ特徴量データの抽出と管理の概念について説明した図である。
【図11】従来のコンテンツ特徴量抽出装置のブロック図である。
【符号の説明】
1 コンテンツ特徴量抽出装置
3 参照コンテンツ特徴量データ抽出・管理部
5 流通コンテンツ特徴量データ抽出・比較部
7 参照コンテンツ特徴量データ抽出手段
9 参照コンテンツ特徴量データ蓄積手段
11 特徴量データ管理手段
13 流通コンテンツ特徴量データ抽出手段
15 制御手段
17 特徴量データ比較手段
17a 同一性検出手段
17b 類似性検出手段
19 結果表示手段[0001]
BACKGROUND OF THE INVENTION
The present invention extracts a feature amount of content distributed via a network or a recording medium, and uses the extracted feature amount for illegal distribution detection and similarity search.In placeRelated.
[0002]
[Prior art]
With the recent increase in network speed and storage media capacity, large-capacity digital content (hereinafter referred to as content) consisting of video data, audio data, etc., is transferred to a public communication line (optical fiber communication), which is a high-speed network. An environment in which anyone can easily distribute or distribute via an optical disk (DVD or the like), which is a large-capacity recording medium, is provided.
[0003]
In addition, content distributed via a network is easy to store, and content recorded on a recording medium is easy to deliver. Therefore, the copyright owner of the content (hereinafter simply referred to as “copyright holder”). And without permission from the distributor (hereinafter referred to as “content provider”) to distribute the content, copy the stored content and re-distribute it via the network, or tamper with the content. It is easy to do fraudulent activities such as This fraudulent act is a major impediment to distributing content.
[0004]
In particular, illegally distributed content resulting from unauthorized acts of copying and redistributing (retransmitting) content without obtaining permission (permission) from the copyright owner or content provider is a significant financial inconvenience to the copyright owner or content provider. Therefore, technical means capable of detecting such illegally distributed content with high accuracy and in a short time and deterring illegal acts are being sought.
[0005]
In addition, with the spread of the Internet and higher performance of digital information devices (storage devices, etc.), the use of moving image content (large-capacity multimedia data), which is a large-capacity content, has become common. For this reason, there is a need for means for efficiently searching for specific content desired by a user from a vast number of contents held on the Internet or in a storage device.
[0006]
In order to detect illegally distributed content or to search for specific content, feature amount data representing the feature of the content is extracted from the luminance and color information of the video data constituting the content, and the extracted feature amount data is A feature amount extraction technique used for determination (testing) of identity and similarity between contents has been proposed as an effective means.
[0007]
As one of the conventional feature quantity extraction techniques, for example, as described in Non-Patent
[0008]
Here, with reference to FIG. 11, a feature amount extraction method and a comparison method when performing a similar search for moving images will be described.
[0009]
FIG. 11 is a block diagram of a conventional content feature amount extraction device. As shown in FIG. 11, the content feature
[0010]
The moving image data luminance / color difference
[0011]
The reference content luminance / color difference
[0012]
The dynamic
[0013]
The
[0014]
The variance
[0015]
The threshold
[0016]
In addition, with respect to the conventional technique for extracting content feature amounts, for example, ISO / IEC 15938-3 “MPEG-7 Visual Description” describes features of video data (video signal) and extracts the described features. A quantity extraction algorithm is defined. It is assumed that this visual description is mainly used for similarity search / filtering based on video data (video signal), and in this visual description, low-level colors, shapes, etc. on video data. As a specific description of the feature amount, “color layout description” that defines the spatial arrangement of colors on the frequency axis is defined.
[0017]
This color arrangement description reflects human visual characteristics, and enables high-precision search for each image frame constituting the content. That is, unnecessary information can be deleted on the frequency axis when the similarity between contents is tested by the color arrangement description. As a result, the amount of data describing the content features is reduced.
[0018]
[Non-Patent Document 1]
Takahashi, Tominaga, Sugiura, Yokoi, Terashima, “Highly efficient video retrieval using characteristic motion picture prints”, Journal of the Institute of Image Electronics Engineers of Japan, Vol. 29, No. 6, pp 818
-Pp825 (2000)
[0019]
[Problems to be solved by the invention]
However, in the conventional content feature
[0020]
In addition, since the content feature
[0021]
Further, in the conventional visual description, feature amount extraction is performed on one frame of image data in video data. Therefore, when this visual description is applied to content that is moving image data, the data amount of the feature amount data In addition, there is a problem that tolerance for edited content (maintaining detection accuracy) is not taken into consideration, that is, the detection accuracy of content identity or similarity is significantly reduced.
[0022]
Therefore, an object of the present invention is to solve the problems of the conventional techniques described above, and to maintain content identity or similarity detection accuracy without increasing the amount of feature data. An object is to provide an extraction device, a content feature amount extraction program, and a content feature amount extraction method.
[0023]
[Means for Solving the Problems]
In order to achieve the above-described object, the present invention has the following configuration.
The content feature amount extraction device according to
[0024]
According to such a configuration, the content feature amount extraction device stores the reference content feature amount data, which is the content feature amount, in the reference content feature amount data storage unit in advance. The distribution content distributed through the network or the recording medium (for example, optical disc (DVD etc.)) is acquired through the network or the recording medium, and the distribution content feature amount data is extracted from the acquired distribution content. To do. These reference content feature amount data or distribution content feature amount data indicates a specific frequency pattern (unique waveform pattern) constituting the content or distribution content. For example, the arrangement of the color of each pixel of the content or distribution content Is uniquely determined for each content or distributed content. That is, each pixel of the content or the distributed content is the content or temporary series data of the distributed content, and the reference content feature amount data or the distributed content feature amount data is generated as a single data from the temporary series data. . Further, the reference content feature amount data or the distribution content feature amount data corresponds to “Finger Print” (image print) proposed in MPEG-21.
[0025]
Then, the content feature amount extraction device includes the reference content feature amount data stored in the reference content feature amount data storage unit by the feature amount data comparison unit and the distribution content feature extracted by the distribution content feature amount data extraction unit. Compare with quantity data. Based on the result of comparison by the feature data comparison means, for example, when the distribution content is illegally copied and retransmitted, the distribution content and the content provided by the content provider are the same. Can be specified.
[0027]
Also,The distribution content feature amount data extraction unit of the content feature amount extraction device averages pixel data related to each pixel included in the distribution content in units of frames or fields constituting the distribution content by the pixel data averaging unit. The predetermined unit pixel data averaged by the pixel data averaging means is rearranged by the rearranging means to obtain time series data. The pixel data related to each pixel included in the distribution content is luminance data, color difference data (Cb, Cr, etc.) of each pixel in successive frames, color signal data (RGB), etc., and these are combinations thereof. May be.
[0028]
Subsequently, the distribution content feature amount data extraction means of the content feature amount extraction device performs frequency conversion of the time-series data rearranged by the data rearrangement means by the frequency conversion means for every predetermined length to obtain frequency data. Frequency data is averaged for each frequency by frequency data averaging means. Then, the distribution content feature quantity data extraction means of this content feature quantity extraction device sums the averaged frequency data averaged by the frequency data averaging means over the entire frequency range by the frequency data sum calculation means, and this sum total. The averaged frequency data is used as feature amount data. That is, in this content feature quantity extraction device, the frequency conversion means of the distributed content feature quantity data extraction means converts the time series data into frequency data, so that the single data can be obtained from the luminance data that is the temporary series data of the contents. Certain frequency data is generated, this frequency data is averaged, a sum total over the entire frequency is obtained, and this sum is used as feature amount data (distributed content feature amount data).
[0029]
Claim2The content feature amount extraction device described in claim1In the content feature amount extraction device described in
[0030]
According to such a configuration, the distribution content feature value data extraction means of the content feature value extraction device selects and arranges the predetermined unit pixel data at regular intervals by the data rearrangement means, and this arrangement is arranged in one frame unit or New time series data (data series) can be obtained by repeatedly arranging each field unit while sequentially shifting.
[0031]
Claim3The content feature amount extraction apparatus described in claim 1Or claim 2In the content feature amount extraction device described in the above, the content and the distributed content are composed of a plurality of scenes, and the reference content feature amount data that is the feature amount of the content is the reference scene feature amount data corresponding to the scene. The distribution content feature amount data, which is a feature amount of the distribution content, includes distribution scene feature amount data corresponding to the scene.
[0032]
According to such a configuration, the content feature amount extraction apparatus can handle content composed of a plurality of scenes and distribution content, and the reference content feature amount data includes the reference scene feature amount data corresponding to each scene. Since the content feature amount data includes distribution scene feature amount data corresponding to each scene, a scene specified by the desired distribution content is searched based on the reference scene feature amount data and distribution scene feature amount data. Can do.
[0033]
Claim4The content feature amount extraction device described in
[0034]
According to this configuration, the content feature quantity extraction device detects the identity between the distributed content and the content based on the feature quantity data identity threshold by the identity detection means. As a result, unauthorized distribution content can be detected.
[0035]
Claim5The content feature amount extraction device described in
[0036]
According to this configuration, the content feature amount extraction device detects the similarity between the distributed content and the content based on the feature amount data similarity threshold by the similarity detection unit. As a result, it is possible to search for distribution content similar to the content.
[0041]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(Configuration of content feature extraction device)
FIG. 1 is a block diagram of a content feature amount extraction apparatus. As shown in FIG. 1, the content feature
[0042]
These reference content feature amount data or distribution content feature amount data indicates a specific frequency pattern (unique waveform pattern) constituting the content or distribution content, and is a feature amount specifying the reference content or distribution content, that is, It can be said to be an “image pattern” that hits a fingerprint that identifies a person. For example, the reference content feature amount data or the distribution content feature amount data is uniquely determined for each content or distribution content based on the arrangement of the color (pixel data) of each pixel of the reference content or distribution content. (Details will be described later).
[0043]
The content feature
[0044]
In this embodiment, the reference content feature quantity data extraction /
[0045]
The reference content feature value data extraction /
[0046]
The reference content feature amount
[0047]
In this embodiment, the reference content feature amount data is obtained by using luminance data in each frame of the reference content. For example, color difference data (Cb, Cr, etc.) or color signal data (RGB) is used. You may ask for it. That is, the reference content feature amount data can be obtained based on the pixel data related to the pixels included in the reference content.
[0048]
In addition, when the reference content is composed of a plurality of scenes, the reference content feature amount data is required to correspond to each scene. That is, reference scene feature value data, which is a feature value for each scene, is assigned based on the metadata assigned to each scene.
[0049]
The reference content feature amount
[0050]
The feature
[0051]
The distribution content feature data extraction /
[0052]
The distribution content feature amount
[0053]
When the distributed content is composed of a plurality of scenes, the distributed content feature amount data is required to correspond to each scene. In other words, distribution scene feature value data, which is a feature value for each scene, is assigned based on the metadata assigned to each scene.
[0054]
The luminance data averaging means 13a inputs the moving image data of the distributed content as the luminance value (luminance data) of each pixel in a continuous frame (field) and averages the luminance value (luminance data). This is to obtain (predetermined unit luminance data), that is, to perform an averaging process of luminance values (luminance data).
[0055]
In the averaging process of the luminance value (luminance data) by the luminance data averaging means 13a, the average value of the luminance values (luminance data) of all the pixels in this frame (field) is calculated for each frame (each field). ing. Here, as the average value of the luminance values (luminance data), a value obtained by dividing the sum of the luminance values (luminance data) of all the pixels by the total number of pixels is used.
[0056]
In addition, all blocks divided into small blocks of an arbitrary block size (for example, horizontal 8 pixels × vertical 8 lines) are subjected to DCT (Discrete Cosine Transform) calculation processing to obtain DC (direct current) for each small block. ) Coefficient may be obtained and the average value of the DC (direct current) coefficients may be used.
[0057]
Alternatively, all the pixels in each frame (field) are divided into an arbitrary number of blocks, the luminance values of all the pixels in each block are averaged, a reduced image is created, and the reduced image is subjected to DCT calculation processing. A DC coefficient may be obtained.
[0058]
In this embodiment, the luminance value (luminance data) of each pixel in a continuous frame (field) of the distributed content input to the distributed content feature amount
[0059]
The data rearrangement unit 13b performs a data rearrangement process in which the average luminance value (predetermined unit luminance data) obtained by the luminance data averaging unit 13a is rearranged in time series to obtain a new data series (time series data). Is. That is, the data rearranging means 13b selects and arranges average luminance values (predetermined unit luminance data) at regular intervals, and rearranges this arrangement while sequentially shifting by one frame unit or one field unit. . Hereinafter, one cycle of the new data series (time series data) is defined as an average luminance value sample series. The details (concept) of rearranging the average luminance value (predetermined unit luminance data) in the data rearranging means 13b will be described later (using FIG. 5).
[0060]
The frequency converting unit 13c performs DFT (Discrete Fourier Transform) for every fixed length on the plurality of average luminance value sample sequences of the new data series (time series data) rearranged by the data rearranging unit 13b. Alternatively, frequency conversion processing such as FFT (Fast Fourier Transform) is performed. The new data series (time series data) frequency-converted by the frequency conversion means 13c is used as frequency data.
[0061]
It should be noted that the frame (field) in the averaging process of the luminance value (luminance data) by the luminance data averaging means 13a, the selection interval and the frequency of the average luminance value (predetermined unit luminance data) in the data rearranging process by the data rearranging means 13b The average luminance value sample series in the frequency conversion process by the conversion means 13c is determined in consideration of the detection accuracy of the content identity or similarity and the processing speed of the content feature
[0062]
The frequency data averaging means 13d performs frequency data averaging processing for obtaining frequency characteristic data (averaged frequency data) obtained by averaging a plurality of frequency data frequency-converted by the frequency converting means 13c for each frequency. . The frequency data averaging means 13d outputs the obtained averaged frequency data to the frequency data sum calculating means 13e. Note that the frequency characteristic data (averaged frequency data) is represented by the power expressed by logarithm in the frequency and the frequency normalized by the frame frequency.
[0063]
The frequency data summation calculation means 13e is characterized by using the summation averaged frequency data obtained by summing the frequency characteristic data (averaged frequency data) obtained by the frequency data averaging means 13d over the entire frequency range as distribution content feature amount data. This is output to the quantity data comparison means 17. In other words, the frequency data sum calculating means 13e calculates the sum of logarithmic values of all powers over the entire frequency range, and uses this value as distribution content feature amount data.
[0064]
The control means 15 is responsible for overall control of the content feature
[0065]
The
[0066]
The feature amount data identity threshold is used when the feature amount
[0067]
The feature amount data similarity threshold is determined by the feature amount
[0068]
In this embodiment, the threshold value is recorded in the recording unit (not shown) of the
[0069]
The feature amount
[0070]
The identity detection means 17a detects the identity between the reference content and the distribution content based on the absolute value of the difference between the reference content feature quantity data and the distribution content feature quantity data and the feature quantity data identity threshold. is there.
[0071]
The similarity detection unit 17b detects the similarity between the reference content and the distribution content based on the absolute value of the difference between the reference content feature amount data and the distribution content feature amount data and the feature amount data similarity threshold. is there.
[0072]
That is, in the feature quantity
[0073]
The result display means 19 is for displaying the comparison result by the feature data comparison means 17. The result display means 19 displays that the reference content and the distribution content are the same, the quantity of the distribution content searched based on the reference scene feature data of each scene of the reference content, and the title name of the distribution content Etc. are displayed.
[0074]
According to the content feature
[0075]
Further, according to the content feature
[0076]
That is, in the content feature
[0077]
That is, the content feature
[0078]
Further, the content feature
[0079]
Further, according to the content feature
[0080]
Furthermore, according to the content feature
[0081]
Further, according to the content feature
[0082]
Alternatively, according to the content feature
[0083]
In addition, regarding each of the distribution content and the reference content, when the amplitude levels of the moving image data series that are the distribution content and the reference content to be input are significantly different from each other and affect the comparison determination in the feature
[0084]
In this embodiment, the case where the content feature
[0085]
(Operation of content feature extraction device)
Next, the operation of the content feature
First, the content feature
[0086]
Then, the control means 15 inputs threshold values (feature quantity data identity threshold Th1, feature quantity data similarity threshold Th2) to the feature quantity data comparison means 17 (S3), and starts a control signal (distributed content feature quantity data output). The control signal (reference content feature data output start signal) is input to the feature
[0087]
Then, the distribution content feature quantity
[0088]
Then, the feature value data comparison means 17 makes the absolute value of the difference between the distributed content feature value data g1 and the reference content feature value data g2 smaller than the feature value data identity threshold Th1, or It is determined whether the absolute value of the difference between the distributed content feature value data g1 and the reference content feature value data g2 is smaller than the feature value data similarity threshold Th2 (S6).
[0089]
When it is determined that the absolute value of the difference between the distributed content feature value data g1 and the reference content feature value data g2 is smaller than the feature value data identity threshold Th1, or from the feature value data similarity threshold Th2 If it is determined that the absolute value of the difference between the distributed content feature value data g1 and the reference content feature value data g2 is smaller (S6, Yes), the distributed content and the reference content are the same content. Alternatively, it is determined that the program is similar (similar content) (S7).
[0090]
If the absolute value of the difference between the distributed content feature data g1 and the reference content feature data g2 is not determined to be smaller than the feature data data identity threshold Th1, or the feature data similarity If the absolute value of the difference between the distributed content feature amount data g1 and the reference content feature amount data g2 is not determined to be smaller than the threshold Th2 (No in S6), the distributed content and the reference content are different from each other. Or a heterogeneous program (content that is not similar) (S8).
[0091]
When the processes from S5 to S8 are repeated until the number of reference content feature quantity data stored in the reference content feature quantity data storage means 9 reaches a predetermined number (S9, No) (S9, Yes) The operation ends.
[0092]
(About time change of average luminance value)
Next, with reference to FIG. 3 and FIG. 4, the time change of the average luminance value (predetermined unit luminance data) will be described (see FIG. 1 as appropriate).
[0093]
3 and 4 show an average luminance value (predetermined after the luminance value (luminance data) is averaged in the luminance data averaging means 13a of the distribution content feature quantity data extraction means 13 of the content feature
[0094]
More specifically, FIG. 3 shows an example in which an average luminance value of 17920 consecutive frames in the broadcast program A for about 10 minutes is obtained and plotted as a graph in time series for the first 3000 frames. . FIG. 4 is an enlarged view of a part of the waveform of FIG. 3 and 4, the vertical axis indicates the average luminance value, and the horizontal axis indicates the continuous frame numbers.
[0095]
In this example, each frame is divided into 64 blocks of horizontal 8 blocks x vertical 8 blocks, and the luminance values (luminance value data) of all pixels in each block are averaged to create a reduced image of horizontal 8 pixels x vertical 8 lines. Then, the reduced image was subjected to DCT calculation processing to obtain a DC coefficient, and this DC coefficient was used as an average luminance value (predetermined unit luminance data). As shown in FIG. 3, the average luminance value obtained is rearranged in time series, whereby the temporal change in the average luminance value can be grasped.
[0096]
FIG. 4 is an enlarged view of a part of the graph of FIG. 3 (from
[0097]
(About the concept of data rearrangement)
Next, the concept of the data rearrangement process performed by the data rearrangement unit 13b will be described with reference to FIG. FIG. 5 schematically illustrates the concept of data rearrangement using symbols.
[0098]
As shown in FIG. 5, the average value luminance value (predetermined unit luminance data) is selected and arranged at regular intervals by the data rearranging means 13b of the content feature
[0099]
That is, the symbols “black circle”, “triangle”, “square”, “cross”, “rotated square” from
[0100]
By the operation by the data rearranging means 13b, the time change of the average luminance value of the entire distribution content can be expressed with a small data amount regardless of the data amount of the distribution content, and the distribution content has a reasonable length of data series. In this case, it is possible to efficiently perform the processing after the data rearranging means 13b, that is, the frequency conversion processing.
[0101]
(About superposition of average luminance value sample series)
Next, superposition of the average luminance value sample series will be described with reference to FIG.
[0102]
FIG. 6 shows an average luminance sample sequence obtained by performing data rearrangement processing by the data rearrangement unit 13b described with reference to FIG. 5 at an average luminance value (predetermined unit luminance data) at intervals of 70 frames. The result of superposing seven waveforms every other period is shown. In FIG. 6, the vertical axis represents the average luminance value, and the horizontal axis represents the position within one period of the average luminance sample series. Here, div (A, B) means a quotient of A ÷ B. As described with reference to FIG. 4, since the difference in the average luminance value of adjacent frames is small, the waveforms almost coincide with each other.
[0103]
(About frequency characteristics of program data)
Next, the frequency characteristics of program data will be described with reference to FIG. 7 (see FIG. 1 as appropriate).
[0104]
FIG. 7 shows a program A (hereinafter referred to as content A), a reduced content A1 created by reducing the beginning 10% of the content A, another program B (hereinafter referred to as content B), and this content. Averaged luminance values (luminance data) by the luminance data averaging means 13a for the four contents A, A1, B, B1 (moving image data) of the reduced content B1 created by reducing the first 10% of B The example of the frequency characteristic obtained as a result of performing the process, the data rearrangement process by the data rearrangement means 13b, the frequency conversion process by the frequency conversion means 13c, and the frequency data averaging process by the frequency data averaging means 13d is shown. Note that FFT is used for frequency conversion processing by the frequency conversion means 13c. In FIG. 7, the vertical axis represents power in logarithmic expression at each frequency, and the horizontal axis represents the frequency normalized with the frame frequency.
[0105]
As shown in FIG. 7, the difference between different programs, that is, the difference between the contents A and B can be identified by the frequency characteristics. In addition, there is a high correlation between the frequency characteristics of the content A and the reduced content A1 in which the beginning of the content A is reduced by 10%, and the content B and the reduced content B1 in which the beginning of the content B1 is reduced by 10%. Recognize.
[0106]
(About examples of calculation results of feature data)
Next, with reference to FIG. 8, an example of a calculation result of feature amount data (reference content feature amount data, distribution content feature amount data) will be described (see FIG. 1 as appropriate).
[0107]
FIG. 8 shows the content characteristics of the luminance data (luminance signal; Y) and the color difference data (color difference signals Cb, Cr) for the content A, the reduced content A1, the content B, and the reduced content B1 described using FIG. The distribution content feature amount data obtained when input to the distribution content feature amount data extraction means 13 of the
[0108]
As shown in FIG. 8, with respect to the luminance data (luminance signal; Y) and the color difference data (color difference signals Cb, Cr), the content A and the reduced content A1 have distribution content feature amount data close to each other, and the content B is reduced. It can be seen that the distribution content feature amount data is close to the content B1.
[0109]
(Examples of distance evaluation results between programs using feature data)
Next, an example of a distance evaluation result between programs (between contents) of feature amount data (reference content feature amount data, distribution content feature amount data) will be described with reference to FIG. 9 (see FIG. 1 as appropriate).
[0110]
In FIG. 9, in addition to the luminance value (luminance data) input to the distribution content feature value data extraction means 13, that is, the luminance signal Y, color difference data (Cb, Cr, etc.), that is, the color difference signals (Cb, Cr). The example of the distance evaluation result of the content A, the reduction content A1, the content B, and the reduction content B1 when being input is shown.
[0111]
This distance evaluation result is distributed content feature amount data g1 obtained using the luminance signal Y.Y, Reference content feature amount data g2 obtained using the luminance signal YYDistribution content feature amount data g1 obtained using the color difference signal CbCb, Reference content feature amount data g2 obtained using the color difference signal CbCbDistribution content feature amount data g1 obtained using the color difference signal CrCrReference content feature amount data g2 obtained using the color difference signal CrCrAssuming that the distance between programs (distance between contents) between the distributed content and the reference content is D,
[0112]
[Expression 1]
[0113]
The inter-program distances (inter-content distances) D of the content A, the reduced content A1, the content B, and the reduced content B1 are obtained by this equation (1) and are listed.
[0114]
As shown in FIG. 9, the distance between the content A and the reduced content A1 reduced by 10% compared to the distance between different programs (between the contents), that is, the content A and the content B, or the content B and the beginning. The distance from the reduced content B1 reduced by 10% is sufficiently smaller, and by providing an appropriate threshold (feature data identity threshold), the identity between programs (between contents) is detected with high accuracy. be able to.
[0115]
(About the concept of reference content feature data extraction and management)
Next, the concept of extraction and management of reference content feature value data in the reference content feature value data extraction /
[0116]
As shown in FIG. 10, a program (reference content) is composed of a plurality of scenes (
[0117]
The feature quantities (reference scene feature quantity data) for each of these scenes are collected and accumulated in the reference content feature quantity data storage means 9 as the feature quantities (reference content feature quantity data) of the entire program (reference content). It is managed by the quantity data management means 11. That is, either the reference scene feature value data or the reference content feature value data is selected by the control signal output from the feature value
[0118]
As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to this.
For example, the processing of each component of the content
[0119]
【The invention's effect】
Claim1According to the described invention, it is possible to detect the identity or similarity between the content and the distributed content based on the comparison of the feature amount data.
[0120]
Claim1According to the described invention, frequency data that is single data is generated from luminance data that is temporary data of content, the frequency data is averaged, and a sum total over the entire frequency is obtained. Since the distribution content feature amount data is used, it is possible to maintain the accuracy of detecting the identity or similarity between the content and the distribution content without increasing the data amount.
[0121]
Claim2According to the described invention, predetermined unit pixel data is selected and arranged at regular intervals, and this arrangement is repeatedly arranged while sequentially shifting by one frame unit or one field unit, so that new time series data ( Data series) and subsequent processing, for example, frequency conversion processing can be easily performed.
[0122]
Claim3According to the described invention, the reference content feature quantity data includes the reference scene feature quantity data corresponding to each scene, and the distribution content feature quantity data includes the distribution scene feature quantity data corresponding to each scene. Based on the reference scene feature amount data and the distribution scene feature amount data, a scene specified by the desired distribution content can be searched.
[0123]
Claim4According to the described invention, the identity between the content and the distributed content is detected based on the feature amount data identity threshold. As a result, unauthorized distribution content can be detected.
[0124]
Claim5According to the described invention, the similarity between the distributed content and the content is detected based on the feature amount data similarity threshold. As a result, it is possible to search for distribution content (such as a desired program) similar to the content.
[Brief description of the drawings]
FIG. 1 is a block diagram of a content feature amount extraction apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the content feature amount extraction apparatus shown in FIG. 1;
FIG. 3 is a diagram showing a change over time in the average luminance value after the luminance value is averaged.
4 is an enlarged view showing a part of the temporal change of the average luminance value shown in FIG.
FIG. 5 is a diagram illustrating the concept of data rearrangement processing.
FIG. 6 is a diagram illustrating superposition of average luminance value sample series.
FIG. 7 is a diagram illustrating frequency characteristics of program data.
FIG. 8 is a diagram illustrating an example of calculation results of feature amount data.
FIG. 9 is a diagram illustrating an example of a distance evaluation result between programs of feature amount data.
FIG. 10 is a diagram for explaining the concept of reference content feature data extraction and management in a reference content feature data extraction / management unit;
FIG. 11 is a block diagram of a conventional content feature amount extraction apparatus.
[Explanation of symbols]
1. Content feature extraction device
3. Reference content feature data extraction / management section
5 Distribution content feature data extraction / comparison section
7 Reference content feature data extraction means
9. Reference content feature data storage means
11 Feature data management means
13 Distribution content feature data extraction means
15 Control means
17 Feature data comparison means
17a Identity detection means
17b Similarity detection means
19 Result display means
Claims (5)
前記参照コンテンツ特徴量データを蓄積する参照コンテンツ特徴量データ蓄積手段と、
前記流通コンテンツを、前記ネットワークまたは前記記録媒体を介して取得し、この取得した流通コンテンツから流通コンテンツ特徴量データを抽出する流通コンテンツ特徴量データ抽出手段と、
前記参照コンテンツ特徴量データ蓄積手段に蓄積している参照コンテンツ特徴量データと、前記流通コンテンツ特徴量データ抽出手段で抽出された流通コンテンツ特徴量データとを比較する特徴量データ比較手段と、
を備え、
前記流通コンテンツ特徴量データ抽出手段は、
前記流通コンテンツに含まれる各画素に関する画素データを、当該流通コンテンツを構成するフレーム単位またはフィールド単位で平均化する画素データ平均化手段と、
この画素データ平均化手段によって平均化された所定単位画素データを並べ替えて時系列データとするデータ並べ替え手段と、
このデータ並べ替え手段で並べ替えられた時系列データを一定長毎に周波数変換し、周波数データとする周波数変換手段と、
この周波数変換手段で周波数変換された周波数データを周波数毎に平均化する周波数データ平均化手段と、
この周波数データ平均化手段で平均化された平均化周波数データを周波数全域に亘って総和し、この総和した平均化周波数データを前記流通コンテンツ特徴量データとする周波数データ総和算出手段とを有していることを特徴とするコンテンツ特徴量抽出装置。 Distribution content feature amount data represented by a specific frequency pattern constituting distribution content provided from a content provider providing content and distributed via a network or a recording medium is extracted, and this distribution content feature amount data And a content feature amount extraction device that compares reference content feature amount data represented by a specific frequency pattern constituting the content,
Reference content feature amount data storage means for storing the reference content feature amount data;
Distribution content feature amount data extracting means for acquiring the distribution content via the network or the recording medium and extracting distribution content feature amount data from the acquired distribution content;
Feature quantity data comparison means for comparing the reference content feature quantity data stored in the reference content feature quantity data storage means with the distribution content feature quantity data extracted by the distribution content feature quantity data extraction means;
With
The distribution content feature amount data extraction means includes:
Pixel data averaging means for averaging pixel data relating to each pixel included in the distribution content in units of frames or fields constituting the distribution content;
Data rearranging means for rearranging the predetermined unit pixel data averaged by the pixel data averaging means to make time-series data; and
Frequency conversion means that converts the frequency of the time series data rearranged by the data rearrangement means every fixed length, and sets the frequency data;
Frequency data averaging means for averaging frequency data frequency-converted by this frequency conversion means for each frequency;
Frequency data summation calculating means for summing averaged frequency data averaged by the frequency data averaging means over the entire frequency range, and using the summed averaged frequency data as the distribution content feature amount data. Content feature amount extraction apparatus characterized by
前記コンテンツの特徴量である参照コンテンツ特徴量データが前記シーンに対応する参照シーン特徴量データを含み、前記流通コンテンツの特徴量である流通コンテンツ特徴量データが前記シーンに対応する流通シーン特徴量データを含むことを特徴とする請求項1又は請求項2に記載のコンテンツ特徴量抽出装置。The content and the distribution content are composed of a plurality of scenes,
The reference content feature value data that is the feature value of the content includes reference scene feature value data corresponding to the scene, and the distribution content feature value data that is the feature value of the distribution content is distribution scene feature value data corresponding to the scene. The content feature amount extraction apparatus according to claim 1 or 2 , characterized by comprising:
前記流通コンテンツの流通コンテンツ特徴量データと前記コンテンツの参照コンテンツ特徴量データとの差の絶対値と、予め設定した特徴量データ同一性閾値とに基づいて、前記流通コンテンツと前記コンテンツとの同一性を検出する同一性検出手段を有していることを特徴とする請求項1から請求項3のいずれか一項に記載のコンテンツ特徴量抽出装置。The feature data comparison means includes:
Based on the absolute value of the difference between the distributed content feature amount data of the distributed content and the reference content feature amount data of the content, and a preset feature amount data identity threshold, the identity of the distributed content and the content The content feature amount extraction apparatus according to any one of claims 1 to 3 , further comprising identity detection means for detecting the content.
前記流通コンテンツの流通コンテンツ特徴量データと前記コンテンツの参照コンテンツ特徴量データとの差の絶対値と、予め設定した特徴量データ類似性閾値とに基づいて、前記流通コンテンツと前記コンテンツとの類似性を検出する類似性検出手段を有していることを特徴とする請求項1から請求項4のいずれか一項に記載のコンテンツ特徴量抽出装置。The feature data comparison means includes:
The similarity between the distribution content and the content based on the absolute value of the difference between the distribution content feature amount data of the distribution content and the reference content feature amount data of the content, and a preset feature amount data similarity threshold content characteristic quantity extraction unit according to any one of claims 4 that claim 1, characterized in that a similarity detection means for detecting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003186107A JP4359085B2 (en) | 2003-06-30 | 2003-06-30 | Content feature extraction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003186107A JP4359085B2 (en) | 2003-06-30 | 2003-06-30 | Content feature extraction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005018674A JP2005018674A (en) | 2005-01-20 |
JP4359085B2 true JP4359085B2 (en) | 2009-11-04 |
Family
ID=34185326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003186107A Expired - Fee Related JP4359085B2 (en) | 2003-06-30 | 2003-06-30 | Content feature extraction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4359085B2 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006285907A (en) * | 2005-04-05 | 2006-10-19 | Nippon Hoso Kyokai <Nhk> | Designated distribution content identification device, designated distribution content identification program, and designated distribution content identification method |
JP4679259B2 (en) * | 2005-06-23 | 2011-04-27 | アルパイン株式会社 | Video playback device |
JP4740706B2 (en) * | 2005-09-28 | 2011-08-03 | ヤフー株式会社 | Fraud image detection apparatus, method, and program |
JP2007114885A (en) * | 2005-10-18 | 2007-05-10 | National Institute Of Information & Communication Technology | Classification method and apparatus based on image similarity |
JP4749139B2 (en) * | 2005-12-05 | 2011-08-17 | 株式会社日立製作所 | Dangerous video detection method, video difference detection method and apparatus |
WO2007091182A1 (en) * | 2006-02-10 | 2007-08-16 | Koninklijke Philips Electronics N.V. | Method and apparatus for generating metadata |
JP4976716B2 (en) * | 2006-03-22 | 2012-07-18 | クラリオン株式会社 | Car audio equipment |
JP5085883B2 (en) * | 2006-04-28 | 2012-11-28 | シャープ株式会社 | Content management apparatus and content management method |
JP2008236603A (en) * | 2007-03-23 | 2008-10-02 | Pioneer Electronic Corp | Moving image content discrimination device, video signal processing unit and moving image content discrimination method |
JP4916950B2 (en) * | 2007-05-14 | 2012-04-18 | ヤフー株式会社 | Moving image comparison apparatus, moving image comparison method, and moving image comparison program |
WO2008149448A1 (en) * | 2007-06-07 | 2008-12-11 | Fujitsu Limited | Moving image similarity determination device, coding device, and feature amount calculating method |
CN101350043B (en) * | 2007-07-17 | 2011-05-11 | 华为技术有限公司 | Method and apparatus for detecting consistency of digital content |
US9177209B2 (en) * | 2007-12-17 | 2015-11-03 | Sinoeast Concept Limited | Temporal segment based extraction and robust matching of video fingerprints |
EP2304649B1 (en) * | 2008-07-23 | 2017-05-10 | Jastec Co | Frame based video matching |
TWI407322B (en) * | 2009-06-19 | 2013-09-01 | Ipeer Multimedia Internat Ltd | Multimedia identification system and method, and the application |
RU2505859C2 (en) * | 2009-06-26 | 2014-01-27 | Интел Корпорейшн | Techniques for detecting video copies |
US9602565B2 (en) | 2011-03-25 | 2017-03-21 | Nec Corporation | Video processing system, video content monitoring method, video processing apparatus, control method of the apparatus, and storage medium storing control program of the apparatus |
JP6596741B2 (en) * | 2017-11-28 | 2019-10-30 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Generating apparatus, generating system, imaging system, moving object, generating method, and program |
-
2003
- 2003-06-30 JP JP2003186107A patent/JP4359085B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005018674A (en) | 2005-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4359085B2 (en) | Content feature extraction device | |
Singh et al. | Video content authentication techniques: a comprehensive survey | |
De Avila et al. | VSUMM: A mechanism designed to produce static video summaries and a novel evaluation method | |
US8587668B2 (en) | Method and apparatus for detecting near duplicate videos using perceptual video signatures | |
JP5005154B2 (en) | Apparatus for reproducing an information signal stored on a storage medium | |
EP2198376B1 (en) | Media fingerprints that reliably correspond to media content | |
US9177209B2 (en) | Temporal segment based extraction and robust matching of video fingerprints | |
JP3997749B2 (en) | Signal processing method and apparatus, signal processing program, and recording medium | |
US20050193016A1 (en) | Generation of a media content database by correlating repeating media content in media streams | |
US20060048191A1 (en) | Method and apparatus for use in video searching | |
Chen et al. | Movie scene segmentation using background information | |
CN101017507A (en) | Image group representation method and device | |
JP2010518673A (en) | Method and system for video indexing and video synopsis | |
JP2000516435A (en) | Key Scene Detection and Frame Filtering for Visible Indexing System | |
JP2014522065A (en) | Method and apparatus for comparing pictures | |
GB2464123A (en) | Event-based temporal video fingerprinting | |
KR102245349B1 (en) | Method and apparatus for extracting color scheme from video | |
JP2006285907A (en) | Designated distribution content identification device, designated distribution content identification program, and designated distribution content identification method | |
KR20050033075A (en) | Unit for and method of detection a content property in a sequence of video images | |
Esmaeili et al. | Robust video hashing based on temporally informative representative images | |
JP4377620B2 (en) | Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method | |
Selvaraj et al. | Inter‐frame forgery detection and localisation in videos using earth mover's distance metric | |
Su et al. | Efficient copy detection for compressed digital videos by spatial and temporal feature extraction | |
Han et al. | Real-time video content analysis tool for consumer media storage system | |
JPH10240626A (en) | Data hiding method and system using statistical properties |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090714 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090807 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120814 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120814 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130814 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140814 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |