[go: up one dir, main page]

JP3846326B2 - Program information creation system and method - Google Patents

Program information creation system and method Download PDF

Info

Publication number
JP3846326B2
JP3846326B2 JP2002031575A JP2002031575A JP3846326B2 JP 3846326 B2 JP3846326 B2 JP 3846326B2 JP 2002031575 A JP2002031575 A JP 2002031575A JP 2002031575 A JP2002031575 A JP 2002031575A JP 3846326 B2 JP3846326 B2 JP 3846326B2
Authority
JP
Japan
Prior art keywords
program information
content
content summary
program
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002031575A
Other languages
Japanese (ja)
Other versions
JP2003235024A (en
Inventor
真琴 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002031575A priority Critical patent/JP3846326B2/en
Publication of JP2003235024A publication Critical patent/JP2003235024A/en
Application granted granted Critical
Publication of JP3846326B2 publication Critical patent/JP3846326B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、テレビ番組などの映像コンテンツから動画像データを含む番組情報を作成するシステム及び方法に関する。
【0002】
【従来の技術】
従来、ユーザのテレビジョン装置などの端末を介して、テレビ番組やインターネット番組などの映像コンテンツの番組情報(配信予定表、番組表など)を利用者(視聴者)に提供する技術としてEPG(Electronic Program Guide)技術がある。
この技術では、映像コンテンツを利用者に配信するサーバや放送局等のキャリア、又は、映像コンテンツの所有者(配信者、コンテンツホルダー)などが文字データにより番組情報を作成し、これを利用者(視聴者、聴取者等)の端末へ送信する。利用者の端末は、利用者から提示要求があった場合など所定のタイミングに番組情報を画面表示する。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来技術では、映像コンテンツの内容を的確に表現しにくく、利用者はこの内容を理解しにくいということが指摘されている。一般に、映像コンテンツは、主たる構成要素が動画像であるため、動画像データ以外の形式のデータではその内容を正確に表すことは困難で、場合によっては表現できないこともあるからである。以下に詳述する。
【0004】
テレビ番組などの映像コンテンツは、動画像データ、音データ、静止画データ、文字データなどの種々のデータにより構成されるが、中でも動画像データが主なデータとされる。つまり、多くの情報を動画像データにより伝達し、他の形式のデータにより動画像データの内容を補足/補充等する。
【0005】
したがって、従来のように映像コンテンツの内容を文字データ(すなわち文章)で表現する場合、番組情報の作成者には、映像コンテンツの内容を要約する力、この要約を利用者が理解可能な文章にする力などが要求される。一方、利用者には、文章の理解力と、理解した内容から映像(動画像データ)を想像する力が必要とされる。
しかし、このような力を身につけるには一般に訓練が必要とされる。したがって、番組情報の作成者及び/又は利用者がこのような訓練を十分に行っていない場合などには、利用者ごとに想像する内容(映像)が異なってしまう危険性が高い。
さらに、映像コンテンツの内容を要約して文章化するコンピュータ技術は知られていない。そのため、番組情報の作成において、少なくとも要約工程及び文章作成工程は人間が行う必要があった。
以下、図6に示す、従来の番組情報の画面表示例に基づき具体的に説明する。
【0006】
図6の例では、番組を提供する提供者名(チャンネル名、放送局名)、番組を放送する日にち/時間、番組の名前(タイトル)、番組の概要(番組のあらすじ、出演者)を文字データで表示する。つまり、文字データにより映像コンテンツの説明を行っている。
この例では、利用者は、番組の内容を番組の概要欄により理解、想像する。したがって、情報の提供者は、番組内容を適切に要約し、この内容を第三者にわかりやすい文章とし、これを番組の概要欄に記載する必要がある。
しかし、いくら高度な要約力や文章力を有していても、利用者に伝えることができない内容もある。例えば、出演者の俳優Aと俳優Bを知らない利用者や名前と顔とが一致していない利用者などには、番組の内容を伝えることが極めて困難となる。
このように、動画像データを主とする映像コンテンツを、動画像データ以外の形式である文字データにより説明することには極めて困難である。
【0007】
以上のような問題を解決するため、従来、種々の技術が提案されている。
例えば、特開2001−157136号公報に開示されたデジタル放送受信機は、テレビモニタのアスペクト比に応じて番組表の構成(モニタ上における番組表を配置する位置)を決定する。
しかし、この従来技術は、文字データの番組表を利用者に理解しやすくするための技術であり、文字データでは動画像データが主の番組の内容を利用者へ正確に伝えにくいという上記課題を解決するものではない。
【0008】
特開2000−348403号公報に開示された番組予約装置は、予約された番組を番組表に重畳して表示する。
しかし、この従来技術は、番組予約情報を視覚的に理解しやすく表示して番組予約を行いやすくするための技術であり、前記した課題を解決するものではない。
【0009】
文字データに加えて静止画データも利用者に提供する従来技術もある。
この従来技術は、番組の内容を説明するのに静止画像も用いているため、文字データのみを用いて番組の内容を説明する場合と比べて利用者にわかりやすく的確に情報を伝えることが可能となる。図6の例では、利用者は、俳優Aや俳優Bの顔を理解できる。
しかし、この従来技術も上記問題点を完全に解決しているわけではない。この理由は、番組の内容を的確に表す静止画データを作成することも、このような静止画データを動画像データの中から選択することも極めて困難であるということが挙げられる。
例えば、三十の静止画データにより一秒間の動画像データが形成されている場合、一分間の動画像データにおける静止画データの数は千八百枚となる。このような動画像データを、一又は複数の静止画データで的確に表すことは困難であり、また、的確に表す静止画データを作成/選択することも難しい。
また、複数の静止画データを作成/選択した場合、これを利用者の端末の画面に表示する(配置する)と、各データに統一感がないなどの理由により利用者が内容を理解しにくくなることもある。
【0010】
このように、従来技術では、映像コンテンツの内容を的確に表した番組情報を作成/提供することが極めて困難であった。したがって、番組情報の宣伝力は低いものとなり、利用者が映像コンテンツを利用する(視聴する)機会が低くなる可能性がある。これにより、キャリアやコンテンツホルダーの収入減少を招くおそれもある。
また、従来技術では、番組情報の作成工程をすべて自動化することは困難であった。
【0011】
本発明は、上記問題点に鑑みなされたものであり、動画像データを含む番組情報を自動的に作成できるようにするシステム及び方法を提供することを目的とする。
【0012】
【課題を解決するための手段】
かかる目的を達成するために、本発明に係る番組情報作成システムは、番組情報の配信を受ける利用者端末と、前記利用者端末に配信する前記番組情報の作成を依頼するコンテンツホルダーと、前記コンテンツホルダーからの依頼に基づいて前記番組情報を作成する番組情報作成装置とを有する番組情報作成システムにおいて、前記コンテンツホルダーは、前記番組情報に含まれるコンテンツサマリーの作成条件からなる発注データを前記番組情報作成装置に送信するコンテンツサマリー発注手段を有し、前記番組情報作成装置は、前記発注データに基づき映像コンテンツを要約した動画像データからなるコンテンツサマリーを作成するコンテンツサマリー生成手段と、前記コンテンツサマリー生成手段によって作成された前記コンテンツサマリーを含む番組情報を作成するコンテンツサマリー付加手段とを有することを特徴とする。
以上の構成を採用することにより、映像コンテンツの内容を動画像データにより要約できるようになる。また、番組情報の作成作業を自動化できるようになる。
【0013】
また、上記番組情報作成システムの好ましい態様を以下に記す。つまり、番組情報作成システムは、以下の構成を採用することが好ましい。
【0014】
請求項2記載の発明は、請求項1記載の番組情報作成システムにおいて、前記番組情報作成装置は、前記番組情報に含まれる前記コンテンツサマリーに付加する動画像データ以外の形式の番組データを取得する番組情報取得手段を有し、前記コンテンツサマリー付加手段は、前記番組情報取得手段によって取得された前記番組データを前記コンテンツサマリーに付加して前記番組情報を作成することを特徴とする。
この構成を採用すれば、得られる番組データを、利用者にとって極めてわかりやすい(映像コンテンツの内容を極めて理解しやすい)ものにできる。
【0015】
請求項3記載の発明は、請求項1又は2記載の番組情報作成システムにおいて、前記番組情報作成装置は、さらに、前記コンテンツサマリー付加手段によって作成された前記番組情報を前記利用者端末へ送信する番組送信手段を有することを特徴とする。
この構成を採用すれば、番組情報の利用者への提供が可能となる。
【0016】
請求項4記載の発明は、請求項1から3のいずれか1項記載の番組情報作成システムにおいて、前記利用者端末は、放送される映像コンテンツの一覧と前記番組情報作成装置から配信された前記各映像コンテンツの前記番組情報とを関連づけて管理することを特徴とする。
この構成を採用すれば、利用者は、利用者の端末に表示する番組情報を選択しやすくなる。
【0017】
請求項5記載の発明は、請求項4記載の番組情報作成システムにおいて、録画予約時に、前記一覧から選択された前記映像コンテンツの前記コンテンツサマリーを再生して利用者に提供することを特徴とする。
この構成を採用すれば、利用者が希望する映像コンテンツを視聴/録画できる可能性が極めて高くなる。
【0018】
上述の構成を採用すれば、発注データの作成者(コンテンツホルダー)の発注作業に要する労力は極めて軽減される。
【0019】
請求項6記載の発明は、請求項1から5のいずれか1項記載の番組情報作成システムにおいて、前記コンテンツホルダーは、前記コンテンツサマリー生成手段によって生成された前記コンテンツサマリーが意図したものであるか否かを判断する内容確認手段を有し、前記内容確認手段によって前記コンテンツサマリーが意図したものでないと判断されたとき、前記コンテンツサマリー発注手段は、前記発注データを作り直し、再度、前記番組情報作成装置に送信し、前記コンテンツサマリー生成手段は、前記発注データが再度入力された場合、該発注データに基づき前記コンテンツサマリーを作り直すことを特徴とする。
この構成を採用すれば、発注データの作成者が希望する/意図するコンテンツサマリーが作成される可能性が極めて高くなる。
【0020】
請求項7記載の発明は、番組情報の配信を受ける利用者端末と、前記利用者端末に配信する前記番組情報の作成を依頼するコンテンツホルダーと、前記コンテンツホルダーからの依頼に基づいて前記番組情報を作成する番組情報作成装置とを有する番組情報作成システムの番組情報作成方法において、前記コンテンツホルダーは、前記番組情報に含まれるコンテンツサマリーの作成条件からなる発注データを前記番組情報作成装置に送信するコンテンツサマリー発注工程を有し、前記番組情報作成装置は、前記発注データに基づき映像コンテンツを要約した動画像データからなるコンテンツサマリーを作成するコンテンツサマリー生成工程と、前記コンテンツサマリー生成手段によって作成された前記コンテンツサマリーを含む番組情報を作成するコンテンツサマリー付加工程とを有することを特徴とする。
これにより、映像コンテンツの内容を動画像データにより要約した番組情報を自動的に作成することが可能となる。
【0021】
請求項8記載の発明は、請求項7記載の番組情報作成方法において、前記発注データは、前記コンテンツサマリーの時間的長さに関する情報、前記コンテンツサマリーの出力形式に関する情報、前記映像コンテンツの中で、前記コンテンツサマリーに必ず含める部分を指定する情報、前記コンテンツサマリーとして採用するシーンの種類を特定する情報、動画像データに含まれる人物/キャラクター/風景などの構成要素に基づき、前記コンテンツサマリーに採用する部分を指定する情報、前記映像コンテンツの内、及び採用しない動画像データを指定する情報、前記コンテンツサマリーに採用するカットを指定する情報のうち少なくとも1つを有することを特徴とする。
上述のような情報が含まれていれば、発注データの作成者(コンテンツホルダー)が意図する/希望するコンテンツサマリーが作成される可能性が高くなる。発注者の意図/希望を正確に把握可能となる。
【0022】
請求項9記載の発明は、請求項7又は8記載の番組情報作成方法において、前記コンテンツサマリー生成工程は、前記映像コンテンツから採用する前記動画像データを前記発注データに基づき抽出する工程と、抽出された前記動画像データをつなぎ合わせて前記コンテンツサマリーを作成する工程とを有することを特徴とする。
請求項10記載の発明は、請求項7又は8記載の番組情報作成方法において、前記発注データが前記コンテンツサマリーに必須の場面及びカットに関する情報を有するとき、前記コンテンツサマリー生成工程は、前記コンテンツサマリーに必須の場面及びカットを前記映像コンテンツから抽出する工程と、抽出された前記必須の場面及びカットをつなぎ合わせて前記コンテンツサマリーを作成する工程とを有することを特徴とする。
【0023】
請求項11記載の発明は、請求項7から10のいずれか1項記載の番組情報作成方法において、前記コンテンツホルダーは、前記コンテンツサマリー生成手段によって生成された前記コンテンツサマリーが意図したものであるか否かを判断する工程と、前記コンテンツサマリーが意図したものでないと判断されたとき、前記発注データを作り直し、再度、前記番組情報作成装置に送信する工程とを有し、前記番組情報作成装置は、前記発注データが再度入力された場合、該発注データに基づき前記コンテンツサマリーを作り直す工程を有することを特徴とする。
このような態様を採用すれば、発注データの作成者(コンテンツホルダー)が意図する/希望するコンテンツサマリーが作成される可能性が極めて高くなる。
【0024】
請求項12記載の発明は、請求項7から11のいずれか1項記載の番組情報作成方法において、前記番組情報作成装置は、前記番組情報に含まれる前記コンテンツサマリーに付加する動画像データ以外の形式の番組データを取得する番組情報取得工程と、前記コンテンツサマリー付加工程は、前記番組情報取得工程によって取得された前記番組データを前記コンテンツサマリーに付加して前記番組情報を作成することを特徴とする。
このような番組情報を作成すれば、利用者は、映像コンテンツの内容をより正確に把握できるようになるからである。
請求項13記載の発明は、請求項12記載の番組情報作成方法において、前記番組データがEPGデータであることを特徴とする。
このようにすれば、従来のシステムに変更を加えるだけで本発明を実現できるからである。
請求項14記載の発明は、請求項7から13のいずれか1項記載の番組情報作成方法において、前記番組情報作成装置は、さらに、前記コンテンツサマリー付加工程によって作成された前記番組情報を前記利用者端末へ送信する番組送信工程を有することを特徴とする。
【0025】
【発明の実施の形態】
以下、本発明に係る番組情報作成方法及びシステムを、実施の形態によって詳細に説明する。まず、上記番組情報作成方法について詳細に説明する。
【0026】
〈番組情報作成方法〉
本実施の形態に係る番組情報作成方法は、第一の番組情報作成方法と第二の番組情報作成方法とがある。
【0027】
〈第一の番組情報作成方法〉
第一の番組情報作成方法は、発注データに基づき以下の(1)〜(2)のステップを有する。
(1)映像コンテンツを要約した動画像データ(要約データ、コンテンツサマリー)を作成するステップ。
つまり、このステップでは、発注データに基づき、映像コンテンツの内容を要約した動画像データ(コンテンツサマリー)を作成する。
(2)上記コンテンツサマリーを含む番組情報を作成するステップ。
以下、まず発注データについて説明し、次いで(1)のステップ、(2)のステップについて詳細に説明する。
【0028】
〈発注データ〉
発注データとは、番組情報の作成条件が記載されたデータである。このデータは、少なくとも要約条件情報が含まれる。要約条件情報とは、どのような内容のコンテンツサマリーにするかという条件が含まれる情報である。この条件は、換言すれば、映像コンテンツからコンテンツサマリーを作成するための要件である。
【0029】
図3に示す発注データでは、要約条件情報は、『(コンテンツ)サマリーの長さ』の情報、『出力形式』の情報、『必須場面』の情報、『モード』の情報及び『条件』の情報が含まれる。
【0030】
『サマリーの長さ』の情報は、コンテンツサマリーの時間的長さに関する情報である。
図3の例では『90秒』という情報が含まれる。つまり、90秒の長さのコンテンツサマリーを作成するように指示する情報が含まれている。
ただし、この情報は予め設定されていてもよい。つまり、コンテンツサマリーの時間的長さは、発注データにより規定されてもよく、予め設定されていてもよい。
【0031】
『出力形式』の情報は、コンテンツサマリーの出力形式(フォーマット)に関する情報である。
図3の例では、MPEG−1(Moving Picture Experts Group-1)でコンテンツサマリーを作成するように指定されている。
ただし、『サマリーの長さ』の情報と同様に、『出力形式』のデータは予め設定された情報を用いるようにしてもよい。
【0032】
『必須場面』の情報は、映像コンテンツの中で、コンテンツサマリーに必ず含める部分(場面)を指定した情報である。すなわち、必須場面とは、コンテンツサマリーに必ず採用する映像コンテンツ中の部分(動画像データ)のことである。
図3の例では、映像コンテンツの最初(0:00)の位置を基準として、0:00:00から0:00:24までの位置にある動画像データと、0:12から0:15の動画像データと、0:35:38〜0:36:02の動画像データとを必須場面として指定されている。すなわち、映像コンテンツを初めから再生した場合における、再生開始時から2分間の映像と、再生開始後12分から15分の3分間の映像と、再生開始後35分から37分の2分間の映像とが必須場面と指定されている。
なお、必須場面は、図3に示すように、映像コンテンツにおける必須場面の時間的位置(映像コンテンツの最初(初め、頭)からの経過時間)により指定してもよいが、他の方法(映像コンテンツにおける場面を特定する方法)を採用することも当然に可能である。
【0033】
『モード』の情報は、コンテンツサマリーとして採用するシーンの種類を特定する情報である。なお、シーンとは、映像コンテンツにおける、時間的に連続した、同一の特徴を持ったフレームの集合である。フレームとは、動画像データを構成する静止画データのことである。
シーンの種類とは、シーンの特色/特徴を意味する。例えば、図3に示す発注データのように、ダイナミックなシーン(動きの多いシーン)、サイレンスなシーン(動きの少ないシーン)のようにシーンの種類を指定できる。シーンの種類については後に詳細に説明する。
また、シーンの種類ごとにコンテンツサマリーに採用する割合も指定できるようにすることが好ましい。例えば、『コンテンツサマリーにおける「ダイナミックなシーン」の割合を7割にする』『コンテンツサマリーにおける「サイレントなシーン」の割合を4割以下にする」といった指定ができるようにすれば、発注データ作成者の希望する(想定した)コンテンツサマリーが作成される可能性が高くなる。
【0034】
『条件』の情報は、前記した以外の要件(情報)が記載される。図3において、この情報には以下(a)〜(c)の情報が含まれる。
(a)動画像データに含まれる人物/キャラクター/風景などの構成要素に基づき、コンテンツサマリーに採用する部分(シーン、カット等)を指定する情報
図3の例では、俳優Aがでている場面(動画像データ:シーンやカット等)を多めに採用すると指定している。なお、本例における「多めに」とは、「予め設定された閾値以上の割合で」という意味である。
また、構成要素に基づき、コンテンツサマリーに採用しない部分(シーン、カット等)を指定する情報を含めてもよい。すなわち、「司会者Zが登場している場面を採用しない」、というように、コンテンツサマリーに採用しない場面を指定してもよい。
【0035】
(b)映画の結末がわからないよう、ラストシーンを使わなくするために、映像コンテンツのラスト(後ろから)10分間の動画像データを採用しないと指定する情報
『必須場面』の情報はコンテンツサマリーに採用する動画像データを指定するが、上記情報は、採用しない動画像データを指定する。
また、採用しないカット/シーンを指定できるようにしてもよい。
【0036】
(c)コンテンツサマリーに採用するカットを指定する情報
カットとは、コンテンツホルダーにより任意に設定された、映像コンテンツ内のまとまりをいう。例えば、図4に示すように、映像コンテンツをAからJまでの9つのかたまりに分けた場合の、それぞれのかたまりをカットという。換言すれば、図4に示す映像コンテンツは、カットA〜カットJにより構成される。
【0037】
発注データには、以上に挙げたような、映像コンテンツからコンテンツサマリーに採用する動画像データを特定するための要件(情報)を要約条件情報として少なくとも一つを含む。当然、例示した以外の要件も採用できる。
【0038】
また、発注データには、要約条件情報以外の情報も含めることができる。このような情報としては、例えば次のようなものが挙げられる。
・番組名の情報
・番組を放映する日時の情報
・番組情報の作成期限(納期)の情報
【0039】
番組名の情報とは、映像コンテンツの名前の情報である。図3においては番組名は『○曜スーパースペシャル』である。
番組を放映する日時(放映日時)の情報とは、映像コンテンツを利用者に配信する日時の情報である。図3においては放映日時は『2001/10/21 18:54〜20:50』である。
納期の情報とは、コンテンツサマリーの作成期限の情報である。図3においては、『2001/10/16』が作成期限日である。
なお、これら以外の情報を含めることは当然に可能であり、例えば、番組情報の作成期限の情報を含めてもよい。
【0040】
また、発注データに、番組情報及び/又はコンテンツサマリーに音データ(音声データ)を含めるか否かの情報(音条件情報)を加えてもよい。すなわち、番組情報に音データを含めたり、コンテンツサマリーに音データを含めるように指示できるようにしてもよい。図3の例では、『音声』を『あり』と指定し、音データを含めるように指定している。
次に上記(1)のステップについて詳細に説明する。
【0041】
〈(1)のステップ〉
上記(1)のステップでは、発注データに基づき映像コンテンツからコンテンツサマリーを作成する。つまり、発注データに含まれる要約条件情報に基づき、コンテンツサマリーに採用する動画像データ(場面、部分)を映像コンテンツから抽出し、これらの動画像データをつなぎ合わせてコンテンツサマリーを作成する。
この(1)のステップは、例えば、以下に説明する1−1から1−3に到るステップを実行することでも実現できる。
【0042】
1−1.必須場面、必須カットを抽出するステップ
要約条件情報に、「コンテンツサマリーに含める映像コンテンツにおける必須場面に関する情報」が含まれている場合、この必須場面を映像コンテンツから抽出する。
図3の例では、映像コンテンツから、0:00:00の位置から0:00:24の位置までの動画像データと、0:12の位置から0:15の位置の動画像データと、0:35:38の位置から0:36:02の位置までの動画像データとを抽出する。
【0043】
また、必須カットに関する情報が要約条件情報に含まれている場合、この必須カットを映像コンテンツから抽出する。
図3の例では、映像コンテンツから、カットDの動画像データを抽出する。
次にステップ1−2へ進む。
【0044】
1−2.シーンを抽出するステップ
このステップではシーン抽出を行う。コンテンツサマリーの長さの情報が要約条件情報に含まれている場合にはステップ1−2(a)に進む。含まれていない場合にはステップ1−2(b)に進む。
【0045】
1−2(a)コンテンツサマリーの長さが決められている場合
コンテンツサマリーの長さに関する情報が要約条件情報に含まれている場合、1−1のステップで抽出した動画像データの合計の長さと上記情報で指定された長さとを比較する。
1−1のステップで抽出した動画像データが上記情報で指定された長さを超えていない場合には1−2(a1)へ進む。超えている場合には1−2(a2)へ進む。
【0046】
1−2(a1)
コンテンツサマリーにおいて、1−1のステップで抽出した動画像データと、要約条件情報で指定されたコンテンツサマリーに使用しない部分(場面、カット)の動画像データと、を除いた部分(動画像データ)についてシーン分けする。
シーン分けは公知の方法により行えばよく、例えば、本願出願人による米国出願09/369421や特願2000−259975号に開示した技術を好適に用いることができ、また、下記(イ)〜(ハ)の順に処理することでも実現できる。
【0047】
(イ)映像コンテンツのフレームごとに色情報を取得する。
色情報とは、フレーム(静止画データ)を支配する色のデータのことである。静止画データを支配する色とは、静止画データにおける支配的な色とも言い換えることができ、例えば、各画素の色データ(明度、色合い、彩度等)を公知の基準により数値化し、フレームを構成する全画素の平均値を算出して表される色としてもよい。また、フレーム中で最も用いられている色としてもよい。
【0048】
(ロ)連続するフレームで、ベクトル空間における位置が近いものをグルーピングする。つまり、フレームを色情報ごとにベクトル空間(例えば1125次元の色空間)に配置し、空間内の位置が近いと判定したフレームで、映像コンテンツにおいて時間的に連続するものをグルーピングする。グルーピングは例えば以下のように行ってもよい。
【0049】
まず、一番はじめのフレーム(0:00におけるフレーム、以下一番目のフレームと表記する)と二番目のフレームとの色情報を比較する。二番目のフレームとは、一番目のフレームに対し、映像コンテンツにおいて時間的に連続するフレームで、いわゆる一番目のフレームに対する次のフレームのことである。色情報の比較は、予め設定された、ベクトル空間における位置が近いか否か判定するための関係式やテーブルを用い、一番目と二番目のフレームは互いに空間内の位置が近いか否かを判定することで行う。
【0050】
両者が近いと判定した場合、両者を一つのグループとして扱う。
次に、一番目のフレームと、二番目のフレームの次のフレーム(三番目のフレーム)とを、前記同様に色情報を比較する。両者が近いと判定した場合、三番目のフレームを一番目のフレームと同一グループとする。なお、三番目のフレームを支配する色と、一番目のフレーム及び二番目のフレームを支配する色とを比較し、両者が近いか否かを判定してもよい。
【0051】
このように、一番目のフレームを基準として、支配する色が近いと判定された、映像コンテンツにおける時間的位置が連続する一群のフレームを一つのグループとして扱う。
一番目のフレームとが遠いと判定されたフレームは、一番目のフレームの属するグループには入れない。そして、このフレームを基準(一番目のフレーム)として前記同様にグルーピングする。
以上の処理により、動画像データをグループに分ける。
【0052】
(ハ)映像コンテンツにおいて時間的位置が隣接するグループ同士が所定の関係を満たしていれば、これらのグループをまとめてシーン(クラスタ)にする。
シーンにまとめるグループ同士の関係性は任意に設定できる。例えば、グループを構成する各フレームの色情報を平均化した値同士で比較し、所定の関係にある場合にはまとめる。この所定の関係とは、例えば、二つの値の差が一定の値以下である場合などがある。このように所定の関係を満たすグループのまとまりがシーンとなる。
以上のようにシーン分けする。
【0053】
次に、上記シーンの内でコンテンツサマリーとして採用するものを決定する。採用するシーンは、要約条件情報に従い決定する。
図3の場合、俳優Aがでているシーンを採用すると指定されている。したがって、このようなシーンを、例えば顔認識アプリケーションソフトウェアを用いて検索する。
また、ダイナミックなシーンを採用すると指定されている場合、公知の方法を用い、予め設定されたダイナミックなシーンの条件を満たすシーンを検索する。
このように、公知の構成要素判断技術を用いて、要約条件情報に記載された条件を満たすシーンを検索する。
【0054】
なお、抽出したシーン(動画像データ)と1−1で抽出した動画像データとの合計の長さが、要約条件情報で指定されたコンテンツサマリーの長さよりも長い場合、抽出したシーンの削除等を行い、上記合計の長さが指定された長さになるようにする。このようなコンテンツサマリーの長さの調整は公知の方法を用いることで実現できる。
例えば、抽出した一又は複数のシーンの長さを短くし、合計の長さが指定された長さになるようにしてもよい。
また、検索条件を変えてシーンの抽出をやり直してもよい。図3の例では、俳優Aがでているシーンを検索する場合に、該当するシーンであるか否かの条件を厳しくすればよい。例えば、俳優Aがでている確率が70%以上のシーンを抽出していた場合、90%以上のシーンを抽出するように条件を変更すれば、抽出されるシーンの数は減る可能性が高くなるからである。
また、抽出したシーン(動画像データ)と1−1で抽出した動画像データとの合計の長さが、要約条件情報で指定されたコンテンツサマリーの長さよりも短い場合、検索条件を変えてシーンの抽出をやり直してもよい。図3の例では、俳優Aがでている確率を、はじめの検索よりも低く設定してシーンを抽出すれば、抽出されるシーンの数が増える可能性があるからである。
【0055】
なお、コンテンツサマリーにおけるシーンの種類の割合が指定されている場合、この指定に従って抽出したシーンの取捨選択を行う。
1−2(a1)のステップでは、以上の処理終了後、1−3のステップへ移行する。
【0056】
1−2(a2)
1−1のステップで抽出した動画像データについて、1−2(a1)同様にシーン分けを行い、各シーンの内、要約条件情報で指定された条件を満たすシーンを検索する。そして、前記同様の方法で、採用するシーンの長さを、要約条件情報で指定されたコンテンツサマリーの長さと同じになるようにする。
1−2(a2)のステップでは、以上の処理終了後、1−3のステップへ移行する。
【0057】
1−2(b)
コンテンツサマリーの長さに指定がない場合、1−2(a1)と同様にシーンを抽出するが、シーンの長さの調整は行わない。すなわち、要約条件情報で指定されたシーンをすべて抽出する。
1−2(b)のステップでは、以上の処理終了後、1−3のステップへ移行する。
【0058】
1−3.コンテンツサマリーの作成
以上のように抽出したシーンや場面、カットなどの動画像データからコンテンツサマリーを作成する。この作成方法は公知の方法を用いればよい。
例えば、各動画像データを、映像コンテンツにおける時間順に並べてつなぎ合わせてコンテンツサマリーを作成してもよい。また、発注データに並べる順番に関する情報が指定されている場合には、この情報に基づき動画像データを並べてつなぎ合わせてコンテンツサマリーを作成してもよい。
【0059】
また、作成したコンテンツサマリーの形式が要約条件情報で指定された形式と異なる場合、公知の方法によりコンテンツサマリーのフォーマット変換を行う。
次に(2)のステップへ移行する。
【0060】
〈(2)のステップ〉
(2)のステップでは、コンテンツサマリーを含む番組情報を作成する。つまり、コンテンツサマリーを利用者の端末で再生できるようにする。
なお、HTMLやXMLのようなハイパーテキスト・マークアップ言語などの情報記述言語により番組情報を作成し、コンテンツサマリーを番組情報に関連づけてもよい。
【0061】
〈第二の番組情報作成方法〉
第二の番組情報作成方法は以下の点で第一の番組情報作成方法と異なる。
・上記(1)と(2)のステップの間に、作成したコンテンツサマリーを発注者(コンテンツホルダー)に確認させるステップを有する。
・上記(2)のステップは、番組情報作成開始要件が満たされた場合に開始する。
【0062】
つまり、作成されたコンテンツサマリーが意図したものであるか発注者が確認できるようにする。そして、発注者は、意図したコンテンツサマリーが作成されていなかった場合には再度発注データを作成し、このデータに基づいてコンテンツサマリーを作成し直させるようにする。
また、番組情報作成開始要件は任意に設定できる。例えば、コンテンツサマリー作成後、発注者に当該コンテンツサマリーの確認依頼をするようにし、この依頼の後、所定の期間、上記発注者から発注データが送信されなかった場合に上記(2)のステップを開始するようにしてもよい。
【0063】
なお、上記第一又は第二の番組情報作成方法において次のような変形も可能である。
【0064】
〈変形例1〉
作成した番組情報を発注者に確認させてもよい。そして、発注者に、意図した番組情報が作成されていなかった場合には発注データを作成し直させ、このデータに基づき番組情報を作成し直す。
【0065】
〈変形例2〉
文字データや静止画データで構成された番組データとコンテンツサマリーとを合成して番組情報を作成してもよい。
この場合、利用者の端末は、例えば図7に示すように、番組データ(タイトルやあらすじなどの文字データ)とコンテンツサマリーとを再生する。
【0066】
〈変形例3〉
番組情報及び/又はコンテンツサマリーに音データ(音声データ)を含めてもよい。音データは、映像コンテンツにおけるコンテンツサマリーに採用された動画像データに同期するデータとしてもよく、この動画データとは無関係のデータを採用してもよい。
【0067】
なお、以上のように作成した番組情報は利用者の端末へ提供される。番組情報の提供方法としては任意の方法を採用できるが、例えば以下の(i)〜(iii )の方法を採用してもよい。
(i)コンテンツホルダーを介して提供する方法
コンテンツホルダーは、得られた番組情報を任意の方法で利用者に提供可能となる。提供方法としては、例えば、キャリアを介して提供したり、インターネット網などのTCP/IP環境下の通信網を介して利用者に提供してもよい。
(ii)キャリアを介して提供する方法
キャリアは、例えば従来同様に番組情報を利用者に提供することができる。例えば、TCP/IP環境下の通信網などを介して利用者の端末へ番組情報を送信してもよく、放送網を介して利用者の端末へ送信してもよい。
(iii )利用者に直接配信する方法
(i)や(ii)と同様に公知の方法を用いて利用者の端末へ番組情報を送信すればよい。
次に番組情報作成システムについて詳細に説明する。
【0068】
〈番組情報作成システム〉
本発明に係る番組情報作成システムは、少なくともコンテンツサマリー生成手段6と番組情報生成手段(コンテンツサマリー付加手段)8とを有する。
コンテンツサマリー生成手段6は、前記した番組情報作成方法におけるステップ(1)を実行する機能を有し、発注データに基づきコンテンツサマリーを作成する。
コンテンツサマリー付加手段8は、前記した番組情報作成方法におけるステップ(2)を実行する機能を有し、上記コンテンツサマリーから番組情報を作成する。
【0069】
なお、上記番組作成システムには、番組情報取得手段7、番組情報送信手段9、コンテンツサマリー発注手段4及び/又は内容確認手段5を設けてもよい。
なお、図1に示すように、コンテンツサマリー発注手段4及び内容確認手段5はコンテンツホルダ1側に設けることが好ましい。他の構成要素は好ましくは番組情報作成者側に設けることが好ましい。コンテンツホルダ側に設けられた構成要素とコンテンツサマリー生成手段とは、例えば通信網を介して通信できるようにするとよい。
【0070】
番組情報取得手段7は、番組データを取得する手段である。
番組送信手段9は、番組情報生成手段6で作成された番組情報を所定の相手に送信する機能を有する。所定の相手は、例えば、コンテンツホルダー(発注者)、キャリア、利用者などがある。
コンテンツサマリー発注手段4は、コンテンツホルダーから入力された情報に基づき上記発注データを作成し、これをコンテンツサマリー生成手段6へ入力する機能を有する。
内容確認手段5は、コンテンツサマリー生成手段6で作成されたコンテンツサマリーをコンテンツホルダーに確認させる機能を有する。つまり、コンテンツサマリー生成手段6から入力されたコンテンツサマリーを再生する機能を有する。コンテンツホルダー(発注者)は、このコンテンツサマリーが意図したものではなかった場合、発注データを作り直し、このデータに基づきコンテンツサマリー生成手段6にコンテンツサマリーを作り直させる。
次に、図1に示す番組情報作成システムの一動作例を、図2を参照しながら説明する。
【0071】
コンテンツサマリー発注手段4は、コンテンツホルダーの指示に従い発注データを作成する。そして、この発注データをコンテンツサマリー生成手段6へ送信する。
【0072】
コンテンツサマリー生成手段6は、上記発注データを受け取り(ステップS101)、発注内容を確認し(ステップS102)、発注データに基づきコンテンツサマリーを作成する(ステップS103)。コンテンツサマリーを作成すると、これを内容確認手段5へ送信し(内容確認依頼:ステップS104)、コンテンツホルダーが意図した(希望した)コンテンツサマリーか否か確認させる(内容の妥当性評価:ステップS105)。
【0073】
コンテンツサマリーが妥当なものではなかった場合(ステップS105/NG)にはステップS103へ戻る。すなわち、コンテンツホルダーは、コンテンツサマリー発注手段4を用いて発注データを作り直し、このデータに基づき再度コンテンツホルダーを作成し直させる。
【0074】
コンテンツサマリーが妥当なものであった場合(ステップS105/OK)には、コンテンツサマリー生成手段6は、上記コンテンツサマリーをコンテンツサマリー付加手段8へ送信する。
【0075】
コンテンツサマリー付加手段8は、上記コンテンツサマリーを含む番組情報を作成する(ステップS106〜ステップS107)。
なお、番組情報に文字データなどのコンテンツサマリー以外のデータを含める場合には、番組情報取得手段7は、これらのデータを収集し、これをコンテンツサマリー付加手段に送信する(ステップS106)。これらのデータは、例えば、従来のEPGデータに採用されるデータなどを用いることができ、キャリア2などから取得できる。
以上の処理により番組情報を作成できる。
【0076】
番組情報送信手段9は、コンテンツサマリー付加手段8で作成された番組情報をキャリア2へ送信する(ステップS108)。
このステップにより番組情報を利用者へ提供できるようになる。
次に、利用者の端末における番組情報の表示例について図5〜図7を用いて説明する。
【0077】
図5は、従来のEPGデータのうち、例えばあるチャンネルのある時間帯の番組表の例を示す図である。より詳しくは、図5には、「13Ch」で16:00〜23:45の間に放送される映像コンテンツのタイトル(番組名)と各映像コンテンツを放送する時間とを表示する例を示す。
図6は、従来のEPGデータのうち、図5記載の一タイトルを選択した際に表示される、番組の詳細情報の例を示す図である。すなわち、従来のEPGデータの表示例である。
図7は、前記コンテンツサマリー付加手段8によって、従来のEPGデータとコンテンツサマリーを同一画面上で結合した例を示す図である。すなわち、本例で作成した番組情報の表示例である。
より詳しくは、図6、図7は、図5における「18:54〜20:50」に放送される番組「○曜スーパースペシャル」の情報表示例である。
【0078】
図6に示すように、EPGデータは文字データにより構成されているため、従来は、利用者の端末において、「○曜スーパースペシャル」に関する情報を文字により表示していた。
これに対し、本実施の形態に係る番組情報作成システムで作成された番組情報にはコンテンツサマリーが含まれている(又は関連づけられている)ため、図7に示すようにコンテンツサマリーも再生される。したがって、利用者は、「○曜スーパースペシャル」の内容を従来よりも詳しく知ることが/想像することができる。
このように、コンテンツサマリーと、動画像データ以外の形式のデータ(EPGデータ等)とを関連づけて表示できるようにすれば、利用者は、番組の内容を従来よりも詳細に把握できる可能性が高くなる。
【0079】
なお、図5に示すような番組表に関連づけて番組情報を表示できるようにすれば、利用者は番組情報を選択しやすくなる。すなわち、図5に示すような番組表をクリックする(選択する)ことで表示する番組情報を選択できるようにすれば、多数の番組情報の中から利用者が希望する情報を選択しやすくなる。別言すれば、番組情報を、利用者の端末において、一覧データ(番組表)の中から利用者に選択された番組情報が再生されるように番組情報の一覧データと関連づけることが好ましい。この関連づけは、HTMLなどの言語を用いたいわゆる「リンク」技術を用いて実現してもよい。
【0080】
また、図7に示すように映像コンテンツの録画/視聴予約画面においてコンテンツサマリーを利用者に提示できるようにすれば、利用者は、希望する映像コンテンツを録画/視聴できる可能性が極めて高くなる。すなわち、番組情報を、利用者の端末において、映像コンテンツの視聴予約及び/又は録画予約時にコンテンツサマリーが再生されるように設定することが好ましい。
【0081】
ただし、番組情報は、少なくともコンテンツサマリーを含めばよく、図7に示すように文字データを含む必要はない。しかし、図7に示すように番組情報に文字データ等の動画像データ以外の形式のデータを含めれば、利用者は、極めて詳細に番組の内容を知ることができる。図7の例では、放送時間、番組タイトル、あらすじ、出演者名の情報を知ることができる。
【0082】
以上、この発明の好適な実施の形態を説明したが、上述の実施の形態はこの発明の説明のための例示であって、この実施形態のみにこの発明の範囲を限定する趣旨ではない。当業者は、この発明の要旨を逸脱することなく、種々の変形、改良、修正、簡略化などを上記実施形態に加えた種々の他の形態でもこの発明を実施することができる。
【0083】
【発明の効果】
以上の説明から明らかなように、本発明によれば、番組情報として動画像データを動画像データを含む番組情報を作成できるようになるので、一般の利用者にとって見た目にわかりやすい情報を提供できる。
したがって、利用者が番組を見る機会が増え、有料コンテンツであれば徴収額が増える可能性がある。このことは、従来の文字データや静止画データから構成されたEPGなどの番組情報と比べて宣伝効果が高い番組情報を作成できることを意味する。
【0084】
また、コンテンツホルダーがコンテンツサマリーを確認するようにすれば、コンテンツホルダーが意図するコンテンツサマリーを生成できる。
【図面の簡単な説明】
【図1】本発明による番組情報作成システムの構成例を示したブロック図である。
【図2】本発明に係る番組情報作成方法の一例を示したフローチャートである。
【図3】発注データの一例を示す。
【図4】コンテンツサマリーの作成例を示す。
【図5】番組情報の一覧の表示例を示す。
【図6】従来の番組情報(EPGデータ)の表示例を示す。
【図7】本発明による番組情報の表示例を示す。
【符号の説明】
1 コンテンツホルダー
2 キャリア
3 番組情報作成者
4 コンテンツサマリー発注手段
5 内容確認手段
6 コンテンツサマリー生成手段
7 番組情報取得手段
8 番組情報生成手段(コンテンツサマリー付加手段)
9 番組情報送信手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a system and method for creating program information including moving image data from video content such as a television program.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, EPG (Electronic) is a technique for providing program information (distribution schedule, program guide, etc.) of video contents such as TV programs and Internet programs to users (viewers) via a terminal such as a user's television device. Program Guide) technology.
In this technology, a carrier such as a server or a broadcasting station that distributes video content to users, or an owner (distributor, content holder) of video content creates program information from character data and uses this information for the user ( Sent to the terminal of viewers, listeners, etc.). The user terminal displays the program information on the screen at a predetermined timing such as when a presentation request is received from the user.
[0003]
[Problems to be solved by the invention]
However, it has been pointed out that in the above-described conventional technology, it is difficult to accurately express the content of video content, and it is difficult for a user to understand this content. In general, since the main component of a video content is a moving image, it is difficult to accurately represent the contents with data in a format other than moving image data, and in some cases, it cannot be expressed. This will be described in detail below.
[0004]
Video content such as a television program is composed of various data such as moving image data, sound data, still image data, and character data. Among them, moving image data is the main data. That is, a lot of information is transmitted by moving image data, and the contents of moving image data are supplemented / supplemented by other types of data.
[0005]
Therefore, when the content of video content is represented by character data (ie, text) as in the past, the creator of the program information has the ability to summarize the content of the video content, and this summary is converted into text that can be understood by the user. The power to do is required. On the other hand, the user needs the ability to understand sentences and the ability to imagine video (moving image data) from the understood contents.
However, training is generally required to acquire such power. Therefore, when the creator and / or user of the program information does not sufficiently perform such training, there is a high risk that the contents (video) imagined for each user will be different.
Furthermore, there is no known computer technology for summarizing the contents of video content into text. Therefore, in creating program information, it is necessary for humans to perform at least the summarization step and the sentence creation step.
Hereinafter, a specific description will be given based on a conventional screen display example of program information shown in FIG.
[0006]
In the example of FIG. 6, the provider name (channel name, broadcast station name) providing the program, the date / time when the program is broadcast, the program name (title), and the program overview (program synopsis, performers) are written in characters. Display with data. That is, the video content is described using character data.
In this example, the user understands and imagines the contents of the program in the program summary column. Therefore, it is necessary for the information provider to appropriately summarize the contents of the program, to make the contents easy to understand for a third party, and to describe this in the outline section of the program.
However, there are contents that cannot be communicated to the user, no matter how much summarization or writing ability. For example, it is extremely difficult to convey the contents of a program to a user who does not know the actors A and B of the performers or a user whose name and face do not match.
As described above, it is extremely difficult to describe video content mainly including moving image data using character data in a format other than moving image data.
[0007]
In order to solve the above problems, various techniques have been conventionally proposed.
For example, the digital broadcast receiver disclosed in Japanese Patent Application Laid-Open No. 2001-157136 determines the configuration of a program guide (position where the program guide is arranged on the monitor) according to the aspect ratio of the television monitor.
However, this conventional technique is a technique for making it easier for the user to understand the program table of character data, and in the character data, the moving image data is difficult to accurately convey the contents of the main program to the user. It does not solve.
[0008]
A program reservation apparatus disclosed in Japanese Patent Laid-Open No. 2000-348403 displays a reserved program superimposed on a program guide.
However, this prior art is a technique for easily displaying a program reservation information by visually displaying the program reservation information, and does not solve the above-described problem.
[0009]
There is also a conventional technique that provides users with still image data in addition to character data.
Because this conventional technology uses still images to explain the contents of the program, it is possible to convey information to the user more clearly and accurately than when the contents of the program are explained using only character data. It becomes. In the example of FIG. 6, the user can understand the faces of actor A and actor B.
However, this prior art does not completely solve the above problems. The reason for this is that it is extremely difficult to create still image data that accurately represents the contents of a program and to select such still image data from moving image data.
For example, when moving image data for one second is formed by thirty still image data, the number of still image data in moving image data for one minute is 1,800. It is difficult to accurately represent such moving image data with one or a plurality of still image data, and it is also difficult to create / select still image data that accurately represents such moving image data.
In addition, when multiple still image data are created / selected, if they are displayed (arranged) on the screen of the user's terminal, it is difficult for the user to understand the contents because the data is not unified. Sometimes.
[0010]
As described above, in the prior art, it has been extremely difficult to create / provide program information that accurately represents the contents of video content. Therefore, the advertising power of the program information is low, and there is a possibility that the user has a low opportunity to use (view) the video content. This may lead to a decrease in the revenue of carriers and content holders.
Also, with the prior art, it has been difficult to automate the entire program information creation process.
[0011]
The present invention has been made in view of the above problems, and an object of the present invention is to provide a system and method that can automatically create program information including moving image data.
[0012]
[Means for Solving the Problems]
  In order to achieve such an object, a program information creation system according to the present invention includes:A user terminal that receives distribution of program information, a content holder that requests creation of the program information to be distributed to the user terminal, and a program information creation device that creates the program information based on a request from the content holder In the program information creation system, the content holder includes content summary ordering means for transmitting order data including creation conditions of the content summary included in the program information to the program information creation device, and the program information creation device Includes a content summary generation unit that creates a video content summary of video content based on the ordering data, and a content summary addition that generates program information including the content summary generated by the content summary generation unit With means It is characterized in.
  By adopting the above configuration, the contents of video content can be summarized by moving image data. Also, program information creation work can be automated.
[0013]
  Moreover, the preferable aspect of the said program information creation system is described below. In other words, the program information creation systemIt is preferable to employ the following configuration.
[0014]
  According to a second aspect of the present invention, in the program information creation system according to the first aspect, the program information creation device acquires program data in a format other than moving image data to be added to the content summary included in the program information. It has program information acquisition means, and the content summary addition means adds the program data acquired by the program information acquisition means to the content summary to create the program information.
  By adopting this configuration, the obtained program data can be made extremely easy for the user to understand (the content of the video content is very easy to understand).
[0015]
  According to a third aspect of the present invention, in the program information creation system according to the first or second aspect, the program information creation device further transmits the program information created by the content summary adding means to the user terminal. It has a program transmission means.
  If this configuration is adopted, program information can be provided to users.
[0016]
  According to a fourth aspect of the present invention, in the program information creation system according to any one of the first to third aspects, the user terminal receives the list of video contents to be broadcast and the program information creation device. The program information of each video content is managed in association with each other.
  If this configuration is adopted, the user can easily select program information to be displayed on the user's terminal.
[0017]
  According to a fifth aspect of the present invention, in the program information creation system according to the fourth aspect, when recording is reserved, the content summary of the video content selected from the list is reproduced and provided to the user. .
  If this configuration is adopted, the possibility of viewing / recording video content desired by the user becomes extremely high.
[0018]
  AboveIf the configuration is adopted, the labor required for the ordering work of the creator (content holder) of the ordering data is greatly reduced.
[0019]
  The invention described in claim 6 is the program information creation system according to any one of claims 1 to 5, wherein the content holder is intended by the content summary generated by the content summary generation means. Content confirmation means for determining whether or not the content summary is determined to be unintended by the content confirmation means, the content summary ordering means recreates the order data and creates the program information again When the order data is input again, the content summary generation means re-creates the content summary based on the order data.
  If this configuration is adopted, there is a very high possibility that a content summary desired / intended by the creator of the ordering data will be created.
[0020]
  The invention described in claim 7 is a user terminal that receives distribution of program information, a content holder that requests creation of the program information to be distributed to the user terminal, and the program information based on a request from the content holder In the program information creation method of the program information creation system having the program information creation device for creating the program information, the content holder transmits ordering data including the creation conditions of the content summary included in the program information to the program information creation device. A content summary ordering step, wherein the program information creation device is created by a content summary creation step of creating a content summary composed of moving image data obtained by summarizing video content based on the ordering data; and the content summary creation means Create program information including the content summary. And having a content summary additional step of.
  As a result, it is possible to automatically create program information that summarizes the contents of video content using moving image data.
[0021]
  According to an eighth aspect of the present invention, in the program information creation method according to the seventh aspect, the order data includes information on a time length of the content summary, information on an output format of the content summary, and the video content. , Information specifying the part to be included in the content summary, information specifying the type of scene to be used as the content summary, adopted in the content summary based on components such as a person / character / landscape included in the moving image data At least one of information specifying a portion to be selected, information specifying moving image data not to be used in the video content, and information specifying a cut to be used in the content summary.
  As aboveIf information is included, it is highly likely that the content summary intended / desired by the creator of the ordering data (content holder) will be created.Become.It is possible to accurately grasp the intention / request of the clientBecome.
[0022]
  According to a ninth aspect of the present invention, in the program information creation method according to the seventh or eighth aspect, the content summary generation step includes a step of extracting the moving image data adopted from the video content based on the order data, and an extraction A step of creating the content summary by connecting the moving image data.
  According to a tenth aspect of the present invention, in the program information creating method according to the seventh or eighth aspect, when the order data includes information on scenes and cuts that are essential for the content summary, the content summary generation step includes the content summary. And extracting the essential scenes and cuts from the video content, and combining the extracted essential scenes and cuts to create the content summary.
[0023]
  The invention described in claim 11 is the program information creation method according to any one of claims 7 to 10, wherein the content holder is intended by the content summary generated by the content summary generation means. A step of determining whether or not the content summary is not intended, and a step of recreating the ordering data and transmitting it again to the program information generating device, wherein the program information generating device comprises: When the order data is input again, the content summary is recreated based on the order data.
  If such an aspect is adopted, the possibility that a content summary intended / desired by the creator (content holder) of the ordering data is extremely increased.
[0024]
  A twelfth aspect of the present invention is the program information creation method according to any one of the seventh to eleventh aspects, wherein the program information creation device is a program other than moving image data to be added to the content summary included in the program information. The program information acquisition step of acquiring program data in a format and the content summary addition step add the program data acquired by the program information acquisition step to the content summary to create the program information. To do.
  This is because if such program information is created, the user can grasp the details of the video content more accurately.
  A thirteenth aspect of the present invention is the program information creating method according to the twelfth aspect, wherein the program data is EPG data.
  This is because the present invention can be realized only by changing the conventional system.
  According to a fourteenth aspect of the present invention, in the program information creating method according to any one of the seventh to thirteenth aspects, the program information creating device further uses the program information created by the content summary adding step. It has the program transmission process transmitted to a person's terminal.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a program information creation method and system according to the present invention will be described in detail by embodiments. First, the program information creation method will be described in detail.
[0026]
<Program information creation method>
The program information creation method according to the present embodiment includes a first program information creation method and a second program information creation method.
[0027]
<First program information creation method>
The first program information creation method includes the following steps (1) to (2) based on the ordering data.
(1) A step of creating moving image data (summary data, content summary) that summarizes video content.
That is, in this step, moving image data (content summary) that summarizes the contents of the video content is created based on the order data.
(2) A step of creating program information including the content summary.
Hereinafter, order data will be described first, and then step (1) and step (2) will be described in detail.
[0028]
<Ordering data>
The order data is data in which program information creation conditions are described. This data includes at least summary condition information. The summary condition information is information that includes a condition of what kind of content summary is used. In other words, this condition is a requirement for creating a content summary from video content.
[0029]
In the ordering data shown in FIG. 3, the summary condition information includes “(content) summary length” information, “output format” information, “essential scene” information, “mode” information, and “condition” information. Is included.
[0030]
The “summary length” information is information on the time length of the content summary.
In the example of FIG. 3, information “90 seconds” is included. That is, information that instructs to create a content summary with a length of 90 seconds is included.
However, this information may be set in advance. That is, the time length of the content summary may be defined by the ordering data, or may be set in advance.
[0031]
The “output format” information is information related to the output format (format) of the content summary.
In the example of FIG. 3, it is specified to create a content summary by MPEG-1 (Moving Picture Experts Group-1).
However, as with the “summary length” information, the “output format” data may use preset information.
[0032]
The “essential scene” information is information specifying a part (scene) that is always included in the content summary in the video content. That is, the essential scene is a part (moving image data) in the video content that is always adopted for the content summary.
In the example of FIG. 3, with reference to the position of the first (0:00) of the video content, moving image data at positions from 0:00 to 0:00:24 and from 0:12 to 0:15 The moving image data and the moving image data from 0:35:38 to 0:36:02 are designated as essential scenes. That is, when the video content is played back from the beginning, a video for 2 minutes from the start of playback, a video for 3 minutes from 12 minutes after the start of playback, and a video for 2 minutes from 35 minutes after the start of playback. It is designated as a mandatory scene.
In addition, as shown in FIG. 3, the essential scene may be designated by the temporal position of the essential scene in the video content (the elapsed time from the beginning (start, head) of the video content), but other methods (video Of course, it is possible to adopt a method for identifying scenes in content.
[0033]
The “mode” information is information for specifying the type of scene to be adopted as the content summary. A scene is a set of frames having the same characteristics that are continuous in time in video content. A frame is still image data constituting moving image data.
The type of scene means the characteristic / feature of the scene. For example, as in the ordering data shown in FIG. 3, the scene type can be specified such as a dynamic scene (a scene with a lot of movement) and a silence scene (a scene with a little movement). The type of scene will be described in detail later.
In addition, it is preferable that the ratio to be adopted for the content summary can be designated for each type of scene. For example, if it is possible to specify that “the ratio of“ dynamic scenes ”in the content summary is 70%” or “the ratio of“ silent scenes ”in the content summary is 40% or less”, the order data creator There is a high possibility that a desired (assumed) content summary will be created.
[0034]
In the “condition” information, requirements (information) other than those described above are described. In FIG. 3, this information includes the following information (a) to (c).
(A) Information for designating a part (scene, cut, etc.) to be adopted in the content summary based on the constituent elements such as a person / character / landscape included in the moving image data
In the example of FIG. 3, it is specified that more scenes (moving image data: scenes, cuts, etc.) appearing by the actor A are employed. Note that “more” in this example means “at a rate equal to or higher than a preset threshold value”.
Further, based on the constituent elements, information specifying a portion (scene, cut, etc.) that is not adopted in the content summary may be included. That is, a scene that is not adopted in the content summary may be designated, such as “do not adopt a scene where the moderator Z appears”.
[0035]
(B) Information that specifies that the last 10 minutes of moving image data of the video content (from the back) should not be used in order not to use the last scene so that the end of the movie is not known.
“Mandatory scene” information designates moving image data to be adopted in the content summary, but the above information designates moving image data not to be adopted.
Further, it may be possible to designate a cut / scene that is not adopted.
[0036]
(C) Information specifying a cut to be used in the content summary
“Cut” refers to a group in video content arbitrarily set by a content holder. For example, as shown in FIG. 4, when video content is divided into nine chunks from A to J, each chunk is called a cut. In other words, the video content shown in FIG. 4 includes cut A to cut J.
[0037]
The ordering data includes at least one requirement (information) for specifying moving image data to be adopted in the content summary from the video content as summary condition information as described above. Of course, requirements other than those exemplified can be adopted.
[0038]
The order data can also include information other than the summary condition information. Examples of such information include the following.
・ Program name information
・ Information on the date and time when the program is broadcast
・ Information on program information creation deadline (delivery date)
[0039]
The program name information is information on the name of the video content. In FIG. 3, the program name is “Y-day super special”.
The information on the date and time when the program is broadcast (broadcast date and time) is information on the date and time when the video content is distributed to the user. In FIG. 3, the broadcast date and time is “2001/10/21 18:54 to 20:50”.
The delivery date information is information on the creation deadline of the content summary. In FIG. 3, “2001/10/16” is the creation deadline date.
It should be noted that it is naturally possible to include information other than these, for example, information on the program information creation deadline may be included.
[0040]
Moreover, information (sound condition information) as to whether or not to include sound data (sound data) in the program information and / or content summary may be added to the ordering data. That is, it may be possible to instruct to include sound data in the program information or to include sound data in the content summary. In the example of FIG. 3, “sound” is designated as “present”, and the sound data is designated to be included.
Next, step (1) will be described in detail.
[0041]
<Step (1)>
In step (1) above, a content summary is created from the video content based on the order data. In other words, based on the summary condition information included in the ordering data, moving image data (scenes, portions) to be used for the content summary is extracted from the video content, and these moving image data are connected to create a content summary.
This step (1) can also be realized, for example, by executing steps from 1-1 to 1-3 described below.
[0042]
1-1. Steps for extracting essential scenes and essential cuts
When the summary condition information includes “information on essential scenes in video content included in content summary”, the essential scenes are extracted from the video contents.
In the example of FIG. 3, moving image data from the position of 0:00 to 0:00:24, moving image data from the position of 0:12 to 0:15, and 0 from the video content. The moving image data from the position of 35:38 to the position of 0:36:02 is extracted.
[0043]
Further, when the information regarding the essential cut is included in the summary condition information, the essential cut is extracted from the video content.
In the example of FIG. 3, moving image data of cut D is extracted from the video content.
Next, the process proceeds to step 1-2.
[0044]
1-2. Step to extract the scene
In this step, scene extraction is performed. If the content summary length information is included in the summary condition information, the process proceeds to step 1-2 (a). If not included, the process proceeds to step 1-2 (b).
[0045]
1-2 (a) When the length of the content summary is determined
When the information regarding the length of the content summary is included in the summary condition information, the total length of the moving image data extracted in step 1-1 is compared with the length specified in the information.
If the moving image data extracted in step 1-1 does not exceed the length specified by the above information, the process proceeds to 1-2 (a1). When it exceeds, it proceeds to 1-2 (a2).
[0046]
1-2 (a1)
In the content summary, the portion (moving image data) excluding the moving image data extracted in step 1-1 and the moving image data of the portion (scene, cut) not used in the content summary specified by the summary condition information Divide scenes.
The scene division may be performed by a known method. For example, the techniques disclosed in US Application 09/369421 and Japanese Patent Application No. 2000-259975 filed by the applicant of the present application can be suitably used, and the following (a) to (c) ) Can also be realized in this order.
[0047]
(A) Obtain color information for each frame of video content.
The color information is color data that dominates a frame (still image data). The color that dominates still image data can be rephrased as the dominant color in the still image data. For example, the color data (lightness, hue, saturation, etc.) of each pixel is digitized according to a known standard, and the frame is The color may be expressed by calculating the average value of all the constituent pixels. Alternatively, the most used color in the frame may be used.
[0048]
(B) Group consecutive frames with close positions in the vector space. That is, frames are arranged for each color information in a vector space (for example, a 1125-dimensional color space), and frames that are determined to have close positions in the space and that are temporally continuous in video content are grouped. For example, the grouping may be performed as follows.
[0049]
First, the color information of the first frame (the frame at 0:00, hereinafter referred to as the first frame) and the second frame are compared. The second frame is a temporally continuous frame in the video content with respect to the first frame, and is the next frame to the so-called first frame. The color information is compared using a preset relational expression or table for determining whether the position in the vector space is close, and whether the first and second frames are close to each other in the space. It is done by judging.
[0050]
When it is determined that both are close, both are treated as one group.
Next, the color information of the first frame and the frame next to the second frame (third frame) are compared in the same manner as described above. If it is determined that both are close, the third frame is set to the same group as the first frame. Note that the color that dominates the third frame may be compared with the color that dominates the first frame and the second frame to determine whether or not they are close.
[0051]
In this way, a group of frames in which temporal positions in the video content are determined that are determined to be close to each other on the basis of the first frame are treated as one group.
A frame determined to be far from the first frame is not included in the group to which the first frame belongs. Then, grouping is performed in the same manner as described above using this frame as a reference (first frame).
Through the above processing, the moving image data is divided into groups.
[0052]
(C) If the groups whose temporal positions are adjacent in the video content satisfy a predetermined relationship, these groups are combined into a scene (cluster).
The relationship between groups grouped in a scene can be set arbitrarily. For example, the average values of the color information of each frame constituting the group are compared with each other, and are collected if they have a predetermined relationship. The predetermined relationship includes, for example, a case where the difference between two values is equal to or less than a certain value. In this way, a group of groups satisfying a predetermined relationship is a scene.
Divide the scene as described above.
[0053]
Next, the scene to be adopted as the content summary is determined. The scene to be adopted is determined according to the summary condition information.
In the case of FIG. 3, it is specified that the scene where the actor A appears is adopted. Therefore, such a scene is searched using, for example, face recognition application software.
If it is specified that a dynamic scene is to be adopted, a scene satisfying a preset dynamic scene condition is searched using a known method.
In this way, scenes that satisfy the conditions described in the summary condition information are searched using a known component element determination technique.
[0054]
If the total length of the extracted scene (moving image data) and the moving image data extracted in 1-1 is longer than the length of the content summary specified by the summary condition information, the extracted scene is deleted. To make the total length the specified length. Such adjustment of the length of the content summary can be realized by using a known method.
For example, the length of the extracted scene or scenes may be shortened so that the total length becomes a specified length.
Further, the scene extraction may be performed again by changing the search condition. In the example of FIG. 3, when searching for a scene where the actor A appears, the condition as to whether or not the scene is a corresponding scene may be stricter. For example, if a scene where the probability that actor A appears is 70% or more is extracted, the number of extracted scenes is likely to decrease if the conditions are changed so that 90% or more of the scenes are extracted. Because it becomes.
If the total length of the extracted scene (moving image data) and the moving image data extracted in 1-1 is shorter than the length of the content summary specified by the summary condition information, the search condition is changed to change the scene. You may redo the extraction. In the example of FIG. 3, if the scene is extracted by setting the probability that the actor A appears lower than the first search, the number of extracted scenes may increase.
[0055]
When the ratio of the scene type in the content summary is designated, the extracted scene is selected according to this designation.
In step 1-2 (a1), after the above processing is completed, the process proceeds to step 1-3.
[0056]
1-2 (a2)
The moving image data extracted in step 1-1 is divided into scenes in the same manner as in 1-2 (a1), and a scene satisfying the condition specified by the summary condition information is searched for in each scene. Then, the length of the scene to be adopted is set to be the same as the length of the content summary specified by the summary condition information by the same method as described above.
In the step 1-2 (a2), after the above process is completed, the process proceeds to the step 1-3.
[0057]
1-2 (b)
If the content summary length is not specified, the scene is extracted as in 1-2 (a1), but the scene length is not adjusted. That is, all the scenes specified by the summary condition information are extracted.
In the step 1-2 (b), after the above process is completed, the process proceeds to the step 1-3.
[0058]
1-3. Creating a content summary
A content summary is created from moving image data such as scenes, scenes, and cuts extracted as described above. A known method may be used for this creation method.
For example, the content summary may be created by connecting the moving image data in time order in the video content. In addition, when information regarding the order of arrangement in the order data is specified, the content summary may be created by arranging and connecting moving image data based on this information.
[0059]
If the format of the created content summary is different from the format specified in the summary condition information, the format of the content summary is converted by a known method.
Next, the process proceeds to step (2).
[0060]
<Step (2)>
In step (2), program information including a content summary is created. That is, the content summary can be reproduced on the user terminal.
Note that the program information may be created in an information description language such as a hypertext markup language such as HTML or XML, and the content summary may be associated with the program information.
[0061]
<Second program information creation method>
The second program information creation method is different from the first program information creation method in the following points.
-Between the above steps (1) and (2), there is a step of making the orderer (content holder) confirm the created content summary.
The step (2) starts when the program information creation start requirement is satisfied.
[0062]
That is, the orderer can check whether the created content summary is intended. Then, if the intended content summary has not been created, the orderer creates order data again, and causes the content summary to be created again based on this data.
The program information creation start requirement can be set arbitrarily. For example, after creating the content summary, the orderer is requested to confirm the content summary, and after the request, if the ordering data is not transmitted from the orderer for a predetermined period, the step (2) is performed. You may make it start.
[0063]
In addition, the following modifications are possible in the first or second program information creation method.
[0064]
<Modification 1>
The created program information may be confirmed by the orderer. Then, if the intended program information has not been created by the orderer, the ordering data is recreated, and the program information is recreated based on this data.
[0065]
<Modification 2>
Program information may be created by synthesizing program data composed of character data or still image data and a content summary.
In this case, the user terminal reproduces program data (character data such as a title and a synopsis) and a content summary as shown in FIG. 7, for example.
[0066]
<Modification 3>
Sound data (audio data) may be included in the program information and / or content summary. The sound data may be data synchronized with the moving image data adopted in the content summary in the video content, or data unrelated to the moving image data may be adopted.
[0067]
The program information created as described above is provided to the user terminal. Although any method can be adopted as a method for providing program information, for example, the following methods (i) to (iii) may be adopted.
(I) Method of providing via content holder
The content holder can provide the obtained program information to the user by an arbitrary method. As a providing method, for example, the information may be provided via a carrier or provided to a user via a communication network under a TCP / IP environment such as the Internet network.
(Ii) How to provide through a carrier
The carrier can provide program information to the user, for example, as in the prior art. For example, the program information may be transmitted to the user's terminal via a communication network under a TCP / IP environment, or may be transmitted to the user's terminal via a broadcast network.
(Iii) How to deliver directly to users
Similar to (i) and (ii), the program information may be transmitted to the user terminal using a known method.
Next, the program information creation system will be described in detail.
[0068]
<Program information creation system>
The program information creation system according to the present invention has at least content summary generation means 6 and program information generation means (content summary addition means) 8.
The content summary generation means 6 has a function of executing step (1) in the program information creation method described above, and creates a content summary based on the order data.
The content summary adding means 8 has a function of executing step (2) in the program information creation method described above, and creates program information from the content summary.
[0069]
The program creation system may include program information acquisition means 7, program information transmission means 9, content summary ordering means 4 and / or content confirmation means 5.
As shown in FIG. 1, the content summary ordering unit 4 and the content confirmation unit 5 are preferably provided on the content holder 1 side. The other components are preferably provided on the program information creator side. The components provided on the content holder side and the content summary generation means may be able to communicate via a communication network, for example.
[0070]
The program information acquisition means 7 is means for acquiring program data.
The program transmission unit 9 has a function of transmitting the program information created by the program information generation unit 6 to a predetermined partner. Examples of the predetermined partner include a content holder (orderer), a carrier, and a user.
The content summary ordering unit 4 has a function of creating the ordering data based on information input from the content holder and inputting it to the content summary generating unit 6.
The content confirmation unit 5 has a function of causing the content holder to confirm the content summary created by the content summary generation unit 6. That is, the content summary input from the content summary generation means 6 is played back. If the content summary is not intended, the content holder (orderer) recreates the order data, and causes the content summary generation means 6 to regenerate the content summary based on this data.
Next, an operation example of the program information creation system shown in FIG. 1 will be described with reference to FIG.
[0071]
The content summary ordering unit 4 creates ordering data in accordance with instructions from the content holder. Then, this order data is transmitted to the content summary generation means 6.
[0072]
The content summary generation means 6 receives the order data (step S101), confirms the order contents (step S102), and creates a content summary based on the order data (step S103). When the content summary is created, it is transmitted to the content confirmation means 5 (content confirmation request: step S104), and it is confirmed whether the content holder is the intended (desired) content summary (content validity evaluation: step S105). .
[0073]
If the content summary is not valid (step S105 / NG), the process returns to step S103. That is, the content holder re-creates order data using the content summary ordering means 4, and re-creates the content holder based on this data.
[0074]
If the content summary is valid (step S105 / OK), the content summary generation means 6 transmits the content summary to the content summary addition means 8.
[0075]
The content summary adding means 8 creates program information including the content summary (steps S106 to S107).
When data other than the content summary such as character data is included in the program information, the program information acquiring unit 7 collects these data and transmits it to the content summary adding unit (step S106). For example, data employed in conventional EPG data can be used as these data, and can be acquired from the carrier 2 or the like.
Program information can be created by the above processing.
[0076]
The program information transmitting unit 9 transmits the program information created by the content summary adding unit 8 to the carrier 2 (step S108).
This step makes it possible to provide program information to the user.
Next, display examples of program information on the user terminal will be described with reference to FIGS.
[0077]
FIG. 5 is a diagram showing an example of a program table in a certain time zone of a certain channel among conventional EPG data. More specifically, FIG. 5 shows an example in which the title (program name) of the video content broadcast between 16:00 and 23:45 and the time during which each video content is broadcasted is displayed as “13Ch”.
FIG. 6 is a diagram showing an example of detailed program information displayed when one title shown in FIG. 5 is selected from conventional EPG data. That is, it is a display example of conventional EPG data.
FIG. 7 is a diagram showing an example in which the conventional EPG data and the content summary are combined on the same screen by the content summary adding means 8. That is, this is a display example of program information created in this example.
More specifically, FIGS. 6 and 7 are information display examples of the program “Y-day super special” broadcasted from “18:54 to 20:50” in FIG.
[0078]
As shown in FIG. 6, since the EPG data is composed of character data, conventionally, information related to “Y-day super special” is displayed in characters on the user terminal.
On the other hand, since the program information created by the program information creation system according to the present embodiment includes (or is associated with) a content summary, the content summary is also reproduced as shown in FIG. . Therefore, the user can know / imagine the contents of “Y-day super special” in more detail than before.
As described above, if the content summary and data in a format other than the moving image data (EPG data or the like) can be displayed in association with each other, the user may be able to grasp the details of the program in more detail than before. Get higher.
[0079]
If the program information can be displayed in association with the program guide as shown in FIG. 5, the user can easily select the program information. That is, if the program information to be displayed can be selected by clicking (selecting) the program guide as shown in FIG. 5, it becomes easier for the user to select the desired information from among a large number of program information. In other words, it is preferable to associate the program information with the list information of the program information so that the program information selected by the user from the list data (program guide) is reproduced on the user terminal. This association may be realized by using a so-called “link” technique using a language such as HTML.
[0080]
In addition, if the content summary can be presented to the user on the video content recording / viewing reservation screen as shown in FIG. 7, the possibility that the user can record / view the desired video content becomes extremely high. That is, it is preferable that the program information is set so that the content summary is reproduced at the user terminal at the time of video content viewing reservation and / or video recording reservation.
[0081]
However, the program information may include at least a content summary and does not need to include character data as shown in FIG. However, as shown in FIG. 7, if the program information includes data in a format other than moving image data such as character data, the user can know the contents of the program in very detail. In the example of FIG. 7, information on broadcast time, program title, synopsis, and performer name can be known.
[0082]
The preferred embodiment of the present invention has been described above. However, the above-described embodiment is an example for explaining the present invention, and the scope of the present invention is not limited to this embodiment. Those skilled in the art can implement the present invention in various other forms in which various modifications, improvements, modifications, simplifications, and the like are added to the above-described embodiments without departing from the gist of the present invention.
[0083]
【The invention's effect】
As is apparent from the above description, according to the present invention, since it is possible to create program information including moving image data as moving image data as program information, it is possible to provide easy-to-understand information for general users.
Therefore, there is a possibility that the user will have more opportunities to view the program, and the amount to be collected will increase for paid content. This means that it is possible to create program information that has a higher advertising effect than program information such as EPG composed of conventional character data and still image data.
[0084]
If the content holder confirms the content summary, the content summary intended by the content holder can be generated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a program information creation system according to the present invention.
FIG. 2 is a flowchart showing an example of a program information creation method according to the present invention.
FIG. 3 shows an example of ordering data.
FIG. 4 shows an example of creating a content summary.
FIG. 5 shows a display example of a list of program information.
FIG. 6 shows a display example of conventional program information (EPG data).
FIG. 7 shows a display example of program information according to the present invention.
[Explanation of symbols]
1 Content holder
2 career
3 Program information creator
4 Content summary ordering means
5 Content confirmation means
6 Content summary generation means
7 Program information acquisition means
8 Program information generation means (content summary addition means)
9 Program information transmission means

Claims (12)

番組情報の配信を受ける利用者端末と、前記利用者端末に配信する前記番組情報の作成を依頼するコンテンツホルダーと、前記コンテンツホルダーからの依頼に基づいて前記番組情報を作成する番組情報作成装置とを有する番組情報作成システムにおいて、
前記コンテンツホルダーは、前記番組情報に含まれるコンテンツサマリーの作成条件からなる発注データを前記番組情報作成装置に送信するコンテンツサマリー発注手段を有し、
前記発注データは、前記コンテンツサマリーの時間的長さに関する情報、前記コンテンツサマリーの出力形式に関する情報、前記映像コンテンツの中で、前記コンテンツサマリーに必ず含める部分を指定する情報、前記コンテンツサマリーとして採用するシーンの種類を特定する情報、動画像データに含まれる人物/キャラクター/風景などの構成要素に基づき、前記コンテンツサマリーに採用する部分を指定する情報、前記映像コンテンツの内、採用しない動画像データを指定する情報、前記コンテンツサマリーに採用するカットを指定する情報のうち少なくとも1つと、番組情報を有し、
前記番組情報は、番組情報の作成期限を有し、
前記番組情報作成装置は、
前記発注データに基づき映像コンテンツを要約した動画像データからなるコンテンツサマリーを作成するコンテンツサマリー生成手段を有し、
前記コンテンツサマリー生成手段は、
前記映像コンテンツから採用する前記動画像データを前記発注データに基づき抽出する手段と、
抽出された前記動画像データをつなぎ合わせて前記コンテンツサマリーを作成する手段とを有することを特徴とし、
前記コンテンツサマリー生成手段によって作成された前記コンテンツサマリーを含む番組情報を作成するコンテンツサマリー付加手段とを有することを特徴とする番組情報作成システム。
A user terminal that receives distribution of program information, a content holder that requests creation of the program information to be distributed to the user terminal, and a program information creation device that creates the program information based on a request from the content holder In a program information creation system having
The content holder has content summary ordering means for transmitting order data consisting of creation conditions of a content summary included in the program information to the program information creation device,
The order data is used as information regarding the time length of the content summary, information regarding the output format of the content summary, information specifying a part to be included in the content summary in the video content, and the content summary. Information specifying the type of scene, information specifying a part to be used in the content summary based on components such as a person / character / landscape included in the moving image data, and moving image data not to be used in the video content At least one of information to specify, information to specify a cut to be adopted for the content summary, and program information,
The program information has a program information creation deadline,
The program information creation device includes:
Content summary generation means for creating a content summary consisting of moving image data that summarizes video content based on the order data ;
The content summary generation means includes
Means for extracting the moving image data employed from the video content based on the order data;
Means for connecting the extracted moving image data to create the content summary,
A program information creation system comprising: content summary addition means for creating program information including the content summary created by the content summary generation means.
前記番組情報作成装置は、前記番組情報に含まれる前記コンテンツサマリーに付加する動画像データ以外の形式の番組データを取得する番組情報取得手段を有し、
前記コンテンツサマリー付加手段は、前記番組情報取得手段によって取得された前記番組データを前記コンテンツサマリーに付加して前記番組情報を作成することを特徴とする請求項1記載の番組情報作成システム。
The program information creation device has program information acquisition means for acquiring program data in a format other than moving image data added to the content summary included in the program information,
2. The program information creating system according to claim 1, wherein the content summary adding unit creates the program information by adding the program data acquired by the program information acquiring unit to the content summary.
前記番組情報作成装置は、さらに、前記コンテンツサマリー付加手段によって作成された前記番組情報を前記利用者端末へ送信する番組送信手段を有することを特徴とする請求項1又は2記載の番組情報作成システム。  3. The program information creation system according to claim 1, wherein the program information creation device further comprises program transmission means for transmitting the program information created by the content summary addition means to the user terminal. . 前記利用者端末は、放送される映像コンテンツの一覧と前記番組情報作成装置から配信された前記各映像コンテンツの前記番組情報とを関連づけて管理することを特徴とする請求項1から3のいずれか1項記載の番組情報作成システム。  The user terminal manages a list of video contents to be broadcast and the program information of each video content distributed from the program information creation device in association with each other. The program information creation system according to item 1. 前記利用者端末は、前記映像コンテンツの視聴予約及び/又は録画予約時に、前記一覧から選択された前記映像コンテンツの前記コンテンツサマリーを再生して利用者に提供することを特徴とする請求項4記載の番組情報作成システム。  The said user terminal reproduces | regenerates and provides the said content summary of the said video content selected from the said list at the time of the viewing reservation and / or recording reservation of the said video content to a user. Program information creation system. 前記コンテンツホルダーは、前記コンテンツサマリー生成手段によって生成された前記コンテンツサマリーが意図したものであるか否かを判断する内容確認手段を有し、
前記内容確認手段によって前記コンテンツサマリーが意図したものでないと判断されたとき、前記コンテンツサマリー発注手段は、前記発注データを作り直し、再度、前記番組情報作成装置に送信し、
前記コンテンツサマリー生成手段は、前記発注データが再度入力された場合、該発注データに基づき前記コンテンツサマリーを作り直すことを特徴とする請求項1から5のいずれか1項記載の番組情報作成システム。
The content holder has content confirmation means for judging whether or not the content summary generated by the content summary generation means is intended,
When it is determined by the content confirmation means that the content summary is not intended, the content summary ordering means recreates the ordering data and transmits it again to the program information creation device,
6. The program information creation system according to claim 1, wherein when the order data is input again, the content summary generation unit re-creates the content summary based on the order data.
番組情報の配信を受ける利用者端末と、前記利用者端末に配信する前記番組情報の作成を依頼するコンテンツホルダーと、前記コンテンツホルダーからの依頼に基づいて前記番組情報を作成する番組情報作成装置とを有する番組情報作成システムの番組情報作成方法において、
前記コンテンツホルダーは、前記番組情報に含まれるコンテンツサマリーの作成条件からなる発注データを前記番組情報作成装置に送信するコンテンツサマリー発注工程を有し、
前記発注データは、前記コンテンツサマリーの時間的長さに関する情報、前記コンテンツサマリーの出力形式に関する情報、前記映像コンテンツの中で、前記コンテンツサマリーに必ず含める部分を指定する情報、前記コンテンツサマリーとして採用するシーンの種類を特定する情報、動画像データに含まれる人物/キャラクター/風景などの構成要素に基づき、前記コンテンツサマリーに採用する部分を指定する情報、前記映像コンテンツの内、採用しない動画像データを指定する情報、前記コンテンツサマリーに採用するカットを指定する情報のうち少なくとも1つと、番組情報を有し、
前記番組情報は、番組情報の作成期限を有し、
前記番組情報作成装置は、
前記発注データに基づき映像コンテンツを要約した動画像データからなるコンテンツサマリーを作成するコンテンツサマリー生成工程を有し、
前記コンテンツサマリー工程は、
前記映像コンテンツから採用する前記動画像データを前記発注データに基づき抽出する工程と、
抽出された前記動画像データをつなぎ合わせて前記コンテンツサマリーを作成する工程とを有し、
前記コンテンツサマリー生成手段によって作成された前記コンテンツサマリーを含む番組情報を作成するコンテンツサマリー付加工程とを有することを特徴とする番組情報作成方法。
A user terminal that receives distribution of program information, a content holder that requests creation of the program information to be distributed to the user terminal, and a program information creation device that creates the program information based on a request from the content holder In the program information creation method of the program information creation system having
The content holder has a content summary ordering step of transmitting order data consisting of creation conditions of a content summary included in the program information to the program information creation device,
The order data is used as information regarding the time length of the content summary, information regarding the output format of the content summary, information specifying a part to be included in the content summary in the video content, and the content summary. Information specifying the type of scene, information specifying a part to be used in the content summary based on components such as a person / character / landscape included in the moving image data, and moving image data not to be used in the video content At least one of information to specify, information to specify a cut to be adopted for the content summary, and program information,
The program information has a program information creation deadline,
The program information creation device includes:
A content summary generation step of creating a content summary composed of moving image data that summarizes video content based on the order data ;
The content summary process includes:
Extracting the moving image data adopted from the video content based on the ordering data;
Connecting the extracted moving image data to create the content summary,
And a content summary adding step of creating program information including the content summary created by the content summary generation means.
前記発注データが前記コンテンツサマリーに必須の場面及びカットに関する情報を有するとき、前記コンテンツサマリー生成工程は、
前記コンテンツサマリーに必須の場面及びカットを前記映像コンテンツから抽出する工程と、
抽出された前記必須の場面及びカットをつなぎ合わせて前記コンテンツサマリーを作成する工程とを有することを特徴とする請求項7記載の番組情報作成方法。
When the order data includes information on scenes and cuts that are essential to the content summary, the content summary generation step includes:
Extracting essential scenes and cuts from the video content for the content summary;
The program information creating method according to claim 7, further comprising a step of creating the content summary by connecting the extracted essential scenes and cuts.
前記コンテンツホルダーは、
前記コンテンツサマリー生成手段によって生成された前記コンテンツサマリーが意図したものであるか否かを判断する工程と、
前記コンテンツサマリーが意図したものでないと判断されたとき、前記発注データを作り直し、再度、前記番組情報作成装置に送信する工程とを有し、
前記番組情報作成装置は、前記発注データが再度入力された場合、該発注データに基づき前記コンテンツサマリーを作り直す工程を有することを特徴とする請求項7又は8に記載の番組情報作成方法。
The content holder is
Determining whether the content summary generated by the content summary generation means is intended;
When it is determined that the content summary is not intended, the order data is recreated and transmitted again to the program information creation device,
The program information creating apparatus, when the order data is input again, the program information creating method according to claim 7 or 8, further comprising the step of recreating the content summaries on the basis of the order data.
前記番組情報作成装置は、前記番組情報に含まれる前記コンテンツサマリーに付加する動画像データ以外の形式の番組データを取得する番組情報取得工程と、
前記コンテンツサマリー付加工程は、前記番組情報取得工程によって取得された前記番組データを前記コンテンツサマリーに付加して前記番組情報を作成することを特徴とする請求項7からのいずれか1項記載の番組情報作成方法。
The program information creation device includes a program information acquisition step of acquiring program data in a format other than moving image data to be added to the content summary included in the program information;
The said content summary addition process adds the said program data acquired by the said program information acquisition process to the said content summary, and produces the said program information, The any one of Claim 7 to 9 characterized by the above-mentioned. Program information creation method.
前記番組データがEPGデータであることを特徴とする請求項10記載の番組情報作成方法。11. The program information creation method according to claim 10, wherein the program data is EPG data. 前記番組情報作成装置は、さらに、前記コンテンツサマリー付加工程によって作成された前記番組情報を前記利用者端末へ送信する番組送信工程を有することを特徴とする請求項7から11のいずれか1項記載の番組情報作成方法。12. The program information creating apparatus according to claim 7, further comprising a program transmission step of transmitting the program information created by the content summary adding step to the user terminal. 13. Program information creation method.
JP2002031575A 2002-02-07 2002-02-07 Program information creation system and method Expired - Lifetime JP3846326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002031575A JP3846326B2 (en) 2002-02-07 2002-02-07 Program information creation system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002031575A JP3846326B2 (en) 2002-02-07 2002-02-07 Program information creation system and method

Publications (2)

Publication Number Publication Date
JP2003235024A JP2003235024A (en) 2003-08-22
JP3846326B2 true JP3846326B2 (en) 2006-11-15

Family

ID=27774943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002031575A Expired - Lifetime JP3846326B2 (en) 2002-02-07 2002-02-07 Program information creation system and method

Country Status (1)

Country Link
JP (1) JP3846326B2 (en)

Also Published As

Publication number Publication date
JP2003235024A (en) 2003-08-22

Similar Documents

Publication Publication Date Title
US8201201B2 (en) Inserting branding elements
US9794617B2 (en) Inserting ad elements
CN1158861C (en) Broadcasting method and broadcast receiver
US7548565B2 (en) Method and apparatus for fast metadata generation, delivery and access for live broadcast program
TW456151B (en) Simulating two way connectivity for one way data streams for multiple parties
US6249914B1 (en) Simulating two way connectivity for one way data streams for multiple parties including the use of proxy
US20060117365A1 (en) Stream output device and information providing device
US20020004839A1 (en) Method of controlling the display of a browser during a transmission of a multimedia stream over an internet connection so as to create a synchronized convergence platform
US20030001880A1 (en) Method, system, and computer program product for producing and distributing enhanced media
US10200749B2 (en) Method and apparatus for content replacement in live production
JP2002501346A (en) Portable communication device for simulating a two-way connection to a one-way data stream
JP2008078997A (en) Information processor and method, program, and recording medium
US9313541B2 (en) Broadcasting method and broadcast signal receiving apparatus
JP5909546B2 (en) Apparatus and method for streaming video
KR102069897B1 (en) Method for generating user video and Apparatus therefor
JP2003259336A (en) Data generating method, data generating apparatus, data transmission method, video program reproducing apparatus, video program reproducing method, and recording medium
US11032182B2 (en) Auditing of content related events
JP5291448B2 (en) Content production server and content production program
JP3846326B2 (en) Program information creation system and method
US20080256169A1 (en) Graphics for limited resolution display devices
EP2188806A2 (en) Compact graphics for limited resolution display devices
KR20090039570A (en) Video Synchronization Playback Method and Recording Media
US20020073221A1 (en) Method for the transmission and synchronization of multimedia data through computer networks
KR100322609B1 (en) Digital Authoring System and Server System and Digital Authoring Method Using the same
WO2009045051A2 (en) Method for providing initial behavior of multimedia application format content and system therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060425

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060626

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060814

R150 Certificate of patent or registration of utility model

Ref document number: 3846326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130901

Year of fee payment: 7

EXPY Cancellation because of completion of term