JP2011065405A - Display device and display method - Google Patents
Display device and display method Download PDFInfo
- Publication number
- JP2011065405A JP2011065405A JP2009215329A JP2009215329A JP2011065405A JP 2011065405 A JP2011065405 A JP 2011065405A JP 2009215329 A JP2009215329 A JP 2009215329A JP 2009215329 A JP2009215329 A JP 2009215329A JP 2011065405 A JP2011065405 A JP 2011065405A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- phrase
- text data
- search
- telop
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、表示装置及び表示方法に係り、例えばテロップ等の文字が含まれる映像を再生する表示装置及び表示方法に関する。 The present invention relates to a display device and a display method, and more particularly to a display device and a display method for reproducing an image including characters such as telops.
近年のテレビ番組ではテロップの利用態様が多様化されており、映画の字幕や料理番組のレシピだけに留まらず、バラエティー番組などでの印象に残るフレーズにもテロップが多数表示されるようになっている。 In recent TV programs, the use of telops is diversified, and not only movie subtitles and recipes for cooking programs, but also many telops are displayed in phrases that remain in impressions on variety programs. Yes.
そして従来より、テロップ等の文字情報を映像に含む放送の利用について様々な技術が提案されている。例えば、テレビ放送及び録画済みの映像よりテロップ部分を認識し、テキスト化した情報を保存する技術がある(特許文献1参照)。また、テロップとは異なるが、文字放送の文字情報、特にテレビ番組ガイドの情報を記録した記録媒体(ICカード)を番組を録画した別の記録媒体(ビデオテープ)に関連づけて保存する技術がある(特許文献2参照)。 Conventionally, various techniques have been proposed for using broadcasts that include text information such as telops in video. For example, there is a technique for recognizing a telop part from a television broadcast and a recorded video and storing the text information (see Patent Document 1). Further, although different from telop, there is a technique for storing a recording medium (IC card) on which character information of teletext, particularly TV program guide information is recorded, in association with another recording medium (video tape) on which the program is recorded. (See Patent Document 2).
ところで、特許文献1に開示の技術では、映像からテロップ等の文字情報を抽出して蓄積することで、少ないデータ量によってデータベースを構築することを目的としている。しかしながら、抽出したテキストデータと、映像との連携については考慮されていなかった。また、特許文献2に開示の技術では、別映像として受信するテレテキストなどの文字情報に限定されており、テロップの利用については何ら考慮されていない。さらに録画した番組との連携については非常に限られており、別の技術が求められていた。
By the way, the technique disclosed in
本発明の目的は、上記課題に鑑み、映像に含まれるテキストデータを抽出し、抽出したテキストデータと映像とを連携させる技術を提供することにある。 In view of the above problems, an object of the present invention is to provide a technique for extracting text data included in a video and linking the extracted text data and the video.
本発明に係る装置は、表示装置に関する。この表示装置は、動画像に含まれるテロップのテキストデータを抽出するテキスト抽出手段と、前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理手段と、前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理手段と、を備える。
また、前記テキスト抽出手段は、前記テキストデータに含まれるフレーズを抽出し、前記関連処理手段は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、前記検索処理手段は、前記フレーズにもとづいて前記動画像の再生位置を決定してもよい。
また、前記検索処理手段は、ユーザから検索対象のフレーズの指定を受け、指定されたフレーズが含まれる前記動画像の位置を特定し、特定された前記動画像の位置を再生位置として決定してもよい。
また、前記検索処理手段は、ユーザから指定されたフレーズが含まれる位置が複数ある場合、前記フレーズが含まれる位置に対応するサムネイル画像をユーザから指定可能に表示し、ユーザから指定された前記サムネイル画像に対応する位置から前記動画像の再生を行ってもよい。
また、前記検索処理手段は、前記テキストデータの量を時系列で抽出し、前記動画像の位置と対応づけて、前記動画像の再生位置をユーザから指定可能に表示し、ユーザから指定された位置から前記動画像の再生処理を行ってもよい。
また、前記検索処理手段は、前記テキストデータの量を時系列で抽出し、前記テキストデータの量のピーク部分の映像を検索用の画像として生成してもよい。
また、前記動画像を放送波として受信する受信手段と、前記受信した動画像を記録するコンテンツ記憶手段と、を備え、前記関連処理手段は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像におけるテキストデータの抽出位置とを関連づけて記録してもよい。
本発明の別の態様は表示方法に関する。この表示方法は、動画像に含まれるテロップのテキストデータを抽出するテキスト抽出工程と、前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理工程と、前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理工程と、を備える。
また、前記テキスト抽出工程は、前記テキストデータに含まれるフレーズを抽出し、前記関連処理工程は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、前記検索処理工程は、前記フレーズにもとづいて前記動画像の再生位置を決定してもよい。
また、前記検索処理工程は、ユーザから検索対象のフレーズの指定を受け、指定された前記フレーズが含まれる前記動画像の位置を特定し、特定された前記動画像の位置を前記動画像の再生位置として決定してもよい。
また、前記検索処理工程は、ユーザから指定されたフレーズが含まれる位置が複数ある場合、前記フレーズが含まれる位置に対応するサムネイル画像をユーザから指定可能に表示し、ユーザから指定された前記サムネイル画像に対応する位置から前記コンテンツの再生を行ってもよい。
また、前記検索処理工程は、前記テキストデータの量を時系列で抽出し、前記動画像の位置と対応づけて、前記動画像の再生位置をユーザから指定可能に表示し、ユーザから指定された位置から前記動画像の再生処理を行ってもよい。
また、前記検索処理工程は、前記テキストデータの量を時系列で抽出し、前記テキストデータの量のピーク部分の映像を検索用の画像として生成してもよい。
また、前記動画像を放送波として受信する受信工程と、前記受信した前記動画像を記録するコンテンツ記憶工程と、を備え、前記関連処理工程は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像における前記テキストデータの抽出位置とを関連づけて記録してもよい。
The device according to the present invention relates to a display device. The display device relates to a text extraction unit that extracts text data of a telop included in a moving image, and a related processing unit that associates the extracted text data with an extraction position of the text data in the moving image and records it in a storage unit. And a search processing means for searching for the moving image based on the extracted text data.
The text extraction unit extracts a phrase included in the text data, and the related processing unit records the phrase and the position of the moving image in which the phrase is included in association with each other, and performs the search. The processing means may determine the playback position of the moving image based on the phrase.
Further, the search processing means receives a specification of a search target phrase from a user, specifies a position of the moving image including the specified phrase, and determines a position of the specified moving image as a reproduction position. Also good.
Further, when there are a plurality of positions including a phrase specified by the user, the search processing means displays a thumbnail image corresponding to the position including the phrase so that the user can specify the thumbnail, and the thumbnail specified by the user The moving image may be reproduced from a position corresponding to the image.
Further, the search processing means extracts the amount of the text data in a time series, displays the reproduction position of the moving image in association with the position of the moving image so as to be designated by the user, and is designated by the user. You may perform the reproduction | regeneration processing of the said moving image from a position.
Further, the search processing means may extract the amount of the text data in time series, and generate a video of a peak portion of the amount of the text data as a search image.
And a receiving unit that receives the moving image as a broadcast wave, and a content storage unit that records the received moving image, and the related processing unit is configured to record the extracted text when recording the moving image. Data and the extraction position of text data in the moving image may be recorded in association with each other.
Another embodiment of the present invention relates to a display method. This display method includes a text extraction step of extracting text data of a telop included in a moving image, a related processing step of associating the extracted text data with an extraction position of the text data in the moving image and storing them in a storage means. And a search processing step for searching for the moving image based on the extracted text data.
Further, the text extraction step extracts a phrase included in the text data, and the related processing step records the phrase in association with the position of the moving image in which the phrase is included, and the search The processing step may determine a reproduction position of the moving image based on the phrase.
Further, the search processing step receives a specification of a phrase to be searched from a user, specifies a position of the moving image including the specified phrase, and reproduces the position of the specified moving image as the moving image. The position may be determined.
In addition, when there are a plurality of positions including the phrase specified by the user, the search processing step displays a thumbnail image corresponding to the position including the phrase so that the user can specify the thumbnail, and the thumbnail specified by the user The content may be reproduced from a position corresponding to the image.
In addition, the search processing step extracts the amount of the text data in time series, displays the reproduction position of the moving image in association with the position of the moving image so as to be designated by the user, and is designated by the user. You may perform the reproduction | regeneration processing of the said moving image from a position.
Further, the search processing step may extract the amount of the text data in time series and generate a video of a peak portion of the amount of the text data as a search image.
A receiving step for receiving the moving image as a broadcast wave; and a content storing step for recording the received moving image, wherein the related processing step is performed when the moving image is recorded. The text data and the extraction position of the text data in the moving image may be recorded in association with each other.
本発明によれば、映像に含まれるテキストデータを抽出し、抽出したテキストデータと映像とを連携させる技術を提供することができる。 According to the present invention, it is possible to provide a technique for extracting text data included in a video and linking the extracted text data and the video.
次に、本発明を実施するための形態(以下、「実施形態」という)を、図面を参照して具体的に説明する。以下の実施形態では、放送等の映像に含まれるテロップ情報を抽出し、テキスト化した情報を保存し、再生時の検索機能に利用する。主要技術の概要は、以下の1)〜4)の通りである。
1)映像データとテキスト化したテロップ情報を関連付け(タグ付け)して保存する。
2)録画データを検索する際にテロップ情報からの検索を実施する。
3)時間軸でテロップ量(テキスト量)をモニタリングしておき、番組のハイライト部分のみを編集・再生する。
4)テロップ量をキーとして再生位置の検索を実施する。
Next, a mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be specifically described with reference to the drawings. In the following embodiment, telop information included in video such as broadcast is extracted, the text information is stored, and is used for a search function at the time of reproduction. The outline of the main technologies is as follows 1) to 4).
1) Associating (tagging) and storing video data and text-formatted telop information.
2) When searching for recorded data, search from the telop information.
3) Monitor the telop amount (text amount) on the time axis, and edit and play back only the highlighted part of the program.
4) Search for the playback position using the amount of telop as a key.
図1は、本実施形態に係るレコーダ10の概略構成を示す機能ブロック図である。レコーダ10は、単体の製品として例示するが、テレビに内蔵される形態であってもよい。図示のように、レコーダ10は、記録再生処理部20と、主制御部12と、操作取得部14と、出力部16とを備える。
FIG. 1 is a functional block diagram showing a schematic configuration of a
主制御部12は、レコーダ10の各構成要素を統括的に制御する。操作取得部14は、ユーザの操作を受け付ける要素であり、レコーダ10に設けられユーザの直接の操作を取得したり、コントローラ(RC)80からの無線による操作を取得する。操作取得部14で取得されたユーザからの指示をもとに、また、所定の設定に応じて、主制御部12は各構成要素を制御する。さらに、出力部16は、記録再生処理部20の再生部50の再生出力を所望の規格、例えばHDMI規格やDVI規格等の信号に変換して表示部90に出力する。
The
記録再生処理部20は、映像の入力ソースとして、チューナ21と、外部入力部22と、ディスク部23と、ソース選択部24とを備える。チューナ21は、デジタル放送を受信し復調する一般的なデジタルチューナであって、アンテナ(ATT)で受信したデジタル放送波の信号に対して、復調処理やDeMUX処理等を施すことで、デジタル放送波からTSを取り出し、さらにTSから映像ストリームや音声ストリームを取り出す。また、外部入力部22は、外部のコンテンツを取得する。さらに、ディスク部23は、ブルーレイディスク(以下「BD」という)やDVD(Digital Versatile Disc)の再生及び記録処理を行うドライブである。また、記録再生処理部20は、記録部30と、再生部50と、内蔵記録媒体としてHDD(Hard disk drive)やフラッシュ・メモリ等の記録媒体であるデータ記憶部70を備える。
The recording /
図2(a)は、記録部30の構成を示す機能ブロック図である。この記録部30は、ディスク部23を経由してチューナ21から取得した映像ストリーム及び音声ストリームを復号して、所望のコンテンツ変換、例えば、サイズや解像度等の変換処理を行った後に、再度符号化処理を施して、データ記憶部70やディスク部23の所定の記録媒体に記録する。そのような処理を実現するために、記録部30は、復号処理部32及び符号化処理部34を備えている。このような形態の記録処理を行うレコーダ10として、例えば、DVDレコーダがある。なお、復号処理をせずにTSをそのまま記録するレコーダ10としては、BDレコーダがあり、記録部30は図2(b)に示す構成とすることができる。その場合、所望のTSを選定するTS選定部46を備え、選定したTSをそのまま記録すると共に、テロップの解析のための機能として、図2(a)と同様に、復号処理部32と、テロップテキスト化部40と、テロップタグ処理部42と、テロップ量計算部44とを備える。以下では、図2(a)の構成をもとに説明する。
FIG. 2A is a functional block diagram showing the configuration of the
記録部30は、テロップにもとづく検索機能等を実現するためにテロップを認識し記録する構成として、テロップテキスト化部40と、テロップタグ処理部42と、テロップ量計算部44とを備えている。なお、テロップテキスト化部40が、画像からテロップを認識してテキスト化する技術は、公知の技術(例えば、上記特許文献1の技術)を用いることができる。また、デジタル放送の映像ストリームがMPEG規格に基づく場合、映像ストリームは、Iピクチャ、Pピクチャ及びBピクチャの3種類のフレームから構成される。Iピクチャは基準となるフレームであり、PピクチャはIピクチャから予測されて生成され、さらにBピクチャはIピクチャ及びPピクチャから予測されて生成される。そこで、認識処理の負荷低減の観点から、Iピクチャのみをテロップの認識処理対象としてもよい。なお、フレーム中のテロップの領域の特定手法として、例えば、上述の公知の技術を用いることができる。
The
テロップタグ処理部42は、テロップテキスト化部40で抽出したテキストを、そのテキストが含まれていたフレームと関連づける。通常、TSストリーム中には、同期処理の為のタイムスタンプ(PTS)及びチャンネルや番組を特定するID(以下、単に「番組ID」という)が含まれている。例えば、イベントIDは、番組を特定するIDとして、EIT(Event Information Table)に記載されている。また、チャンネルを特定するIDとして、サービスIDがある。
The telop
そこで、テロップタグ処理部42は、タイムスタンプ(タイムスタンプをもとに生成した時刻情報)、番組ID及び抽出したフレーズ(テキスト)を関連づけてデータ記憶部70に記録する。以下、テロップから抽出されデータ記憶部70に記録されたフレーズに関する情報を「テロップ情報」と称する。図3は、データ記憶部70に記録されるテロップ情報の例を示したテーブルである。テロップ情報として、番組ID、時刻情報、フレーズが含まれる。例えば、テーブルの一番上のテロップ情報は、番組ID「0X1234」、時刻情報「00:03:00」、フレーズ「ハワイ、ビーチ」となっている。時刻情報として、録画時間(コンテンツの長さ)に対応した情報が記録されているが、上述TSに含まれるPTSがそのまま記録されてもよく、フレーズが含まれる位置が特定できる対応関係で記録されていれば、どのような態様で記録されていてもよい。また、フレーズは、ある一点の時刻において含まれるフレーズを示してもよいし、例えば15秒単位の所定時間内に含まれるフレーズであってもよい。なお、コンテンツ及びテロップ情報の記録手段としてデータ記憶部70について例示しているが、これに限る趣旨ではなく、ディスク部23であってもよいし、コンテンツとテロップ情報が記録される場所は異なってもよい。
Therefore, the telop
そして、データ記憶部70に記録されているフレーズを検索のキーとして使用することで、実際の映像において印象に残ったフレーズ等が含まれるテロップ情報をもとに、再生位置検索をすることができる。なお、テロップ領域抽出部36は、全ての種類のフレームを解析することでテロップ領域を特定してテキスト抽出処理を行っても良いが、小さな処理負荷やスピーディな処理が求められる場合には、特定のフレームより具体的にはIピクチャのみを処理対象として選択してもよい。
Then, by using the phrase recorded in the
テロップ量計算部44は、番組単位で、つまり、番組ID単位で、テロップの量(文字数やフレーズ数)を時系列に算出し、データ記憶部70に記録する。データ記憶部70に時系列に記録されているテロップの量を参照することで、番組中においてテロップが多く表示された場面を特定することができる。テロップ量に基づく番組内容の検索例については、図7等で後述する。なお、テロップ情報の記録は、番組の録画時のみに限らず、録画済みの番組に対しても行うことできる。
The telop
つぎに、再生機能について、おもに検索処理に着目して説明する。
図4は、再生部50の概略構成を示す機能ブロック図である。再生部50は、一般的な再生処理機能として復号処理部52及び提示処理部54を備える。復号処理部52は、映像及び音声について、MPEG規格で符号化された信号を復号する。また、復号処理部52は、文字放送等については、例えばBML言語を用いたマルチメディア符号化規格により符号化された信号を復号する。提示処理部54は、映像・音声・データの提示処理を行う。提示される画面は、必要に応じて映像信号が表示される画面(プレーン)にデータ放送画面等が複数重ねられて構成される。提示処理部54は、その構成処理を行い、出力部16に出力する。
Next, the playback function will be described mainly focusing on search processing.
FIG. 4 is a functional block diagram showing a schematic configuration of the
さらに、再生部50は、テロップのフレーズ又はテキストを検索処理や編集処理に利用するための機能として、テロップ処理部60を備える。テロップ処理部60は、フレーズ検索部62と、テロップ量検索部64と、テロップ量編集部66とを備える。
Furthermore, the
フレーズ検索部62は、記録部30がデータ記憶部70に記録したテロップ情報のフレーズをキーとして、記録されている動画の頭出し処理(検索処理)を行う。テロップ量検索部64は、テロップ情報のうち時系列に関連づけられたテキスト量をキーとして動画の頭出し処理を行う。テロップ量編集部66は、テロップに含まれるテキスト量、つまり文字数を利用して、ハイライトシーンを編集して集めた動画を生成する。
The
図5及び図6の検索画面例をもとにフレーズを用いた頭出し処理について説明する。ここで示す処理は、主にフレーズ検索部62が行う。図5は、ユーザが検索するフレーズを入力するモードの処理を説明する図を示している。ユーザは、直接又はコントローラ80を介して操作取得部14を操作し、メニュー画面等から図5に示す検索画面A10を表示させる。検索画面A10は、上段のフレーズ入力領域A20と、下段の検索結果表示領域A30から構成されている。
A cueing process using a phrase will be described based on the search screen examples of FIGS. 5 and 6. The process shown here is mainly performed by the
フレーズ入力領域A20は、番組指定領域A21、番組名選択領域A22、検索タイプ指定領域A23、検索フレーズ入力領域A24及び検索実行ボタンA25を備えている。ユーザは、番組指定領域A21において、フレーズを検索する対象として、番組の指定をするか否かを選択する。ここでは、指定する旨を示す「あり」が選択されている。番組の指定ありの場合、番組名選択領域A22には、録画されているコンテンツがユーザから指定可能に表示される。ここでは番組名「ABCD旅紀行」が選択さている。なお、番組指定領域A21において「なし」が選択された場合、データ記憶部70に記録されている番組全体がフレーズ検索の対象となる。ただし、その対象は、テロップの解析がなされたコンテンツに限られる。そして、番組名選択領域A22は、例えば、「全体」といった表示がなされる。
The phrase input area A20 includes a program designation area A21, a program name selection area A22, a search type designation area A23, a search phrase input area A24, and a search execution button A25. In the program designation area A21, the user selects whether or not to designate a program as a phrase search target. In this case, “Yes” indicating the designation is selected. When a program is designated, the recorded content is displayed in the program name selection area A22 so that the user can designate it. Here, the program name “ABCD Journey” is selected. When “none” is selected in the program designation area A21, the entire program recorded in the
検索タイプ指定領域A23は、フレーズの検索方法の指定をユーザから受け付ける。具体的に、ユーザは、「入力」タイプと「選択」タイプのいずれかを選択する。ここでは、「入力」タイプが選択されている。「入力」タイプが選択されている場合、検索フレーズ入力領域A24が表示され、ユーザは、この検索フレーズ入力領域A24に所望のフレーズを入力する。そして検索フレーズ入力領域A24の下に配置されている検索実行ボタンA25を押下すると検索が実行される。ここでは、「ハワイ」が検索対象フレーズとして入力されている。 The search type designation area A23 accepts designation of a phrase search method from the user. Specifically, the user selects either the “input” type or the “selection” type. Here, the “input” type is selected. When the “input” type is selected, the search phrase input area A24 is displayed, and the user inputs a desired phrase in the search phrase input area A24. Then, when the search execution button A25 arranged under the search phrase input area A24 is pressed, the search is executed. Here, “Hawaii” is entered as a search target phrase.
検索実行ボタンA25の押下により、テロップ処理部60のフレーズ検索部62は、データ記憶部70に記録されているテロップ情報を参照し、入力されたフレーズを検索し、フレーズが存在する場合は、そのフレーズに関連づけられているフレームを特定する。そして検索結果は、検索結果表示領域A30に表示される。
By pressing the search execution button A25, the
検索結果表示領域A30は、時系列軸A31と、サムネイル画像領域A32と、選択フレーム表示領域A33とを備えている。時系列軸A31は、検索されたフレーズの時系列位置を所定のマークで表示する。ここでは、5カ所の位置が表示されている。サムネイル画像領域A32は、検索されたフレーズに関連づけられたフレームをサムネイル画像として表示する。このとき、サムネイル画像領域A32は、時系列軸A31の表示と対応づけられている。そして、ユーザは、コントローラ80等を操作することにより、サムネイル画像領域A32に表示された所望のサムネイル画像を選択することができる。選択されたサムネイル画像及びそのサムネイル画像に対応する時系列位置がハイライトされて表示される。ここでは、3番目のサムネイル画像が選択されている。そして、選択されたサムネイル画像を見やすく拡大した画像が選択フレーム表示領域A33に表示される。そしてハイライトされているサムネイル画像が選択されると、選択されたサムネイル画像に関連づけられているフレームの位置から、コンテンツの再生が開始され表示部90に出力される。
The search result display area A30 includes a time series axis A31, a thumbnail image area A32, and a selected frame display area A33. The time series axis A31 displays the time series position of the searched phrase with a predetermined mark. Here, five positions are displayed. The thumbnail image area A32 displays a frame associated with the searched phrase as a thumbnail image. At this time, the thumbnail image area A32 is associated with the display of the time-series axis A31. The user can select a desired thumbnail image displayed in the thumbnail image area A32 by operating the
つぎに図6をもとに、フレーズを選択するタイプの検索が指定されたときの表示態様について説明する。図5と同様に、検索画面A10は、上段のフレーズ入力領域A20と、下段の検索結果表示領域A30から構成されている。ここでは、検索タイプ指定領域A23において、「選択」タイプがユーザから指定されている。このとき、フレーズ検索部62は、データ記憶部70に記録されているテロップ情報を参照し、抽出されているフレーズを検索フレーズ選択領域A26に表示する。この表示のときには、例えば、含まれているフレーズの数が多い順に、その数が分かるように表示される。図示では、5種類のフレーズが選択可能に表示されており、例えば、「ハワイ」というフレーズが一番多く21回抽出されて記録されていることを示している。また、ここでは、2番目の「ホノルル」というフレーズが、検索フレーズとして選択されている。なお、選択可能なフレーズは複数であってもよい。選択後、検索ボタンA25が押下されると、図5と同様に検索結果表示領域A30に検索結果が表示される。
Next, based on FIG. 6, a display mode when a search for selecting a phrase is designated will be described. Similar to FIG. 5, the search screen A10 includes an upper phrase input area A20 and a lower search result display area A30. Here, in the search type designation area A23, the “selection” type is designated by the user. At this time, the
以上のように、テロップに表示された文字情報を抽出し、抽出元のフレームと関連づけてテロップ情報として記録し、テロップ情報を番組の検索機能として利用することができる。その結果、ユーザにとって印象に残ったフレーズなどからの番組検索を行うことができる。言い換えると、番組名・ジャンル・出演者情報からの検索ではなく、より直感的な検索方法により、所望の場所を検索することができる。また、データ記憶部70にはテキストデータまたはそれに準じるフォーマットとして記録されるため、必要とされるデータ量は非常に少なく、圧縮された場合、一層小さくでき、コンテンツの記録に影響を及ぼすことはない。
As described above, the character information displayed in the telop can be extracted, recorded as telop information in association with the extraction source frame, and the telop information can be used as a program search function. As a result, it is possible to perform a program search from a phrase or the like that remains impressive to the user. In other words, it is possible to search for a desired place by a more intuitive search method rather than a search from program name, genre, and performer information. Further, since the
つぎに、テロップ量にもとづく検索機能について説明する。ここで示す処理は、主にテロップ量検索部64が行う。図7は、テロップ量にもとづく検索をするときの検索画面B10を示しており、図示のように、検索画面B10は、検索指定領域B20と検索結果表示領域B30とから構成されている。図5や図6で示した処理と同様に、ユーザは、操作取得部14を操作し、メニュー画面等から図7に示す検索画面B10を表示させる。
Next, a search function based on the telop amount will be described. The processing shown here is mainly performed by the telop
つぎに、ユーザは、番組名選択領域B22において検索対象となるコンテンツを指定する。このとき、テロップ量検索部64は、データ記憶部70に記録されているコンテンツを参照し、検索対象可能なコンテンツをユーザからの指定可能に表示する。そして、ユーザが所望のコンテンツを指定し、検索ボタンB25を押下すると、テロップ量検索部64は、データ記憶部70に記録されているテロップ情報をもとに、図示のように検索結果表示領域B30にテロップ量を時系列にグラフとして表示する。具体的には、検索結果表示領域B30は、テロップ量グラフ表示領域B31と、サムネイル画像領域B32と、選択フレーム表示領域B33とを備えている。
Next, the user designates content to be searched in the program name selection area B22. At this time, the telop
テロップ量グラフ表示領域B31は、検索対象となったコンテンツに含まれるテロップ量、つまりテキストの量を時系列にグラフB31aとして表示する。さらに、テロップ量グラフ表示領域B31は、グラフB31aの下に操作バーB31bを備える。この操作バーB31bは指示アイコンB31cにより選択フレーム表示領域B33に表示される位置を示すとともに、指示アイコンB31cの位置を移動させることで再生位置を指定することできる。 The telop amount graph display area B31 displays the telop amount included in the content to be searched, that is, the amount of text as a graph B31a in time series. Furthermore, the telop amount graph display area B31 includes an operation bar B31b below the graph B31a. The operation bar B31b indicates the position displayed in the selected frame display area B33 by the instruction icon B31c, and the reproduction position can be designated by moving the position of the instruction icon B31c.
テロップ量グラフ表示領域B31の上には、サムネイル画像領域B32が設けられ、さらにその上には、選択フレーム表示領域B33が設けられている。サムネイル画像領域B32には、テロップ量グラフ表示領域B31においてテロップ量がピークを示す部分のサムネイル画像が表示される。ここでは、5カ所のピークが示されており、それに対応して5つのサムネイル画像が示されている。サムネイル画像の数は、固定であってもよいし、ユーザが設定可能としてもよいし、さらに、検出されたピーク数に応じて可変であってもよい。 A thumbnail image area B32 is provided above the telop amount graph display area B31, and a selection frame display area B33 is further provided thereon. In the thumbnail image area B32, a thumbnail image of a portion where the telop amount shows a peak in the telop amount graph display area B31 is displayed. Here, five peaks are shown, and five thumbnail images are shown correspondingly. The number of thumbnail images may be fixed, may be set by the user, or may be variable depending on the number of detected peaks.
そして、ユーザが上述のテロップ量グラフ表示領域B31に設けられた操作バーB31bの指示アイコンB31cにより指定した位置の画像が選択フレーム表示領域B33に表示される。例えばバラエティー番組のようなコンテンツでは、コンテンツの盛り上がり場面とテロップ量とに相関がある場合がある。そのようなコンテンツの視聴の際に、テロップ量にもとづく検索を行うことで、効果的な頭出し作業を行うことができる。 Then, the image at the position specified by the user with the instruction icon B31c of the operation bar B31b provided in the above-described telop amount graph display area B31 is displayed in the selected frame display area B33. For example, in a content such as a variety program, there may be a correlation between the content excitement scene and the amount of telop. When viewing such content, an effective cueing operation can be performed by performing a search based on the amount of telop.
つぎに、テロップ情報、特にテロップ量を用いたハイライト動画の生成処理につてい説明する。ここで示す処理は、主にテロップ量編集部66が行う。ハイライト動画を表示する為には、例えば、コントローラ80にハイライト動画を選択するボタンを設けておく。ユーザがそのボタンを押下した場合に、テロップ量編集部66は、データ記憶部70に記録されているコンテンツについて、ハイライト動画を表示する。そしてユーザは、そのハイライト動画を確認して、コントローラ80で所望のコンテンツを選択し、再生指示を行う。
Next, a process for generating a highlight moving image using telop information, particularly a telop amount, will be described. The processing shown here is mainly performed by the telop
図8(a)及び(b)は、テロップ量にもとづくハイライト動画を生成するときの編集設定画面C10を示している。また、図9は、生成されるハイライト動画、その生成に使用したテロップ量及びピーク画像の関係を模式的に示したものであり、動画像の生成時間等の条件は、図8(b)に対応している。なお、ピーク画像とは、テロップ量がピークを示す位置の画像を示すものである。 FIGS. 8A and 8B show an edit setting screen C10 when a highlight moving image based on the amount of telop is generated. FIG. 9 schematically shows the relationship between the highlight movie to be generated, the amount of telop used to generate it, and the peak image. Conditions such as the generation time of the moving image are shown in FIG. It corresponds to. The peak image indicates an image at a position where the telop amount shows a peak.
ユーザは、ハイライト動画生成の設定をするために、操作取得部14を操作し、メニュー画面等から図8(a)及び(b)に示す編集設定画面C10を表示させる。編集設定画面C10を表示させた後、ユーザは、まず、ハイライト動画対象設定領域C21において、ハイライト動画を生成する対象を設定する。図示のように、全てのコンテンツを対象とする「全て」、コンテンツの種類(ジャンル)を指定する「指定」、またはハイライト動画を生成しないことを指定する「なし」のいずれかが選択される。いま、「指定」が選択されており、この条件の場合、所望のジャンルが一覧から選択可能に表示され、図示では、5種類のジャンルが指定可能となっており、「バラエティー」がユーザによって指定されている。
In order to set the highlight moving image generation, the user operates the
つぎに、ユーザは、動画長指定領域C22においてハイライト動画の長さ(時間)の決め方を指定する。ここでは、ハイライト動画の全長又はハイライト動画を構成するピーク画像の長さのいずれかを指定する。 Next, the user designates how to determine the length (time) of the highlight movie in the movie length designation area C22. Here, either the full length of the highlight movie or the length of the peak image constituting the highlight movie is designated.
図8(a)では、ハイライト動画の全長を決める「全長」を指定するモードが選択されている場合について示されている。ユーザはさらに動画時間指定領域C23に所望の時間を入力する。ここでは、ハイライト動画の時間として「20秒」が入力されている。つづいて、ユーザは、画像数指定領域C24に最大の画像数を入力する。ここでは、ピーク画像の最大数として「5」が入力されている。したがって、テロップ量にピークが5以上ある場合、テロップ量が多い5カ所のピークに対応する部分の画像が抽出されハイライト動画となる。図の例では、ハイライト動画が20秒とされているので、抽出される各画像の長さは4秒となる。条件の入力が終了したら、設定ボタンC26を押下することで、ハイライト動画の生成に関して所望の条件が設定され、テロップ量編集部66は録画のたびにハイライト画像を生成する。
FIG. 8A shows a case where the mode for specifying the “full length” that determines the total length of the highlight video is selected. The user further inputs a desired time in the moving image time designation area C23. Here, “20 seconds” is input as the time of the highlight moving image. Subsequently, the user inputs the maximum number of images in the image number designation area C24. Here, “5” is input as the maximum number of peak images. Therefore, when there are five or more peaks in the telop amount, images of portions corresponding to the five peaks having a large telop amount are extracted and become a highlight moving image. In the example in the figure, since the highlight moving image is 20 seconds, the length of each extracted image is 4 seconds. When the input of the conditions is completed, the user presses the setting button C26 to set a desired condition regarding the generation of the highlight moving image, and the telop
また、図8(b)では、ピーク画像の数を指定するモードが選択されている場合を示している。また、図9は、生成されるハイライト動画、その生成に使用したテロップ量及びピーク画像の関係を模式的に示している。この場合、ユーザは、画像数指定領域C24に最大の画像数を入力し、さらに、各ピーク画像の長さを時間指定領域C25に入力する。ここでは、画像数が「5」であり、各ピーク画像の長さがピーク中心の前後3秒の計6秒となっている。したがって、生成されるハイライト動画の長さは30秒となる。 FIG. 8B shows a case where a mode for specifying the number of peak images is selected. FIG. 9 schematically shows the relationship between the generated highlight moving image, the telop amount used for the generation, and the peak image. In this case, the user inputs the maximum number of images in the image number designation area C24, and further inputs the length of each peak image in the time designation area C25. Here, the number of images is “5”, and the length of each peak image is 6 seconds, 3 seconds before and after the peak center. Therefore, the length of the generated highlight moving image is 30 seconds.
以上のように、テロップ量にもとづくハイライト動画を生成することで、効果的な検索用の画像を生成することができる。特にテロップ量とコンテンツの盛り上がり箇所に相関があるような場合に、盛り上がり箇所を効果的に抽出したハイライト画像を生成することができ、検索用の画像として使用することができる。 As described above, it is possible to generate an effective search image by generating a highlight moving image based on the amount of telop. In particular, when there is a correlation between the amount of telop and the rising part of the content, a highlight image in which the rising part is effectively extracted can be generated and used as an image for search.
なお、上記では、コンテンツが録画される毎に、自動的に生成される態様について説明したが、ユーザがハイライト動画を作成するコンテンツを指定する態様の処理についても適用することができる。 In the above description, the mode in which the content is automatically generated every time content is recorded has been described. However, the present invention can also be applied to the mode in which the user designates the content for creating the highlight video.
以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. .
10 レコーダ
12 主制御部
14 操作取得部
20 記録再生処理部
30 記録部
32 復号処理部
34 符号化処理部
40 テロップテキスト化部
42 テロップタグ処理部
44 テロップ量計算部
50 再生部
52 復号処理部
54 提示処理部
60 テロップ処理部
62 フレーズ検索部
64 テロップ量検索部
66 テロップ量編集部
70 データ記憶部
10
Claims (14)
前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理手段と、
前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理手段と、
を備えることを特徴とする表示装置。 Text extraction means for extracting text data of the telop included in the moving image;
Associated processing means for associating the extracted text data with the extracted position of the text data in the moving image and recording it in a storage means;
Search processing means for performing search processing of the moving image based on the extracted text data;
A display device comprising:
前記関連処理手段は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、
前記検索処理手段は、前記フレーズにもとづいて前記動画像の再生位置を決定する
ことを特徴とする請求項1に記載の表示装置。 The text extraction means extracts a phrase included in the text data,
The related processing means records the phrase in association with the position of the moving image in which the phrase was included,
The display device according to claim 1, wherein the search processing unit determines a playback position of the moving image based on the phrase.
前記受信した動画像を記録するコンテンツ記憶手段と、
を備え、
前記関連処理手段は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像におけるテキストデータの抽出位置とを関連づけて記録することを特徴とする請求項1から6のいずれかに記載の表示装置。 Receiving means for receiving the moving image as a broadcast wave;
Content storage means for recording the received moving image;
With
7. The related processing unit according to claim 1, wherein when the moving image is recorded, the extracted text data and the extracted position of the text data in the moving image are recorded in association with each other. The display device described.
前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理工程と、
前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理工程と、
を備えることを特徴とする表示方法。 A text extraction step of extracting text data of the telop included in the moving image;
An associated processing step of associating the extracted text data with an extraction position of the text data in the moving image and recording it in a storage means;
A search processing step of performing search processing of the moving image based on the extracted text data;
A display method comprising:
前記関連処理工程は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、
前記検索処理工程は、前記フレーズにもとづいて前記動画像の再生位置を決定する
ことを特徴とする請求項8に記載の表示方法。 The text extraction step extracts a phrase included in the text data,
The related processing step records the phrase and the position of the moving image in which the phrase is included in association with each other,
The display method according to claim 8, wherein the search processing step determines a playback position of the moving image based on the phrase.
前記受信した前記動画像を記録するコンテンツ記憶工程と、
を備え、
前記関連処理工程は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像における前記テキストデータの抽出位置とを関連づけて記録することを特徴とする請求項8から13のいずれかに記載の表示方法。 A receiving step of receiving the moving image as a broadcast wave;
A content storage step for recording the received moving image;
With
14. The related processing step, when recording the moving image, records the extracted text data and the extracted position of the text data in the moving image in association with each other. Display method described in.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009215329A JP2011065405A (en) | 2009-09-17 | 2009-09-17 | Display device and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009215329A JP2011065405A (en) | 2009-09-17 | 2009-09-17 | Display device and display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011065405A true JP2011065405A (en) | 2011-03-31 |
Family
ID=43951582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009215329A Pending JP2011065405A (en) | 2009-09-17 | 2009-09-17 | Display device and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011065405A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014027635A (en) * | 2012-07-30 | 2014-02-06 | Sharp Corp | Portable terminal device and information communication system |
CN113497899A (en) * | 2021-06-22 | 2021-10-12 | 深圳市大头兄弟科技有限公司 | Character and picture matching method, device and equipment and storage medium |
-
2009
- 2009-09-17 JP JP2009215329A patent/JP2011065405A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014027635A (en) * | 2012-07-30 | 2014-02-06 | Sharp Corp | Portable terminal device and information communication system |
CN113497899A (en) * | 2021-06-22 | 2021-10-12 | 深圳市大头兄弟科技有限公司 | Character and picture matching method, device and equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8326115B2 (en) | Information processing apparatus, display method thereof, and program thereof | |
TW501110B (en) | Method and apparatus for accessing content | |
US20090249208A1 (en) | Method and device for reproducing images | |
US20080031595A1 (en) | Method of controlling receiver and receiver using the same | |
KR20060093511A (en) | Broadcast recording device and broadcast search device of digital broadcasting system | |
US7200322B2 (en) | Video-signal recording and playback apparatus, video-signal recording and playback method and recording medium | |
US8655142B2 (en) | Apparatus and method for display recording | |
JP4296676B2 (en) | Image recording apparatus and method, image reproducing apparatus and method, and recording medium | |
JP2011065405A (en) | Display device and display method | |
JP6266271B2 (en) | Electronic device, electronic device control method, and computer program | |
US20040179813A1 (en) | Disk reproduction apparatus allowing setting of book mark for reproducing disk, and disk reproduction method | |
JP4882687B2 (en) | Recorded program management device | |
KR20070028535A (en) | Video audio stream processing device and video audio stream processing method | |
JP4230402B2 (en) | Thumbnail image extraction method, apparatus, and program | |
KR100818401B1 (en) | How to play recordings on a digital broadcast receiver | |
JP2007201988A (en) | Recording and reproducing apparatus | |
JP2007288687A (en) | Broadcast recording apparatus and method | |
JP4987664B2 (en) | Information processing apparatus and operation support screen display method | |
JP2006338751A (en) | Network compliant information recording-reproducing device and its control method | |
JP2012034235A (en) | Video reproduction apparatus and video reproduction method | |
JP2000324439A (en) | Digital bit stream recording and reproducing device and medium for recording program | |
JP4539884B2 (en) | Reproducing apparatus, program, and method for constructing electronic screen | |
JP2006121183A (en) | Video recording/reproducing apparatus | |
JP2007300411A (en) | Recorder/reproducer with automatic recording function and its information arranging method | |
KR20070075728A (en) | Method of searching for a recording in a digital broadcasting receiver and a device thereof |