[go: up one dir, main page]

JP5059867B2 - エンコード方法及び装置並びにデコード方法及び装置 - Google Patents

エンコード方法及び装置並びにデコード方法及び装置 Download PDF

Info

Publication number
JP5059867B2
JP5059867B2 JP2009533251A JP2009533251A JP5059867B2 JP 5059867 B2 JP5059867 B2 JP 5059867B2 JP 2009533251 A JP2009533251 A JP 2009533251A JP 2009533251 A JP2009533251 A JP 2009533251A JP 5059867 B2 JP5059867 B2 JP 5059867B2
Authority
JP
Japan
Prior art keywords
area
data
media
menu
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009533251A
Other languages
English (en)
Other versions
JP2010507316A (ja
Inventor
ヒョン キム,テ
ジャン チャ,ヒュク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2010507316A publication Critical patent/JP2010507316A/ja
Application granted granted Critical
Publication of JP5059867B2 publication Critical patent/JP5059867B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Probability & Statistics with Applications (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、ビデオデータ及びオーディオデータを含むマルチメディアデータをエンコードするための方法及び装置並びにビデオデータ及びオーディオデータを含むマルチメディアデータをデコードするための方法及び装置に関するもので、さらに詳細には、携帯用メディアプレーヤーを使用して複数のビデオコンテンツを含む複数のメディアコンテンツをユーザにとって効果的に管理し再生できるようにすることができるエンコード方法及び装置並びにデコード方法及び装置に関する。
ビデオ、オーディオ及びテキストデータのような多様な形態のメディアデータを含むマルチメディアデータは、大体サイズが大きい。そのため、マルチメディアデータをエンコード/デコードし送信するのに大慨長い時間がかかる。また、相当な数のメディアコンテンツを統合し管理することは、一般に困難である。
本発明は、ビデオコンテンツを含む複数のメディアコンテンツを効果的に管理しエンコード/デコードできるようにするマルチメディアデータ構造を提供し、またこのようなマルチメディアデータ構造を使用してマルチメディアデータをエンコードするための方法及び装置並びにマルチメディアデータ構造を使用してマルチメディアデータをデコードするための方法及び装置を提供する。
本発明の一態様によって、デコード方法が提供される。前記デコード方法は、
ビデオデータ領域とオーディオデータ領域とを含むメディア領域、前記ビデオデータ領域とオーディオデータ領域に各々対応するビデオトラック領域とオーディオトラック領域とを含むメディア情報領域、及び前記メディア領域内のメディアデータとユーザとの間のインタフェースを提供するメニューをディスプレイするための記述データを含むメニュー記述領域を含むマルチメディアデータを受信するステップと、シーン表示フォーマットを使用して描写された前記記述データを前記マルチメディアデータから抽出するステップと、前記記述データからSVG(Scalable Vector Graphics)フォーマットデータを抽出することによって、前記抽出された記述データをデコードするステップと、前記デコードされた記述データを使用してメニューをレンダリングするステップと、前記メニューに基づいて前記メディア領域から抽出されたメディアデータをデコードするステップとを含み、前記メディア領域、前記メディア情報領域、及び前記メニュー記述領域は、一つのファイルに統合される。
本発明の他の態様によって、エンコード方法が提供される。前記エンコード方法は、ファイルのフォーマットに関する情報を含むファイルタイプ領域を生成するステップと、ビデオデータ領域とオーディオデータ領域とを含むメディア領域を生成するステップと、前記ビデオデータ領域に含まれたビデオデータに関する情報を含むビデオトラック領域、及び前記オーディオデータ領域に含まれたオーディオデータに関する情報を含むオーディオトラック領域を含むメディア情報領域を生成するステップと、メニューを表示するための記述データを含むメニュー記述領域を含むファイル情報領域を生成するステップとを含み、前記メニューは、前記メディア領域内のメディアデータとユーザとの間のインタフェースを提供し、前記記述データは、シーン表示フォーマットを使用して描写され、前記ファイルタイプ領域、前記ファイル情報領域、前記メディア情報領域、及び前記メディア領域は、一つのファイルに統合される。
本発明のさらに他の態様によって、デコード装置が提供される。前記デコード装置は、ビデオデータ領域とオーディオデータ領域とを含むメディア領域、前記ビデオデータ領域とオーディオデータ領域に各々対応するビデオトラック領域とオーディオトラック領域とを含むメディア情報領域、及びメニューを表示するための記述データを含むメニュー記述領域を含むマルチメディアデータを受信するデータ入力部と、前記マルチメディアデータから前記記述データを抽出するパーサー、前記記述データからSVG(Scalable Vector Graphics)フォーマットデータを抽出することによって、前記抽出された記述データをデコードする記述デコーダ、及び前記メディア領域内のメディアデータとユーザとの間のインタフェースを提供するメニューを前記デコードされた記述データを使用してレンダリングするレンダリング部を有する第1デコーダと、前記メニューに基づいて抽出されたメディアデータをデコードする第2デコーダとを備え、前記記述データは、シーン表示フォーマットを使用して描写され、前記メディア領域、前記メディア情報領域、及び前記メニュー記述領域は、一つのファイルに統合される。
本発明のさらに他の態様によって、エンコード装置が提供される。前記エンコード装置は、ビデオデータに関する情報を含むビデオトラック領域とオーディオデータに関する情報を含むオーディオトラック領域とを生成するマルチメディアトラック生成器と、シーン表示フォーマットを使用して描写され、ユーザとメディアデータとの間のインタフェースを提供するメニューを表示するための記述データを含むメニュー記述領域を生成する記述領域生成器と、前記ビデオ及びオーディオトラック領域と前記メニュー記述領域とを一つのファイルに統合するファイル構造生成器とを備える。
開示された実施の形態は、複数のビデオ/オーディオコンテンツを含むマルチメディアデータファイル、そしてユーザとメディアデータ間のメニューのための記述データを構成することができるマルチメディアデータエンコード/デコード方法及び装置を含む。したがって、マルチメディアデータを処理し送信するのにかかる時間を減らすことができる。
本発明の一実施の形態によるマルチメディアデータファイルのフォーマットを示した図である。 本発明の一実施の形態によってユーザインタフェースを提供するメニューを示した図である。 本発明の他の実施の形態によるマルチメディアデータファイルのフォーマットを示した図である。 本発明の他の実施の形態によるマルチメディアデータファイルのフォーマットを示した図である。 本発明の一実施の形態によって、セグメントメタデータにあるチャプター情報のフォーマットを示した図である。 本発明の一実施の形態によって、セグメントメタデータにある要約情報のフォーマットを示した図である。 本発明のさらに他の実施の形態によるマルチメディアデータファイルのフォーマットを示した図である。 本発明の一実施の形態によるマルチメディアデータをエンコードするための装置のブロック図である。 本発明の一実施の形態によるマルチメディアデータをデコードするための装置のブロック図である。 本発明のさらに他の実施の形態によるマルチメディアデータをデコードするための装置のブロック図である。 本発明のさらに他の実施の形態によるマルチメディアデータをデコードするための装置のブロック図である。 本発明の一実施の形態によるマルチメディアデータをデコードする方法のフローチャートである。 本発明のさらに他の実施の形態によるマルチメディアデータをデコードする方法のフローチャートである。
以後、本発明の実施の形態が示された添付図面を参照して、本発明を詳細に説明する。
図1は、本発明の一実施の形態によるマルチメディアデータフォーマットを示した図である。図1に示すように、マルチメディアデータファイルは、ファイルタイプ領域、ファイル情報領域、メディア情報領域、及びメディア領域を含むことができる。
ファイルタイプ領域は、マルチメディアデータファイルのタイプやバージョンのようなマルチメディアデータファイルのフォーマットを表す。例えば、マルチメディアデータファイルのタイプが「mp42」であると、ファイルタイプ領域は、マルチメディアデータファイルがMPEG4バージョン−2フォーマットを有していることを表すことができる。
メディア領域は、ビデオデータ領域とオーディオデータ領域のような複数のサブメディアデータ領域を含むことができる。サブメディアデータ領域の各々は、メディアデータを含むことができる。
メディア領域は、またテキストデータを有するテキストデータ領域又はイメージデータを有するイメージデータ領域を含むことができる。ビデオデータ領域は、複数のビデオコンテンツを含むビデオデータを格納することができ、オーディオデータ領域は、複数のオーディオコンテンツを含むオーディオデータを格納することができる。
メディア情報領域は、メディア領域のサブメディアデータ領域に各々対応する複数のトラック領域を含むことができる。トラック領域の各々は、対応サブメディアデータ領域にあるメディアデータに関する情報(例えば、時間的/空間的情報)を含むことができる。
図1に示すように、メディア情報領域は、ビデオデータ領域に対応するビデオトラック領域とオーディオデータ領域に対応するオーディオトラック領域とを含むことができる。
ビデオトラック領域は、ビデオデータ領域に含まれたビデオデータに関する時間的/空間的情報及びビデオデータに関する生成情報のようなビデオデータに関するメタデータ(例えば、ビデオデータに含まれたビデオコンテンツのタイトル及びビデオコンテンツの生成者)を含むことができる。
オーディオトラック領域は、オーディオデータ領域に含まれたオーディオデータに関する時間的/空間的情報及びオーディオデータに関する生成情報のようなオーディオデータに関するメタデータ(例えば、オーディオコンテンツのタイトル、プロデューサ、歌手、及び演奏者)を含むことができる。
ビデオトラック領域やオーディオトラック領域に含まれた時間的/空間的情報は、メディアデータの再生セクション情報、位置情報、又はサイズ情報でありうる。
ファイル情報領域は、識別/位置情報領域及びメニュー記述領域を含むことができる。
識別/位置情報は、メディア領域に含まれた複数のメディアデータの各々の属性情報、例えば、複数のメディアデータの各々の識別情報及び位置情報を含むことができる。
さらに詳細には、識別/位置情報領域は、メディア領域に含まれた複数のメディアデータの各々の名称情報、コンテンツタイプ情報、識別情報、位置情報、及びサイズ情報を含むことができる。
メディア領域が一つのビデオコンテンツ及び二つのオーディオコンテンツを含むならば、識別/位置情報領域に含まれた情報は、下記のように表すことができる。
item ID=1(video 1)
item name=<rel.uri to video 1>
content type=video
item ID=2(audio 1)
item name=<rel.uri to audio 1>
content type=audio
item ID=3(audio 2)
item name=<rel.uri to audio 2>
content type=audio
ここで、item IDは、メディアコンテンツの識別子、item nameは、メディアコンテンツの名称、及びcontent typeは、メディアコンテンツのタイプを表す。
識別/位置情報領域は、第1領域及び第2領域に区分でき、第1領域内のメディアデータ属性情報の一部と第2領域内のメディアデータ属性情報の残りを格納することができる。例えば、識別/位置情報領域の第1領域は、メディアコンテンツの名称とタイプに関する情報を含むことができ、識別/位置情報領域の第2領域は、メディアコンテンツの位置及びサイズに関する情報を含むことができる。
ファイル情報領域のハンドラータイプは、“1sr1.”と指定されることができる。
図1に示すように、メニュー記述領域は、ユーザとメディアデータとの間のインタフェースを提供するメニューを表示するためのメニュー記述データを含む。ユーザにより興味あって便利なインタフェースを提供するために、メニューにアニメーション効果を適用することができる。
メニューは、メディア領域にある複数のメディアコンテンツを表示しメディアコンテンツから再生されるメディアコンテンツをユーザにとって選択できるようにするための一つ以上の入力ツールを提供する。ユーザは、メニューを使用してメディア領域に含まれたメディアコンテンツを識別し管理できる。
メニュー記述領域に含まれたメニュー記述データとメディア領域に含まれたメディアデータは、識別/位置情報領域に含まれた情報を参照して連結することができる。
図2は、メニューの一例を示している。図2に示すように、メニューは、背景イメージ10と一つ以上の入力ツール20〜23を含む。
動作を視覚化しユーザの興味を誘発させるために、背景イメージ10にアニメーション効果を適用することができる。例えば、入力ツール20〜23のうちの一つを使用してユーザ入力されると、背景イメージ10がユーザ入力に応答して修正できるように、背景イメージ10にアニメーション効果が適用されることができる。
背景イメージ10として使用されることができるイメージデータは、メディア領域に格納されることができる。
ユーザは、マウスのクリック又はキー入力を介して入力ツール20〜23のうちの一つを選択することができ、選択された入力ツールを使用してメディア領域内の複数のメディアコンテンツを管理することができる。
例えば、ユーザは、メディア領域内の複数のメディアコンテンツのリストを識別し、入力ツール21、すなわち「コンテンツリスト」を使用してメディアコンテンツのうちの一つを選択することができる。以後、ユーザは、入力ツール20、すなわち、「再生」を使用して選択されたメディアコンテンツを再生することができる。
また、ユーザは、メディア領域内のメディアコンテンツをカテゴリー化することによって得られた複数のチャプタを識別し、入力ツール22、すなわち、「チャプタ」を使用してチャプタのうちの一つを選択することができる。さらに、ユーザは、入力ツール23、すなわち、「要約」を使用してメディア領域内のメディアコンテンツの各々の簡単な説明を得ることができる。
しかしながら、入力ツール20〜23は、例示的なものに過ぎず、本発明はこれにより制限されない。すなわち、ユーザとマルチメディアコンテンツとの間の効果的なインタフェーシングをすることができるインタフェースをユーザに提供するために、メニューは、ここに開示されたものの他に多様なタイプの入力ツールを含むことができる。
メニューを構成するために必要なテキストデータは、メニュー記述領域のメニュー説明データ内に含まれることができるか、又はメディア領域内に格納されることができる。
メニュー記述データは、メニューの視覚的エレメントであるグラフィックエレメントに関するグラフィック情報、視覚的エレメントの空間的レイアウトに関する空間的レイアウト情報、及びメニューと共に表示されるメディアデータの時間的レイアウトに関する時間的レイアウト情報を含むことができる。メディアデータの時間的レイアウトに関する情報は、メディアデータの同期化情報、メニューに適用されるアニメーション効果に関するアニメーション効果情報、及びユーザとメニューとの間に発生するキー入力又はマウス入力のような双方向イベントに関する双方向イベント情報を含むことができる。
メニュー記述データは、LASeR(Light-weight Application Scene Representation)、SVG(Scalable Vector Graphics)、又はBIFS(Binary Format for Scene)を使用して生成できる。この場合、メニュー記述データは、XML(eXtensible Markup Language)フォーマット又はバイナリエンコード(binary encoded)フォーマットを有することができる。
LASeRを使用して生成されたメニュー説明データの一例は、次の通りである。
<lsru:NewScene>
<svg width="400" height="250"viewBox="0 0 400 250">
<!-- Main menu -->
<g id="title page"visibility="visible">
<!-- Background image -->
<image id="title image" xlink:href="#item ID of image"?width="400"height= "250" x="0"y="0">
<!-- Menu options -->
<rect x="10"y="109" width="100" height="15" rx="8"
fill="rgb(255, 150, 70)"/>
<text id="play btn" x="20" y="120" font-family="Verdana"?font-size="12" fill="white">
play </text>
...
</g>
<!-- Video playback -->
<g id="video playback" visibility="hidden">
<video xlink:href="#item ID of video"begin="play btn.click"type="video/mpeg"...>
<audio xlink:href="#item ID of audio"begin="play btn.click" type="audio/mpeg" ...>
<a xlink:href="#item ID of text"begin="play btn.click"?type="text/3gpp"...>
</g>
...…
</svg>
</lsru:NewScene>.
LASeRを使用して生成されたメニュー記述データは、前記例で説明した通り、SVG(Scalable Vector Graphics)フォーマットを含むことができる。
メニュー記述データは、グラフィック情報、アニメーション効果情報、空間的レイアウト情報、時間的レイアウト情報、及び双方向イベント情報を記述するための複数のエレメントを含むことができる。
例えば、メニュー記述データは、メニューと共に表示するグラフィックエレメント、テキストデータ及びイメージデータのためのエレメント、マルチメディアデータのためのエレメント、及びメニューに適用されるアニメーション効果のためのエレメントを含むことができる。
メニュー説明データのエレメントは、下記の表1に表したとおりである。
Figure 0005059867
メニュー記述データに含まれたアニメーション効果情報は、メニューに適用されるアニメーション効果のグループに関するグルーピング情報、アニメーション効果が適用されるメディアデータのサイズ情報、不透明効果情報及び幾何学的変形効果情報を含むことができる。サイズ情報は、イメージサイズ変化に関する情報でありうる。不透明効果情報は、フェードイン効果及びフェードアウト効果に関する情報でありうる。幾何学的変形効果情報は、イメージ間トランジンション、イメージスケール変化、ローテーション、及びスキューなどの効果に関する情報でありうる。
アニメーション領域は、イメージの動作の経路又はイメージ内のオブジェクトの動作の経路に関する動作経路情報、イメージのカラー変化に関するカラー変化情報、又はイメージの形状情報を含むことができる。イメージの形状情報は、イメージが長方形、円形、楕円形、多角形、線形又はポリライン形なのかを表すことができる。アニメーション領域は、メディアデータに適用されることができる多様なアニメーション効果のためのメディアデータの属性を変化させるのに必要な属性制御情報を含むこともできる。
不透明効果情報、スケール変換情報、及びサイズ変換情報を含むアニメーション効果情報の一例は、次のとおりである。
<lsru:NewScene>
<svg>
<g id=Article Image">
<animate attributeName="opacity"calcmode="linear"”
values="0.00:1.00:1.00:1.00:1.00:1.00:1.00:1.00"
dur="8.0" repeatDur="indefinite"/>
<animate Transform attributeName="Transform"type="scale"?additive="sum"calcmode="linear"”
values="0.00 1.00:1.00 1.00:1.00 1.00:1.00 1.00:0.50 1.00:0.00 1.00:1.00 1.00"”

*113 dur="8.0"repeatDur="indefinite"/>
<image width="200"height="15-" #sampleID = 1>
</image>
</g>
</svg>
</lsru:NewScene>
ここで、記号「<」とは開始を、記号「>」とは終了を、記号「/」とは定義されるコンテクストの終了を表す。例えば、<svg>及び</svg>間のコンテクストは、一つのグループと定義されることができ、コンテクスト<g id=“Article image”>及び</g>は、さらに他のグループと定義されることができ、<image width=“200”height=“150”#sample=1>及び</image>間のコンテクストは、さらに他のグループと定義されることができる。<g id=“Article image”>を参照すれば、参照記号gは、グループを表し、Article imageは、グループgの名称を表す。アニメーション属性又はアニメーション効果名称“opacity”及び“transform”とは、それぞれ不透明効果及び幾何学的変形効果を表す。記号“sum”とは、複数のアニメーション属性の合計を表す。記号“dur”とは、イメージデータの再生持続時間を表す。
イメージデータがサンプルとして考慮されると、1の識別子を有するイメージデータ(#sampleID=1)により具現されたイメージの幅と高さは、それぞれ200と150である。前記アニメーション効果は、イメージデータ(#sampleID=1)の透明度を完全透明レベル(value=0.00)から本来の透明レベル(value=1.00)まで8秒(dur=“8.0”)間繰り返し的に(repeatDur=“indefinite”)線形的に(calcMode=“linear”)変化させるのに関連する。また、前記アニメーション効果は、イメージデータ(#sampleID=1)のスケール(“transform”、“scale”)を本来の大きさ(value=1.00)から本来の大きさの半分(value=y;x=1.00;0.50)まで8秒(dur=“8.0”)間繰り返し的に(repeatDur=“indefinite”)線形的に(calcMode−“linear”)変形させるのに関連する。上記のアニメーション効果は、イメージデータ(#sampleID=1)の透明度の変化及びイメージデータ(#sampleID=1)のスケールの変形を同時に(additive=“sum”)行うのに特徴がある。
一つ以上のサンプルを含むイメージデータは、複数のチャンク(chunk)に区分されることができ、チャンクの各々の複数のサンプルは、時間順に整列されうる。チャンク内のサンプルは、1から始まる自体の識別番号を有する。この点で、イメージデータ(#sampleID=1)は、イメージデータであるものより、1の識別番号を有するサンプルでありうる。
図3に示すように、ビデオデータ領域又はオーディオデータ領域は、複数のメディアコンテンツを含むことができ、ビデオトラック領域又はオーディオトラック領域は、メディアコンテンツにそれぞれ対応する複数のトラック領域を含むことができる。
すなわち、ビデオデータ領域は、N個のビデオコンテンツに対応するデータ、例えば、主な特徴、「making−off」クリップ、俳優インタビュー又はイメージギャラリーなどを含むことができる。ビデオトラック領域は、N個のビデオコンテンツにそれぞれ対応するN個のサブビデオトラック領域を含むことができる。
オーディオデータ領域は、M個のオーディオコンテンツに対応するデータを含むことができ、オーディオトラック領域は、M個のオーディオコンテンツにそれぞれ対応するM個のサブオーディオトラック領域を含むことができる。
N個のサブビデオトラック領域とM個のサブオーディオトラック領域のそれぞれは、メディアコンテンツに関するメタ情報又は時間的/空間的情報を含むことができる。
図4に示すように、メディア情報領域は、メディア領域にある複数のメディアコンテンツに関するメタデータを格納するためのトラックメタ領域又はメディアメタ領域を含むことができる。メディアメタ領域は、オーディオトラック領域とビデオトラック領域と同じレベルでメディア情報領域に含まれることができる。トラックメタ領域は、ビデオトラック領域とオーディオトラック領域とにそれぞれ含まれることができる。
ビデオトラック領域やオーディオトラック領域のトラックメタ領域又はメディアメタ領域に含まれうるメタデータは、メディアコンテンツに関する付加情報をユーザに提供するために使用されることができる。
メタデータは、XML(eXtensible Markup Language)フォーマットを使用して描写されることができる。
メタデータは、メディアコンテンツに関するチャプタ/要約情報、生成情報又はユーザによるメディアコンテンツのアクセスに関する使用履歴情報を含むことができる。
生成情報は、メディアコンテンツのタイトル、プロデューサ、及びクリップ説明、メディアコンテンツに対するユーザコメント、及びメディアコンテンツがマルチメディアデータファイル内に含まれた日付及び時間を表すファイル日付/時間情報を含むことができる。生成情報は、またメディアコンテンツの生成に関する多様な情報及びビデオコンテンツのキャスト、ビデオコンテンツの生成日、オーディオコンテンツの歌手、及びオーディオコンテンツの演奏者に関する情報のようなメディアコンテンツに関する多様な属性情報を含むこともできる。
生成情報は、ビデオメタ領域に含まれることができるか、又はオーディオトラック領域又はビデオトラック領域のトラックメタ領域内に含まれることができる。例えば、ビデオデータ領域に含まれた複数のビデオコンテンツ全体に関する一般情報は、メディアメタ領域に含まれることができ、ビデオコンテンツの各々に関する詳細情報は、ビデオトラック領域に含まれることができる。
さらに詳細に説明すると、映画プロデューサに関する情報又はマルチメディアデータファイルに含まれた映画タイトルがメディアメタ領域に含まれることができ、ビデオコンテンツの各々のプロデューサに関する情報又は映画に含まれた複数のビデオコンテンツの各々のタイトルは、ビデオトラック領域に含まれることができる。
同様に、オーディオデータ領域に含まれた複数のオーディオコンテンツに関する生成情報は、メディアメタ領域内に又はオーディオトラック領域のトラックメタ領域内に含まれることができる。
メディア領域に含まれたメディアデータは、階層的に分類されることができる。メディア領域に含まれたメディアデータに関するメタデータは、メディア領域に含まれたメディアデータのセグメントを検索するためのセグメントメタデータを含むことができる。セグメントメタデータは、セグメントが分類される一つ以上のセグメントグループに関する情報を含む。
メディア領域に含まれたメディアデータは、階層的に分類されることができ、セグメントメタデータは、階層的に分類されたメディアコンテンツのチャプタに関する情報を含む。
ユーザは、セグメントメタデータを使用してメディア領域に含まれたメディアデータを介して容易に検索することができる。このために、階層的グルーピング情報が前記メニューと共に表示されることができる。
セグメントメタデータは、メディアメタ領域内に含まれることができ、セグメントメタデータの階層的グルーピング情報は、対応メディアトラック領域のトラックメタ領域に含まれることができる。
ビデオデータ領域に含まれた複数のビデオコンテンツは、複数のチャプタに区分されることができ、セグメントメタデータは、チャプタの各々に関するチャプタ情報を含むことができる。例えば、セグメントメタデータは、チャプタの各々の要約情報、チャプターの各々に分類された複数のシーンに関する情報、及びチャプタの各々のイメージ又は代表シーンに関する情報を含むことができる。
図5は、セグメントメタデータに含まれたチャプタ情報のフォーマットを示している。図5に示すように、ビデオコンテンツは、L個のシーンにそれぞれ対応するL個のセグメントを含むことができ、L個のセグメントは、K個のセグメントグループに分類されることができる。例えば、L個のシーンは、K個のチャプターにグルーピングされることができる。
セグメントメタデータは、チャプタの数(すなわち、K)、ビデオコンテンツのインデックス、ビデオデータ内のビデオコンテンツの位置、K個のセグメントグループのそれぞれの要約、K個のセグメントグループのそれぞれに含まれた一つ以上のセグメントのインデックス、及びL個のセグメントのそれぞれの要約を含むことができる。
ユーザは、チャプタ情報に基づいてビデオコンテンツの主題を容易に判別することができ、したがって、対象ビデオコンテンツを容易に検索及び再生することができる。
L個のセグメントが1層のセグメントグループに分類されたものが図5に示されている。しかしながら、L個のセグメントは、2層のセグメントグループに分類されることができる。すなわち、二つ以上のK個のセグメントグループは、J個のセグメントグループに再グルーピングされうる。この場合、K個のセグメントグループの再グルーピングに関する情報は、セグメントメタデータに含まれることができる。
ビデオデータ領域に含まれた複数のビデオコンテンツは、テーマによって一つ以上のグループに分類されることができる。この場合、セグメントメタデータは、グループに関する情報、例えば、グループのテーマに関する要約情報を含むことができる。
図6は、セグメントメタデータに含まれた要約情報のフォーマットを示している。本実施の形態において、ビデオデータ領域内のビデオデータは、互いに異なるテーマを有する7個のセグメントに分類されることができる。
図6に示すように、7個のセグメントのテーマは、「科学」、「英語」、「数学」、「バレエ」、「オペラ」、「野球」、及び「サッカー」である。したがって、7個のセグメントは、3個のセグメントグループ、「教育」、「芸術」、及び「スポーツ」に分類されることができる。
この場合、セグメントメタデータは、セグメントグループの数(すなわち、3個)、7個のセグメントのインデックス、及び7個のセグメントのテーマを含むことができる。
同様に、ビデオコンテンツに含まれた複数のイメージセグメントは、一つ以上のイメージセグメントグループに分類されることができる。この場合、セグメントメタデータは、イメージグループの各々の要約を含むことができる。
ユーザは、セグメントメタデータに基づいてビデオコンテンツの主題を容易に決定することができ、したがって対象テーマとしてビデオコンテンツを容易に検索して再生できる。
図6に複数のビデオデータセグメントが1層のセグメントグループに分類されたものが示されている。しかしながら、セグメントは、2層のセグメントグループに分類されることができる。例えば、図5に示されたセグメントグループは、一つ以上のセグメントグループに再グルーピングされることができ、3個のセグメントグループの再グルーピングに関する情報がセグメントメタデータに含まれることができる。
メタデータは、メディア領域に含まれた複数のメディアコンテンツに対してユーザが作った動作に関する使用履歴情報を含むこともできる。例えば、使用履歴情報は、所定の期間の間にユーザによりメディアコンテンツのアクセスに関する陳述でありうる。
使用履歴情報は、ユーザが視聴したビデオコンテンツの識別情報、(存在する場合)ビデオコンテンツの再生の中断時点に関する情報、ユーザがビデオコンテンツの視聴を開始し終了する時期に関する情報、又はユーザがビデオコンテンツを視聴した回数に関する情報などのようなユーザによるメディアコンテンツのアクセスに関する多様な情報を含むことができる。
複数のメディアコンテンツを含むマルチメディアファイルが一つ以上のユーザにより使用されると、使用履歴情報は、ユーザの各々に対して生成されることができる。ユーザの各々に対するユーザ履歴情報を管理するために、使用履歴情報は、マルチメディアデータファイルよりは付加メタデータファイル内に含まれることができる。
ユーザは、使用履歴情報を使用してユーザによるマルチメディアデータファイルの複数のメディアコンテンツのアクセスに関する情報を容易に獲得することができる。より詳細に説明すると、ビデオデータ領域に含まれたビデオコンテンツの再生が中断されると、ユーザは、ビデオコンテンツの再生中断時点からビデオコンテンツ再生を再開することができる。
図7は、本発明の一実施の形態によるマルチメディアデータファイルのフォーマットを示している。図7に示すように、メディア領域は、ビデオデータ領域とオーディオデータ領域とを含むことができる。メディア領域は、またテキストデータ領域及び/又はイメージデータ領域を含むこともできる。メディア領域がテキストデータ領域を含む場合、メディア情報領域は、テキストデータ領域に対応するテキストトラック領域を含むことができる。
テキストデータ領域に含まれたテキストデータは、テキスト列又は歌詞でありうる。
テキストトラック領域に含まれたタイミング情報に応じてテキストデータ領域に含まれたテキスト列を再生することによって、タイムテキスト(Timed text)を得ることができる。テキストトラック領域は、テキストデータ領域に含まれたテキスト列のデコード時間情報、位置情報、及びサイズ情報を含むことができる。
ビデオデータ領域に含まれたビデオコンテンツは、タイムテキストを使用して複数のテキスト列と同期して再生できる。タイムテキストは、字幕をリアルタイムで提供するか、又はオーディオ装置を具備していなかったり難聴のある人々のための字幕を提供するために、又はカラオケサービスを提供したり、ニュース項目又はテレプロンプターアプリケーションをスクロールするために使用されることができる。
タイムテキストを再生するために、マルチメディアファイルは、文字セット情報、グリフ情報、フォント情報、テキストカラー情報、選択された字幕情報、ダイナミックハイライト情報、テキストレンダリング位置情報及びテキスト合成情報を含むことができる。
Unicode 3.0は、多様な言語とグリフを表現するのに使用されることができる。UTF−8とUTF−16は、必要な文字にデコードされうる。入力列を飾るためのフォントは、その名称、サイズ、及びスタイルにより特定されうる。フォントスタイルは、ボールド、イタリック、そしてボールド−イタリックを含むことができる。テキストと背景イメージの色は、RGB値により表すことができる。
テキストは、特定された領域内にレンダリングされうる。外国言語演習資料のためのアプリケーションは、テキストをイメージにオーバーレイするためのタイムテキスト情報を使用することができる。カラオケアプリケーションにおいてと同様なテキストは、強調のためにハイライトされうる。
テキストデータ領域は、複数のテキストサンプルを含むことができ、テキストサンプルの各々は、テキスト列とテキスト修正器を含むことができる。テキスト修正器は、該当テキスト列に関するスタイル情報、ハイライト情報、閉鎖された字幕情報、ダイナミックハイライト情報及びブリンク情報のうち、少なくとも一つを具備している。
テキストトラック領域は、またテキストデータ領域に含まれたテキスト列に関するタイミング情報とサンプル説明とを含むこともできる。サンプル説明データは、テキスト列に関するフォント情報、位置情報及び背景情報を具備することができる。
例えば、タイムテキストは、3GPP TS 26.245又はMPEG−4 Part−17に開示され、前記アプリケーションシナリオを具現化し前記機能を支援するのに適したテキストフォーマットと同じフォーマットを有することができる。
ファイル情報領域は、またタイムテキスト効果の説明データを含むこともできる。ビデオデータ領域に含まれたビデオコンテンツは、タイムテキスト効果説明を使用して、複数のテキスト列と同期して再生されうる。
タイムテキスト効果説明は、文字セット情報、グリフ情報、フォント情報、テキストカラー情報、閉鎖された字幕情報、ダイナミックハイライト情報、カラオケ、テキストレンダリング位置情報、及びテキスト合成情報を含むことができる。
ダイナミックハイライティングは、タイムテキスト効果と前記トランジンション効果との組合せを使用して具現されることができる。例えば、二つの互いに異なるカラーを有するテキスト列は、互いにオーバーラッピングしつつ同じ位置で表すことができる。ハイライティング機能が開始されると、どちらのテキスト列が残りのテキスト列の上にあるとしても、左から右に消去されることができる。このために、「barWipe」がタイプとして指定されることができ、「leftToRight」がサブタイプとして指定されることができる。
テキストデータ領域は、各々が複数のテキストサンプルを有する複数のテキストデータを含むことができる。この場合、メディア情報領域は、複数のテキストデータに各々対応する複数のテキストトラック領域を含むことができる。テキストトラック領域の各々は、対応テキストデータのタイミング情報とサンプリング説明とを含むことができる。
イメージデータ領域に含まれたイメージデータは、メニュー記述データに応じてディスプレイされたメニューのための背景イメージとして使用されることができる。上記の通りに、メニュー記述データに特定されたアニメーション効果がイメージデータ領域に含まれたイメージデータに適用されることができる。
ビデオデータ領域に含まれたビデオデータは、MPEG−4 AVC(Advanced Video Coding)、MPEG−2、H.263、又はMPEG−4 Part 2のような多様なビデオコーディング方法を使用して得られた圧縮データでありうる。特に、ビデオデータに含まれたビデオデータは、ITU−T H.264に明記されたビデオコーディング方法を使用して得られた圧縮データでありうる。
オーディオデータ領域に含まれたオーディオデータは、MP3又はAAC(Advanced Audio Coding)のような多様なオーディオコーディング方法を使用して得られた圧縮データでありうる。特に、オーディオデータ領域に含まれたオーディオデータは、MPEG−4 HE−AAC(High Efficiency Advanced Audio Coding)を使用して得られた圧縮データでありうる。代案として、オーディオデータ領域に含まれたオーディオデータは、BSAC(Bit Sliced Arithmetic Coding)のようなスケーラブルオーディオコーディング方法を使用して得られた圧縮データでありうる。
イメージデータ領域に含まれたイメージデータは、JPEG(Joint Picture Expert Group)のようなコーディング方法を使用して得られた圧縮データでありうる。
図8は、本発明の一実施の形態によるマルチメディアデータをエンコードするための装置(以下、マルチメディアデータエンコード装置)のブロック図である。マルチメディアデータエンコード装置は、ファイル構造生成器100、マルチメディアトラック生成器110、記述領域生成器120、及びメタデータ生成器130を備えることができる。
ファイル構造生成器100は、ファイルタイプ領域、ファイル情報領域、メディア情報領域、及びメディア領域を含むマルチメディアファイルを生成する。
マルチメディアトラック生成器110は、メディア領域内の複数のデータ領域を生成しメディア情報領域内のデータ領域に各々対応する複数のトラック領域を生成する。データ領域の各々は、複数のメディアデータを含む。例えば、マルチメディアトラック生成器110は、ビデオデータ領域に対応するビデオトラック領域、オーディオデータ領域に対応するオーディオトラック領域、テキストデータ領域に対応するテキストトラック領域、又はイメージデータ領域に対応するイメージトラック領域を生成することができる。
記述領域生成器120は、メニューをディスプレイするための記述データを含むメニュー記述領域を生成する。
メタデータ生成器130は、メタデータを生成しファイル情報領域、トラックメタ領域又はメディアメタ領域にメタデータを格納する。また、メタデータ生成器130は、メニュー記述データを生成してメニュー記述領域に格納する。
ファイル構造生成器100、マルチメディアトラック生成器110、記述領域生成器120、及びメタデータ生成器130の動作は、ここに開示されたものとは異なる順序で行われることができる。また、ファイル構造生成器100、マルチメディアトラック生成器110、記述領域生成器120、及びメタデータ生成器130の少なくとも二つの動作が同時に行われることができる。
図9は、本発明の一実施の形態によるマルチメディアデータをデコードするための装置(以下、マルチメディアデータデコード装置とする)のブロック図である。図9に示すように、マルチメディアデータデコード装置は、データ入力部200、パーサー210、第1デコーダ220、及び第2デコーダ230を備えることができる。図9に示されたマルチメディアデータデコード装置の動作を以後の図12を参照して詳細に説明する。
図9及び図12に示すように、データ入力部200は、入力マルチメディアデータを受信する(500)。パーサー210は、入力マルチメディアデータからメニュー記述データを抽出する(510)。第2デコーダ230は、ユーザとメディアデータとの間のインタフェースを提供するためのメニューを表示する(520)。
図11に示すように、ユーザとメディアデータとの間のインタフェースを提供するためのメニューを表示する第2デコーダ430は、記述デコーダ431及びレンダリング部432を備えることができる。記述デコーダ431は、入力マルチメディアデータから抽出されたメニュー記述データをデコードすることにより、メニューを表示するために必要な情報を取り出し、レンダリング部432は、記述デコーダ431により抽出された情報に基づいてメニューをディスプレイする。
前記例のように、LASeRを使用して生成されたメニュー記述データは、SVG(Scalable Vector Graphics)フォーマットデータを含むことができる。
この場合、記述デコーダ431は、シーン表現フォーマットを使用して、例えばLASeRを使用して描写された記述データから、メニューを表示するために必要な情報を含むSVGフォーマットデータを取り出す。
したがって、ユーザは、レンダリング部432により表示されたメニューを使用して、入力マルチメディアデータに含まれた複数のメディアコンテンツのうちの一つを選択することができる。例えば、ユーザは、レンダリング部432により表示されたメニューを使用して、ビデオデータ領域に含まれた複数のビデオコンテンツから所望のコンテンツを選択することができる。
図9及び図12に示すように、パーサー210は、入力マルチメディアデータ530のメディア領域からユーザにより選択されたメディアコンテンツに対応するメディアコンテンツを抽出する(530)。
第1デコーダ220は、抽出されたメディアコンテンツをデコードする(540)。以後、第1デコーダ220は、ユーザにより選択されたメディアコンテンツを表示する(550)。
図11に示すように、メディアデータをデコードする第1デコーダ420は、ビデオデコーダ421、オーディオデコーダ422、テキストデコーダ423、及びイメージデコーダ424を備えることができる。ビデオデコーダ421、オーディオデコーダ422、テキストデコーダ423、及びイメージデコーダ424は、入力マルチメディアデータのメディア領域に含まれたビデオデータ、オーディオデータ、テキストデータ、及びイメージデータの各々をデコードする。
図10は、本発明のさらに他の実施の形態によるマルチメディアデータデコード装置のブロック図である。図10に示すように、マルチメディアデータデコード装置は、データ入力部300、第1パーサー310、第1デコーダ320、第2デコーダ330、及び第2パーサー340を備えることができる。図10に示されたマルチメディアデータデコード装置の動作を以後の図9に示されたマルチメディアデータデコード装置の動作との差を中心に、図13を参照してさらに詳細に説明する。
図10及び図13に示すように、データ入力部300は、入力マルチメディアデータがユーザにより入力マルチメディアデータに行われた複数の動作に関する使用履歴情報を含んでいるか否かを判断する(600)。
入力マルチメディアデータが使用履歴情報を含むと、第1パーサー310は、入力マルチメディアデータから使用履歴情報を含むメタデータを抽出し、第2デコーダ330は、第1パーサー310により抽出されたメタデータから使用履歴情報を取り出す。
第1デコーダ320は、使用履歴情報を使用してデコード動作を行ってビデオデータの再生の中断時点からビデオデータの再生が再開されうるようにする(610)。動作610を行う前に、マルチメディアデータデコード装置は、ユーザにとってビデオデータの再生の中断時点からビデオデータの再生を再開するか否かを決定するようにすることができる。
一方、入力マルチメディアデータがいかなる使用履歴情報も持っていなければ、LASeRを使用して生成されたメニュー記述データをマルチメディアデータデコード装置が処理できるか否かが判断される(620)。
マルチメディアデータデコード装置がLASeRを使用して生成されたメニュー記述データを処理することができると、第2デコーダ330は、第1パーサー310により抽出されたメニュー記述データに応じてメニューを表示し(640)、第1デコーダ320は、ユーザにより選択されたビデオコンテンツをデコードし、したがって表示する(650)。
マルチメディアデータデコード装置がLASeRを使用して生成されたメニュー記述データを処理することができない場合、第1デコーダ320は、入力マルチメディアデータのビデオデータ領域に含まれた複数のビデオコンテンツの第1ビデオコンテンツをデコードし、したがって表示する(630)。
マルチメディアデータデコード装置がLASeRを使用して生成されたメニュー説明データを処理することができても、入力マルチメディアデータがいかなるメニュー記述データも具備しなければ、動作630が行われうる。
第1ビデオコンテンツは、ビデオデータ領域内にまず来るビデオコンテンツ、最も高い優先順位を有するビデオコンテンツ、又は主な特徴を含むビデオコンテンツでありうる。入力マルチメディアデータのビデオデータ領域に含まれたビデオコンテンツ間優先順位は、ユーザにより判定されうる。
本発明によるマルチメディアデータエンコード及びデコード装置は、デジタルオーディオ放送(DAB)又はデジタルマルチメディア放送(DMB)装置のようなマルチメディア放送送信/受信装置に備えられることができ、したがってオーディオ信号や音声信号をエンコード/デコードするのに使用されることができる。本発明によるマルチメディアデータエンコード及びデコード装置は、移動通信端末を備えることができる。上記のフォーマットのうちの何れか一つを有するマルチメディアデータがマルチメディア放送信号に含まれることができる。
本発明は、コンピュータ読み取り可能記録媒体に記録されたコンピュータ読み取り可能コードで具現されることができる。コンピュータ読み取り可能記録媒体は、データがコンピュータ読み取り可能方式で格納される任意のタイプの記録装置でありうる。コンピュータ読み取り可能記録媒体の例は、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光学データ格納装置、及び搬送波(例えば、インターネットを介したデータ送信)を含む。コンピュータ読み取り可能記録媒体は、ネットワークに接続した複数のコンピュータシステムを介して配布されることができ、したがって、コンピュータ読み取り可能コードは、分散化された方式により記録及び実行されることができる。本発明を具現するのに必要な機能プログラム、コード、及びコードセグメントは、当業者により解析されうる。本発明を使用して獲得されたビットストリームは、コンピュータ読み取り可能記録媒体に格納されることができるか、又は有無線通信ネットワークを介して送信されることができる。
本発明によるマルチメディアデータデコード装置は、移動通信端末、PMP(Portable Multimedia Player)のようなマルチメディアプレーヤ、又はPDA(Personal Digital Assistant)のような再生装置に含まれることができる。また、本発明によるマルチメディアデータデコード装置は、ハードウェア又はソフトウェアプログラムで具現化されることができ、したがって再生装置に備えられることができる。
上記のように、本発明は、マルチメディアプレーヤ又はマルチメディアコーディング装置のような多様なメディアデータ再生装置に適用されることができ、マルチメディアデータを処理し送信するのにかかる時間を減らすことができる。
本発明が特に実施の形態を参照して図示及び説明されたが、以下の特許請求の範囲に定義された本発明の思想と範囲から逸脱せずに形態及び細部事項に多様な変更が可能であることを当業者は理解するはずである。

Claims (16)

  1. ビデオデータ領域とオーディオデータ領域とを含むメディア領域、前記ビデオデータ領域とオーディオデータ領域に各々対応するビデオトラック領域とオーディオトラック領域とを含むメディア情報領域、及び前記メディア領域内のメディアデータとユーザとの間のインタフェースを提供するメニューを表示するための記述データを含むメニュー記述領域を含むマルチメディアデータを受信するステップと、
    シーン表示フォーマットを使用して描写された前記記述データを前記マルチメディアデータから抽出するステップと、
    前記記述データからSVGフォーマットデータを抽出することによって、前記抽出された記述データをデコードするステップと、
    前記デコードされた記述データを使用してメニューをレンダリングするステップと、
    前記メニューに基づいて前記メディア領域から取り出されたメディアデータをデコードするステップと、を有し、
    前記メディア領域、前記メディア情報領域、及び前記メニュー記述領域は、一つのファイルに統合されており、
    前記メニューは、前記記述データに対応するアニメーション効果を有する背景イメージを含み、
    前記メディア領域は、イメージデータを含むイメージデータ領域をさらに含み、前記背景イメージは、前記アニメーション効果を前記イメージデータに適用することによって生成される、
    ことを特徴とするデコード方法。
  2. 前記メニューは、前記メディア領域内の前記ビデオ及びオーディオデータと前記ユーザとの間のインタフェースを提供する、請求項1に記載のデコード方法。
  3. 前記記述データは、XMLフォーマット及びバイナリエンコードフォーマットのうち、少なくとも一つを使用して記述される、請求項1に記載のデコード方法。
  4. 前記メニューは、前記メディア領域内の前記メディアデータに対応する複数のコンテンツを表す、請求項1に記載のデコード方法。
  5. 前記ユーザは、前記メニューを使用して前記複数のコンテンツから一つ以上のコンテンツを選択する、請求項4に記載のデコード方法。
  6. 前記記述データは、前記メニューと共に表示されるグラフィック、前記メニューに適用されるアニメーション効果、前記メニューの空間的レイアウト、及び前記メニューの時間的レイアウトのうち、少なくとも一つに関する情報を含む、請求項1に記載のデコード方法。
  7. 前記記述データは、前記ユーザと前記メニュー間の双方向イベントに関する情報をさらに含む、請求項に記載のデコード方法。
  8. ファイルタイプ領域、前記メニュー記述領域、前記メディア情報領域、及び前記メディア領域を含むファイル情報領域は、一つのファイルに統合されており、
    前記ファイルタイプ領域は、前記ファイルのフォーマットに関する情報を含み、前記ファイル情報領域は、前記メディア領域に含まれた前記メディアデータに関する位置情報と識別情報とを含む、請求項1に記載のデコード方法。
  9. 前記メディア領域は、テキストデータ領域とイメージデータ領域とをさらに含み、前記メディア情報領域は、前記テキストデータ領域に対応するテキストトラック領域をさらに含む、請求項1に記載のデコード方法。
  10. 前記マルチメディアデータは、放送信号として受信される、請求項1に記載のデコード方法。
  11. 前記マルチメディアデータは、デジタル媒体内に格納される、請求項1に記載のデコード方法。
  12. ファイルのフォーマットに関する情報を含むファイルタイプ領域を生成するステップと、
    ビデオデータ領域とオーディオデータ領域とを含むメディア領域を生成するステップと、
    前記ビデオデータ領域に含まれたビデオデータに関する情報を含むビデオトラック領域、及び前記オーディオデータ領域に含まれたオーディオデータに関する情報を含むオーディオトラック領域を含むメディア情報領域を生成するステップと、
    メニューを表示するための記述データを含むメニュー記述領域を含むファイル情報領域を生成するステップと、を有し、
    前記メニューは、前記メディア領域内のメディアデータとユーザとの間のインタフェースを提供し、前記記述データは、シーン表示フォーマットを使用して描写され、前記ファイルタイプ領域、前記ファイル情報領域、前記メディア情報領域、及び前記メディア領域は、一つのファイルに統合されており、
    前記メニューは、前記記述データに対応するアニメーション効果を有する背景イメージを含み、
    前記メディア領域は、イメージデータを含むイメージデータ領域をさらに含み、前記背景イメージは、前記アニメーション効果を前記イメージデータに適用することによって生成される、
    ことを特徴とするエンコード方法。
  13. 前記メニューは、前記メディア領域内の前記メディアデータに対応する複数のコンテンツを表す、請求項1に記載のエンコード方法。
  14. 前記記述データは、前記メニューと共に表示されるグラフィックイメージ、前記メニューに適用されるアニメーション効果、前記メニューの空間的レイアウト、前記メニューの時間的レイアウト、及び前記ユーザと前記メニュー間の双方向イベントのうち、少なくとも一つに関する情報を含む、請求項1に記載のエンコード方法。
  15. ビデオデータ領域とオーディオデータ領域とを含むメディア領域、前記ビデオデータ領域とオーディオデータ領域に各々対応するビデオトラック領域とオーディオトラック領域とを含むメディア情報領域、及びメニューを表示するための記述データを含むメニュー記述領域を含むマルチメディアデータを受信するデータ入力部と、
    前記マルチメディアデータから前記記述データを抽出するパーサー、前記記述データからSVGフォーマットデータを抽出することによって、前記抽出された記述データをデコードする記述デコーダ、及び前記メディア領域内のメディアデータとユーザとの間のインタフェースを提供するメニューを前記デコードされた記述データを使用してレンダリングするレンダリング部を有する第1デコーダと、
    前記メニューに基づいて抽出されたメディアデータをデコードする第2デコーダと、を有し、
    前記記述データは、シーン表示フォーマットを使用して描写され、前記メディア領域、前記メディア情報領域、及び前記メニュー記述領域は、一つのファイルに統合されており、
    前記メニューは、前記記述データに対応するアニメーション効果を有する背景イメージを含み、
    前記メディア領域は、イメージデータを含むイメージデータ領域をさらに含み、前記背景イメージは、前記アニメーション効果を前記イメージデータに適用することによって生成される、
    ことを特徴とするデコード装置。
  16. 前記メニューは、前記記述データに対応するアニメーション効果を有する背景イメージを含む、請求項15に記載のデコード装置。
JP2009533251A 2006-10-19 2007-10-19 エンコード方法及び装置並びにデコード方法及び装置 Expired - Fee Related JP5059867B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US85269906P 2006-10-19 2006-10-19
US85269806P 2006-10-19 2006-10-19
US60/852,699 2006-10-19
US60/852,698 2006-10-19
US87957007P 2007-01-10 2007-01-10
US60/879,570 2007-01-10
US90780907P 2007-04-18 2007-04-18
US60/907,809 2007-04-18
PCT/KR2007/005127 WO2008048064A1 (en) 2006-10-19 2007-10-19 Encoding method and apparatus and decoding method and apparatus

Publications (2)

Publication Number Publication Date
JP2010507316A JP2010507316A (ja) 2010-03-04
JP5059867B2 true JP5059867B2 (ja) 2012-10-31

Family

ID=39314241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009533251A Expired - Fee Related JP5059867B2 (ja) 2006-10-19 2007-10-19 エンコード方法及び装置並びにデコード方法及び装置

Country Status (6)

Country Link
US (5) US8452801B2 (ja)
EP (5) EP2084708A4 (ja)
JP (1) JP5059867B2 (ja)
KR (1) KR101046749B1 (ja)
CN (1) CN101536101B (ja)
WO (5) WO2008048064A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101406843B1 (ko) * 2006-03-17 2014-06-13 한국과학기술원 멀티미디어 컨텐츠 부호화방법 및 장치와, 부호화된멀티미디어 컨텐츠 응용방법 및 시스템
KR20070011092A (ko) * 2005-07-20 2007-01-24 삼성전자주식회사 멀티미디어 컨텐츠 부호화방법 및 장치와, 부호화된멀티미디어 컨텐츠 응용방법 및 시스템
KR101304480B1 (ko) * 2005-07-20 2013-09-05 한국과학기술원 멀티미디어 컨텐츠 부호화방법 및 장치와, 부호화된멀티미디어 컨텐츠 응용방법 및 시스템
KR101345284B1 (ko) * 2005-07-20 2013-12-27 한국과학기술원 멀티미디어 컨텐츠 부호화/재생 방법 및 장치
WO2008137432A2 (en) * 2007-05-01 2008-11-13 Dyyno Sharing of information and formatting information for transmission over a communication network
US20120128188A1 (en) * 2008-10-23 2012-05-24 Siemens Medical Instruments Pte. Ltd. Hearing aid
US20100324895A1 (en) * 2009-01-15 2010-12-23 K-Nfb Reading Technology, Inc. Synchronization for document narration
EP2417772B1 (en) * 2009-04-09 2018-05-09 Telefonaktiebolaget LM Ericsson (publ) Media container file management
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
US8392186B2 (en) 2010-05-18 2013-03-05 K-Nfb Reading Technology, Inc. Audio synchronization for document narration with user-selected playback
JP5652642B2 (ja) * 2010-08-02 2015-01-14 ソニー株式会社 データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法
CN103229126B (zh) * 2010-09-17 2016-04-13 谷歌公司 在计算设备之间移动信息
CN108366070A (zh) * 2011-03-16 2018-08-03 韩国电子通信研究院 用于提供媒体内容的方法和客户端
JP6214235B2 (ja) * 2012-07-02 2017-10-18 キヤノン株式会社 ファイル生成方法、ファイル生成装置、及びプログラム
KR102069538B1 (ko) * 2012-07-12 2020-03-23 삼성전자주식회사 멀티미디어 요소의 배치를 위한 마크업을 구성하는 방법
CN103024454B (zh) * 2013-01-04 2013-11-13 周珏 在广播电视节目中向受众传送互动入口信息的方法及其系统
WO2014155537A1 (ja) * 2013-03-26 2014-10-02 株式会社東芝 表示制御装置、及び表示制御方法
PL3196875T3 (pl) * 2014-09-12 2019-10-31 Sony Corp Urządzenie nadawcze, sposób nadawania, urządzenie odbiorcze i sposób odbioru
CN105760376B (zh) * 2014-12-15 2019-04-02 深圳Tcl数字技术有限公司 提取多媒体文件元信息的方法及装置
CN104601177B (zh) * 2014-12-30 2017-08-11 飞天诚信科技股份有限公司 一种基于base64编码的解码扩展实现方法
KR102380979B1 (ko) * 2015-01-05 2022-04-01 삼성전자 주식회사 이미지의 메타데이터 관리 방법 및 장치
CN105100869B (zh) * 2015-07-13 2018-09-04 腾讯科技(深圳)有限公司 弹幕显示方法及装置
CN105405457B (zh) * 2015-10-29 2018-03-16 北京威动科技有限公司 文件内容读取方法和装置
CN105338415B (zh) * 2015-10-29 2018-10-23 北京威动科技有限公司 文件导航播放方法和装置
US11178377B2 (en) 2017-07-12 2021-11-16 Mediatek Singapore Pte. Ltd. Methods and apparatus for spherical region presentation
WO2019070292A1 (en) * 2017-10-06 2019-04-11 Rovi Guides, Inc. SYSTEMS AND METHODS FOR PRESENTING CLOSED SUBTITLING AND SUBTITLE DATA DURING QUICK ACCESS READING OPERATIONS
KR102480372B1 (ko) * 2018-03-09 2022-12-26 삼성전자주식회사 전자장치 및 그 제어방법
US10887646B2 (en) * 2018-08-17 2021-01-05 Kiswe Mobile Inc. Live streaming with multiple remote commentators
CN111818295B (zh) * 2019-04-10 2022-02-01 杭州海康威视数字技术股份有限公司 一种图像获取方法及装置
CN115022715B (zh) * 2020-06-04 2023-07-25 腾讯科技(深圳)有限公司 一种沉浸媒体的数据处理方法及设备
WO2022155150A1 (en) 2021-01-13 2022-07-21 Arris Enterprises Llc Rendering scrolling captions

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2173923C (en) * 1995-04-14 2006-01-31 Tetsuya Kitamura Data recording medium having reproduction timing information, and system for reproducing record data by using the reproduction timing information
US5956729A (en) 1996-09-06 1999-09-21 Motorola, Inc. Multimedia file, supporting multiple instances of media types, and method for forming same
US6360234B2 (en) 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
JP4327349B2 (ja) 1997-10-14 2009-09-09 トムソン ライセンシング マルチメディアプログラムデータおよびプログラムガイド情報をフォーマットして処理するためのシステム
US6453459B1 (en) * 1998-01-21 2002-09-17 Apple Computer, Inc. Menu authoring system and method for automatically performing low-level DVD configuration functions and thereby ease an author's job
US6493506B1 (en) 1998-07-01 2002-12-10 Lsi Logic Corporation Optical disk system and method for storing disk- and user-specific settings
JP3417330B2 (ja) * 1999-03-08 2003-06-16 日本電気株式会社 シナリオ編集装置及びシナリオ編集プログラムを記録した記録媒体
KR100424231B1 (ko) 1999-03-08 2004-03-25 파이쓰, 인크. 데이터 재생 장치, 데이터 재생 방법 및 정보 단말기
US6396500B1 (en) * 1999-03-18 2002-05-28 Microsoft Corporation Method and system for generating and displaying a slide show with animations and transitions in a browser
US6369835B1 (en) 1999-05-18 2002-04-09 Microsoft Corporation Method and system for generating a movie file from a slide show presentation
JP4629173B2 (ja) * 1999-09-17 2011-02-09 ソニー株式会社 記録装置および記録方法、並びに記録媒体
JP3956549B2 (ja) * 1999-09-30 2007-08-08 ソニー株式会社 記録装置および方法、再生装置および方法並びに記録媒体
EP1089572B1 (en) 1999-09-30 2011-09-21 Sony Corporation Recording apparatus, recording method, and record medium
JP4526145B2 (ja) * 1999-12-28 2010-08-18 富士通セミコンダクター株式会社 Mpegビデオ復号器およびmpegビデオ復号方法
US6523046B2 (en) 2000-02-25 2003-02-18 Microsoft Corporation Infrastructure and method for supporting generic multimedia metadata
JP4411730B2 (ja) * 2000-02-29 2010-02-10 ソニー株式会社 ユーザインターフェースシステム、サーバ装置、及び、リモート端末装置
US7376155B2 (en) * 2001-01-30 2008-05-20 Electronics And Telecommunications Research Institute Method and apparatus for delivery of metadata synchronized to multimedia contents
WO2002071191A2 (en) * 2001-03-02 2002-09-12 Kasenna, Inc. Metadata enabled push-pull model for efficient low-latency video-content distribution over a network
US6957389B2 (en) * 2001-04-09 2005-10-18 Microsoft Corp. Animation on-object user interface
US20050005308A1 (en) * 2002-01-29 2005-01-06 Gotuit Video, Inc. Methods and apparatus for recording and replaying sports broadcasts
US7908628B2 (en) * 2001-08-03 2011-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content coding and formatting
JP4120194B2 (ja) 2001-09-28 2008-07-16 ブラザー工業株式会社 情報編集システム、コンピュータプログラムおよび記録媒体
US20040167925A1 (en) 2003-02-21 2004-08-26 Visharam Mohammed Zubair Method and apparatus for supporting advanced coding formats in media files
JP2006507553A (ja) * 2002-02-25 2006-03-02 ソニー エレクトロニクス インク Mp4においてavcをサポートするための方法及び装置
JP3918580B2 (ja) * 2002-02-26 2007-05-23 ヤマハ株式会社 マルチメディア情報符号化装置、マルチメディア情報再生装置、マルチメディア情報符号化処理プログラム及びマルチメディア情報再生処理プログラム
US6941324B2 (en) * 2002-03-21 2005-09-06 Microsoft Corporation Methods and systems for processing playlists
JP2003297015A (ja) 2002-03-29 2003-10-17 Toshiba Corp コンテンツ保存端末及びこのコンテンツ保存端末にコンテンツを配信する配信サーバ装置
SG152905A1 (en) 2002-04-12 2009-06-29 Mitsubishi Electric Corp Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, and metadata delivery method
JP4021264B2 (ja) 2002-07-11 2007-12-12 株式会社ケンウッド 再生装置
FR2846769B1 (fr) * 2002-11-06 2005-04-15 France Telecom Procede et systeme d'elaboration dynamique d'images
CN1692426B (zh) 2002-11-20 2010-05-12 Lg电子有限公司 具有管理数据重现的数据结构的记录介质及记录和重现的方法和装置
JP2004173118A (ja) * 2002-11-22 2004-06-17 Matsushita Electric Ind Co Ltd 音声画像多重化データ生成装置と再生装置および動画像復号化装置
US7034835B2 (en) 2002-11-29 2006-04-25 Research In Motion Ltd. System and method of converting frame-based animations into interpolator-based animations
CA2414378A1 (en) * 2002-12-09 2004-06-09 Corel Corporation System and method for controlling user interface features of a web application
JP3815458B2 (ja) * 2002-12-18 2006-08-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US7509321B2 (en) 2003-01-21 2009-03-24 Microsoft Corporation Selection bins for browsing, annotating, sorting, clustering, and filtering media objects
US7620301B2 (en) 2003-04-04 2009-11-17 Lg Electronics Inc. System and method for resuming playback
KR20040096718A (ko) * 2003-05-10 2004-11-17 삼성전자주식회사 멀티미디어 데이터 재생장치, 오디오 데이터 수신방법 및오디오 데이터 구조
CN1826614B (zh) 2003-05-20 2011-06-15 日本胜利株式会社 电子化服务指南显示控制方法和装置
CN101848225A (zh) * 2003-08-04 2010-09-29 三菱电机株式会社 模块单元和网络连接方法
US7213036B2 (en) 2003-08-12 2007-05-01 Aol Llc System for incorporating information about a source and usage of a media asset into the asset itself
US20070206682A1 (en) * 2003-09-29 2007-09-06 Eric Hamilton Method And Apparatus For Coding Information
SE0302778D0 (sv) 2003-10-17 2003-10-17 Ericsson Telefon Ab L M Container format for multimedia presentations
US7519274B2 (en) * 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) * 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
FR2867649A1 (fr) 2003-12-10 2005-09-16 France Telecom Procede de codage multiple optimise
EP1708101B1 (en) * 2004-01-14 2014-06-25 Mitsubishi Denki Kabushiki Kaisha Summarizing reproduction device and summarizing reproduction method
US7386789B2 (en) 2004-02-27 2008-06-10 Hewlett-Packard Development Company, L.P. Method for determining logical components of a document
JP2005276344A (ja) 2004-03-25 2005-10-06 Toshiba Corp 情報記録媒体及び情報再生装置
US20060004699A1 (en) * 2004-06-30 2006-01-05 Nokia Corporation Method and system for managing metadata
US8472477B2 (en) * 2004-07-22 2013-06-25 Electronics And Telecommunications Research Institute SAF synchronization layer packet structure and server system therefor
KR20060012746A (ko) 2004-08-04 2006-02-09 삼성전자주식회사 재생 시작 위치를 선택 가능한 영상 재생장치 및 그제어방법
JP2006074391A (ja) * 2004-09-01 2006-03-16 Canon Inc ファイル記録方法および記録装置
EP1800486A4 (en) * 2004-10-13 2011-07-13 Korea Electronics Telecomm ADVANCED MULTIMEDIA FILENESS STRUCTURE, METHOD FOR PRODUCING A MULTIMEDIA FILE, AND METHOD FOR CARRYING OUT A MULTIMEDIA FILE
US20060123360A1 (en) 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
US8006279B2 (en) 2004-12-10 2011-08-23 Alcatel Lucent Distributive system for marking and blocking video and audio content related to video and audio programs
WO2006063447A1 (en) * 2004-12-15 2006-06-22 Memotrax Music Systems Inc. Probabilistic audio networks
JP4380533B2 (ja) * 2004-12-24 2009-12-09 キヤノン株式会社 マルチメディアデータ処理装置及びその方法
US7725593B2 (en) * 2005-07-15 2010-05-25 Sony Corporation Scalable video coding (SVC) file format
US20070022215A1 (en) * 2005-07-19 2007-01-25 Singer David W Method and apparatus for media data transmission
CA2614602A1 (en) * 2005-07-21 2007-03-08 Expway Methods and devices for compressing and decompressing structured documents
KR101224256B1 (ko) * 2005-10-14 2013-01-18 한양대학교 산학협력단 레이저 기반의 이동 단말을 위한 다중채널의 장면구성 제어방법 및 장치
US20070143664A1 (en) * 2005-12-21 2007-06-21 Motorola, Inc. A compressed schema representation object and method for metadata processing
US20080101456A1 (en) * 2006-01-11 2008-05-01 Nokia Corporation Method for insertion and overlay of media content upon an underlying visual media
US20100225808A1 (en) 2006-01-27 2010-09-09 Thomson Licensing Closed-Captioning System and Method
MX2008009754A (es) * 2006-01-30 2008-10-09 Clearplay Inc Sincronizacion de metadatos de filtro con una presentacion multimedia.
US8874645B2 (en) 2006-03-28 2014-10-28 Packetvideo Corp. System and method for sharing an experience with media content between multiple devices
US7870142B2 (en) 2006-04-04 2011-01-11 Johnson Controls Technology Company Text to grammar enhancements for media files

Also Published As

Publication number Publication date
WO2008048066A1 (en) 2008-04-24
US20100281365A1 (en) 2010-11-04
EP2089882A1 (en) 2009-08-19
KR101046749B1 (ko) 2011-07-06
JP2010507316A (ja) 2010-03-04
EP2090096A4 (en) 2010-11-03
US8271553B2 (en) 2012-09-18
EP2089882A4 (en) 2010-12-08
KR20090067220A (ko) 2009-06-24
EP2089883A4 (en) 2010-11-03
US20100174989A1 (en) 2010-07-08
US20100100819A1 (en) 2010-04-22
EP2092739A1 (en) 2009-08-26
WO2008048068A1 (en) 2008-04-24
EP2092739A4 (en) 2011-01-19
US8271554B2 (en) 2012-09-18
CN101536101A (zh) 2009-09-16
EP2084708A1 (en) 2009-08-05
EP2090096A1 (en) 2009-08-19
WO2008048067A1 (en) 2008-04-24
CN101536101B (zh) 2012-03-28
US8176424B2 (en) 2012-05-08
US20100174733A1 (en) 2010-07-08
WO2008048064A1 (en) 2008-04-24
WO2008048065A1 (en) 2008-04-24
EP2089883A1 (en) 2009-08-19
US8452801B2 (en) 2013-05-28
US8499011B2 (en) 2013-07-30
US20100042924A1 (en) 2010-02-18
EP2084708A4 (en) 2010-11-24

Similar Documents

Publication Publication Date Title
JP5059867B2 (ja) エンコード方法及び装置並びにデコード方法及び装置
Li et al. Fundamentals of multimedia
US8275814B2 (en) Method and apparatus for encoding/decoding signal
US20070003223A1 (en) User initiated access to secondary content from primary video/audio content
JP5086265B2 (ja) 符号化/復号化方法及び装置
JP5048488B2 (ja) メタデータを含む記録媒体、その再生装置及び方法
KR100837721B1 (ko) 개인화된 디지털 방송 콘텐츠의 소비를 위한 통합 형식인코딩 장치와, 이의 디코딩 장치 및 인코딩 방법
JP2007511858A (ja) 拡張検索機能を提供するメタ情報及びサブタイトル情報が記録された記録媒体及びその再生装置
US20060200744A1 (en) Distributing and displaying still photos in a multimedia distribution system
KR100937416B1 (ko) Pvr 장치 및 방법
Bulterman User-centered control within multimedia presentations
KR101482099B1 (ko) 멀티 미디어 데이터의 부호화/복호화 방법 및 장치
JP2010278631A (ja) 静止画生成方法および静止画生成装置
KR20070041307A (ko) 멀티 미디어 재생 방법 및 장치와 이를 위한 멀티 미디어파일 포맷
Lee et al. Interactive e-book contents authoring system based on MPEG-4 LASeR
IRT et al. CustomTV service and system
Farulla et al. Standard and protocols for visual materials
Kim et al. MPEG-7-based metadata generator and its browser

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees