[go: up one dir, main page]

JP5178375B2 - デジタル放送再生装置およびデジタル放送再生方法 - Google Patents

デジタル放送再生装置およびデジタル放送再生方法 Download PDF

Info

Publication number
JP5178375B2
JP5178375B2 JP2008196596A JP2008196596A JP5178375B2 JP 5178375 B2 JP5178375 B2 JP 5178375B2 JP 2008196596 A JP2008196596 A JP 2008196596A JP 2008196596 A JP2008196596 A JP 2008196596A JP 5178375 B2 JP5178375 B2 JP 5178375B2
Authority
JP
Japan
Prior art keywords
delay time
time
audio
video
digital broadcast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008196596A
Other languages
English (en)
Other versions
JP2010034995A (ja
Inventor
義照 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008196596A priority Critical patent/JP5178375B2/ja
Priority to US13/056,033 priority patent/US20110170613A1/en
Priority to CN2009801295356A priority patent/CN102113339B/zh
Priority to PCT/JP2009/002201 priority patent/WO2010013376A1/ja
Publication of JP2010034995A publication Critical patent/JP2010034995A/ja
Application granted granted Critical
Publication of JP5178375B2 publication Critical patent/JP5178375B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Television Receiver Circuits (AREA)

Description

本発明は、デジタル放送のストリームデータを復号して出力する機能を備えたデジタル放送再生装置に関するものである。
近年、デジタル放送が開始され、各放送局は符号化されたビデオストリームやオーディオストリームをTS(Transport Stream)形式に変換して配信している。デジタル放送再生装置は、受信したTS形式のストリームをビデオストリームやオーディオストリームに分離し、それぞれに復号処理を施すことによりビデオフレームやオーディオフレームを生成し、画面やスピーカーから映像や音声を出力する。
このデジタル放送では、デジタル放送再生装置におけるAV出力のタイミングを制御するために、システムの基準時間を示すSTC(System Time Clock)を配信すると共に、STCに対応した時刻を示すPTS(Presentation Time Stamp)を各ビデオフレームや各オーディオフレームに対応付けてビデオストリーム(ビデオPES)やオーディオストリーム(オーディオPES)で配信している。
ところで、近年のデジタル放送再生装置では、多機能化やAV品質向上のために、ビデオフレームには、高画質化処理や合成処理といったビデオ後処理が施され、また、オーディオフレームには、高音質化処理や音合成処理といったオーディオ後処理が適用されるようになってきている。
ところが、ビデオ後処理とオーディオ後処理では実行時間に大きな差異がある。そこで、従来、リップシンクをとるために、処理時間の短いオーディオ処理を遅延させるという遅延制御が行われている。例えば、従来のデジタル放送の遅延制御技術として、ビデオ後処理の実行時間を測定し、測定した実行時間分だけオーディオ出力を遅延させる放送受信機が提案されている(例えば特許文献1参照)。
特開2003−348489号公報
しかしながら、従来の放送受信機においては、ビデオ後処理やオーディオ後処理で実施する内容が多くなり、受信するコンテンツによっては、AV出力するデータの生成が放送局の指定するPTSに間に合わなくなるという問題がある。AVデータの生成がPTSに間に合わない場合、デジタル放送再生装置の画面やスピーカーの出力からは映像や音の乱れが生じ、端末のAV品質を低下させることになるという問題がある。
また、選局する放送局ごとに、TS受信タイミングからAV出力するまでの時間を決定付けるPTSの設定が異なることから、受信する放送局によってAV出力するデータの生成がPTSに間に合ったり間に合わなかったりすることになるという問題がある。
そこで、全ての放送局に対して上記のようなAV品質の低下をまねくことがないように制御するために、放送局の指定するPTSから一定時間遅れたタイミングでAV出力するように、再送装置のデコード時間にマージンを持たせてAV出力する遅延制御も考えられうる。しかし、そのような遅延制御では、一部の放送局が間に合わないために、全ての放送局のAV出力まで遅延させなければならないという問題がある。
本発明は、上記従来の問題を解決するためになされたもので、デジタル放送の出力タイミングを適切に遅延させる制御を行うことのできるデジタル放送再生装置を提供することを目的とする。
本発明のデジタル放送再生装置は、受信したデジタル放送ストリームデータを復号して、デジタル放送フレームデータと前記デジタル放送フレームの出力指定時刻データを生成するデコード手段と、前記デジタル放送フレームの出力可能時刻の前記出力指定時刻からの遅延時間を算出する遅延時間算出手段と、前記遅延時間と過去に算出した遅延時間のうちの最大値を最大遅延時間として保持する最大遅延時間保持手段と、前記デジタル放送フレームを前記出力指定時刻から前記最大遅延時間だけ遅らせて出力するように出力タイミングの制御を行う出力タイミング制御手段と、を備えた構成を有している。
また、本発明のデジタル放送再生方法は、受信したデジタル放送ストリームデータを復号して、デジタル放送フレームデータと前記デジタル放送フレームの出力指定時刻データを生成し、前記デジタル放送フレームの出力可能時刻の前記出力指定時刻からの遅延時間を算出し、前記遅延時間と過去に算出した遅延時間のうちの最大値を最大遅延時間として保持し、前記デジタル放送フレームを前記出力指定時刻から前記最大遅延時間だけ遅らせて出力するように出力タイミングの制御を行う。
本発明は、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができるという効果を有するデジタル放送再生装置を提供することができるものである。
以下、本発明の実施の形態のデジタル放送再生装置について、図面を用いて説明する。本実施の形態では、1セグやフルセグ等のデジタル放送を再生可能な携帯電話機、カーナビゲーション装置、デジタルテレビ装置等に適用されるデジタル放送再生装置を例示する。
(第1の実施の形態)
本発明の第1の実施の形態のデジタル放送再生装置について、図面を用いて説明する。ここでは、まず、本実施の形態のデジタル放送再生装置の構成について説明する。図1は、本実施の形態のデジタル放送再生装置の構成を示すブロック図である。図1に示すように、デジタル放送再生装置1は、放送局側の意図したタイミングでコンテンツを再生するために使用する基準時間(STC)のカウンタであるSTCカウンタ2を備えている。
STCは、放送局がトランスポートストリーム(TS)中に一定間隔でPCR(Program Clock Reference)として挿入する値を元に、受信側のデジタル放送再生装置1でSTCカウンタ2に設定してカウントされる。つまり、STCカウンタ2は、放送局側の意図する基準時間を受信端末で生成するカウンタであるといえる。
図1に示すように、デジタル放送再生装置1は、受信したデジタル放送のストリームに含まれるビデオストリーム(ビデオPES)を処理するための構成として、ビデオデコード部3と、ビデオ出力タイミング制御部4と、画像表示部5を備えている。さらに、このデジタル放送再生装置1は、ビデオ出力タイミングの遅延制御を行うための構成として、ビデオ遅延時間算出部6と、最大遅延時間判定部7と、最大遅延時間保持部8と、リセット部9を備えている。
また、図1に示すように、デジタル放送再生装置1は、受信したデジタル放送のストリームに含まれるオーディオストリーム(オーディオPES)を処理するための構成として、オーディオデコード部10と、オーディオ出力タイミング制御部11と、音声出力部12を備えている。さらに、このデジタル放送再生装置1は、オーディオ出力タイミングの遅延制御を行うための構成として、オーディオ遅延時間算出部13を備えている。この場合、最大遅延時間判定部7と、最大遅延時間保持部8と、リセット部9は、共通である。
ビデオデコード部3は、デジタル放送で指定されるH.264やMPEG2などのビデオストリームのデコーダである。ビデオデコード部3に入力されるデータはビデオストリーム(ビデオPES)であり、このビデオPESでは、復号するビデオフレームのストリームと、ビデオPTSが対応付けられている。ビデオデコード部3は、このビデオストリームを復号してビデオPTSとビデオフレームを生成する。なお、このビデオデコード部3では、生成したビデオフレームを高画質化する処理などが行われても良い。
ビデオ遅延時間算出部6は、ビデオデコード部3が1フレーム分の処理を完了したタイミングで、STCカウンタ2の時間がビデオPTSから遅れている時間(ビデオ遅延時間)を算出する。このビデオ遅延時間算出部6に入力されるデータは、ビデオデコード部3からのビデオPTSとSTCカウンタ2の時間である。このビデオ遅延時間算出部6では、ビデオ遅延時間が以下の式1により算出される。
ビデオ遅延時間=STCカウンタ2の時間−ビデオPTS (式1)
オーディオデコード部10は、デジタル放送で指定されるAACなどのオーディオストリームのデコーダである。オーディオデコード部10に入力されるデータは、オーディオストリーム(オーディオPES)であり、このオーディオPESでは、復号するオーディオフレームのストリームと、オーディオPTSが対応付けられている。オーディオデコード部10は、このオーディオストリームを復号してオーディオPTSとオーディオフレームを生成する。なお、このオーディオデコード部10では、生成したオーディオフレームを高音質化する処理などが行われても良い。
オーディオ遅延時間算出部13は、オーディオデコード部10が1フレーム分の処理が完了したタイミングで、STCカウンタ2の時間がオーディオPTSから遅れている時間(オーディオ遅延時間)を算出する。このオーディオ遅延時間算出部13に入力されるデータは、オーディオデコード部10からのオーディオPTSとSTCカウンタ2の時間である。このオーディオ遅延時間算出部13では、オーディオ遅延時間が以下の式2により算出される。
オーディオ遅延時間=STCカウンタ2の時間−オーディオPTS (式2)
最大遅延時間判定部7は、システム全体のPTS(ビデオPTSおよびオーディオPTS)からの遅延時間の最大値を判定する。最大遅延時間判定部7に入力されるデータは、ビデオ遅延時間算出部6からのビデオ遅延時間、オーディオ遅延時間算出部13からのオーディオ遅延時間、最大遅延時間保持部8に現在保持されている最大遅延時間である。最大遅延時間判定部7は、これらの遅延時間のうち最大のもの(最大遅延時間)を選択して最大遅延時間保持部8に保存する。これにより、最大遅延時間の更新が行われる。
最大遅延時間保持部8は、メモリなどで構成されており、上記の最大遅延時間判定部7で選択された最大遅延時間を保持する。つまり、この最大遅延時間保持部8には、ビデオフレームやオーディオフレームが、それらに対応付けられているPTS(ビデオPTSやオーディオPTS)から遅れて出力される時間(遅延時間)のうちの最大値(最大遅延時間)が保持されている。この場合、最大遅延時間には、所定の上限(上限遅延時間)が設定されている。
リセット部9は、最大遅延時間保持部8に保持されている最大遅延時間の値を初期値(例えば0など)にリセットする機能を有している。この最大遅延時間のリセットは、受信する放送局の変更や再生するデジタル放送コンテンツの変更があったときに実行される。なお、初期値は、所定の値(あらかじめ定めた値)であればよく、0に限られるものではない。
ビデオ出力タイミング制御部4では、ビデオフレームに対応付けられたビデオPTSから最大遅延時間保持部8に保持されている最大遅延時間の分だけ遅らせたタイミングで、ビデオフレームを画像表示部5に出力するビデオ出力タイミングの遅延制御が行われる。このビデオ出力タイミング制御部4に入力されるデータは、ビデオデコード部3から受けるビデオフレームおよびビデオPTSと、STCカウンタ2の時間と、最大遅延時間保持部8の最大遅延時間である。なお、このビデオ出力タイミング制御部4は、以下の式3が成立した場合にのみビデオフレームを画像表示部5に出力する。
STCカウンタ2の時間≧ビデオPTS+最大遅延時間 (式3)
画像表示部5は、ビデオ出力タイミング制御部4から受けるビデオフレームを表示する機能を備えており、例えば液晶ディスプレイ等で構成される。
オーディオ出力タイミング制御部11では、オーディオフレームに対応付けられたオーディオPTSから最大遅延時間保持部8に保持されている最大遅延時間の分だけ遅らせたタイミングで、オーディオフレームを音声出力部12に出力するオーディオ出力タイミングの遅延制御が行われる。このオーディオ出力タイミング制御部11に入力されるデータは、オーディオデコード部10から受けるオーディオフレームおよびオーディオPTSと、STCカウンタ2の時間と、最大遅延時間保持部8の最大遅延時間である。なお、このオーディオ出力タイミング制御部11は、以下の式4が成立した場合にのみオーディオフレームを音声出力部12に出力する。
STCカウンタ2の時間≧オーディオPTS+最大遅延時間 (式4)
音声出力部12は、オーディオ出力タイミング制御部11から受けるオーディオフレームを音声出力する機能を備えており、例えばスピーカー等で構成される。
つぎに、図2および図3を参照して、デジタル放送ストリーム(ビデオストリームやオーディオストリーム)の受信からPTSまでの時間の統計的な分布について説明する。
図2は、ビデオストリームの受信からビデオ出力までの時間の分布の一例を示すヒストグラムである。図2に示すように、この例では、約1350msを中心に約1100ms〜約1500msまでの範囲のものが大部分である。ところが、少ない頻度ではあるが、ビデオストリームの受信からビデオ出力までの差分時間が約500ms〜約1000msというものも存在しており、中には約300msというものもある。このように、ビデオストリームの受信からビデオPTSまでの差分時間は、放送局ごとにばらつきがある。
図3は、オーディオストリームの受信からオーディオ出力までの時間の分布の一例を示すヒストグラムである。図3に示すように、この例では、約130ms〜140msの範囲にある程度の分布が集中しているほか、約240ms〜約280msの範囲にもある程度の分布が集中している。このように、オーディオストリームの受信からオーディオPTSまでの差分時間は、放送局ごとにばらつきがある。
以上のように構成された第1の実施の形態のデジタル放送再生装置1について、図面を用いてその動作を説明する。
本実施の形態のデジタル放送再生装置1では、上述のように受信からPTSまでの差分時間に放送局ごとのばらつきがある状況において(図2および図3参照)、出力タイミングの適切な遅延制御を行うことができる。以下、この出力タイミングの遅延制御を中心に説明する。
(ビデオ出力タイミングの遅延制御)
図4は、ビデオ出力タイミングの遅延制御の流れを示すフロー図である。図4に示すように、まず、ビデオデコード部3において、デジタル放送のストリームに含まれるビデオストリームの復号(デコード)が行われ、ビデオフレームとビデオPTSが生成される(S10)。
つぎに、ビデオ遅延時間算出部6において、STCカウンタ2の時間がビデオPTSから遅れている時間(ビデオ遅延時間)が算出される(S11)。そして、最大遅延時間判定部7において、この算出したビデオ遅延時間が最大遅延保持部に保持されている最大遅延時間より大きいか否か、設定されている上限遅延時間より小さいか否かの判定が行われる(S12、S13)。
ビデオ遅延時間が最大遅延時間より大きくかつ上限遅延時間より小さい場合には、このビデオ遅延時間が新しい最大遅延時間として保存される(S14)。つまり、最大遅延時間が更新される。なお、ビデオ遅延時間が最大遅延時間以下である場合、上限遅延時間以上である場合には、最大遅延時間の更新は行われない。
そして、ビデオ出力タイミング制御部4において、この最大遅延時間を用いてビデオ出力タイミングの遅延制御が行われる(S15)。この場合、ビデオフレームに対応付けられたビデオPTSから最大遅延時間の分だけ遅らせたタイミングで、ビデオフレームを画像表示部5に出力する遅延制御が行われる。
(オーディオ出力タイミングの遅延制御)
図5は、オーディオ出力タイミングの遅延制御の流れを示すフロー図である。図5に示すように、まず、オーディオデコード部10において、デジタル放送のストリームに含まれるオーディオストリームの復号(デコード)が行われ、オーディオフレームとオーディオPTSが生成される(S20)。
つぎに、オーディオ遅延時間算出部13において、STCカウンタ2の時間がオーディオPTSから遅れている時間(オーディオ遅延時間)が算出される(S21)。そして、最大遅延時間判定部7において、この算出したオーディオ遅延時間が最大遅延保持部に保持されている最大遅延時間より大きいか否か、設定されている上限遅延時間より小さいか否かの判定が行われる(S22、S23)。
オーディオ遅延時間が最大遅延時間より大きくかつ上限遅延時間より小さい場合には、このオーディオ遅延時間が新しい最大遅延時間として保存される(S24)。つまり、最大遅延時間が更新される。なお、オーディオ遅延時間が最大遅延時間以下である場合、上限遅延時間以上である場合には、最大遅延時間の更新は行われない。
そして、オーディオ出力タイミング制御部11において、この最大遅延時間を用いてオーディオ出力タイミングの遅延制御が行われる(S25)。この場合、オーディオフレームに対応付けられたオーディオPTSから最大遅延時間の分だけ遅らせたタイミングで、オーディオフレームを画像表示部5に出力する遅延制御が行われる。
(最大遅延時間の更新制御)
図6は、最大遅延時間の更新制御の一例を示す説明図である。図6のグラフでは、横軸にシステムの基準時間(STC)が示されており、縦軸に最大遅延時間が示されている。グラフの下には、基準時間(STC)の流れに沿って6つのストリーム(例えばビデオストリーム)をデコード処理(図では斜線で示される)する様子が示されている。
図6の例では、放送局を選択した直後の1つ目のストリームでは、このストリームについて指定されたPTS1(例えばビデオPTS)までにデコード処理が完了しており、フレーム出力のタイミングに間に合っている。2つ目のストリームデータについても同様である。なお、このとき、最大遅延時間保持部8に保持されている最大遅延時間は0である。
ところが、3つ目のストリームでは、このストリームについて指定されたPTS3までにデコード処理が完了せず、フレーム出力のタイミングがPTS3からt1だけ遅延している。したがって、この場合、最大遅延時間保持部8に保持されている最大遅延時間が0からt1に更新される。
その後、4つ目のストリームでは、そのストリームについて指定されたPTS4から最大遅延時間t1だけ遅らせたタイミングが、フレーム出力のタイミングとなる。この場合、4つ目のストリームについて指定されたPTS4までにはデコード処理が完了していないものの、PTS4から最大遅延時間t1だけ遅らせた時間PTS4+t1までにはデコード処理が完了しており、フレーム出力のタイミングに間に合うことになる。
5つ目のストリームでは、このストリームについて指定されたPTS5から最大遅延時間t1だけ遅らせた時間PTS5+t1までにデコード処理が完了せず、フレーム出力のタイミングがPTS5からt2だけ遅延している。したがって、この場合、最大遅延時間保持部8に保持されている最大遅延時間がt1からt2に更新される。
このように、図6の例では、放送局を選局した直後は、AV出力遅延時間は0であり、PTSのタイミングでAV出力されている。その後、受信からPTSまでの時間が非常に短いストリームを受信すると、ビデオデコード部3の処理がビデオPTSに間に合わず、ビデオ遅延時間算出部6で算出されたビデオ遅延時間が、最大遅延時間判定部7により最大遅延時間保持部8に設定される。これにより、ビデオ出力タイミング制御部4およびオーディオ出力タイミング制御部11は、最大遅延時間保持部8に新たに設定された遅延時間から再度AV同期して出力するように、出力タイミングの制御を行う。
このような第1の実施の形態のデジタル放送再生装置1によれば、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
すなわち、本実施の形態では、デジタル放送フレームの出力が出力指定時刻(PTS)に間に合わないときに遅延時間が算出され、その遅延時間の最大値(最大遅延時間)が保持される。そして、この最大遅延時間を用いてデジタル放送の出力タイミングの遅延制御が行われる。これにより、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
例えば、デジタル放送のビデオフレームの出力が出力指定時刻(ビデオPTS)に間に合わないときにビデオ遅延時間が算出され、そのビデオ遅延時間の最大値(ビデオ最大遅延時間)が保持される。そして、このビデオ最大遅延時間を用いてビデオフレームのビデオ出力タイミングの遅延制御が行われる。これにより、ビデオフレームのビデオ出力タイミングを適切に遅延させる制御を行うことができる。
または、デジタル放送のオーディオフレームの出力が出力指定時刻(オーディオPTS)に間に合わないときにオーディオ遅延時間が算出され、そのオーディオ遅延時間の最大値(オーディオ最大遅延時間)が保持される。そして、このオーディオ最大遅延時間を用いてオーディオフレームのオーディオ出力タイミングの遅延制御が行われる。これにより、オーディオフレームのオーディオ出力タイミングを適切に遅延させる制御を行うことができる。
また、本実施の形態では、ビデオフレームとオーディオフレームに共通の最大遅延時間を用いて、デジタル放送の出力タイミングの遅延制御が行われる。したがって、AV同期をとりながら、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
また、本実施の形態では、受信する放送局や再生するデジタル放送コンテンツが変更されたときに、最大遅延時間が初期値にリセットされる。したがって、デジタル放送の放送局ごとやコンテンツごとに、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
また、本実施の形態では、デジタル放送の放送局やコンテンツによっては稀に遅延時間が非常に大きくなることがあり得るが、そのような場合であっても、最大遅延時間が過度に大きくなることが防止され、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
以上のようなデジタル放送再生装置1によれば、ビデオ出力が前記ビデオPTSに間に合わない場合にシステム全体の出力遅延を抑えてAV出力を制御することができる。
この場合、受信したストリームをデコードして出力するまでの時間がPTSから遅れた場合、その遅延時間を最大遅延時間保持部8に保存し、さらに大きな遅延が発生しないか確認しつつ最大遅延時間を更新すると共に、出力タイミング制御部がPTSから前記最大遅延時間遅れて出力するように制御することによって、システム全体としてPTSから最低限度の遅延時間遅らせることでストリームの再生を行うことが可能である。また、この制御によって、放送局を選曲した直後に遅延時間の調整が発生するが、長時間連続で視聴し続けている間、品質の劣化をほとんど防ぐことが可能となる。
また、ビデオもしくはオーディオのいずれかの遅延が発生しても、システム共通で使用する前記最大遅延時間に遅延を反映させることで、AV同期を取りつつ、システム全体としてPTSから最低限度の時間遅らせることによって、ストリームの再生を行うことが可能である。
さらに、受信する放送局の変更や再生するコンテンツが変更された場合に前記最大遅延時間保持部8をリセットするリセット部9を持つことにより、放送局やコンテンツ毎に最低限の遅延時間で再生することが可能である。また、あらかじめ放送局やコンテンツ毎に適した最大遅延時間をリセット時に設定することも可能となり、放送局の選局直後に発生する遅延時間の調整処理の発生を防ぐことも可能になる。
さらに、上記の最大遅延時間保持部8の値があらかじめ決められた値以上に遅延しないように制限する最大遅延時間判定部7を持つことにより、コンテンツによって最大遅延時間を非常に大きなものとする場合が稀に発生することがあっても、遅延時間を大幅に大きくすることなく再生することが可能になる。
(第2の実施の形態)
次に、本発明の第2の実施の形態のデジタル放送再生装置について、図面を用いて説明する。ここでは、本実施の形態のデジタル放送再生装置の構成が、第1の実施の形態と相違する点を中心に説明する。つまり、ここで特に言及しない限り、本実施の形態のデジタル放送再生装置の構成は、第1の実施の形態と同様である。
図7は、本実施の形態のデジタル放送再生装置の構成を示すブロック図である。図7に示すように、デジタル放送再生装置1は、出力タイミング制御の後に所定の後処理を行うための構成として、ビデオ後処理部14とオーディオ後処理部15を備えている。そして、このデジタル放送再生装置1は、後処理を考慮した出力タイミングの遅延制御を行うための構成として、ビデオ後処理時間保持部16とオーディオ後処理時間保持部17を備えている。
ビデオ後処理部14は、ビデオフレームの高画質化処理などの後処理を実行する。このビデオ後処理部14は、ビデオ出力タイミング制御部4と画像表示部5の間に配置されている。つまり、ここでいうビデオ後処理は、ビデオ出力タイミング制御の後段で行われる後処理をいう。
オーディオ後処理部15は、オーディオフレームの高音質化処理などの後処理を実行する。このオーディオ後処理部15は、オーディオ出力タイミング制御部11と音声出力部12の間に配置されている。つまり、ここでいうオーディオ後処理は、オーディオ出力タイミング制御の後段で行われる後処理をいう。
ビデオ後処理時間保持部16およびオーディオ後処理時間保持部17は、メモリなどで構成されており、ビデオ後処理時間保持部16には、ビデオ後処理部14での後処理に要する時間(ビデオ後処理時間)が保持されており、オーディオ後処理時間保持部17には、オーディオ後処理部15での後処理に要する時間(オーディオ後処理時間)が保持されている。
ビデオ遅延時間算出部6は、ビデオデコード部3が1フレーム分の処理が完了後にビデオ後処理時間経過したタイミングで、STCカウンタ2の時間がビデオPTSから遅れている時間(ビデオ遅延時間)を算出する。このビデオ遅延時間算出部6に入力されるデータは、ビデオデコード部3からのビデオPTSとビデオ後処理時間とSTCカウンタ2の時間である。このビデオ遅延時間算出部6では、ビデオ遅延時間が以下の式5により算出される。
ビデオ遅延時間=STCカウンタ2の時間+ビデオ後処理時間−ビデオPTS (式5)
オーディオ遅延時間算出部13は、オーディオデコード部10が1フレーム分の処理が完了後にオーディオ後処理時間経過したタイミングで、STCカウンタ2の時間がオーディオPTSから遅れている時間(オーディオ遅延時間)を算出する。このオーディオ遅延時間算出部13に入力されるデータは、オーディオデコード部10からのオーディオPTSとオーディオ後処理時間とSTCカウンタ2の時間である。このオーディオ遅延時間算出部13では、オーディオ遅延時間が以下の式6により算出される。
オーディオ遅延時間=STCカウンタ2の時間+オーディオ後処理時間−オーディオPTS (式6)
以上のように構成された第2の実施の形態のデジタル放送再生装置1について、図面を用いてその動作を説明する。ここでは、後処理時間を考慮した出力タイミングの遅延制御を中心に説明する。
(ビデオ後処理時間を考慮したビデオ出力タイミングの遅延制御)
図8は、ビデオ後処理時間を考慮したビデオ出力タイミングの遅延制御の流れを示すフロー図である。図8に示すように、まず、ビデオデコード部3において、デジタル放送のストリームに含まれるビデオストリームの復号(デコード)が行われ、ビデオフレームとビデオPTSが生成される(S30)。
つぎに、ビデオ遅延時間算出部6において、ビデオ後処理後のSTCカウンタ2の時間がビデオPTSから遅れている時間(ビデオ遅延時間)が算出される(S31)。そして、最大遅延時間判定部7において、この算出したビデオ遅延時間が最大遅延保持部に保持されている最大遅延時間より大きいか否か、設定されている上限遅延時間より小さいか否かの判定が行われる(S32、S33)。
ビデオ遅延時間が最大遅延時間より大きくかつ上限遅延時間より小さい場合には、このビデオ遅延時間が新しい最大遅延時間として保存される(S34)。つまり、最大遅延時間が更新される。なお、ビデオ遅延時間が最大遅延時間以下である場合、上限遅延時間以上である場合には、最大遅延時間の更新は行われない。
つづいて、ビデオ出力タイミング制御部4において、この最大遅延時間を用いてビデオ出力タイミングの遅延制御が行われる(S35)。この場合、ビデオフレームに対応付けられたビデオPTSから最大遅延時間の分だけ遅らせたタイミングで、ビデオフレームをビデオ後処理部14に出力する遅延制御が行われる。そして、ビデオ後処理部14において、ビデオ出力タイミング制御部4からのビデオフレームに高画質化処理などの後処理を施した後(S36)、そのビデオフレームが画像出力部へ出力される。
(オーディオ後処理時間を考慮したオーディオ出力タイミングの遅延制御)
図9は、オーディオ後処理時間を考慮したオーディオ出力タイミングの遅延制御の流れを示すフロー図である。図9に示すように、まず、オーディオデコード部10において、デジタル放送のストリームに含まれるオーディオストリームの復号(デコード)が行われ、オーディオフレームとオーディオPTSが生成される(S40)。
つぎに、オーディオ遅延時間算出部13において、オーディオ後処理後のSTCカウンタ2の時間がオーディオPTSから遅れている時間(オーディオ遅延時間)が算出される(S41)。そして、最大遅延時間判定部7において、この算出したオーディオ遅延時間が最大遅延保持部に保持されている最大遅延時間より大きいか否か、設定されている上限遅延時間より小さいか否かの判定が行われる(S42、S43)。
オーディオ遅延時間が最大遅延時間より大きくかつ上限遅延時間より小さい場合には、このオーディオ遅延時間が新しい最大遅延時間として保存される(S44)。つまり、最大遅延時間が更新される。なお、オーディオ遅延時間が最大遅延時間以下である場合、上限遅延時間以上である場合には、最大遅延時間の更新は行われない。
つづいて、オーディオ出力タイミング制御部11において、この最大遅延時間を用いてオーディオ出力タイミングの遅延制御が行われる(S45)。この場合、オーディオフレームに対応付けられたオーディオPTSから最大遅延時間の分だけ遅らせたタイミングで、オーディオフレームをオーディオ後処理部15に出力する遅延制御が行われる。そして、オーディオ後処理部15において、オーディオ出力タイミング制御部11からのオーディオフレームに高画質化処理などの後処理を施した後(S46)、そのオーディオフレームが音声出力部12へ出力される。
このような第2の実施の形態のデジタル放送再生装置1によっても、第1の実施の形態と同様の作用効果が奏される。
その上、本実施の形態では、出力タイミング制御の後に後処理が施されるときに、その後処理に要する時間(後処理時間)を考慮して、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
例えば、ビデオ出力タイミング制御の後にビデオフレームに後処理(画像処理)が施されるときに、その後処理に要する時間(ビデオ後処理時間)を考慮して、ビデオフレームのビデオ出力タイミングを適切に遅延させる制御を行うことができる。
または、オーディオ出力タイミング制御の後にオーディオフレームに後処理(音声処理)が施されるときに、その後処理に要する時間(オーディオ後処理時間)を考慮して、オーディオフレームのオーディオ出力タイミングを適切に遅延させる制御を行うことができる。
以上のようなデジタル放送再生装置1によれば、AV同期を制御するタイミング以降において処理時間の異なるビデオ後処理やオーディオ後処理が発生しても、最終的なAV同期を保障しつつ、システム全体の出力遅延を抑えて制御することが可能となる。
例えば、ビデオ出力タイミング制御の後にビデオ後処理がある場合、ビデオ後処理の時間を考慮しつつ、システム全体としてPTSから最低限度の時間遅らせることによって、ストリームの再生を行うことが可能である。
または、オーディオ出力タイミング制御の後にオーディオ後処理がある場合、オーディオ後処理の時間を考慮しつつ、システム全体としてPTSから最低限度の時間遅らせることによって、ストリームの再生を行うことが可能である。
以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。
本発明のデジタル放送再生装置は、受信したデジタル放送ストリームデータを復号して、デジタル放送フレームデータと前記デジタル放送フレームの出力指定時刻データを生成するデコード手段と、前記デジタル放送フレームの出力可能時刻の前記出力指定時刻からの遅延時間を算出する遅延時間算出手段と、前記遅延時間と過去に算出した遅延時間のうちの最大値を最大遅延時間として保持する最大遅延時間保持手段と、前記デジタル放送フレームを前記出力指定時刻から前記最大遅延時間だけ遅らせて出力するように出力タイミングの制御を行う出力タイミング制御手段と、を備えた構成を有している。
この装置によれば、デジタル放送フレームの出力が出力指定時刻(PTS)に間に合わないときに遅延時間が算出され、その遅延時間の最大値(最大遅延時間)が保持される。そして、この最大遅延時間を用いてデジタル放送の出力タイミングの遅延制御が行われる。これにより、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置では、前記デコード手段は、前記デジタル放送ストリームデータに含まれるビデオストリームデータを復号して、ビデオフレームデータと前記ビデオフレームのビデオ出力指定時刻データを生成するビデオデコード手段を含み、前記遅延時間算出手段は、前記ビデオフレームのビデオ出力可能時刻の前記ビデオ出力指定時刻からの遅延時間をビデオ遅延時間として算出するビデオ遅延時間算出手段を含み、前記最大遅延時間保持手段には、前記ビデオ遅延時間と過去に算出したビデオ遅延時間のうちの最大値がビデオ最大遅延時間として保持されており、前記出力タイミング制御手段は、前記ビデオフレームを前記ビデオ出力指定時刻から前記ビデオ最大遅延時間だけ遅らせて出力するようにビデオ出力タイミングの制御を行うビデオ出力タイミング制御手段を含む構成を有している。
この構成により、デジタル放送のビデオフレームの出力が出力指定時刻(ビデオPTS)に間に合わないときにビデオ遅延時間が算出され、そのビデオ遅延時間の最大値(ビデオ最大遅延時間)が保持される。そして、このビデオ最大遅延時間を用いてビデオフレームのビデオ出力タイミングの遅延制御が行われる。これにより、ビデオフレームのビデオ出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置では、前記デコード手段は、前記デジタル放送ストリームデータに含まれるオーディオストリームデータを復号して、オーディオフレームデータと前記オーディオフレームのオーディオ出力指定時刻データを生成するオーディオデコード手段を含み、前記遅延時間算出手段は、前記オーディオフレームのオーディオ出力可能時刻の前記オーディオ出力指定時刻からの遅延時間をオーディオ遅延時間として算出するオーディオ遅延時間算出手段を含み、前記最大遅延時間保持手段には、前記オーディオ遅延時間と過去に算出したオーディオ遅延時間のうちの最大値がオーディオ最大遅延時間として保持されており、前記出力タイミング制御手段は、前記オーディオフレームを前記オーディオ出力指定時刻から前記オーディオ最大遅延時間だけ遅らせて出力するようにオーディオ出力タイミングの制御を行うオーディオ出力タイミング制御手段を含む構成を有している。
この構成により、デジタル放送のオーディオフレームの出力が出力指定時刻(オーディオPTS)に間に合わないときにオーディオ遅延時間が算出され、そのオーディオ遅延時間の最大値(オーディオ最大遅延時間)が保持される。そして、このオーディオ最大遅延時間を用いてオーディオフレームのオーディオ出力タイミングの遅延制御が行われる。これにより、オーディオフレームのオーディオ出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置では、前記最大遅延時間保持手段には、前記ビデオ最大遅延時間と前記オーディオ最大遅延時間のいずれか大きい方の値が、前記ビデオフレームと前記オーディオフレームに共通の最大遅延時間として保持されている。
この構成により、ビデオフレームとオーディオフレームに共通の最大遅延時間を用いて、デジタル放送の出力タイミングの遅延制御が行われる。したがって、AV同期をとりながら、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置は、前記出力タイミング制御手段から出力されたデジタル放送フレームに所定の後処理を施す後処理手段と、前記後処理に要する時間を後処理時間として保持する後処理時間保持手段と、をさらに備え、前記遅延時間算出手段は、前記後処理時間に基づいて前記遅延時間を算出する構成を有している。
この構成により、出力タイミング制御の後に後処理が施されるときに、その後処理に要する時間(後処理時間)を考慮して、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置では、前記後処理手段は、前記ビデオ出力タイミング制御手段から出力されたビデオフレームに後処理として所定の画像処理を施すビデオ後処理手段を含み、前記後処理時間保持手段は、前記画像処理に要する時間をビデオ後処理時間として保持するビデオ後処理時間保持手段を含み、前記ビデオ遅延時間算出手段は、前記ビデオフレームのビデオ出力可能時刻に前記ビデオ後処理時間を加算して前記ビデオ遅延時間を算出する構成を有している。
この構成により、ビデオ出力タイミング制御の後にビデオフレームに後処理(画像処理)が施されるときに、その後処理に要する時間(ビデオ後処理時間)を考慮して、ビデオフレームのビデオ出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置では、前記後処理手段は、前記オーディオ出力タイミング制御手段から出力されたオーディオフレームに後処理として所定の音声処理を施すオーディオ後処理手段を含み、前記後処理時間保持手段は、前記画像処理に要する時間をオーディオ後処理時間として保持するオーディオ後処理時間保持手段を含み、前記オーディオ遅延時間算出手段は、前記オーディオフレームのオーディオ出力可能時刻に前記オーディオ後処理時間を加算して前記オーディオ遅延時間を算出する構成を有している。
この構成により、オーディオ出力タイミング制御の後にオーディオフレームに後処理(音声処理)が施されるときに、その後処理に要する時間(オーディオ後処理時間)を考慮して、オーディオフレームのオーディオ出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置は、受信する放送局の変更または再生するデジタル放送コンテンツの変更に基づいて、前記最大遅延時間を所定の初期値にリセットするリセット手段を備えた構成を有している。
この構成により、受信する放送局や再生するデジタル放送コンテンツが変更されたときに、最大遅延時間が初期値にリセットされる。したがって、デジタル放送の放送局ごとやコンテンツごとに、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
また、本発明のデジタル放送再生装置では、前記最大遅延時間は、所定の上限遅延時間より小さくなるように制限されている。
この構成により、デジタル放送の放送局やコンテンツによっては稀に遅延時間が非常に大きくなることがあり得るが、そのような場合であっても、最大遅延時間が過度に大きくなることが防止され、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
本発明のデジタル放送再生方法は、受信したデジタル放送ストリームデータを復号して、デジタル放送フレームデータと前記デジタル放送フレームの出力指定時刻データを生成し、前記デジタル放送フレームの出力可能時刻の前記出力指定時刻からの遅延時間を算出し、前記遅延時間と過去に算出した遅延時間のうちの最大値を最大遅延時間として保持し、前記デジタル放送フレームを前記出力指定時刻から前記最大遅延時間だけ遅らせて出力するように出力タイミングの制御を行う。
この方法によれば、デジタル放送フレームの出力が出力指定時刻(PTS)に間に合わないときに遅延時間が算出され、その遅延時間の最大値(最大遅延時間)が保持される。そして、この最大遅延時間を用いてデジタル放送の出力タイミングの遅延制御が行われる。これにより、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができる。
以上のように、本発明にかかるデジタル放送再生装置は、デジタル放送の出力タイミングを適切に遅延させる制御を行うことができるという効果を有し、1セグやフルセグ等のデジタル放送を再生可能な携帯電話機、カーナビゲーション装置、デジタルテレビ装置等に用いられ、有用である。
第1の実施の形態におけるデジタル放送再生装置の構成を示すブロック図 ビデオストリームの受信からビデオ出力までの時間の分布を示すヒストグラム オーディオストリームの受信からオーディオ出力までの時間の分布を示すヒストグラム 第1の実施の形態におけるビデオ出力タイミング制御の流れを示すフロー図 第1の実施の形態におけるオーディオ出力タイミング制御の流れを示すフロー図 第1の実施の形態における最大遅延時間の更新制御の説明図 第2の実施の形態におけるデジタル放送再生装置の構成を示すブロック図 第2の実施の形態におけるビデオ出力タイミング制御の流れを示すフロー図 第2の実施の形態におけるオーディオ出力タイミング制御の流れを示すフロー図
符号の説明
1 デジタル放送再生装置
2 STCカウンタ
3 ビデオデコード部
4 ビデオ出力タイミング制御部
5 画像表示部
6 ビデオ遅延時間算出部
7 最大遅延時間判定部
8 最大遅延時間保持部
9 リセット部
10 オーディオデコード部
11 オーディオ出力タイミング制御部
12 音声出力部
13 オーディオ遅延時間算出部
14 ビデオ後処理部
15 オーディオ後処理部
16 ビデオ後処理時間保持部
17 オーディオ後処理時間保持部

Claims (10)

  1. 受信したデジタル放送ストリームデータを復号して、デジタル放送フレームデータと前記デジタル放送フレームの出力指定時刻データを生成するデコード手段と、
    前記デジタル放送フレームの出力可能時刻の前記出力指定時刻からの遅延時間を算出する遅延時間算出手段と、
    前記遅延時間と過去に算出した遅延時間のうちの最大値を最大遅延時間として保持する最大遅延時間保持手段と、
    前記デジタル放送フレームを前記出力指定時刻から前記最大遅延時間だけ遅らせて出力するように出力タイミングの制御を行う出力タイミング制御手段と、
    を備えたことを特徴とするデジタル放送再生装置。
  2. 前記デコード手段は、前記デジタル放送ストリームデータに含まれるビデオストリームデータを復号して、ビデオフレームデータと前記ビデオフレームのビデオ出力指定時刻データを生成するビデオデコード手段を含み、
    前記遅延時間算出手段は、前記ビデオフレームのビデオ出力可能時刻の前記ビデオ出力指定時刻からの遅延時間をビデオ遅延時間として算出するビデオ遅延時間算出手段を含み、
    前記最大遅延時間保持手段には、前記ビデオ遅延時間と過去に算出したビデオ遅延時間のうちの最大値がビデオ最大遅延時間として保持されており、
    前記出力タイミング制御手段は、前記ビデオフレームを前記ビデオ出力指定時刻から前記ビデオ最大遅延時間だけ遅らせて出力するようにビデオ出力タイミングの制御を行うビデオ出力タイミング制御手段を含むことを特徴とする請求項1に記載のデジタル放送再生装置。
  3. 前記デコード手段は、前記デジタル放送ストリームデータに含まれるオーディオストリームデータを復号して、オーディオフレームデータと前記オーディオフレームのオーディオ出力指定時刻データを生成するオーディオデコード手段を含み、
    前記遅延時間算出手段は、前記オーディオフレームのオーディオ出力可能時刻の前記オーディオ出力指定時刻からの遅延時間をオーディオ遅延時間として算出するオーディオ遅延時間算出手段を含み、
    前記最大遅延時間保持手段には、前記オーディオ遅延時間と過去に算出したオーディオ遅延時間のうちの最大値がオーディオ最大遅延時間として保持されており、
    前記出力タイミング制御手段は、前記オーディオフレームを前記オーディオ出力指定時刻から前記オーディオ最大遅延時間だけ遅らせて出力するようにオーディオ出力タイミングの制御を行うオーディオ出力タイミング制御手段を含むことを特徴とする請求項1または請求項2に記載のデジタル放送再生装置。
  4. 前記最大遅延時間保持手段には、前記ビデオ最大遅延時間と前記オーディオ最大遅延時間のいずれか大きい方の値が、前記ビデオフレームと前記オーディオフレームに共通の最大遅延時間として保持されていることを特徴とする請求項3に記載のデジタル放送再生装置。
  5. 前記出力タイミング制御手段から出力されたデジタル放送フレームに所定の後処理を施す後処理手段と、
    前記後処理に要する時間を後処理時間として保持する後処理時間保持手段と、
    をさらに備え、
    前記遅延時間算出手段は、前記後処理時間に基づいて前記遅延時間を算出することを特徴とする請求項1ないし請求項4のいずれかに記載のデジタル放送再生装置。
  6. 前記後処理手段は、前記ビデオ出力タイミング制御手段から出力されたビデオフレームに後処理として所定の画像処理を施すビデオ後処理手段を含み、
    前記後処理時間保持手段は、前記画像処理に要する時間をビデオ後処理時間として保持するビデオ後処理時間保持手段を含み、
    前記ビデオ遅延時間算出手段は、前記ビデオフレームのビデオ出力可能時刻に前記ビデオ後処理時間を加算して前記ビデオ遅延時間を算出することを特徴とする請求項5に記載のデジタル放送再生装置。
  7. 前記後処理手段は、前記オーディオ出力タイミング制御手段から出力されたオーディオフレームに後処理として所定の音声処理を施すオーディオ後処理手段を含み、
    前記後処理時間保持手段は、前記画像処理に要する時間をオーディオ後処理時間として保持するオーディオ後処理時間保持手段を含み、
    前記オーディオ遅延時間算出手段は、前記オーディオフレームのオーディオ出力可能時刻に前記オーディオ後処理時間を加算して前記オーディオ遅延時間を算出することを特徴とする請求項5または請求項6に記載のデジタル放送再生装置。
  8. 受信する放送局の変更または再生するデジタル放送コンテンツの変更に基づいて、前記最大遅延時間を所定の初期値にリセットするリセット手段を備えたことを特徴とする請求項1ないし請求項7のいずれかに記載のデジタル放送再生装置。
  9. 前記最大遅延時間は、所定の上限遅延時間より小さくなるように制限されていることを特徴とする請求項1ないし請求項8のいずれかに記載のデジタル放送再生装置。
  10. 受信したデジタル放送ストリームデータを復号して、デジタル放送フレームデータと前記デジタル放送フレームの出力指定時刻データを生成し、
    前記デジタル放送フレームの出力可能時刻の前記出力指定時刻からの遅延時間を算出し、
    前記遅延時間と過去に算出した遅延時間のうちの最大値を最大遅延時間として保持し、
    前記デジタル放送フレームを前記出力指定時刻から前記最大遅延時間だけ遅らせて出力するように出力タイミングの制御を行うことを特徴とするデジタル放送再生方法。
JP2008196596A 2008-07-30 2008-07-30 デジタル放送再生装置およびデジタル放送再生方法 Expired - Fee Related JP5178375B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008196596A JP5178375B2 (ja) 2008-07-30 2008-07-30 デジタル放送再生装置およびデジタル放送再生方法
US13/056,033 US20110170613A1 (en) 2008-07-30 2009-05-19 Digital broadcast reproduction device and digital broadcast reproduction method
CN2009801295356A CN102113339B (zh) 2008-07-30 2009-05-19 数字广播再现装置和数字广播再现方法
PCT/JP2009/002201 WO2010013376A1 (ja) 2008-07-30 2009-05-19 デジタル放送再生装置およびデジタル放送再生方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008196596A JP5178375B2 (ja) 2008-07-30 2008-07-30 デジタル放送再生装置およびデジタル放送再生方法

Publications (2)

Publication Number Publication Date
JP2010034995A JP2010034995A (ja) 2010-02-12
JP5178375B2 true JP5178375B2 (ja) 2013-04-10

Family

ID=41610092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008196596A Expired - Fee Related JP5178375B2 (ja) 2008-07-30 2008-07-30 デジタル放送再生装置およびデジタル放送再生方法

Country Status (4)

Country Link
US (1) US20110170613A1 (ja)
JP (1) JP5178375B2 (ja)
CN (1) CN102113339B (ja)
WO (1) WO2010013376A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5003775B2 (ja) 2010-02-19 2012-08-15 ブラザー工業株式会社 液滴吐出装置
JP5598155B2 (ja) * 2010-08-12 2014-10-01 ソニー株式会社 情報処理装置および方法、並びに送受信システム
JP5672840B2 (ja) * 2010-08-12 2015-02-18 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5848872B2 (ja) * 2010-12-10 2016-01-27 三星電子株式会社Samsung Electronics Co.,Ltd. 放送受信装置
JP2013062624A (ja) * 2011-09-12 2013-04-04 Sharp Corp 再生装置、再生方法、配信装置、配信システム、再生プログラムおよび記録媒体
JP2013131872A (ja) * 2011-12-20 2013-07-04 Sharp Corp 出力装置、出力装置の制御方法、伝送装置、伝送システム、制御プログラム、および記録媒体
JP2014075735A (ja) * 2012-10-05 2014-04-24 Sony Corp 画像処理装置および画像処理方法
JP6122626B2 (ja) * 2012-12-06 2017-04-26 日本放送協会 復号装置およびプログラム
EP3230885B1 (en) 2014-12-08 2024-04-17 Umbra Technologies Ltd. Method for content retrieval from remote network regions
EP4325804A3 (en) 2015-04-07 2024-05-29 Umbra Technologies Ltd. Multi-perimeter firewall in the cloud
WO2017098326A1 (en) * 2015-12-11 2017-06-15 Umbra Technologies Ltd. System and method for information slingshot over a network tapestry and granularity of a tick
CN113824521B (zh) * 2021-08-30 2024-02-13 南京轨道交通产业发展有限公司 一种地铁车辆广播音频同步方法
EP4425938A1 (en) * 2023-03-02 2024-09-04 Nagravision Sarl Method for synchronizing a plurality of multimedia components, corresponding computer program product and devices

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3197766B2 (ja) * 1994-02-17 2001-08-13 三洋電機株式会社 Mpegオーディオデコーダ、mpegビデオデコーダおよびmpegシステムデコーダ
US6906755B2 (en) * 2002-01-04 2005-06-14 Microsoft Corporation Method and apparatus for synchronizing audio and video data
JP4186514B2 (ja) * 2002-05-29 2008-11-26 ソニー株式会社 放送受信機
US7280133B2 (en) * 2002-06-21 2007-10-09 Koninklijke Philips Electronics, N.V. System and method for queuing and presenting audio messages
KR100943811B1 (ko) * 2002-12-04 2010-02-24 엔엑스피 비 브이 오디오/비디오 동기화 테스트 방법
KR100694060B1 (ko) * 2004-10-12 2007-03-12 삼성전자주식회사 오디오 비디오 동기화 장치 및 그 방법
JP4304615B2 (ja) * 2004-11-17 2009-07-29 ソニー株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
JP4579877B2 (ja) * 2006-06-30 2010-11-10 富士通セミコンダクター株式会社 再生装置及び再生方法

Also Published As

Publication number Publication date
US20110170613A1 (en) 2011-07-14
CN102113339A (zh) 2011-06-29
JP2010034995A (ja) 2010-02-12
CN102113339B (zh) 2013-01-23
WO2010013376A1 (ja) 2010-02-04

Similar Documents

Publication Publication Date Title
JP5178375B2 (ja) デジタル放送再生装置およびデジタル放送再生方法
US9489980B2 (en) Video/audio synchronization apparatus and video/audio synchronization method
US9876944B2 (en) Apparatus, systems and methods for user controlled synchronization of presented video and audio streams
KR100651894B1 (ko) 영상기기 및 그 제어방법
US20120019719A1 (en) Digital television broadcasting reproduction device and reproduction method therefor
KR101600891B1 (ko) 복수의 단말기에 출력되는 비디오 및 오디오를 동기화시키는 동기화시스템 및 방법
JP5605572B2 (ja) 表示装置、通信装置、表示方法及びプログラム記録媒体
JP2005318488A (ja) データ同期再生装置及び端末装置
JP5304860B2 (ja) コンテンツ再生装置およびコンテンツ処理方法
JP2004173118A (ja) 音声画像多重化データ生成装置と再生装置および動画像復号化装置
JP2013222472A (ja) 音声信号出力機器および音声出力システム
JP4096915B2 (ja) デジタル情報再生装置及び方法
US8902362B2 (en) Broadcast receiving device and method
US20100166382A1 (en) Video and audio reproduction system, distribution device, and synchronization adjustment method
JP2006254298A (ja) 動画再生装置及び動画再生方法
KR20150058809A (ko) 다중 영상 재생장치 및 재생방법
KR20130060651A (ko) 영상처리장치 및 그 제어방법
KR100499519B1 (ko) 오디오 립 싱크 제어방법
JP2012090006A (ja) 映像表示装置
JP4767097B2 (ja) 再生装置
JP2007274441A (ja) 画像再生装置および画像再生方法
JP2009100066A (ja) 同期再生装置、及び、同期処理装置
TW202008792A (zh) 數位影音裝置的操作方法
CN110858922A (zh) 数字影音装置的操作方法
JP2014146983A (ja) 電子機器、電子機器の制御方法及び電子機器制御用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130108

LAPS Cancellation because of no payment of annual fees