JP2014131272A - 受信装置および情報処理方法 - Google Patents
受信装置および情報処理方法 Download PDFInfo
- Publication number
- JP2014131272A JP2014131272A JP2013263257A JP2013263257A JP2014131272A JP 2014131272 A JP2014131272 A JP 2014131272A JP 2013263257 A JP2013263257 A JP 2013263257A JP 2013263257 A JP2013263257 A JP 2013263257A JP 2014131272 A JP2014131272 A JP 2014131272A
- Authority
- JP
- Japan
- Prior art keywords
- eye image
- image data
- data
- timing
- hdmi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title description 2
- 238000003672 processing method Methods 0.000 title description 2
- 238000012545 processing Methods 0.000 claims abstract description 189
- 238000000034 method Methods 0.000 claims description 82
- 230000008569 process Effects 0.000 claims description 25
- 230000005540 biological transmission Effects 0.000 description 95
- 238000012937 correction Methods 0.000 description 94
- GJWAPAVRQYYSTK-UHFFFAOYSA-N [(dimethyl-$l^{3}-silanyl)amino]-dimethylsilicon Chemical compound C[Si](C)N[Si](C)C GJWAPAVRQYYSTK-UHFFFAOYSA-N 0.000 description 47
- 230000005236 sound signal Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 239000011521 glass Substances 0.000 description 9
- 238000011084 recovery Methods 0.000 description 9
- 230000006854 communication Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 102100031699 Choline transporter-like protein 1 Human genes 0.000 description 6
- 102100035954 Choline transporter-like protein 2 Human genes 0.000 description 6
- 102100039497 Choline transporter-like protein 3 Human genes 0.000 description 6
- 101000940912 Homo sapiens Choline transporter-like protein 1 Proteins 0.000 description 6
- 101000948115 Homo sapiens Choline transporter-like protein 2 Proteins 0.000 description 6
- 101000889279 Homo sapiens Choline transporter-like protein 3 Proteins 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000006866 deterioration Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 230000000750 progressive effect Effects 0.000 description 3
- 230000007175 bidirectional communication Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000004148 unit process Methods 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】立体画像を良好に表示する。
【解決手段】データ処理部は、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データが処理されて左眼画像データおよび右眼画像データを得る。制御部は、立体画像の表示タイミングに合うように、データ処理部で得られた左眼画像データおよび右眼画像データのタイミングを制御する。そして、表示部は、このタイミング調整された左眼画像データおよび右眼画像データによる画像を表示する。
【選択図】図1
【解決手段】データ処理部は、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データが処理されて左眼画像データおよび右眼画像データを得る。制御部は、立体画像の表示タイミングに合うように、データ処理部で得られた左眼画像データおよび右眼画像データのタイミングを制御する。そして、表示部は、このタイミング調整された左眼画像データおよび右眼画像データによる画像を表示する。
【選択図】図1
Description
この発明は、受信装置に関し、特に、立体画像を表示するための左眼画像データおよび右岸画像データを取り扱う受信装置に関する。
近年、例えば、DVD(Digital Versatile Disc)レコーダや、セットトップボックス、その他のAVソース(Audio Visual source)から、テレビ受信機、プロジェクタ、その他のディスプレイに対して、デジタル映像信号、すなわち、非圧縮(ベースバンド)の映像信号(画像データ)と、その映像信号に付随するデジタル音声信号(音声データ)とを、高速に伝送する通信インタフェースとして、HDMI(High Definition Multimedia Interface)等が普及しつつある。例えば、非特許文献1には、HDMI規格の詳細についての記載がある。
High-Definition Multimedia Interface Specification Version 1.3a,November 10 2006
例えば、AVソースからディスプレイに対して、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを送信して、ディスプレイにおいて、両眼視差を利用した立体画像表示を行うことが考えられる。
立体画像の表示方式は、表示タイミングに関して、以下の2種類に大別できる。一つは、左眼画像および右眼画像が同じタイミングで表示される方式である。この方式には、アナグリフ方式、偏光メガネ方式、裸眼方式が含まれる。他の一つは、左眼画像および右眼画像が交互に表示される方式である。この方式には、シャッターグラス方式が含まれる。
アナグリフ方式では、補色関係にある2色(主に赤と青)が用いられて両眼視差のついた左眼画像および右眼画像が構成され、それらを左右眼に分割して呈示するために、共通の透過波長域を持たないカラーフィルタが付加されたグラスが用いられる。また、偏光メガネ方式では、偏光面が直交した2つの直線偏光が用いられて左眼画像および右眼画像が構成され、それらを左右眼に分割して呈示するために、偏光フィルタが付加されたグラスが用いられる。
また、裸眼方式は、ディスプレイに左眼画像および右眼画像の縦ストライプ状の分割画像が交互に表示され、それらを左右眼に分割して呈示するために、パララックスバリア、レンチキュラが用いられる。また、シャッターグラス方式では、左眼画像および右眼画像が、例えば倍フレームレートで交互に表示され、それらを左右眼に分割して呈示するために、液晶シャッタが付加されたグラスが用いられる。
また、左眼画像データおよび右眼画像データは、撮影タイミングに関して、以下の2種類に大別できる。一つは、左眼画像データおよび右眼画像データは、左眼画像および右眼画像を同じタイミングで撮影して得られたものである。この場合、例えば、左眼画像データおよび右眼画像データは、左右の画像が、2眼のカメラで、同期を合わせて同じタイミングで撮影することで得られる。
他の一つは、左眼画像データおよび右眼画像データは、左眼画像および右眼画像が交互に倍フレームレートで撮影して得られたものである。この場合、例えば、左眼画像データおよび右眼画像データは、1眼のカメラで、液晶シャッタ、プリズム等を用いた構成により、交互に倍フレームレートで撮影することで得られる。
上述したように、AVソースからディスプレイに対して立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを送信し、ディスプレイにおいて両眼視差を利用した立体画像表示を行う場合、左眼画像データおよび右眼画像データの撮影タイミングが、左眼画像および右眼画像の表示タイミングと異なっている場合には、動きのある画像で画質が低下し、また、視聴者の疲労感が増す等の不都合がある。
ここで、撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。一つは、左眼画像データおよび右眼画像データが交互に撮影して得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。他の一つは、左眼画像データおよび右眼画像データが同じタイミングで撮影して得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
なお、上述のAVソースがゲーム機である場合も考えられる。ゲーム機では、ゲーム画像としての立体画像を表示する左眼画像データおよび右眼画像データが動的に生成される。このようにゲーム機で生成される左眼画像データおよび右眼画像データのタイミング(撮影タイミングに相当するタイミング)としては、左眼画像データおよび右眼画像データが同じタイミングになるようにすることもできるし、左眼画像データおよび右眼画像データが交互に倍フレームレートになるようにすることもできる。ゲーム機で生成される左眼画像データおよび右眼画像データのタイミングが、ディスプレイにおける左眼画像および右眼画像の表示タイミングと異なっている場合にも、動きのある画像で画質が低下し、また、視聴者の疲労感が増す等の不都合がある。
この発明の目的は、立体画像を良好に表示することにある。
この発明の概念は、
立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
上記立体画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記制御部でタイミングが制御された左眼画像データおよび上記右眼画像データによる画像を表示する表示部を備える
受信装置にある。
立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
上記立体画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記制御部でタイミングが制御された左眼画像データおよび上記右眼画像データによる画像を表示する表示部を備える
受信装置にある。
この発明においては、データ処理部により、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データが処理されて左眼画像データおよび右眼画像データが得られる。制御部により、立体画像の表示タイミングに合うように、データ処理部で得られた左眼画像データおよび右眼画像データのタイミングが制御される。そして、表示部により、このタイミング調整された左眼画像データおよび右眼画像データによる画像が表示される。これにより、立体画像を良好に表示することが可能となる。
この発明によれば、立体画像を良好に表示できる。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.変形例
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.変形例
<1.第1の実施の形態>
[AVシステムの構成例]
図1は、第1の実施の形態としてのAV(Audio Visual)システム200の構成例を示している。このAVシステム200は、ソース機器としてのディスクプレーヤ210と、シンク機器としてのテレビ受信機250とを有している。
[AVシステムの構成例]
図1は、第1の実施の形態としてのAV(Audio Visual)システム200の構成例を示している。このAVシステム200は、ソース機器としてのディスクプレーヤ210と、シンク機器としてのテレビ受信機250とを有している。
ディスクプレーヤ210およびテレビ受信機250は、HDMIケーブル350を介して接続されている。ディスクプレーヤ210には、HDMI送信部(HDMI TX)212が接続されたHDMI端子211が設けられている。テレビ受信機250には、HDMI受信部(HDMI RX)252が接続されたHDMI端子251が設けられている。HDMIケーブル350の一端はディスクプレーヤ210のHDMI端子211に接続され、このHDMIケーブル350の他端はテレビ受信機250のHDMI端子251に接続されている。
図1に示すAVシステム200において、ディスクプレーヤ210からの非圧縮の画像データ(映像信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの画像データによる画像が表示される。また、ディスクプレーヤ210からの非圧縮の音声データ(音声信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの音声データによる音声が出力される。
ディスクプレーヤ210からテレビ受信機250に送られる画像データが立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データ(3D画像データ)である場合、テレビ受信機250では、立体画像の表示が行われる。
ここで、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングとしては、同時および交互の2種類がある。撮影タイミングが同じである場合、左眼画像データおよび右眼画像データは、例えば、2眼のカメラで左眼画像および右眼画像が同じタイミングで撮影されて得られたものである。また、撮影タイミングが交互である場合、左眼画像データおよび右眼画像データは、例えば、1眼のカメラで左眼画像および右眼画像が交互のタイミングで撮影されて得られたものである。
また、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングとしては、同時および交互の2種類がある。例えば、テレビ受信機250の立体画像の表示方式がアナグリフ方式、偏光メガネ方式、裸眼方式等である場合、左眼画像および右眼画像は同時に表示される。また、例えば、テレビ受信機250の立体画像の表示方式がシャッターグラス方式である場合、左眼画像および右眼画像は交互に表示される。
図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正では、左眼画像データおよび右眼画像データのタイミングが、左眼画像および右眼画像の表示タイミングに合うようにされる。このタイミング補正は、ディスクプレーヤ210、あるいはテレビ受信機250で行われる。
ここで、撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。一つは、左眼画像データおよび右眼画像データが交互に撮影して得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。他の一つは、左眼画像データおよび右眼画像データが同じタイミングで撮影して得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
[ディスクプレーヤの構成例]
図2は、ディスクプレーヤ210の構成例を示している。このディスクプレーヤ210は、HDMI端子211と、HDMI送信部212と、ドライブインタフェース213と、BD/DVDドライブ214を有している。また、このディスクプレーヤ210は、デマルチプレクサ215と、MPEGデコーダ216と、映像信号処理回路217と、オーディオデコーダ218と、音声信号処理回路219を有している。
図2は、ディスクプレーヤ210の構成例を示している。このディスクプレーヤ210は、HDMI端子211と、HDMI送信部212と、ドライブインタフェース213と、BD/DVDドライブ214を有している。また、このディスクプレーヤ210は、デマルチプレクサ215と、MPEGデコーダ216と、映像信号処理回路217と、オーディオデコーダ218と、音声信号処理回路219を有している。
また、このディスクプレーヤ210は、内部バス220と、CPU221と、フラッシュROM222と、DRAM223を有している。また、このディスクプレーヤ210は、イーサネットインタフェース(Ethernet I/F)224と、ネットワーク端子225と、リモコン受信部226と、リモコン送信機227を有している。なお、「イーサネット」および「Ethernet」は登録商標である。CPU221、フラッシュROM222、DRAM223、イーサネットインタフェース224およびドライブインタフェース213は、内部バス220に接続されている。
CPU221は、ディスクプレーヤ210の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをDRAM223上に展開してソフトウェアを起動させ、ディスクプレーヤ210の各部を制御する。リモコン受信部226は、リモコン送信機227から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、リモコンコードに従ってディスクプレーヤ210の各部を制御する。
BD/DVDドライブ214は、ディスク状記録メディアとしてのBD,DVD(図示せず)に対して、コンテンツデータを記録し、あるいは、このBD,DVDからコンテンツデータを再生する。このBD/DVDドライブ214は、ドライブインタフェース213を介して内部バス220に接続されている。
デマルチプレクサ215は、BD/DVDドライブ214の再生データから映像、音声等のエレメンタリストリームを分離する。MPEGデコーダ216は、デマルチプレクサ215で分離された映像のエレメンタリストリームに対してデコード処理を行って非圧縮の画像データを得る。
映像信号処理回路217は、MPEGデコーダ216で得られた画像データに対して、必要に応じてスケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理等を行って、HDMI送信部212に供給する。また、この映像信号処理回路217は、MPEGデコーダ216で得られた画像データが立体画像を表示するための立体画像データ(左眼画像データ、右眼画像データ)である場合、この立体画像データを伝送方式に応じた状態に加工処理する。
また、この映像信号処理回路217は、上述の左眼画像データおよび右眼画像データのタイミング補正をディスクプレーヤ210で行う場合、そのタイミング補正を行う。その場合、この映像信号処理回路217はタイミング補正部を構成する。この映像信号処理回路217におけるタイミング補正の詳細は後述する。
オーディオデコーダ218は、デマルチプレクサ215で分離された音声のエレメンタリストリームに対してデコード処理を行って非圧縮の音声データを得る。音声信号処理回路219は、オーディオデコーダ218で得られた音声データに対して、必要に応じて音質調整処理等を行って、HDMI送信部212に供給する。
HDMI送信部212は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子211から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像および音声のデータがパッキングされて、HDMI送信部212からHDMI端子211に出力される。このHDMI送信部212の詳細は後述する。
図2に示すディスクプレーヤ210の動作を簡単に説明する。BD/DVDドライブ214の再生データはデマルチプレクサ215に供給され、映像、音声等のエレメンタリストリームに分離される。デマルチプレクサ215で分離された映像のエレメンタリストリームはMPEGデコーダ216に供給されてデコードされ、非圧縮の画像データが得られる。また、デマルチプレクサ215で分離された音声のエレメンタリストリームはオーディオデコーダ218に供給されてデコードされ、非圧縮の音声データが得られる。
MPEGデコーダ216で得られる画像データは、映像信号処理回路217を介してHDMI送信部212に供給される。また、オーディオデコーダ218で得られた音声データは音声信号処理回路219を介してHDMI送信部212に供給される。そして、これら画像および音声のデータは、HDMIのTMDSチャネルにより、HDMI端子211からHDMIケーブルに送出される。
なお、MPEGデコーダ216で得られる画像データが立体画像データである場合、この立体画像データは、映像信号処理回路217で伝送方式に応じた状態に加工処理された後に、HDMI送信部212に供給される。また、画像データが立体画像データである場合には、必要に応じて、映像信号処理回路217により、この立体画像データを構成する左眼画像データおよび右眼画像データのタイミング補正が行われる。
[テレビ受信機の構成例]
図3は、テレビ受信機250の構成例を示している。このテレビ受信機250は、HDMI端子251と、HDMI受信部252と、3D信号処理部254を有している。また、テレビ受信機250は、アンテナ端子255と、デジタルチューナ256と、デマルチプレクサ257と、MPEGデコーダ258と、映像信号処理回路259と、グラフィック生成回路260と、パネル駆動回路261と、表示パネル262を有している。
図3は、テレビ受信機250の構成例を示している。このテレビ受信機250は、HDMI端子251と、HDMI受信部252と、3D信号処理部254を有している。また、テレビ受信機250は、アンテナ端子255と、デジタルチューナ256と、デマルチプレクサ257と、MPEGデコーダ258と、映像信号処理回路259と、グラフィック生成回路260と、パネル駆動回路261と、表示パネル262を有している。
また、テレビ受信機250は、音声信号処理回路263と、音声増幅回路264と、スピーカ265と、内部バス270と、CPU271と、フラッシュROM272と、DRAM273を有している。また、テレビ受信機250は、イーサネットインタフェース(Ethernet I/F)274と、ネットワーク端子275と、リモコン受信部276と、リモコン送信機277と、DTCP回路278を有している。
アンテナ端子255は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ256は、アンテナ端子255に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリームを出力する。デマルチプレクサ257は、デジタルチューナ256で得られたトランスポートストリームから、ユーザの選択チャネルに対応した、パーシャルTS(Transport Stream)(映像データのTSパケット、音声データのTSパケット)を抽出する。
また、デマルチプレクサ257は、デジタルチューナ256で得られたトランスポートストリームから、PSI/SI(Program Specific Information/Service Information)を取り出し、CPU271に出力する。デジタルチューナ256で得られたトランスポートストリームには、複数のチャネルが多重化されている。デマルチプレクサ257で、当該トランスポートストリームから任意のチャネルのパーシャルTSを抽出する処理は、PSI/SI(PAT/PMT)から当該任意のチャネルのパケットID(PID)の情報を得ることで可能となる。
MPEGデコーダ258は、デマルチプレクサ257で得られる映像データのTSパケットにより構成される映像PES(Packetized Elementary Stream)パケットに対してデコード処理を行って画像データを得る。また、MPEGデコーダ258は、デマルチプレクサ257で得られる音声データのTSパケットにより構成される音声PESパケットに対してデコード処理を行って音声データを得る。
映像信号処理回路259およびグラフィック生成回路260は、MPEGデコーダ258で得られた画像データ、あるいはHDMI受信部252で受信された画像データに対して、必要に応じてスケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理等を行う。また、映像信号処理回路259は、HDMI受信部252で受信された画像データが、左眼画像データおよび右眼画像データを含む立体画像データである場合には、左眼画像データおよび右眼画像データに対して、立体画像を表示するために必要な処理を行う。パネル駆動回路261は、グラフィック生成回路260から出力される映像(画像)データに基づいて、表示パネル262を駆動する。
表示パネル262は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)等で構成されている。音声信号処理回路263はMPEGデコーダ258で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路264は、音声信号処理回路263から出力される音声信号を増幅してスピーカ265に供給する。
CPU271は、テレビ受信機250の各部の動作を制御する。フラッシュROM272は、制御ソフトウェアの格納およびデータの保管を行う。DRAM273は、CPU271のワークエリアを構成する。CPU271は、フラッシュROM272から読み出したソフトウェアやデータをDRAM273上に展開してソフトウェアを起動させ、テレビ受信機250の各部を制御する。
リモコン受信部276は、リモコン送信機277から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU271に供給する。CPU271は、このリモコンコードに基づいて、テレビ受信機250の各部を制御する。ネットワーク端子275は、ネットワークに接続する端子であり、イーサネットインタフェース274に接続される。CPU271、フラッシュROM272、DRAM273およびイーサネットインタフェース274は、内部バス270に接続されている。DTCP回路278は、ネットワーク端子275からイーサネットインタフェース274に供給される暗号化データを復号する。
HDMI受信部(HDMIシンク)252は、HDMIに準拠した通信により、HDMIケーブル350を介してHDMI端子251に供給される非圧縮の画像(映像)と音声のデータを受信する。このHDMI受信部252の詳細は後述する。
3D信号処理部254は、HDMI受信部252で受信された3D画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。すなわち、この3D信号処理部254は、上述したディスクプレーヤ210の映像信号処理回路217(図2参照)とは逆の処理を行って、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。
また、この3D信号処理部254は、上述の左眼画像データおよび右眼画像データのタイミング補正をテレビ受信機250で行う場合、そのタイミング補正を行う。その場合、この3D信号処理部254はタイミング補正部を構成する。この3D信号処理部254におけるタイミング補正の詳細は後述する。
図3に示すテレビ受信機250の動作を簡単に説明する。アンテナ端子255に入力されたテレビ放送信号はデジタルチューナ256に供給される。このデジタルチューナ256では、テレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリームが出力され、当該所定のトランスポートストリームはデマルチプレクサ257に供給される。このデマルチプレクサ257では、トランスポートストリームから、ユーザの選択チャネルに対応した、パーシャルTS(映像データのTSパケット、音声データのTSパケット)が抽出され、当該パーシャルTSはMPEGデコーダ258に供給される。
MPEGデコーダ258では、映像データのTSパケットにより構成される映像PESパケットに対してデコード処理が行われて画像データが得られる。この画像データは、映像信号処理回路259およびグラフィック生成回路260において、必要に応じて、スケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理等が行われた後に、パネル駆動回路261に供給される。そのため、表示パネル262には、ユーザの選択チャネルに対応した画像が表示される。
また、MPEGデコーダ258では、音声データのTSパケットにより構成される音声PESパケットに対してデコード処理が行われて音声データが得られる。この音声データは、音声信号処理回路263でD/A変換等の必要な処理が行われ、さらに、音声増幅回路264で増幅された後に、スピーカ265に供給される。そのため、スピーカ265から、ユーザの選択チャネルに対応した音声が出力される。
また、ネットワーク端子275からイーサネットインタフェース274に供給される暗号化されているコンテンツデータ(画像データ、音声データ)は、DTCP回路278で復号化された後に、MPEGデコーダ258に供給される。以降は、上述したテレビ放送信号の受信時と同様の動作となり、表示パネル262に画像が表示され、スピーカ265から音声が出力される。
また、HDMI受信部252では、HDMI端子251にHDMIケーブル350を介して接続されているディスクプレーヤ210から送信されてくる、画像データおよび音声データが取得される。画像データは、3D信号処理部254を介して映像信号処理回路259に供給される。また、音声データは、直接、音声信号処理回路263に供給される。以降は、上述したテレビ放送信号の受信時と同様の動作となり、表示パネル262に画像が表示され、スピーカ265から音声が出力される。
なお、HDMI受信部252で受信された画像データが立体画像データである場合には、3D信号処理部254において、当該3D画像データに対して伝送方式に対応した処理(デコード処理)が行われ、左眼画像データおよび右眼画像データが生成される。そして、3D信号処理部254から映像信号処理部259には、左眼画像データおよび右眼画像データが供給される。また、画像データが立体画像データである場合には、必要に応じて、3D信号処理部254により、この立体画像データを構成する左眼画像データおよび右眼画像データのタイミング補正が行われる。
また、映像信号処理回路259では、立体画像データを構成する左眼画像データおよび右眼画像データが供給される場合には、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成される。そのため、表示パネル262により立体画像が表示される。
[HDMI送信部、HDMI受信部の構成例]
図4は、図1のAVシステム200における、ディスクプレーヤ210のHDMI送信部(HDMIソース)212と、テレビ受信機250のHDMI受信部(HDMIシンク)252の構成例を示している。
図4は、図1のAVシステム200における、ディスクプレーヤ210のHDMI送信部(HDMIソース)212と、テレビ受信機250のHDMI受信部(HDMIシンク)252の構成例を示している。
HDMI送信部212は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部252に一方向に送信する。ここで、有効画像区間は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部212は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部252に一方向に送信する。
HDMI送信部212とHDMI受信部252とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部212からHDMI受信部252に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。
HDMI送信部212は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル350を介して接続されているHDMI受信部252に、一方向にシリアル伝送する。
また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部252に、一方向にシリアル伝送する。
さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル350を介して接続されているHDMI受信部252に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。
HDMI受信部252は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部212から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部252は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部212から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
すなわち、HDMI受信部252は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部212から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部212からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。
HDMI送信部212とHDMI受信部252とからなるHDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2およびTMDSクロックチャネルの他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル350に含まれる図示しない2本の信号線からなり、HDMI送信部212が、HDMIケーブル350を介して接続されたHDMI受信部252から、E−EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。
すなわち、HDMI受信部252は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部212は、例えば、CPU221(図2参照)からの要求に応じて、HDMIケーブル350を介して接続されているHDMI受信部252から、当該HDMI受信部252のE−EDIDを、DDC83を介して読み出す。HDMI送信部212は、読み出したE−EDIDをCPU221に送る。CPU221は、このE−EDIDを、フラッシュROM222あるいはDRAM223に格納する。
CPU221は、E−EDIDに基づき、HDMI受信部252の性能の設定を認識できる。例えば、CPU221は、HDMI受信部252を有するテレビ受信機250が対応可能な画像データのフォーマット(解像度、フレームレート、アスペクト等)を認識する。また、この実施の形態において、ディスクプレーヤ210で左眼画像データおよび右眼画像データのタイミングを補正する場合、CPU221は、E−EDIDに含まれる後述する表示タイミング情報に基づき、HDMI受信部252を有するテレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。
CECライン84は、HDMIケーブル350に含まれる図示しない1本の信号線からなり、HDMI送信部212とHDMI受信部252との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。
また、HDMIケーブル350には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。また、HDMIケーブル350には、ソース機器からシンク機器に電源を供給するために用いられるライン87が含まれている。さらに、HDMIケーブル350には、リザーブライン88が含まれている。
図5は、図4のHDMIトランスミッタ81とHDMIレシーバ82の構成例を示している。HDMIトランスミッタ81は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのエンコーダ/シリアライザ81A,81B,81Cを有する。そして、エンコーダ/シリアライザ81A,81B,81Cのそれぞれは、そこに供給される画像データ、補助データ、制御データをエンコードし、パラレルデータからシリアルデータに変換して、差動信号により送信する。ここで、画像データが、例えばR,G,Bの3成分を有する場合、B成分はエンコーダ/シリアライザ81Aに供給され、G成分はエンコーダ/シリアライザ81Bに供給され、R成分はエンコーダ/シリアライザ81Cに供給される。
また、補助データとしては、例えば、音声データや制御パケットがあり、制御パケットは、例えば、エンコーダ/シリアライザ81Aに供給され、音声データは、エンコーダ/シリアライザ81B,81Cに供給される。さらに、制御データとしては、1ビットの垂直同期信号(VSYNC)、1ビットの水平同期信号(HSYNC)、および、それぞれ1ビットの制御ビットCTL0,CTL1,CTL2,CTL3がある。垂直同期信号および水平同期信号は、エンコーダ/シリアライザ81Aに供給される。制御ビットCTL0,CTL1はエンコーダ/シリアライザ81Bに供給され、制御ビットCTL2,CTL3はエンコーダ/シリアライザ81Cに供給される。
エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分、垂直同期信号および水平同期信号、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
また、エンコーダ/シリアライザ81Aは、そこに供給される垂直同期信号および水平同期信号の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。さらに、エンコーダ/シリアライザ81Aは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分、制御ビットCTL0,CTL1、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
また、エンコーダ/シリアライザ81Bは、そこに供給される制御ビットCTL0,CTL1の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。さらに、エンコーダ/シリアライザ81Bは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分、制御ビットCTL2,CTL3、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
また、エンコーダ/シリアライザ81Cは、そこに供給される制御ビットCTL2,CTL3の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。さらに、エンコーダ/シリアライザ81Cは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
HDMIレシーバ82は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのリカバリ/デコーダ82A,82B,82Cを有する。そして、リカバリ/デコーダ82A,82B,82Cのそれぞれは、TMDSチャネル#0,#1,#2で差動信号により送信されてくる画像データ、補助データ、制御データを受信する。さらに、リカバリ/デコーダ82A,82B,82Cのそれぞれは、画像データ、補助データ、制御データを、シリアルデータからパラレルデータに変換し、さらにデコードして出力する。
すなわち、リカバリ/デコーダ82Aは、TMDSチャネル#0で差動信号により送信されてくる画像データのB成分、垂直同期信号および水平同期信号、補助データを受信する。そして、リカバリ/デコーダ82Aは、その画像データのB成分、垂直同期信号および水平同期信号、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ82Bは、TMDSチャネル#1で差動信号により送信されてくる画像データのG成分、制御ビットCTL0,CTL1、補助データを受信する。そして、リカバリ/デコーダ82Bは、その画像データのG成分、制御ビットCTL0,CTL1、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ82Cは、TMDSチャネル#2で差動信号により送信されてくる画像データのR成分、制御ビットCTL2,CTL3、補助データを受信する。そして、リカバリ/デコーダ82Cは、その画像データのR成分、制御ビットCTL2,CTL3、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
図6は、TMDS伝送データの構造例を示している。この図6は、TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。
HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、3種類の区間が存在する。この3種類の区間は、ビデオデータ区間(Video Data period)、データアイランド区間(Data Island period)、およびコントロール区間(Control period)である。
ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(active edge)から次の垂直同期信号の立ち上がりエッジまでの区間である。このビデオフィールド区間は、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(vertical blanking)、並びに、アクティブビデオ区間(Active Video)に分けられる。このアクティブビデオ区間は、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間である
ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータが伝送される。
データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。
コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
図7は、HDMI端子211,251のピン配列の一例を示している。図7に示すピン配列はタイプA(type-A)と呼ばれている。
TMDSチャネル#iの差動信号であるTMDS Data#i+とTMDS Data#i−が伝送される差動線である2本のラインは、TMDS Data#i+が割り当てられているピン(ピン番号が1,4,7のピン)と、TMDS Data#i−が割り当てられているピン(ピン番号が3,6,9のピン)に接続される。
また、制御用のデータであるCEC信号が伝送されるCECライン84は、ピン番号が13であるピンに接続され、ピン番号が14のピンは空き(Reserved)ピンとなっている。また、E−EDID等のSDA(Serial Data)信号が伝送されるラインは、ピン番号が16であるピンに接続され、SDA信号の送受信時の同期に用いられるクロック信号であるSCL(Serial Clock)信号が伝送されるラインは、ピン番号が15であるピンに接続される。上述のDDC83は、SDA信号が伝送されるラインおよびSCL信号が伝送されるラインにより構成される。
また、上述したようにソース機器がシンク機器の接続を検出するためのHPDライン86は、ピン番号が19であるピンに接続される。また、上述したように電源を供給するためのライン87は、ピン番号が18であるピンに接続される。
[立体画像データの伝送方式例]
立体画像データ(3D画像データ)の伝送方式として、以下の第1〜第3の伝送方式を挙げるが、これら以外の伝送方式であってもよい。ここでは、図8に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
立体画像データ(3D画像データ)の伝送方式として、以下の第1〜第3の伝送方式を挙げるが、これら以外の伝送方式であってもよい。ここでは、図8に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、図9(a)に示すように、左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式である。この場合、切換え処理のためフィールドメモリが必要となるが、ソース機器での信号処理は最も簡単なものとなる。図10は、第1の伝送方式におけるTMDS伝送データ例を示している。この場合、奇数フィールドの1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)の左眼(L)画像データが配置される。また、偶数フィールドの1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)の右眼(R)画像データが配置される。
第2の伝送方式は、図9(b)に示すように、左眼画像データの1ライン分と右眼画像データの1ライン分とを交互に伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、ラインが1/2に間引かれる。この方式は、「位相差プレート方式」と呼ばれる立体画像の表示方式の映像信号そのものであり、シンク機器の表示部での信号処理が最も簡単な方式であるが、原信号に対して垂直解像度は半分となる。
図11は、第2の伝送方式のTMDS伝送データ例を示している。この場合、1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第2の伝送方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、垂直方向のラインが1/2に間引かれる。ここで、伝送すべき左眼画像データは奇数ラインまたは偶数ラインのいずれかであり、同様に、伝送すべき右眼画像データは奇数ラインまたは偶数ラインのいずれかである。
第3の伝送方式は、現在実験放送で用いられている「Side By Side」方式で、図9(c)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。この第3の伝送方式は、立体画像データに非対応のソース機器でも既存の2D画像データとして出力すれば対応でき、従来のソース機器との互換性が高い方式である。
図12は、第3の伝送方式のTMDS伝送データ例を示している。この場合、1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第3の伝送方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。
[ディスクプレーヤにおけるタイミング補正動作]
図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正が、ディスクプレーヤ210の映像信号処理回路217で行われる場合について説明する。
図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正が、ディスクプレーヤ210の映像信号処理回路217で行われる場合について説明する。
この実施の形態において、ディスクプレーヤ210は、テレビ受信機250より、左眼画像および右眼画像の表示タイミング情報を取得する。すなわち、ディスクプレーヤ210(CPU221)は、テレビ受信機250からE−EDID(Enhanced Extended Display Identification Data)を読み出すことで、表示タイミング情報を取得する。換言すれば、テレビ受信機250は、E−EDIDに表示タイミング情報を含めておくことで、当該情報を、ディスクプレーヤ210に供給する。
図13は、E−EDIDのデータ構造例を示している。このE−EDIDは、基本ブロックと拡張ブロックとからなっている。基本ブロックの先頭には、“E−EDID1.3 Basic Structure”で表されるE−EDID1.3の規格で定められたデータが配置され、続いて“Preferred timing”で表される従来のEDIDとの互換性を保つためのタイミング情報、および“2nd timing”で表される従来のEDIDとの互換性を保つための“Preferred timing”とは異なるタイミング情報が配置されている。
また、基本ブロックには、“2nd timing”に続いて、“Monitor NAME”で表される表示装置の名前を示す情報、および“Monitor Range Limits”で表される、アスペクト比が4:3および16:9である場合についての表示可能な画素数を示す情報が順番に配置されている。
拡張ブロックの先頭には、“Short Video Descriptor”が配置されている。これは、表示可能な画像サイズ(解像度)、フレームレート、インターレースであるかプログレッシブであるかを示す情報である。続いて、“Short Audio Descriptor”が配置されている。これは、再生可能な音声コーデック方式、サンプリング周波数、カットオフ帯域、コーデックビット数などの情報である。続いて、 “Speaker Allocation”で表される左右のスピーカに関する情報が配置されている。
また、拡張ブロックには、“Speaker Allocation”に続いて、“Vender Specific”で表されるメーカごとに固有に定義されたデータ、“3rd timing”で表される従来のEDIDとの互換性を保つためのタイミング情報、および“4th timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。
図14は、Vender Specific領域(HDMI Vendor Specific Data Block)のデータ構造例を示している。このVender Specific領域には、1バイトのブロックである第0ブロック乃至第Nブロックが設けられている。
“Vender Specific”で表されるデータの先頭に配置された第0ブロックには、“Vendor−Specific tag code(=3)”で表されるデータ“Vender Specific”のデータ領域を示すヘッダ、および“Length(=N)”で表されるデータ“Vender Specific”の長さを示す情報が配置される。
また、第1ブロック乃至第3ブロックには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。さらに、第4ブロックおよび第5ブロックには、”A“、”B“、”C“、および”D“のそれぞれにより表される、24bitのシンク機器の物理アドレスを示す情報が配置される。
第6ブロックには、“Supports−AI”で表されるシンク機器が対応している機能を示すフラグ、“DC−48bit”、“DC−36bit”、および“DC−30bit”のそれぞれで表される1ピクセル当たりのビット数を指定する情報のそれぞれ、“DC−Y444”で表される、シンク機器がYCbCr4:4:4の画像の伝送に対応しているかを示すフラグ、および“DVI−Dual”で表される、シンク機器がデュアルDVI(Digital Visual Interface)に対応しているかを示すフラグが配置されている。
また、第7ブロックには、“Max−TMDS−Clock”で表されるTMDSのピクセルクロックの最大の周波数を示す情報が配置される。さらに、第8ブロックの第6ビット、第7ビットには、“Latency”で表される映像と音声の遅延情報の有無を示すフラグが配置されている。
また、第9ブロックには、“Video Latency”で表される、プログレッシブの映像の遅延時間データが配置され、第10ブロックには、“Audio Latency”で表される、プログレッシブの映像に付随する音声の遅延時間データが配置される。さらに、第11ブロックには、“Interlaced Video Latency”で表されるインターレースの映像の遅延時間データが配置され、第12ブロックには、“Interlaced Audio Latency”で表される、インターレースの映像に付随する音声の遅延時間データが配置されている。
この実施の形態において、第8ブロックの第5ビットには、表示タイミング情報の有無を示すフラグ(3D_Fields_Present)が配置されている。このフラグが“1”とされて、第13ブロックの第6ビットおよび第7ビットに、表示タイミング情報(LR_Display_Timing)が配置される。
例えば、「00」は、左眼画像および右眼画像の表示タイミングが同じであることを示す。また、例えば、「01」は、左眼画像および右眼画像を交互に表示し、同じフレーム内では左眼画像、右眼画像の順に表示することを示す。また、例えば、「10」は、左眼画像および右眼画像を交互に表示し、同じフレーム内では右眼画像、左眼画像の順に表示することを示す。
なお、同じフレーム内で左眼画像、右眼画像の順に表示されることが決まっている場合には、この表示タイミング情報(LR_Display_Timing)を、1ビットの情報とすることも考えられる。この場合、例えば、「0」は、左眼画像および右眼画像の表示タイミングが同じであることを示す。また、「1」は、左眼画像および右眼画像を交互に表示し、同じフレーム内では左眼画像、右眼画像の順に表示することを示す。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に読み出すだけでなく、ディスクプレーヤ210上で、ユーザに設定(選択)させることで取得する構成であってもよい。その場合、例えば、ユーザは、リモコン送信機227を操作することで、左眼画像および右眼画像の表示タイミングを設定する。この場合、リモコン送信機227は、ユーザ設定部を構成する。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に読み出すだけでなく、ディスクプレーヤ210上で、ユーザに設定(選択)させることで取得する構成であってもよい。その場合、例えば、ユーザは、リモコン送信機227を操作することで、左眼画像および右眼画像の表示タイミングを設定する。この場合、リモコン送信機227は、ユーザ設定部を構成する。
ディスクプレーヤ210のCPU221は、上述したようにE−EDIDに含まれている表示タイミング情報、あるいはユーザにより設定された表示タイミング情報により、テレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。また、CPU221は、BD/DVDドライブ214で再生された左眼画像データおよび右眼画像データの撮影タイミングを、例えば、これらの映像のエレメンタリストリーム内のメタデータや、BD/DVDディスク内のメタデータに付加されているメタデータにより認識する。
CPU221は、撮影タイミングと表示タイミングが異なる場合、映像信号処理回路217で、タイミング補正処理が行われるように制御する。このタイミング補正処理により、BD/DVDドライブ214で再生された左眼画像データおよび右眼画像データのタイミングが、左眼画像および右眼画像の表示タイミングと合うようにされる。
「タイミング補正処理」
ディスクプレーヤ210の映像信号処理回路217におけるタイミング補正処理について説明する。撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
ディスクプレーヤ210の映像信号処理回路217におけるタイミング補正処理について説明する。撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
最初に、第1の場合に映像信号処理回路217で行われるタイミング補正処理を、図15を参照して説明する。なお、この図15は、同じフレーム内では左眼画像データ(L)および右眼画像データ(R)の順に撮影されている場合の例を示している。
(a)第1の補正処理例
図15(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。このように双方のタイミングが補正されることで、タイミング補正時における左右の画像の画質劣化を同程度にできる。
図15(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。このように双方のタイミングが補正されることで、タイミング補正時における左右の画像の画質劣化を同程度にできる。
この場合、左眼画像データに関しては、各フレームにおいて、前後の左眼画像データ(L)を用いた補間処理により、0.25フレーム期間だけ進んだタイミングの左眼画像データ(L′)が生成される。また、右眼画像データに関しては、各フレームにおいて、前後の右眼画像データ(R)を用いた補間処理により、0.25フレーム期間だけ遅れたタイミングの右眼画像データ(R′)が生成される。このように生成された左眼画像データ(L′)および右眼画像データ(R′)のタイミングは各フレームで一致し、左眼画像および右眼画像の表示タイミングに合ったものとなる。
(b)第2の補正処理例
図15(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この場合、右眼画像データに関しては、前後の右眼画像データ(R)を用いた補間処理により、0.5フレーム期間だけタイミングがずらされた右眼画像データ(R′)が生成される。このように生成された右眼画像データ(R′)と、左眼画像データ(L)のタイミングは各フレームで一致し、左眼画像および右眼画像の表示タイミングに合ったものとなる。
図15(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この場合、右眼画像データに関しては、前後の右眼画像データ(R)を用いた補間処理により、0.5フレーム期間だけタイミングがずらされた右眼画像データ(R′)が生成される。このように生成された右眼画像データ(R′)と、左眼画像データ(L)のタイミングは各フレームで一致し、左眼画像および右眼画像の表示タイミングに合ったものとなる。
なお、図15(b)は、右眼画像データ(R)のタイミングが補正される例を示しているが、逆に、左眼画像データ(L)のタイミングが補正されてもよい。この実施の形態において、ディスクプレーヤ210では、ユーザは、リモコン送信機227の操作により、左眼画像データ(L)および右眼画像データ(R)のうちいずれのタイミングを補正するか選択可能とされる。ここで、リモコン送信機227は、タイミング補正する画像データを選択する選択部を構成する。この場合、タイミングを補正する画像データとして、効き目ではない方の画像を表示する画像データを選択することで、タイミング補正時における画質劣化の影響を抑えることができる。
次に、第2の場合に映像信号処理回路217で行われるタイミング補正処理を、図16を参照して説明する。なお、この図16は、同じフレーム内では右眼画像および左眼画像の順に表示される場合の例を示している。
(a)第1の補正処理例
図16(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。このように双方のタイミングが補正されることで、タイミング補正時における左右の画像の画質劣化を同程度にできる。
図16(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。このように双方のタイミングが補正されることで、タイミング補正時における左右の画像の画質劣化を同程度にできる。
この場合、左眼画像データに関しては、各フレームにおいて、前後の左眼画像データ(L)を用いた補間処理により、0.75フレーム期間だけ進んだタイミングの左眼画像データ(L′)が生成される。また、右眼画像データに関しては、各フレームにおいて、前後の右眼画像データ(R)を用いた補間処理により、0.25フレーム期間だけ進んだタイミングの右眼画像データ(R′)が生成される。このように生成された左眼画像データ(L′)および右眼画像データ(R′)のタイミングは0.5フレーム毎の交互となり、左眼画像および右眼画像の表示タイミングに合ったものとなる。
(b)第2の補正処理例
図16(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この場合、右眼画像データに関しては、前後の右眼画像データ(R)を用いた補間処理により、各フレームにおいて、0.5フレーム期間だけ進んだタイミングの右眼画像データ(R′)が生成される。このように生成された右眼画像データ(R′)と、左眼画像データ(L)のタイミングは0.5フレーム毎の交互となり、左眼画像および右眼画像の表示タイミングに合ったものとなる。
図16(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この場合、右眼画像データに関しては、前後の右眼画像データ(R)を用いた補間処理により、各フレームにおいて、0.5フレーム期間だけ進んだタイミングの右眼画像データ(R′)が生成される。このように生成された右眼画像データ(R′)と、左眼画像データ(L)のタイミングは0.5フレーム毎の交互となり、左眼画像および右眼画像の表示タイミングに合ったものとなる。
なお、図16(b)は、右眼画像データ(R)のタイミングが補正される例を示しているが、逆に、左眼画像データ(L)のタイミングが補正されてもよい。この実施の形態において、ディスクプレーヤ210では、ユーザは、リモコン送信機227の操作により、左眼画像データ(L)および右眼画像データ(R)のうちいずれのタイミングを補正するか選択可能とされる。ここで、リモコン送信機227は、タイミング補正する画像データを選択する選択部を構成する。この場合、タイミングを補正する画像データとして、効き目ではない方の画像を表示する画像データを選択することで、タイミング補正時における画質劣化の影響を抑えることができる。
[テレビ受信機におけるタイミング補正動作]
図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正が、テレビ受信機250の3D信号処理部254で行われる場合について説明する。
図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正が、テレビ受信機250の3D信号処理部254で行われる場合について説明する。
この実施の形態において、テレビ受信機250は、ディスクプレーヤ210より、左眼画像データおよび右眼画像データの撮影タイミング情報を取得する。すなわち、テレビ受信機250は、撮影タイミング情報を、HDMI受信部252で受信された立体画像データのブランキング期間から抽出して取得する。換言すれば、ディスクプレーヤ210は、HDMI送信部212から送信すべき立体画像データのブランキング期間に挿入することで、撮影タイミング情報をテレビ受信機250に供給する。
この場合、ディスクプレーヤ210は、例えば、HDMIのAVI(Auxiliary Video Information) InfoFrameパケットを用いて、撮影タイミング情報を立体画像データのブランキング期間に挿入する。AVI InfoFrameパケットは、上述したデータアイランド区間に配置される(図6参照)。図17は、AVI InfoFrameパケットのデータ構造例を示している。HDMIでは、当該AVI InfoFrameパケットにより、画像に関する付帯情報をソース機器からシンク機器に伝送可能となっている。
第0バイトにデータパケットの種類を示す「Packet Type」が定義されている。AVI InfoFrameパケットの「Packet Type」は「0x82」となっている。第1バイトにパケットデータ定義のバージョン情報を記述する。第2バイトにパケット長を表す情報を記述する。AVI InfoFrameのそれぞれは、CEA-861-Dに定義されているので省略する。
第17バイトについて説明する。第17バイトの第6ビットおよび第7ビットに、撮影タイミング情報(LR_Image_Timing)が配置される。
例えば、「00」は、左眼画像データおよび右眼画像データの撮影タイミングが同じであることを示す。また、例えば、「01」は、左眼画像データおよび右眼画像データは交互に撮影され、同じフレーム内では左眼画像データ、右眼画像データの順で撮影されたことを示す。また、例えば、「10」は、左眼画像データおよび右眼画像データは交互に撮影され、同じフレーム内では右眼画像データ、左眼画像データの順で撮影されたことを示す。
なお、同じフレーム内で左眼画像データ、右眼画像データの順に撮影されることが決まっている場合には、この撮影タイミング情報(LR_Image_Timing)を、1ビットの情報とすることも考えられる。この場合、例えば、「0」は、左眼画像データおよび右眼画像データの表示タイミングが同じであることを示す。また、「1」は、左眼画像データおよび右眼画像データは交互に撮影され、同じフレーム内では左眼画像データ、右眼画像データの順で撮影されたことを示す。
なお、撮影タイミング情報は、上述のようにHDMI経由で自動的に読み出すだけでなく、テレビ受信機250で、ユーザに設定(選択)させることで取得する構成であってもよい。その場合、例えば、ユーザは、リモコン送信機277を操作することで、左眼画像データおよび右眼画像データのタイミングを設定する。この場合、リモコン送信機277は、ユーザ設定部を構成する。また、自動取得やユーザ設定なしに左眼画像データおよび右眼画像データのタイミングが同じであると見なして動作する構成であってもよい。
なお、撮影タイミング情報は、上述のようにHDMI経由で自動的に読み出すだけでなく、テレビ受信機250で、ユーザに設定(選択)させることで取得する構成であってもよい。その場合、例えば、ユーザは、リモコン送信機277を操作することで、左眼画像データおよび右眼画像データのタイミングを設定する。この場合、リモコン送信機277は、ユーザ設定部を構成する。また、自動取得やユーザ設定なしに左眼画像データおよび右眼画像データのタイミングが同じであると見なして動作する構成であってもよい。
「タイミング補正処理」
テレビ受信機250の3D信号処理部254におけるタイミング補正処理について説明する。撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
テレビ受信機250の3D信号処理部254におけるタイミング補正処理について説明する。撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
最初に、第1の場合に3D信号処理部254で行われるタイミング補正処理を、図15および図18を参照して説明する。なお、この図15、図18は、同じフレーム内では左眼画像データ(L)および右眼画像データ(R)の順に撮影されている場合の例を示している。
(a)第1の補正処理例
図15(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。この第1の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
図15(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。この第1の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
(b)第2の補正処理例
図15(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この第2の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
図15(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この第2の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
図18は、第3の補正処理例を示している。この第3の補正処理例は、左眼画像データ(L)および右眼画像データ(R)を倍フレームレートの画像データに変換することで、タイミングが補正される例である。図18(a)は、同一のフレーム画像が2度繰り返されて倍フレームレートの画像データとされている。また、図18(b)は、前後のフレーム画像の間に補間処理で生成されたフレーム画像L′、R′が挿入されて倍フレームレートの画像データとされている。
このように倍フレームレートの画像データに変換してタイミング補正を行う場合、左眼画像および右眼画像が倍フレームレートで表示されることから、残像感を低減できる。また、図18(b)に示すように前後の画像データを用いた補間処理により倍フレームレートの画像データを得る場合には、滑らかな動きの画像を表示できる。
次に、第2の場合に3D信号処理部229で行われるタイミング補正処理を、図16を参照して説明する。なお、この図16は、同じフレーム内では右眼画像および左眼画像の順に表示される場合の例を示している。
(a)第1の補正処理例
図16(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。この第1の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
図16(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。この第1の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
(b)第2の補正処理例
図16(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この第2の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
図16(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この第2の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
上述したように、図1に示すAVシステム200においては、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。したがって、動きのある画像で画質を改善でき、また、視聴者の疲労感の軽減を図ることができる。
また、図1に示すAVシステム200において、ディスクプレーヤ210でタイミング補正が行われる場合、ディスクプレーヤ210では、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報が取得され、左眼画像データおよび右眼画像データのタイミング補正が自動的に行われる。また、図1に示すAVシステム200において、テレビ受信機250でタイミング補正が行われる場合、テレビ受信機250では、ディスクプレーヤ210から左眼画像データおよび右眼画像データの撮影タイミング情報が取得され、左眼画像データおよび右眼画像データのタイミング補正が自動的に行われる。したがって、ユーザの操作あるいは設定の手間が増加することがなく、また、ユーザの誤った操作、設定がないため常に正確なタイミング補正が可能となる。
<2.第2の実施の形態>
[AVシステムの構成例]
図19は、第2の実施の形態としてのAVシステム200Aの構成例を示している。このAVシステム200Aは、ソース機器としてのゲーム機400と、シンク機器としてのテレビ受信機250とを有している。テレビ受信機250は、図1のAVシステム200におけるテレビ受信機250と同じものである。
[AVシステムの構成例]
図19は、第2の実施の形態としてのAVシステム200Aの構成例を示している。このAVシステム200Aは、ソース機器としてのゲーム機400と、シンク機器としてのテレビ受信機250とを有している。テレビ受信機250は、図1のAVシステム200におけるテレビ受信機250と同じものである。
ゲーム機400およびテレビ受信機250は、HDMIケーブル350を介して接続されている。ゲーム機400は、HDMI送信部(HDMI TX)402が接続されたHDMI端子401が設けられている。HDMIケーブル350の一端はゲーム機400のHDMI端子401に接続され、このHDMIケーブル350の他端はテレビ受信機250のHDMI端子251に接続されている。
図19に示すAVシステム200Aにおいて、ゲーム機400からの非圧縮の画像データ(映像信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではゲーム機400からの画像データによる画像が表示される。また、ゲーム機400からの非圧縮の音声データ(音声信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではゲーム機400からの音声データによる音声が出力される。
ゲーム機400からテレビ受信機250に送られる画像データが立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データ(3D画像データ)である場合、テレビ受信機250では、ゲーム画像として立体画像の表示が行われる。ゲーム機400からテレビ受信機250への立体画像データの伝送方式は、図1に示すAVシステム200におけるディスクプレーヤ210からテレビ受信機250への立体画像データの伝送方式と同様である(図9〜図12参照)。
ここで、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングとしては、上述したように、同時および交互の2種類がある。図19に示すAVシステム200Aにおいて、ゲーム機400で生成されるゲーム画像としての立体画像を表示するための左眼画像データおよび右眼画像データのタイミングは、テレビ受信機250における左眼画像および右眼画像の表示タイミングに合わせられる。
[ゲーム機の構成例]
図20は、ゲーム機400の構成例を示している。
このゲーム機400は、HDMI端子401と、HDMI送信部402と、イーサネットインタフェース(Ethernet I/F)404と、ネットワーク端子405を有している。また、このゲーム機400は、入力インタフェース406と、コントロールパッド407と、ドライブインタフェース408と、DVD/BD(Digital Versatile Disk/Blu-ray Disc)ドライブ409を有している。
図20は、ゲーム機400の構成例を示している。
このゲーム機400は、HDMI端子401と、HDMI送信部402と、イーサネットインタフェース(Ethernet I/F)404と、ネットワーク端子405を有している。また、このゲーム機400は、入力インタフェース406と、コントロールパッド407と、ドライブインタフェース408と、DVD/BD(Digital Versatile Disk/Blu-ray Disc)ドライブ409を有している。
また、このゲーム機400は、内部バス410と、CPU411と、フラッシュROM412と、DRAM413を有している。また、このゲーム機400は、描画処理部414と、VRAM(Video Random Access Memory)415と、音声処理部416と、MPEGデコーダ417を有している。なお、「イーサネット」、「Ethernet」および「Blu−ray Disc」は登録商標である。
HDMI送信部(HDMIソース)402は、HDMIに準拠した通信により、非圧縮の(ベースバンド)の映像(画像)と音声のデータを、HDMI端子401から送出する。このHDMI送信部401は、図1のAVシステム200のディスクプレーヤ210におけるHDMI送信部212と同様の構成とされている。
CPU411、フラッシュROM412、DRAM413、イーサネットインタフェース404、入力インタフェース406およびドライブインタフェース408は、内部バス410に接続されている。また、描画処理部414、VRAM415、音声処理部416およびMPEGデコーダ417は、内部バス410に接続されている。DVD/BDドライブ409は、ドライブインタフェース408を介して内部バス410に接続されている。DVD/BDドライブ409は、DVD等の記録媒体に記録されている映画等のコンテンツの再生、およびこれらの記録媒体に記録されているゲームソフト情報の再生等を行う。
MPEGデコーダ417は、ゲーム機400が再生機として機能する場合、DVD等の記録媒体から再生された圧縮された映像データ、音声データに対してデコード処理を行って非圧縮の映像データ、音声データを得る。
CPU411は、ゲーム機400の各部の動作を制御する。フラッシュROM412は、制御ソフトウェアの格納およびデータの保管を行う。DRAM413は、CPU411のワークエリアを構成する。CPU411は、フラッシュROM412から読み出したソフトウェアやデータをDRAM413上に展開してソフトウェアを起動させ、ゲーム機400の各部を制御する。
コントロールパッド407は、ユーザ操作部を構成している。入力インタフェース406は、コントロールパッド407からの操作入力信号を内部バス410に取り込む。描画処理部414は、描画エンジンを備えている。この描画処理部414は、ゲーム機400がゲーム機として機能する場合、ゲームソフト情報に基づき、ユーザのコントロールパッド407からの操作に応じてゲーム画像を動的に作成し、VRAM415に展開する。
この描画処理部414は、ゲーム画像データとして、2次元画像を表示するための画像データを生成する他に、立体画像を表示するための立体画像データ(左眼画像データ、右眼画像データ)を生成する。この場合、描画処理部414は、後述するように、テレビ受信機250における左眼画像および右眼画像の表示タイミング情報を用いて、生成する左眼画像データおよび右眼画像データのタイミングを、左眼画像および右眼画像の表示タイミングに合わせる。この描画処理部414におけるタイミング合わせの詳細は後述する。
また、この描画処理部414は、立体画像を表示するための立体画像データをHDMIのTMDSチャネルで送信する際に、この立体画像データを伝送方式に応じた状態に加工処理する(図9〜図12参照)。
音声処理部416は、ゲーム機400がゲーム機として機能する場合、ゲームソフト情報に基づき、ユーザのコントロールパッド217からの操作に応じて、ゲーム画像に対応したゲーム音声を得るための音声データを生成する。
図20に示すゲーム機400の動作を簡単に説明する。描画処理部414では、ゲームソフト情報に基づき、ユーザのコントロールパッド407からの操作に応じてゲーム画像を表示するための画像データが動的に生成され、VRAM415に展開される。そして、このVRAM415から画像データが読み出されて、HDMI送信部402に供給される。また、音声処理部416で生成された音声データは、HDMI送信部402に供給される。この画像および音声のデータは、HDMIのTMDSチャネルにより、HDMI端子401からHDMIケーブルに送出される。
ここで、生成すべき画像データが立体画像データ(左眼画像データ、右眼画像データ)である場合、左眼画像データおよび右眼画像データのタイミングは、以下のようにされる。すなわち、左眼画像データおよび右眼画像データのタイミングは、テレビ受信機250の左眼画像および右眼画像の表示タイミング情報に基づいて、左眼画像および右眼画像の表示タイミングに合うようにされる。
また、この場合、音声処理部416では、ゲームソフト情報に基づき、ユーザのコントロールパッド407からの操作に応じて、ゲーム画像に対応したゲーム音声を得るための音声データが生成される。この音声データは、HDMI送信部402に供給される。そして、HDMI送信部402に供給されるゲームの画像および音声のデータは、HDMIのTMDSチャネルにより、HDMI端子401からHDMIケーブルに送出される。
[ゲーム機におけるタイミング合わせ動作]
図19に示すAVシステム200Aにおいて、描画処理部414は、立体画像データ(左眼画像データ、右眼画像データ)を生成する際、左眼画像データおよび右眼画像データのタイミングを、左眼画像および右眼画像の表示タイミングに合わせる。
図19に示すAVシステム200Aにおいて、描画処理部414は、立体画像データ(左眼画像データ、右眼画像データ)を生成する際、左眼画像データおよび右眼画像データのタイミングを、左眼画像および右眼画像の表示タイミングに合わせる。
この実施の形態において、ゲーム機400は、上述の図1のAVシステム200のディスクプレーヤ210と同様にして、テレビ受信機250より、左眼画像および右眼画像の表示タイミング情報を取得する。すなわち、ゲーム機400(CPU411)は、テレビ受信機250から表示タイミング情報(LR_Display_Timing)が含まれたE−EDID(図13,図14参照)を読み出すことで、表示タイミング情報を取得する。換言すれば、テレビ受信機250は、E−EDIDに表示タイミング情報を含めておくことで、当該情報を、ゲーム機400に供給する。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、ゲーム機400上で、ユーザに設定(選択)させることによって取得してもよい。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、ゲーム機400上で、ユーザに設定(選択)させることによって取得してもよい。
ゲーム機400のCPU411は、上述したようにE−EDIDに含まれている表示タイミング情報、あるいはユーザが設定した表示タイミング情報により、テレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。CPU411は、この表示タイミング情報に基づいて描画処理部414を制御し、描画処理部414で生成される左眼画像データおよび右眼画像データのタイミングを、左眼画像および右眼画像の表示タイミングに合わせる。
ここで、左眼画像および右眼画像が同じタイミングで表示される場合、描画処理部414では、例えばフレーム毎に、3D(3次元)空間で左右画像共通のモデリングが行われて、左眼画像データおよび右眼画像データが生成される。これに対して、左眼画像および右眼画像が交互に表示される場合、描画処理部414では、例えば0.5フレーム毎に、3D(3次元)空間で、左画像のモデリングおよび右画像のモデリングが行われて、左眼画像データおよび右眼画像データが生成される。
上述したように、図19に示すAVシステム200Aにおいては、ゲーム機400で生成されるゲーム画像としての立体画像を表示するための左眼画像データおよび右眼画像データのタイミングは、テレビ受信機250における左眼画像および右眼画像の表示タイミングに合わせられる。したがって、動きのある画像で画質を改善でき、また、視聴者の疲労感の軽減を図ることができる。
また、図19に示すAVシステム200Aにおいて、ゲーム機400では、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報が取得され、この表示タイミング情報に基づいて、描画処理部414で生成される左眼画像データおよび右眼画像データのタイミングが、テレビ受信機250における左眼画像および右眼画像の表示タイミングに自動的に合わせられる。したがって、ユーザの操作手間が増加することがなく、また、ユーザの誤った操作、設定がないため常に正確なタイミング合わせが可能となる。
<3.第3の実施の形態>
[AVシステムの構成例]
図21は、第3の実施の形態としてのAVシステム200Bの構成例を示している。このAVシステム200Bは、ソース機器としてのディスクプレーヤ210と、リピータ機器としてのAVアンプ300と、シンク機器としてのテレビ受信機250を有している。ディスクプレーヤ210およびテレビ受信機250は、図1のAVシステム200におけるディスクプレーヤ210およびテレビ受信機250と同様のものである。
[AVシステムの構成例]
図21は、第3の実施の形態としてのAVシステム200Bの構成例を示している。このAVシステム200Bは、ソース機器としてのディスクプレーヤ210と、リピータ機器としてのAVアンプ300と、シンク機器としてのテレビ受信機250を有している。ディスクプレーヤ210およびテレビ受信機250は、図1のAVシステム200におけるディスクプレーヤ210およびテレビ受信機250と同様のものである。
図21に示すAVシステム200Bは、ディスクプレーヤ210とテレビ受信機250との間に、AVアンプ300を接続したものである。ディスクプレーヤ210とAVアンプ300は、HDMIケーブル351を介して接続されている。AVアンプ300には、HDMI受信部(HDMIRTX)302aが接続されたHDMI端子301aが設けられている。HDMIケーブル351の一端はディスクプレーヤ210のHDMI端子211に接続され、このHDMIケーブル351の他端はAVンプ300のHDMI端子301aに接続されている。
また、AVアンプ300とテレビ受信機250は、HDMIケーブル352を介して接続されている。AVアンプ300には、HDMI送信部(HDMI TX)302bが接続されたHDMI端子301bが設けられている。HDMIケーブル352の一端はAVアンプ300のHDMI端子301bに接続され、このHDMIケーブル352の他端はテレビ受信機250のHDMI端子251に接続されている。
図21に示すAVシステム200Bにおいて、ディスクプレーヤ210からの非圧縮の画像データ(映像信号)は、HDMIケーブル351、AVアンプ300およびHDMIケーブル352を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの画像データによる画像が表示される。また、ディスクプレーヤ210からの非圧縮の音声データ(音声信号)は、HDMIケーブル351、AVアンプ300およびHDMIケーブル352を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの音声データによる音声が出力される。なお、音声に関しては、ユーザの選択操作に応じて、AVアンプ300に外付けされた図示しないスピーカ群から出力される場合もある。
ディスクプレーヤ210からテレビ受信機250に送られる画像データが立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データ(3D画像データ)である場合、テレビ受信機250では、立体画像の表示が行われる。ディスクプレーヤ210からテレビ受信機250への立体画像データの伝送方式は、図1に示すAVシステム200の場合と同様である(図9〜図12参照)。
上述したように、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングとしては、同時および交互の2種類がある。また、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングとしては、同時および交互の2種類がある。
図21に示すAVシステム200Bにおいて、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、AVアンプ300により、タイミング補正が行われる。このタイミング補正では、左眼画像データおよび右眼画像データのタイミングが、左眼画像および右眼画像の表示タイミングに合うようにされる。
ここで、撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。一つは、左眼画像データおよび右眼画像データが交互に撮影して得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。他の一つは、左眼画像データおよび右眼画像データが同じタイミングで撮影して得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
[AVアンプの構成例]
図22は、AVアンプ300の構成例を示している。このAVアンプ300は、HDMI端子301a,301bと、HDMI受信部302aと、HDMI送信部302bを有している。また、このAVアンプ300は、映像・グラフィック処理回路305と、音声処理回路307と、音声増幅回路308と、音声出力端子309a〜309fを有している。また、このAVアンプ300は、内部バス312と、CPU313と、フラッシュROM314と、DRAM315を有している。
図22は、AVアンプ300の構成例を示している。このAVアンプ300は、HDMI端子301a,301bと、HDMI受信部302aと、HDMI送信部302bを有している。また、このAVアンプ300は、映像・グラフィック処理回路305と、音声処理回路307と、音声増幅回路308と、音声出力端子309a〜309fを有している。また、このAVアンプ300は、内部バス312と、CPU313と、フラッシュROM314と、DRAM315を有している。
HDMI受信部302aは、HDMIに準拠した通信により、HDMIケーブル351を介してHDMI端子301aに供給される非圧縮の映像(画像)と音声のデータを受信する。詳細説明は省略するが、このHDMI受信部302aは、図1のAVシステム200のテレビ受信機250におけるHDMI受信部252と同様の構成とされている。
HDMI送信部302bは、HDMIに準拠した通信により、非圧縮の映像(画像)と音声のデータを、HDMI端子301bからHDMIケーブル352に送出する。詳細説明は省略するが、このHDMI送信部302bは、図1のAVシステム200のディスクプレーヤ210におけるHDMI送信部212と同様の構成とされている。
音声処理回路307は、HDMI受信部302aで得られた音声データに対して、例えば5.1chサラウンドを実現するための各チャネルの音声データを生成する処理、所定の音場特性を付与する処理、デジタル信号をアナログ信号に変換する処理等を行う。音声増幅回路308は、音声処理回路307から出力される各チャネルの音声信号を増幅して、音声出力端子309a〜319fに出力する。
また、音声処理回路307は、さらに、HDMI受信部302aで得られた音声データを、必要な処理を施した後に、HDMI送信部302bに供給する。また、映像・グラフィック処理回路305は、HDMI受信部302aで得られた映像(画像)データを、必要に応じて画像変換処理、グラフィックスデータの重畳処理等の処理を施して、HDMI送信部302bに供給する。
CPU313は、AVアンプ300の各部の動作を制御する。フラッシュROM314は、制御ソフトウェアの格納およびデータの保管を行う。DRAM315は、CPU313のワークエリアを構成する。CPU313は、フラッシュROM314から読み出したソフトウェアやデータをDRAM315上に展開してソフトウェアを起動させ、AVアンプ300の各部を制御する。CPU313、フラッシュROM314およびDRAM315は、内部バス312に接続されている。
映像・グラフィック処理回路305は、HDMI受信部302aで受信された立体画像データ(3D画像データ)に対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。また、映像・グラフィック処理回路305は、処理後の立体画像データ(左眼画像データ、右眼画像データ)に対して、伝送方式に応じた状態に加工処理して(図9〜図12参照)、HDMI送信部302bに供給する。
また、映像・グラフィック処理回路305は、HDMI受信部302aで受信されて得られた左眼画像データおよび右眼画像データに対して、必要に応じて、タイミング補正を行う。その場合、この映像・グラフィック処理回路305はタイミング補正部を構成する。この映像・グラフィック処理回路305におけるタイミング補正の詳細は後述する。
図22に示すAVアンプ300の動作を簡単に説明する。HDMI受信部302aでは、HDMI端子301aにHDMIケーブル351を介して接続されているディスクプレーヤ210から送信されてくる、映像(画像)データおよび音声データが取得される。この映像データおよび音声データは、それぞれ、映像・グラフィック処理回路305および音声処理回路307を介して、HDMI送信部302bに供給され、HDMI端子301bからHDMIケーブル352を介してテレビ受信機250に送信される。これにより、AVアンプ300は、リピータ機能を発揮する。
なお、このAVアンプ300を通じて音声を出力する場合、音声処理回路307では、HDMI受信部302aで得られた音声データに対して、5.1chサラウンドを実現するための各チャネルの音声データを生成する処理、所定の音場特性を付与する処理、デジタル信号をアナログ信号に変換する処理等の必要な処理が施される。そして、各チャネルの音声信号は、音声増幅回路308で増幅された後に音声出力端子319a〜319fに出力される。
「タイミング補正処理」
AVアンプ300の映像・グラフィック処理回路305におけるタイミング補正処理について説明する。
AVアンプ300の映像・グラフィック処理回路305におけるタイミング補正処理について説明する。
この実施の形態において、AVアンプ300は、上述の図1のAVシステム200のテレビ受信機250と同様にして、ディスクプレーヤ210より、左眼画像データおよび右眼画像データの撮影タイミング情報を取得する。すなわち、AVアンプ300は、HDMI受信部302bで受信された立体画像データのブランキング期間に配置された、撮影タイミング情報(LR_Image_Timing)が含まれたAVI InfoFrameパケット(図17参照)を抽出することで、撮影タイミング情報を取得する。換言すれば、ディスクプレーヤ210は、HDMI送信部212から送信すべき立体画像データのブランキング期間に挿入することで、撮影タイミング情報をAVアンプ300に供給する。
なお、撮影タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、AVアンプ300上で、ユーザに設定(選択)させることによって取得してもよい。また、撮影タイミング情報に関しては、上述したように、自動取得やユーザ設定なしに、左眼画像データおよび右眼画像データのタイミングが同じであると見なして動作する構成であってもよい。
なお、撮影タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、AVアンプ300上で、ユーザに設定(選択)させることによって取得してもよい。また、撮影タイミング情報に関しては、上述したように、自動取得やユーザ設定なしに、左眼画像データおよび右眼画像データのタイミングが同じであると見なして動作する構成であってもよい。
この実施の形態において、AVアンプ300は、上述の図1のAVシステム200のディスクプレーヤ210と同様にして、テレビ受信機250より、左眼画像および右眼画像の表示タイミング情報を取得する。すなわち、AVアンプ300(CPU313)は、テレビ受信機250から表示タイミング情報(LR_Display_Timing)が含まれたE−EDID(図13,図14参照)を読み出すことで、表示タイミング情報を取得する。換言すれば、テレビ受信機250は、E−EDIDに表示タイミング情報を含めておくことで、当該情報を、AVアンプ300に供給する。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、AVアンプ300上で、ユーザに設定(選択)させることによって取得してもよい。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、AVアンプ300上で、ユーザに設定(選択)させることによって取得してもよい。
AVアンプ300のCPU313は、上述したようにE−EDIDに含まれている表示タイミング情報、あるいはユーザが設定した表示タイミング情報により、テレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。また、AVアンプ300のCPU313は、上述したように AVI InfoFrameパケットに含まれている撮影タイミング情報、あるいはユーザが設定したタイミング情報により、ディスクプレーヤ210から送られている左眼画像データおよび右眼画像データの撮影タイミングを認識する。なお、AVアンプ300のCPU313は、撮影タイミング情報の自動取得やユーザ設定がない場合、左眼画像データおよび右眼画像データのタイミングが同じであると見なす。
CPU313は、撮影タイミングと表示タイミングが異なる場合、映像・グラフィック処理回路305で、タイミング補正処理が行われるように制御する。このタイミング補正処理により、ディスクプレーヤ210のBD/DVDドライブ214で再生された左眼画像データおよび右眼画像データのタイミングが、テレビ受信機250における左眼画像および右眼画像の表示タイミングに合うようにされる。
撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
第1の場合に映像・グラフィック処理回路305で行われるタイミング補正処理は、上述の図1に示すAVシステム200におけるディスクプレーヤ210の映像信号処理回路217が第1の場合に行うタイミング補正処理と同様である(図15(a),(b)参照)。この場合、補正後の左眼画像データおよび右眼画像データのタイミングは各フレームで一致し、左眼画像および右眼画像の表示タイミングに合ったものとなる。
また、第2の場合に映像・グラフィック処理回路305で行われるタイミング補正処理は、上述の図1に示すAVシステム200におけるディスクプレーヤ210の映像信号処理回路217が第2の場合に行うタイミング補正処理と同様である(図16(a),(b)参照)。この場合、補正後の左眼画像データおよび右眼画像データのタイミングは0.5フレーム毎の交互となり、左眼画像および右眼画像の表示タイミングに合ったものとなる。
上述したように、図21に示すAVシステム200Bにおいては、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、AVアンプ300でタイミング補正が行われる。そのため、テレビ受信機250で受信される左眼画像データおよび右眼画像データのタイミングは、当該テレビ受信機250における左眼画像および右眼画像の表示タイミングに合ったものとなる。したがって、動きのある画像で画質を改善でき、また、視聴者の疲労感の軽減を図ることができる。
また、図21に示すAVシステム200において、AVアンプ300では、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報が取得され、ディスクプレーヤ210から左眼画像データおよび右眼画像データの撮影タイミング情報が取得される。そして、これらの情報に基づいて、AVアンプ300では、ディスクプレーヤ210からテレビ受信機250に中継する左眼画像データおよび右眼画像データのタイミングが、テレビ受信機250における左眼画像および右眼画像の表示タイミングに自動的に合わせられる。したがって、ユーザの操作手間が増加することがなく、また、ユーザの誤った操作、設定がないため常に正確なタイミング合わせが可能となる。
なお、図21のAVシステム200Bのように、ディスクプレーヤ210とテレビ受信機250との間にAVアンプ300が介在されている場合にあっても、図1のAVシステム200と同様に、ディスクプレーヤ210あるいはテレビ受信機250で、タイミング補正を行うこともできる。その場合、ディスクプレーヤ210は、AVアンプ300を介して、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報を取得する。また、テレビ受信機250は、AVアンプ300を介して、ディスクプレーヤ210からの撮影タイミング情報を取得する。
例えば、図21のAVシステム200Bのような構成で、AVアンプ300と、テレビ受信機250が共にタイミング補正機能を持っている場合が考えられる。この場合、上述したようにAVアンプ300でタイミング補正が行われるとき、AVアンプ300からテレビ受信機250に供給される撮影タイミング情報として、テレビ受信機250における表示タイミング情報をセットしてあげることで、テレビ受信機250側での補正処理を無効にできる。これにより、左眼画像データおよび右眼画像データに対して二重にタイミング補正処理が行われる不都合を防止できる。
<4.変形例>
なお、上述実施の形態は、HDMIの伝送路を用いるものを示している。しかし、この発明は、HDMI以外の非圧縮映像信号の伝送路、例えば、DVI(Digital Visual Interface)、DP(Display Port)インタフェース、ワイヤレス伝送、さらに今後普及すると思われるギガビットEthernet・光ファイバーの伝送路を用いるものにも同様に適用できる。
なお、上述実施の形態は、HDMIの伝送路を用いるものを示している。しかし、この発明は、HDMI以外の非圧縮映像信号の伝送路、例えば、DVI(Digital Visual Interface)、DP(Display Port)インタフェース、ワイヤレス伝送、さらに今後普及すると思われるギガビットEthernet・光ファイバーの伝送路を用いるものにも同様に適用できる。
例えば、DVIの場合、上述したHDMIと同様に、映像信号の対応画像フォーマット(解像度、フレームレート等)を、受信装置が保有するE−EDIDと呼ばれる領域に記憶する規格が定義されている。したがって、このDVIの場合、上述したHDMIの場合と同様にして、送信装置は、DDC(Display Data Channel)を用いて受信装置のE−EDIDから左眼画像および右眼画像の表示タイミング情報を取得できる。そのため、送信装置は、受信装置側の左眼画像および右眼画像の表示タイミングに合うように左眼画像データおよび右眼画像データの補正あるいは生成を行うことができる。
また、上述実施の形態においては、ディスクプレーヤ210、ゲーム機400、AVアンプ300は、テレビ受信機250からE−EDIDを読み出すことで、左眼画像および右眼画像の表示タイミング情報を得るものを示した。また、上述実施の形態においては、テレビ受信機250、AVアンプ300は、受信された立体画像データの垂直ブランキング期間に配置されたAVI InfoFrameパケットを抽出することで、左眼画像データおよび右眼画像データの撮影タイミング情報を得るものを示した。
しかし、各機器がこれらの情報を取得する手段は、これに限定されない。例えば、HDMIケーブルの制御データラインであるCECラインを用いて通信を行うことで、これらの情報を取得してもよい。また、例えば、上述したHDMIケーブルの所定ライン(例えば、リザーブライン、HPDライン)を用いて構成される双方向通信路を用いた通信により、各機器はこれらの情報を取得してもよい。
また、上述実施の形態において、送信装置がディスクプレーヤ210、ゲーム機400であり、中継装置がAVアンプ300であり、受信装置がテレビ受信機250である例を示した。しかし、送信装置、中継装置、受信装置は、これらに限定されるものではない。例えば、送信装置としては、ディスクプレーヤ210、ゲーム機400以外に、DVDレコーダ、セットトップボックス、その他のAVソースであってもよい。また、受信装置としては、テレビ受信機250の他に、プロジェクタ、PC用モニタ、その他のディスプレイであってもよい。
この発明は、ユーザの操作または設定の手間を増やすことなく、動きのある画像での画質改善および視聴者の疲労感の軽減を図ることができ、送信装置から立体画像データを送信し、受信装置側で左眼画像、右眼画像を表示して視聴者に立体画像を提供するAVシステムに適用できる。
200,200A,100B・・・AVシステム、210・・・ディスクプレーヤ、211・・・HDMI端子、212・・・HDMI送信部、214・・・BD/DVDドライブ、217・・・映像処理回路、221・・・CPU、250・・・テレビ受信機、251・・・HDMI端子、252・・・HDMI受信部、254・・・3D信号処理部、262・・・表示パネル、271・・・CPU、300・・・AVアンプ、301a,301b・・・HDMI端子、302a・・・HDMI受信部、302b・・・HDMI送信部、305・・・映像・グラフィック処理回路、313・・・CPU、350,351,352・・・HDMIケーブル、400・・・ゲーム機、401・・・HDMI端子、402・・・HDMI送信部、497・・・コントロールパッド、409・・・DVD/BDドライブ、411・・・CPU、414・・・描画処理部、415・・・VRAM
この発明は、受信装置および情報処理方法に関し、特に、立体画像を表示するための左眼画像データおよび右岸画像データを取り扱う受信装置等に関する。
この発明の概念は、
立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
左眼画像および右眼画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記タイミングが制御された左眼画像データによる左眼画像および上記タイミングが制御された右眼画像データによる右眼画像を表示する表示部を備える
受信装置にある。
立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
左眼画像および右眼画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記タイミングが制御された左眼画像データによる左眼画像および上記タイミングが制御された右眼画像データによる右眼画像を表示する表示部を備える
受信装置にある。
この発明においては、データ処理部により、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データが処理されて左眼画像データおよび右眼画像データが得られる。制御部により、左眼画像および右眼画像の表示タイミングに合うように、データ処理部で得られた左眼画像データおよび右眼画像データのタイミングが制御される。そして、表示部により、このタイミング調整された左眼画像データおよび右眼画像データによる画像が表示される。これにより、立体画像を良好に表示することが可能となる。
Claims (1)
- 立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
上記立体画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記制御部でタイミングが制御された左眼画像データおよび上記右眼画像データによる画像を表示する表示部を備える
受信装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013263257A JP2014131272A (ja) | 2013-12-20 | 2013-12-20 | 受信装置および情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013263257A JP2014131272A (ja) | 2013-12-20 | 2013-12-20 | 受信装置および情報処理方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009112291A Division JP5448558B2 (ja) | 2009-05-01 | 2009-05-01 | 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014131272A true JP2014131272A (ja) | 2014-07-10 |
Family
ID=51409249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013263257A Pending JP2014131272A (ja) | 2013-12-20 | 2013-12-20 | 受信装置および情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014131272A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01171389A (ja) * | 1987-12-25 | 1989-07-06 | Sharp Corp | 映像再生装置 |
JPH0865713A (ja) * | 1994-08-23 | 1996-03-08 | Sanyo Electric Co Ltd | 立体画像信号変換装置 |
JP2008252731A (ja) * | 2007-03-30 | 2008-10-16 | Sanyo Electric Co Ltd | 画像表示装置 |
-
2013
- 2013-12-20 JP JP2013263257A patent/JP2014131272A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01171389A (ja) * | 1987-12-25 | 1989-07-06 | Sharp Corp | 映像再生装置 |
JPH0865713A (ja) * | 1994-08-23 | 1996-03-08 | Sanyo Electric Co Ltd | 立体画像信号変換装置 |
JP2008252731A (ja) * | 2007-03-30 | 2008-10-16 | Sanyo Electric Co Ltd | 画像表示装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5448558B2 (ja) | 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法 | |
JP5469911B2 (ja) | 送信装置および立体画像データの送信方法 | |
TWI432014B (zh) | Transmission device, three-dimensional image data transmission method, receiving device and three-dimensional image data receiving method | |
JP5577476B1 (ja) | 立体画像データ送信方法および立体画像データ送信装置 | |
JP5477499B2 (ja) | 送信装置および立体画像データ送信方法 | |
JP5577477B1 (ja) | 立体画像データ受信方法および立体画像データ受信装置 | |
JP5583297B2 (ja) | 立体画像データ受信方法および立体画像データ受信装置 | |
JP5538604B2 (ja) | 立体画像データ送信方法および立体画像データ送信装置 | |
JP2014131272A (ja) | 受信装置および情報処理方法 | |
JP6304417B2 (ja) | 受信方法および受信装置 | |
JP6098678B2 (ja) | 送信方法および送信装置 | |
JP5583866B2 (ja) | 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法 | |
JP5621944B2 (ja) | 送信装置および送信方法 | |
JP5790859B2 (ja) | 送受信システム | |
JP2014225901A (ja) | 立体画像データ送信方法および立体画像データ送信装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150108 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150707 |