JP3693246B2 - Display device, control method, program, recording medium, and display system - Google Patents
Display device, control method, program, recording medium, and display system Download PDFInfo
- Publication number
- JP3693246B2 JP3693246B2 JP2001399868A JP2001399868A JP3693246B2 JP 3693246 B2 JP3693246 B2 JP 3693246B2 JP 2001399868 A JP2001399868 A JP 2001399868A JP 2001399868 A JP2001399868 A JP 2001399868A JP 3693246 B2 JP3693246 B2 JP 3693246B2
- Authority
- JP
- Japan
- Prior art keywords
- display device
- image data
- command
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Digital Computer Display Output (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、表示装置および制御方法、プログラムおよび記録媒体、並びに表示システムに関し、特に、多数の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することができるようにする表示装置および制御方法、プログラムおよび記録媒体、並びに表示システムに関する。
【0002】
【従来の技術】
例えば、テレビジョン受像機においては、テレビジョン放送信号が受信され、テレビジョン放送番組としての画像が表示されるとともに、その画像に付随する音声が出力される。
【0003】
【発明が解決しようとする課題】
ところで、従来のテレビジョン受像機は、単体で動作することを前提とするものであり、このため、ユーザが、新たに、テレビジョン受像機を購入する場合には、ユーザが所有していたテレビジョン受像機は不要となり、まだ使用可能であっても廃棄されることが多い。
【0004】
従って、多数のテレビジョン受像機を接続した場合に、単体の場合よりも高機能を実現することができれば、使用可能なテレビジョン受像機の廃棄を防止して、資源の有効利用に資することができる。
【0005】
本発明は、このような状況に鑑みてなされたものであり、多数のテレビジョン受像機等の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することができるようにするものである。
【0006】
【課題を解決するための手段】
本発明の表示装置は、他の表示装置が接続されたことを検出する接続検出手段と、接続検出手段において接続が検出された他の表示装置との間で認証を行う認証手段と、認証が成功した場合に、表示装置の機能を変化させる機能変化手段とを備え、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証手段は、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が親または子の表示装置であるかどうかについての認証とを行うことを特徴とする。
【0007】
本発明の制御方法は、他の表示装置が接続されたことを検出する接続検出ステップと、接続検出ステップにおいて接続が検出された他の表示装置との間で認証を行う認証ステップと、認証が成功した場合に、表示装置の機能を変化させる機能変化ステップとを含み、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証ステップは、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含むことを特徴とする。
【0008】
本発明のプログラムは、他の表示装置が接続されたことを検出する接続検出ステップと、接続検出ステップにおいて接続が検出された他の表示装置との間で認証を行う認証ステップと、認証が成功した場合に、表示装置の機能を変化させる機能変化ステップとを含み、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証ステップは、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含むことを特徴とする。
【0009】
本発明の記録媒体のプログラムは、他の表示装置が接続されたことを検出する接続検出ステップと、接続検出ステップにおいて接続が検出された他の表示装置との間で認証を行う認証ステップと、認証が成功した場合に、表示装置の機能を変化させる機能変化ステップとを含み、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証ステップは、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含むことを特徴とする。
【0010】
本発明の表示システムは、親および子の表示装置が、他の表示装置が接続されたことを検出する接続検出手段と、接続検出手段において接続が検出された他の表示装置との間で認証を行う認証手段と、認証が成功した場合に、自身の機能を変化させる機能変化手段とを有し、認証手段は、接続が検出された他の表示装置が正当なものであるかどうかについての認証と、その他の表示装置が親または子の表示装置であるかどうかについての認証とを行うことを特徴とする。
【0011】
本発明の表示装置および制御方法、プログラムおよび記録媒体、並びに表示システムにおいては、他の表示装置が接続されたことが検出され、その検出された他の表示装置との間で認証が行われる。詳細には、その検出された他の表示装置が正当なものであるかどうかについての認証と、その検出された他の表示装置が親または子の表示装置であるかどうかについての認証とが行われる。そして、認証が成功した場合に、機能が変化する。
【0012】
【発明の実施の形態】
図1は、本発明を適用したスケーラブルTV(Television)システム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは問わない)の一実施の形態の構成例を示す斜視図である。
【0013】
図1Aの実施の形態では、スケーラブルTVシステムは、9台のテレビジョン受像機1、並びに211,212,213,221,223,231,232,233で構成されている。また、図1Bの実施の形態では、スケーラブルTVシステムは、25台のテレビジョン受像機1、並びに211,212,213,214,215,221,222,223,224,225,231,232,234,235,241,242,243,244,245,251,252,253,254,255で構成されている。
【0014】
ここで、スケーラブルTVシステムを構成するテレビジョン受像機の数は、9台や25台に限定されるものではない。即ち、スケーラブルTVシステムは、任意の複数台のテレビジョン受像機によって構成することが可能である。また、スケーラブルTVシステムを構成するテレビジョン受像機の配置は、図1に示したように、横×縦が、3×3や5×5に限定されるものではない。即ち、スケーラブルTVシステムを構成するテレビジョン受像機の配置は、その他、例えば、横×縦が、1×2や、2×1、2×3などとすることも可能である。また、スケーラブルTVシステムを構成するテレビジョン受像機の配置形状は、図1に示したように、格子状(マトリクス状)に限定されるものではなく、例えば、ピラミッド状であっても良い。
【0015】
このようにスケーラブルTVシステムは、任意の複数台のテレビジョン受像機を、横と縦それぞれに、任意の台数だけ配置して構成することができることから、「スケーラブル」なシステムであるということができる。
【0016】
スケーラブルTVシステムを構成するテレビジョン受像機には、他のテレビジョン受像機を制御することができる親のテレビジョン受像機(以下、適宜、親機という)と、他のテレビジョン受像機から制御することができるが、他のテレビジョン受像機を制御することができない子のテレビジョン受像機(以下、適宜、子機という)の2種類が存在する。
【0017】
スケーラブルTVシステムが、後述する各種の処理を行うには、スケーラブルTVシステムを構成するテレビジョン受像機が、スケーラブルTVシステムに対応したもの(以下、適宜、スケーラブル対応機という)であり、かつ、そのうちの少なくとも1つが親機であることが条件となっている。このため、図1Aおよび図1Bの実施の形態では、スケーラブルTVシステムを構成するテレビジョン受像機のうち、例えば、中心に配置されるテレビジョン受像機が親機1とされている。
【0018】
以上から、スケーラブルTVシステムを構成するテレビジョン受像機の中に、スケーラブル対応機でないテレビジョン受像機が存在する場合には、そのテレビジョン受像機によっては、スケーラブルTVシステムの機能を享受することができない。さらに、スケーラブルTVシステムを構成するテレビジョン受像機がスケーラブル対応機であっても、そのすべてが子機である場合には、スケーラブルTVシステムの機能を享受することはできない。
【0019】
従って、ユーザは、スケーラブルTVシステムの機能を享受するためには、少なくとも、1台以上の親機、または1台の親機と1台以上の子機を購入する必要がある。
【0020】
なお、親機は、子機の機能も有しており、従って、スケーラブルTVシステムを構成するテレビジョン受像機の中に、複数台の親機が存在していてもかまわない。
【0021】
図1Aの実施の形態では、3×3台のテレビジョン受像機のうち、中心(左から2番目で、上から2番目)に配置されているテレビジョン受像機1が親機となっており、他の8台のテレビジョン受像機211,212,213,221,223,231,232,233が子機になっている。また、図1Bの実施の形態では、5×5台のテレビジョン受像機のうち、中心(左から3番目で、上から3番目)に配置されているテレビジョン受像機1が親機となっており、他の24台の211,212,213,214,215,221,222,223,224,225,231,232,234,235,241,242,243,244,245,251,252,253,254,255が子機になっている。
【0022】
従って、図1の実施の形態では、親機1は、スケーラブルTVシステムを構成するテレビジョン受像機の中心に配置されているが、親機1の位置は、スケーラブルTVシステムを構成するテレビジョン受像機の中心に限定されるものではなく、親機1は、左上や右下その他の任意の位置に配置することが可能である。
【0023】
なお、スケーラブルTVシステムにおいては、親機1がいずれの位置に配置されている場合であっても、その中心に配置されているテレビジョン受像機を親機とみなして、後述する各処理を行うようにすることが可能である。
【0024】
ここで、以下においては、説明を簡単にするため、スケーラブルTVシステムは、図1Aに示したように、3×3台のテレビジョン受像機で構成されるものとし、さらに、親機1は、スケーラブルTVシステムを構成するテレビジョン受像機の中心に配置されるものとする。
【0025】
なお、スケーラブルTVシステムを構成する子機2ijのサフィックスijは、その子機2ijが、スケーラブルTVシステムにおいて、第i列第j行(上からi行目の、左からj列目)に配置されているものであることを表す。
【0026】
また、以下、適宜、子機2ijを特に区別する必要がない限り、子機2と記述する。
【0027】
次に、図2は、親機1であるテレビジョン受像機の構成例を示す斜視図である。
【0028】
親機1は、その表示画面のサイズが、例えば、14インチ(inch)または15インチなどのテレビジョン受像機であり、その正面中央部分に、画像を表示するCRT(Cathod Ray Tube)11が設けられており、また、その正面の左端と右端に、音声を出力するスピーカユニット12Lと12Rがそれぞれ設けられている。
【0029】
そして、図示せぬアンテナで受信されたテレビジョン放送信号における画像が、CRT11で表示され、また、その画像に付随する音声のL(Left)チャンネルとR(Right)チャンネルが、スピーカユニット12Lと12Rから、それぞれ出力される。
【0030】
親機1には、赤外線IR(Infrared Ray)を出射するリモートコマンダ(以下、適宜、リモコンという)15が付随しており、ユーザは、このリモコン15を操作することにより、受信チャンネルや音量の変更、その他各種のコマンドを、親機1に与えることができるようになっている。
【0031】
なお、リモコン15は、赤外線通信を行うものに限定されるものではなく、例えば、BlueTooth(商標)その他の無線通信を行うものを採用することが可能である。
【0032】
また、リモコン15は、親機1のみならず、子機2を制御することも可能である。
【0033】
次に、図3は、図2の親機1の構成例を示す6面図である。
【0034】
図3Aは親機1の正面を、図3Bは親機1の上面を、図3Cは親機1の底面を、図3Dは親機1の左側面を、図3Eは親機1の右側面を、図3Fは親機1の背面を、それぞれ示している。
【0035】
親機1の上面(図3B)、底面(図3C)、左側面(図3D)、および右側面(図3E)には、固定機構が設けられている。後述するように、子機2であるテレビジョン受像機の上面、底面、左側面、および右側面にも、同様の固定機構が設けられており、親機1の上面側、底面側、左側面側、または右側面側に、子機2や他の親機が配置されると、親機1の上面、底面、左側面、または右側面に設けられた固定機構と、子機2や他の親機の対向する面に設けられた固定機構とが、例えば嵌合し、親機1と、子機2や他の親機とが、容易に離れないように固定される。これにより、スケーラブルTVシステムを構成するテレビジョン受像機の位置ずれなどを防止するようになっている。
【0036】
なお、固定機構は、機械的な機構で構成することもできるし、その他、例えば、磁石などによって構成することも可能である。
【0037】
親機1の背面には、図3Fに示すように、端子パネル21、アンテナ端子22、入力端子23、および出力端子24が設けられている。
【0038】
端子パネル21には、親機1と、図1AのスケーラブルTVシステムを構成する8台の子機211,212,213,221,223,231,232,233それぞれとを電気的に接続するための8つのIEEE(Institute of Electrical and Electronics Engineers)1394端子2111,2112,2113,2121,2123,2131,2132,2133が設けられている。
【0039】
ここで、図3Fの実施の形態では、親機1が、図1AのスケーラブルTVシステムでの子機2ijの位置を把握するため、端子パネル21においては、ユーザが、スケーラブルTVシステムを、その背面側から見た場合に、図1AのスケーラブルTVシステムでの子機2ijの位置に対応する位置に、その子機2ijと接続されるIEEE1394端子21ijが設けられている。
【0040】
従って、図1AのスケーラブルTVシステムにおいては、子機211はIEEE1394端子2111を、子機212はIEEE1394端子2112を、子機213はIEEE1394端子2113を、子機221はIEEE1394端子2121を、子機223はIEEE1394端子2123を、子機231はIEEE1394端子2131を、子機232はIEEE1394端子2132を,子機233はIEEE1394端子2133を、それぞれ経由して、親機1と接続するように、ユーザに接続を行ってもらう。
【0041】
なお、図1AのスケーラブルTVシステムにおいて、子機ijを、端子パネル21のどのIEEE1394端子と接続するかは、特に限定されるものではない。但し、子機ijを、IEEE1394端子21ij以外のIEEE1394端子と接続する場合には、その子機ijが、図1AのスケーラブルTVシステムの第i列第j行に配置されているものであることを、親機1に設定する必要がある(ユーザに設定してもらう必要がある)。
【0042】
また、図3Fの実施の形態では、端子パネル21に、8つのIEEE1394端子2111乃至2133を設け、親機1と、8台の子機211乃至233それぞれとを、パラレルに接続するようにしたが、親機1と、8台の子機211乃至233とは、シリアルに接続することも可能である。即ち、子機2ijは、他の子機2i'j'を経由して、親機1と接続することが可能である。但し、この場合も、子機ijが、図1AのスケーラブルTVシステムの第i列第j行に配置されているものであることを、親機1に設定する必要がある。従って、端子パネル21に設けるIEEE1394端子の数は、8つに限定されるものではない。
【0043】
さらに、スケーラブルTVシステムを構成するテレビジョン受像機どうしの電気的な接続は、IEEE1394に限定されるものではなく、その他、例えば、LAN(IEEE802)などを採用することが可能である。また、スケーラブルTVシステムを構成するテレビジョン受像機どうしの電気的な接続は、有線ではなく、無線で行うことも可能である。
【0044】
アンテナ端子22には、図示せぬアンテナに接続されているケーブルが接続され、これにより、アンテナで受信されたテレビジョン放送信号が、親機1に入力される。入力端子23には、例えば、VTR(Video Tape Recoder)等から出力される画像データおよび音声データが入力される。出力端子24からは、例えば、親機1で受信されているテレビジョン放送信号としての画像データおよび音声データが出力される。
【0045】
次に、図4は、子機2であるテレビジョン受像機の構成例を示す斜視図である。
【0046】
子機2は、図2の親機1と同一の表示画面サイズのテレビジョン受像機であり、その正面中央部分に、画像を表示するCRT(Cathod Ray Tube)31が設けられており、また、その正面の左端と右端に、音声を出力するスピーカユニット32Lと32Rがそれぞれ設けられている。なお、親機1と子機2とでは、異なる表示画面サイズを採用することも可能である。
【0047】
そして、図示せぬアンテナで受信されたテレビジョン放送信号における画像が、CRT31で表示され、また、その画像に付随する音声のL(Left)チャンネルとR(Right)チャンネルが、スピーカユニット32Lと32Rから、それぞれ出力される。
【0048】
子機2にも、親機1と同様に、赤外線IRを出射するリモコン35が付随しており、ユーザは、このリモコン35を操作することにより、受信チャンネルや音量の変更、その他各種のコマンドを、子機2に与えることができるようになっている。
【0049】
なお、リモコン35は、子機2のみならず、親機1の制御も行うことができるようになっている。
【0050】
また、図1AのスケーラブルTVシステムを構成するには、ユーザは、1台の親機1と、8台の子機211乃至233を購入する必要があるが、この場合に、親機1にリモコン15が付随し、8台の子機211乃至233それぞれにリモコン35が付随するのでは、ユーザは、9台のリモコンを所有することとなり、その管理が煩雑になる。
【0051】
そこで、子機2のリモコン35は、子機2のオプションとして、別売りにすることが可能である。また、親機1のリモコン15も、親機1のオプションとして、別売りにすることが可能である。
【0052】
ここで、上述したように、リモコン15と35は、親機1および子機2のいずれも制御することが可能であり、従って、リモコン15または35のうちのいずれか一方しか所有していなくても、親機1および子機2のすべてを制御することが可能である。
【0053】
次に、図5は、図4の子機2の構成例を示す6面図である。
【0054】
図5Aは子機2の正面を、図5Bは子機2の上面を、図5Cは子機2の底面を、図5Dは子機2の左側面を、図5Eは子機2の右側面を、図5Fは子機2の背面を、それぞれ示している。
【0055】
子機2の上面(図5B)、底面(図5C)、左側面(図5D)、および右側面(図5E)には、固定機構が設けられており、子機2の上面側、底面側、左側面側、または右側面側に、親機1や他の子機が配置されると、子機2の上面、底面、左側面、または右側面に設けられた固定機構と、親機1や他の子機の対向する面に設けられた固定機構とが嵌合し、子機2と、他の子機や親機1とが、容易に離れないように固定される。
【0056】
子機2の背面には、図5Fに示すように、端子パネル41、アンテナ端子42、入力端子43、および出力端子44が設けられている。
【0057】
端子パネル41には、親機1と子機2とを電気的に接続するための1つのIEEE1394端子411が設けられている。子機2が、図1AのスケーラブルTVシステムにおける、例えば左上に配置される子機211である場合には、端子パネル41のIEEE1394端子411は、図示せぬIEEE1394ケーブルを介して、図3Fにおける端子パネル21のIEEE1394端子2111と接続される。
【0058】
なお、端子パネル41に設けるIEEE1394端子の数は、1つに限定されるものではない。
【0059】
アンテナ端子42には、図示せぬアンテナに接続されているケーブルが接続され、これにより、アンテナで受信されたテレビジョン放送信号が、子機2に入力される。入力端子43には、例えば、VTR等から出力される画像データおよび音声データが入力される。出力端子44からは、例えば、子機2で受信されているテレビジョン放送信号としての画像データおよび音声データが出力される。
【0060】
以上のように構成される1台の親機1と8台の子機211乃至233の合計9台のテレビジョン受像機が、横方向と縦方向に、それぞれ3台ずつ配置されることにより、図1AのスケーラブルTVシステムが構成される。
【0061】
なお、図1AのスケーラブルTVシステムは、親機または子機としてのテレビジョン受像機の上、下、左、または右に、他のテレビジョン受像機を直接配置して構成する他、例えば、図6に示すスケーラブルTVシステム専用のラックに、テレビジョン受像機を配置して構成することも可能である。このように専用のラックを使用する場合には、スケーラブルTVシステムを構成するテレビジョン受像機の位置ずれなどを、より強固に防止することができる。
【0062】
ここで、親機または子機としてのテレビジョン受像機の上、下、左、または右に、他のテレビジョン受像機を直接配置することによりスケーラブルTVシステムを構成する場合には、例えば、親機1は、少なくとも、子機232が存在しないと、図1Aに示したように、第2行第2列に配置することができない。これに対して、図6のスケーラブルTVシステム専用のラックを用いる場合には、子機232が存在しなくても、親機1を、第2行第2列に配置することができる。
【0063】
次に、図7は、リモコン15の構成例を示す平面図である。
【0064】
セレクトボタンスイッチ51は、上下左右方向の4つの方向の他、その中間の4つの斜め方向の合計8個の方向に操作(方向操作)することができる。さらに、セレクトボタンスイッチ51は、リモコン15の上面に対して垂直方向にも押下操作(セレクト操作)することができる。メニューボタンスイッチ54は、親機1のCRT11(または子機2のCRT31)に、各種の設定(例えば、上述した、子機ijが、スケーラブルTVシステムの第i列第j行に配置されているものであることの設定)や、所定の処理を行うことを指令するコマンドの入力を行うためのメニュー画面を表示させるときに操作される。
【0065】
ここで、メニュー画面が表示された場合には、そのメニュー画面における項目等を指示するカーソルが、CRT11に表示される。このカーソルは、セレクトボタンスイッチ51を方向操作することで、その操作に対応する方向に移動する。また、カーソルが、所定の項目上の位置にあるときに、セレクトボタンスイッチ51がセレクト操作されると、その項目の選択が確定される。なお、本実施の形態では、後述するように、メニューに表示される項目の中にアイコンがあり、セレクトボタンスイッチ51は、アイコンをクリックするときも、セレクト操作される。
【0066】
イグジットボタンスイッチ55は、メニュー画面から元の通常の画面に戻る場合などに操作される。
【0067】
ボリウムボタンスイッチ52は、ボリウムをアップまたはダウンさせるときに操作される。チャンネルアップダウンボタンスイッチ53は、受信する放送チャンネルの番号を、アップまたはダウンするときに操作される。
【0068】
0乃至9の数字が表示されている数字ボタン(テンキー)スイッチ58は、表示されている数字を入力するときに操作される。エンタボタンスイッチ57は、数字ボタンスイッチ58の操作が完了したとき、数字入力終了の意味で、それに続いて操作される。なお、チャンネルを切り換えたときは、親機1のCRT11(もしくは子機2のCRT31)に、新たなチャンネルの番号などが、所定の時間、OSD(On Screen Display)表示される。ディスプレイボタン56は、現在選択しているチャンネルの番号や、現在の音量等のOSD表示のオン/オフを切り換えるときに操作される。
【0069】
テレビ/ビデオ切換ボタンスイッチ59は、親機1(もしくは子機2)の入力を、後述する図10の内蔵するチューナ121(もしくは後述する図11のチューナ141)、または図3の入力端子23(もしくは図5の入力端子43)からの入力に切り換えるときに操作される。テレビ/DSS切換ボタンスイッチ60は、チューナ121において地上波による放送を受信するテレビモード、または衛星放送を受信するDSS(Digital Satellite System(Hughes Communications社の商標))モードを選択するときに操作される。数字ボタンスイッチ58を操作してチャンネルを切り換えると、切り換え前のチャンネルが記憶され、ジャンプボタンスイッチ61は、この切り換え前の元のチャンネルに戻るときに操作される。
【0070】
ランゲージボタン62は、2カ国語以上の言語により放送が行われている場合において、所定の言語を選択するときに操作される。ガイドボタンスイッチ63は、CRT11に表示されている画像データに、クローズドキャプションデータが含まれる場合に、そのクローズドキャプションデータを表示させるときに操作される。フェイバリッドボタンスイッチ64は、あらかじめ設定されたユーザの好みのチャンネルを選択する場合に操作される。
【0071】
ケーブルボタンスイッチ65、テレビスイッチ66、およびDSSボタンスイッチ67は、リモコン15から出射される赤外線に対応するコマンドコードの機器カテゴリを切り換えるためのボタンスイッチである。即ち、リモコン15は(リモコン35も同様)、親機1や子機2としてのテレビジョン受像機の他、図示せぬSTBやIRDを遠隔制御することができるようになっており、ケーブルボタンスイッチ65は、CATV網を介して伝送されてくる信号を受信するSTB(Set Top Box)を、リモコン15によって制御する場合に操作される。ケーブルボタンスイッチ65の操作後は、リモコン15からは、STBに割り当てられた機器カテゴリのコマンドコードに対応する赤外線が出射される。同様に、テレビボタンスイッチ66は、親機1(または子機1)を、リモコン15によって制御する場合に操作される。DSSボタンスイッチ67は、衛星を介して伝送されている信号を受信するIRD(Integrated Receiver and Decorder)を、リモコン15によって制御する場合に操作される。
【0072】
LED(Light Emitting Diode)68,69,70は、それぞれケーブルボタンスイッチ65、テレビボタンスイッチ66、またはDSSボタンスイッチ67がオンにされたとき点灯し、これにより、リモコン15が、現在、どのカテゴリの装置の制御が可能になっているのかが、ユーザに示される。なお、LED68,69,70は、それぞれケーブルボタンスイッチ65、テレビボタンスイッチ66、またはDSSボタンスイッチ67がオフにされたときは消灯する。
【0073】
ケーブル電源ボタンスイッチ71、テレビ電源ボタンスイッチ72、DSS電源ボタンスイッチ73は、STB、親機1(もしくは子機2)、またはIRDの電源をオン/オフするときに操作される。
【0074】
ミューティングボタンスイッチ74は、親機1(または子機2)のミューティング状態を設定または解除するときに操作される。スリープボタンスイッチ75は、所定の時刻になった場合、または所定の時間が経過した場合に、自動的に電源をオフするスリープモードを設定または解除するときに操作される。
【0075】
発光部76は、リモコン15が操作された場合に、その操作に対応する赤外線を出射するようになっている。
【0076】
次に、図8は、子機2のリモコン35の構成例を示す平面図である。
【0077】
リモコン35は、図7のリモコン15におけるセレクトボタンスイッチ51乃至発光部76とそれぞれ同様に構成されるセレクトボタンスイッチ81乃至発光部106から構成されるため、その説明は省略する。
【0078】
次に、図9は、親機1のリモコン15の他の構成例を示す平面図である。
【0079】
図9の実施の形態では、図7における8方向に操作可能なセレクトボタンスイッチ51に代えて、上下左右の4方向の方向ボタンスイッチ111,112,113,114と、セレクト操作を行うためのボタンスイッチ110が設けられている。さらに、図9の実施の形態では、ケーブルボタンスイッチ65、テレビボタンスイッチ66、およびDSSボタンスイッチ67が内照式とされ、図7におけるLED68乃至70が省略されている。但し、ボタンスイッチ65乃至67の裏側には、図示せぬLEDが配置されており、ボタンスイッチ65乃至67が操作されると、その操作に対応して、その裏側に配置されているLEDがそれぞれ点灯または消灯するようになっている。
【0080】
その他のボタンスイッチは、その配置位置は異なるものの、基本的には図7に示した場合と同様である。
【0081】
なお、子機2のリモコン35も、図9における場合と同様に構成することが可能である。
【0082】
また、リモコン15には、その移動を検出するジャイロを内蔵させるようにすることができる。この場合、リモコン15では、その内蔵するジャイロによって、リモコン15の移動方向と移動量を検出し、メニュー画面において表示されるカーソルを、その移動方向と移動量に対応して移動させるようにすることが可能である。このように、リモコン15にジャイロを内蔵させる場合には、図7の実施の形態では、セレクトボタンスイッチ51を8方向に移動することができるように構成する必要がなくなり、また、図9の実施の形態では、方向ボタンスイッチ111乃至114を設ける必要がなくなる。同様に、リモコン35にも、ジャイロを内蔵させるようにすることが可能である。
【0083】
次に、図10は、親機1の電気的構成例を示している。
【0084】
図示せぬアンテナで受信されたテレビジョン放送信号は、チューナ121に供給され、CPU129の制御の下、検波、復調される。チューナ121の出力は、QPSK(Quadrature Phase Shift Keying)復調回路122に供給され、CPU129の制御の下、QPSK復調される。QPSK復調回路122の出力は、エラー訂正回路123に供給され、CPU129の制御の下、エラーが検出、訂正され、デマルチプレクサ124に供給される。
【0085】
デマルチプレクサ124は、CPU129の制御の下、エラー訂正回路123の出力を、必要に応じてデスクランブルし、さらに、所定のチャンネルのTS(Transport Stream)パケットを抽出する。そして、デマルチプレクサ124は、画像データ(ビデオデータ)のTSパケットを、MPEG(Moving Picture Experts Group)ビデオデコーダ125に供給するととともに、音声データ(オーディオデータ)のTSパケットを、MPEGオーディオデコーダ126に供給する。また、デマルチプレクサ124は、エラー訂正回路123の出力に含まれるTSパケットを、必要に応じて、CPU129に供給する。さらに、デマルチプレクサ124は、CPU129から供給される画像データまたは音声データ(TSパケットの形にされているものを含む)を受信し、MPEGビデオデコーダ125またはMPEGオーディオデコーダ126に供給する。
【0086】
MPEGビデオデコーダ125は、デマルチプレクサ124から供給される画像データのTSパケットを、MPEGデコードし、フレームメモリ127に供給する。MPEGオーディオデコーダ126は、デマルチプレクサ124から供給される音声データのTSパケットを、MPEGデコードする。MPEGオーディオデコーダ126でのデコードにより得られるLチャンネルとRチャンネルの音声データは、スピーカユニット12Lと12Rに、それぞれ供給される。
【0087】
フレームメモリ127は、MPEGビデオデコーダ125が出力する画像データを、一時記憶し、NTSC(National Television System Committee)エンコーダ128に供給する。NTSCエンコーダ128は、フレームメモリ127から供給される画像データをNTSC方式の画像データに変換し、CRT11に供給して表示させる。
【0088】
CPU129は、EEPROM(Electrically Erasable Programable Read Only Memory)130や、ROM(Read Only Memory)131に記憶されているプログラムにしたがって各種の処理を実行し、これにより、例えば、チューナ121、QPSK復調回路122、エラー訂正回路123、デマルチプレクサ124、IEEE1394インタフェース133、モデム136、信号処理部137、およびユニット駆動部138を制御する。また、CPU129は、デマルチプレクサ124から供給されるデータを、IEEE1394インタフェース133に供給し、IEEE1394インタフェース133から供給されるデータを、デマルチプレクサ124や信号処理部137に供給する。さらに、CPU129は、フロントパネル134やIR受信部135から供給されるコマンドに対応した処理を実行する。また、CPU129は、モデム136を制御することにより、電話回線を通じて、図示せぬサーバにアクセスし、バージョンアップされたプログラムや必要なデータを取得する。
【0089】
EEPROM130は、電源オフ後も保持しておきたいデータやプログラムを記憶する。ROM131は、例えば、IPL(Initial Program Loader)のプログラムを記憶している。なお、EEPROM130に記憶されたデータやプログラムは、そこに上書きすることで、バージョンアップすることができる。
【0090】
RAM132は、CPU129の動作上必要なデータやプログラムを一時記憶する。
【0091】
IEEE1394インタフェース133は、端子パネル21(のIEEE1394端子2111乃至2133(図3))に接続されており、IEEE1394の規格に準拠した通信を行うためのインタフェースとして機能する。これにより、IEEE1394インタフェース133は、CPU129から供給されるデータを、IEEE1394の規格に準拠して、外部に送信する一方、外部からIEEE1394の規格に準拠して送信されてくるデータを受信し、CPU129に供給する。
【0092】
フロントパネル134は、図2および図3では図示していないが、親機1の正面の一部に設けられている。そして、フロントパネル134は、リモコン15(図7、図9)に設けられたボタンスイッチの一部を有しており、フロントパネル134のボタンスイッチが操作された場合には、その操作に対応する操作信号が、CPU129に供給される。この場合、CPU129は、フロントパネル134からの操作信号に対応した処理を行う。
【0093】
IR受信部135は、リモコン15の操作に対応して、リモコン15から送信されてくる赤外線を受信(受光)する。さらに、IR受信部135は、その受信した赤外線を光電変換し、その結果得られる信号を、CPU129に供給する。この場合、CPU129は、IR受信部135からの信号に対応した処理、即ち、リモコン15の操作に対応した処理を行う。
【0094】
モデム136は、電話回線を介しての通信制御を行い、これにより、CPU129から供給されるデータを、電話回線を介して送信するとともに、電話回線を介して送信されてくるデータを受信し、CPU129に供給する。
【0095】
信号処理部137は、DSP(Digital Signal Processor)137A,EEPROM137B,RAM137Cなどで構成されており、CPU129の制御の下、フレームメモリ127に記憶された画像データなどに対して、各種のディジタル信号処理を施す。
【0096】
即ち、DSP137Aは、EEPROM137Bに記憶されたプログラムにしたがい、必要に応じて、EEPROM137Bに記憶されたデータを用いて、各種の信号処理を行う。EEPROM137Bは、DSP137Aが各種の処理を行うためのプログラムや必要なデータを記憶している。RAM137Cは、DSP137Aが各種の処理を行う上で必要なデータやプログラムを一時記憶する。
【0097】
なお、EEPROM137Bに記憶されたデータやプログラムは、そこに上書きすることで、バージョンアップすることができる。
【0098】
ここで、信号処理部137が行う信号処理としては、例えば、クローズドキャプションデータのデコードや、フレームメモリ127に記憶された画像データへのクローズドキャプションデータの重畳、フレームメモリ127に記憶された画像データの拡大、ノイズ除去などがある。また、信号処理部137は、その他、OSD表示するOSDデータを生成し、フレームメモリ127に記憶された画像データに重畳する。
【0099】
ユニット駆動部138は、CPU129の制御にしたがい、スピーカユニット12Lおよび12Rを駆動し、これにより、スピーカユニット12Lおよび12Rを構成するスピーカの指向性の主軸の方向を、所定の方向に向けさせる。
【0100】
以上のように構成される親機1では、次のようにして、テレビジョン放送番組としての画像と音声が出力される(画像が表示され、音声が出力される)。
【0101】
即ち、アンテナで受信されたテレビジョン放送信号としてのトランスポートストリームが、チューナ121,QPSK復調回路122、およびエラー訂正回路123を介して、デマルチプレクサ124に供給される。デマルチプレクサ124は、トランスポートストリームから、所定の番組のTSパケットを抽出し、画像データのTSパケットを、MPEGビデオデコーダ125に供給するとともに、音声データのTSパケットを、MPEGオーディオデコーダ126に供給する。
【0102】
MPEGビデオデータコーダ125では、デマルチプレクサ124からのTSパケットがMPEGデコードされる。そして、その結果られる画像データが、MPEGビデオデコーダ125から、フレームメモリ127およびNTSCエンコーダ128を経由して、CRT11に供給されて表示される。
【0103】
一方、MPEGオーディオデコーダ126では、デマルチプレクサ124からのTSパケットがMPEGデコードされる。そして、その結果られる音声データが、MPEGオーディオデコーダ126から、スピーカユニット12Lおよび12Rに供給されて出力される。
【0104】
次に、図11は、子機2の電気的構成例を示している。
【0105】
子機2は、図10のチューナ121乃至ユニット駆動部138とそれぞれ同様に構成されるチューナ141乃至ユニット駆動部158から構成されるため、その説明は省略する。
【0106】
なお、親機1と子機2は、図3Fと図5Fに示したように、それぞれ独立して、アンテナ端子22と42を有するので、図1のスケーラブルTVシステムを構成するテレビジョン受像機としての親機1と子機2には、それぞれに、アンテナ(からのケーブル)を接続することが可能である。しかしながら、親機1と子機2それぞれに、アンテナを接続する場合には、配線が煩雑になるおそれがある。そこで、スケーラブルTVシステムにおいては、そのスケーラブルTVシステムを構成するテレビジョン受像機のうちのいずれか1つにアンテナを接続し、そのテレビジョン受像機で受信されたテレビジョン放送信号を、例えば、IEEE1394通信によって、他のテレビジョン受像機に分配するようにすることが可能である。
【0107】
次に、本実施の形態では、親機1の端子パネル21のIEEE1394端子21ij(図3)と、子機2ijの端子パネル41のIEEE1394端子411(図5)とが、IEEE1394ケーブルによって接続されることにより、親機1と子機2とが、電気的に接続され、これにより、親機1と子機2との間で、IEEE1394通信(IEEE1394の規格に準拠した通信)が行われ、各種のデータ等がやりとりされる。
【0108】
そこで、図12乃至図21を参照して、IEEE1394通信について説明する。
【0109】
IEEE1394は、シリアルバス規格の1つであり、IEEE1394通信は、データのアイソクロナス(isochronous)転送を行うことができることから、画像や音声といったリアルタイムで再生する必要のあるデータの転送に適している。
【0110】
即ち、IEEE1394インタフェースを有する機器(IEEE1394機器)どうしの間では、125μs(マイクロ秒)周期で、最大で、100μsの伝送帯域(時間ではあるが、帯域と呼ばれる)を使用して、データのアイソクロナス転送を行うことができる。また、上述の伝送帯域の範囲内であれば、複数チャンネルで、アイソクロナス転送を行うことができる。
【0111】
図12は、IEEE1394通信プロトコルのレイヤ構造を示している。
【0112】
IEEE1394プロトコルは、トランザクション層(Transaction Layer)、リンク層(Link Layer)、および物理層(Physical Layer)の3層の階層構造を有する。各階層は、相互に通信し、また、それぞれの階層は、シリアルバス管理(Serial Bus Management)と通信を行う。さらに、トランザクション層およびリンク層は、上位のアプリケーションとの通信も行う。この通信に用いられる送受信メッセージは、要求(Request)、指示(表示)(Indication)、応答(Response)、確認(Confirmation)の4種類があり、図12における矢印は、この通信を示している。
【0113】
なお、矢印の名称の最後に".req"がついた通信は要求を表し、".ind"は指示を表す。また、".resp"は応答を、".conf"は確認をそれぞれ表す。例えば、TR_CONT.reqは、シリアルバス管理から、トランザクション層に送られる、要求の通信である。
【0114】
トランザクション層は、アプリケーションからの要求により、他のIEEE1394機器(IEEE1394インタフェースを有する機器)とデータ通信を行う為のアシンクロナス(asynchronous)伝送サービスを提供し、ISO/IEC13213で必要とされるリクエストレスポンスプロトコル(Request Response Protocol)を実現する。即ち、IEEE1394規格によるデータ転送方式としては、上述したアイソクロナス伝送の他、アシンクロナス伝送があり、トランザクション層は、アシンクロナス伝送の処理を行う。アシンクロナス伝送で伝送されるデータは、トランザクション層のプロトコルに要求する処理の単位であるリードトランザクション(read Transaction)、ライトトランザクション(write Transaction)、ロックトランザクション(lock Transaction)の3種類のトランザクションによって、IEEE1394機器間で伝送される。
【0115】
リンク層は、アクノリッジ(Acknowledge)を用いたデータ伝送サービス、アドレス処理、データエラー確認、データのフレーミング等の処理を行う。リンク層が行う1つのパケット伝送はサブアクションと呼ばれ、サブアクションには、アシンクロナスサブアクション(Asynchronous Subaction)およびアイソクロナスサブアクション(Isochronous Subaction)の2種類がある。
【0116】
アシンクロナスサブアクションは、ノード(IEEE1394においてアクセスできる単位)を特定する物理ID(Physical Identification)、およびノード内のアドレスを指定して行われ、データを受信したノードは、アクノリッジを返送する。但し、IEEE1394シリアルバス内の全てのノードにデータを送るアシンクロナスブロードキャストサブアクションでは、データを受信したノードは、アクノリッジを返送しない。
【0117】
一方、アイソクロナスサブアクションでは、データが、一定周期(前述したように、125μs)で、チャンネル番号を指定して伝送される。なお、アイソクロナスサブアクションでは、アクノリッジは返送されない。
【0118】
物理層は、リンク層で用いる論理シンボルを電気信号に変換する。さらに、物理層は、リンク層からのアービトレーション(IEEE1394通信を行うノードが競合したときの調停)の要求に対する処理を行ったり、バスリセットに伴うIEEE1394シリアルバスの再コンフィグレーションを実行し、物理IDの自動割り当てを行ったりする。
【0119】
シリアスバス管理では、基本的なバス制御機能の実現とISO/IEC13212のCSR(Control&Status Register Architecture)が提供される。シリアスバス管理は、ノードコントローラ(Node Controllor)、アイソクロナスリソースマネージャ(Isochronous Resource Manager)、およびバスマネージャ(Bus Manager)の機能を有する。ノードコントローラは、ノードの状態、物理ID等を制御するとともに、トランザクション層、リンク層、および物理層を制御する。アイソクロナスリソースマネージャは、アイソクロナス通信に用いられるリソースの利用状況を提供するもので、アイソクロナス通信を行うためには、IEEE1394シリアルバスに接続された機器の中に少なくとも1つ、アイソクロナスリソースマネージャの機能を有するIEEE1394機器が必要である。バスマネージャは、各機能の中では、最も高機能であり、IEEE1394シリアルバスの最適利用を図ることを目的とする。なお、アイソクロナスリソースマネージャとバスマネージャの存在は、任意である。
【0120】
IEEE1394機器どうしは、ノード分岐とノードディジーチェインのいずれの接続も可能であるが、IEEE1394機器が新たに接続されたりすると、バスリセットが行われ、ツリー識別や、ルートノード、物理ID、アイソクロナスリソースマネージャ、サイクルマスタ、バスマネージャの決定等が行われる。
【0121】
ここで、ツリー識別においては、IEEE1394機器としてのノード間の親子関係が決定される。また、ルートノードは、アービトレーションによってIEEE1394シリアルバスを使用する権利を獲得したノードの指定等を行う。物理IDは、self-IDパケットと呼ばれるパケットが、各ノードに転送されることにより決定される。なお、self-IDパケットには、ノードのデータ転送レートや、ノードがアイソクロナスリソースマネージャになれるかどうかといった情報が含まれる。
【0122】
アイソクロナスリソースマネージャは、上述したように、アイソクロナス通信に用いられるリソースの利用状況を提供するノードで、後述する帯域幅レジスタ(BANDWIDTH_AVAILABLEレジスタ)や、チャンネル番号レジスタ(CHANNELS_AVAILABLEレジスタ)を有する。さらに、アイソクロナスリソースマネージャは、バスマネージャとなるノードの物理IDを示すレジスタも有する。なお、IEEE1394シリアルバスで接続されたIEEE1394機器としてのノードの中に、バスマネージャが存在しない場合には、アイソクロナスリソースマネージャが、簡易的なバスマネージャとして機能する。
【0123】
サイクルマスタは、アイソクロナス伝送の周期である125μsごとに、IEEE1394シリアルバス上に、サイクルスタートパケットを送信する。このため、サイクルマスタは、その周期(125μs)をカウントするためのサイクルタイムレジスタ(CYCLE_TIMEレジスタ)を有する。なお、ルートノードがサイクルマスタになるが、ルートノードがサイクルマスタとしての機能を有していない場合には、バスマネージャがルートノードを変更する。
【0124】
バスマネージャは、IEEE1394シリアルバス上における電力の管理や、上述したルートノードの変更等を行う。
【0125】
バスリセット後に、上述したようなアイソクロナスリソースマネージャの決定等が行われると、IEEE1394シリアルバスを介してのデータ伝送が可能な状態となる。
【0126】
IEEE1394のデータ伝送方式の1つであるアイソクロナス伝送では、伝送帯域および伝送チャンネルが確保され、その後、データが配置されたパケット(アイソクロナスパケット)が伝送される。
【0127】
即ち、アイソクロナス伝送では、サイクルマスタが125μs周期でサイクルスタートパケットを、IEEE1394シリアルバス上にブロードキャストする。サイクルスタートパケットがブロードキャストされると、アイソクロナスパケットの伝送を行うことが可能な状態となる。
【0128】
アイソクロナス伝送を行うには、アイソクロナスリソースマネージャの提供する伝送帯域確保用の帯域幅レジスタと、チャンネル確保用のチャンネル番号レジスタを書き換えて、アイソクロナス伝送のための資源の確保を宣言する必要がある。
【0129】
ここで、帯域幅レジスタおよびチャンネル番号レジスタは、ISO/IEC13213で規定されている64ビットのアドレス空間を有する、後述するCSR(Control&Status Register)の1つとして割り当てられる。
【0130】
帯域幅レジスタは、32ビットのレジスタで、上位19ビットは予約領域とされており、下位13ビットが、現在使用することが可能な伝送帯域(bw_remaining)を表す。
【0131】
即ち、帯域幅レジスタの初期値は、00000000000000000001001100110011B(Bは、その前の値が2進数であることを表す)(=4915)となっている。これは、次のような理由による。即ち、IEEE1394では、1572.864Mbps(bit per second)で、32ビットの伝送に要する時間が、1として定義されており、上述の125μsは、00000000000000000001100000000000B(=6144)に相当する。しかしながら、IEEE1394では、アイソクロナス伝送に使用することのできる伝送帯域は、1周期である125μsのうちの80%であることが定められている。従って、アイソクロナス伝送で使用可能な最大の伝送帯域は、100μsであり、100μsは、上述のように、00000000000000000001001100110011B(=4915)となる。
【0132】
なお、125μsから、アイソクロナス伝送で使用される最大の伝送帯域である100μsを除いた残りの25μsの伝送帯域は、アシンクロナス伝送で使用される。アシンクロナス伝送は、帯域幅レジスタやチャンネル番号レジスタの記憶値を読み出すとき等に用いられる。
【0133】
アイソクロナス伝送を開始するためには、そのための伝送帯域を確保する必要がある。即ち、例えば、1周期である125μsのうちの、10μsの伝送帯域を使用してアイソクロナス伝送を行う場合には、その10μsの伝送帯域を確保する必要がある。この伝送帯域の確保は、帯域幅レジスタの値を書き換えることで行われる。即ち、上述のように、10μsの伝送帯域を確保する場合には、その10μsに相当する値である492を、帯域幅レジスタの値から減算し、その減算値を、帯域幅レジスタにセットする。従って、例えば、いま、帯域幅レジスタの値が4915になっていた場合(アイソクロナス伝送が、まったく行われていない場合)に、10μsの伝送帯域を確保するときには、帯域幅レジスタの値が、上述の4915から、その4915から10μsに相当する492を減算した4423(=00000000000000000001000101000111B)に書き換えられる。
【0134】
なお、帯域幅レジスタの値から、確保(使用)しようとする伝送帯域を減算した値が0よりも小さくなる場合は、伝送帯域を確保することができず、従って、帯域幅レジスタの値は書き換えられないし、さらに、アイソクロナス伝送を行うこともできない。
【0135】
アイソクロナス伝送を行うには、上述したような伝送帯域の確保を行う他、伝送チャンネルも確保しなければならない。この伝送チャンネルの確保は、チャンネル番号レジスタを書き換えることで行われる。
【0136】
チャンネル番号レジスタは、64ビットのレジスタで、各ビットが、各チャンネルに対応している。即ち、第nビット(最下位ビットからn番目のビット)は、その値が1であるときは、第n−1チャンネルが未使用状態であることを表し、0であるときは、第n−1チャンネルが使用状態であることを表す。従って、どのチャンネルも使用されていない場合には、チャンネル番号レジスタは、1111111111111111111111111111111111111111111111111111111111111111Bとなっており、例えば、第1チャンネルが確保されると、チャンネル番号レジスタは、1111111111111111111111111111111111111111111111111111111111111101Bに書き換えられる。
【0137】
なお、チャンネル番号レジスタは、上述のように64ビットであるから、アイソクロナス伝送では、最大で、第0乃至第63チャンネルの64チャンネルの確保が可能であるが、第63チャンネルは、アイソクロナスパケットをブロードキャストする場合に用いられる。
【0138】
以上のように、アイソクロナス伝送は、伝送帯域および伝送チャンネルの確保を行った上で行われるから、伝送レートを保証したデータ伝送を行うことができ、上述したように、画像や音声といったリアルタイムで再生する必要のあるデータ伝送に特に適している。
【0139】
次に、IEEE1394通信は、上述したように、ISO/IEC13213で規定された64ビットのアドレス空間を有するCSRアーキテクチャに準拠している。
【0140】
図13は、CSRアーキテクチャのアドレス空間を示している。
【0141】
CSRの上位16ビットは、各ノードを示すノードIDであり、残りの48ビットは、各ノードに与えられたアドレス空間の指定に使われる。この上位16ビットは、さらにバスIDの10ビットと物理ID(狭義のノードID)の6ビットに分かれる。すべてのビットが1となる値は、特別な目的で使用されるため、1023個のバスと63個のノードを指定することができる。
【0142】
CSRの下位48ビットにて規定される256テラバイトのアドレス空間のうちの上位20ビットで規定される空間は、2048バイトのCSR特有のレジスタやIEEE1394特有のレジスタ等に使用されるイニシャルレジスタスペース(Initial Register Space)、プライベートスペース(Private Space)、およびイニシャルメモリスペース(Initial Memory Space)などに分割され、下位28ビットで規定される空間は、その上位20ビットで規定される空間が、イニシャルレジスタスペースである場合、コンフィギレーションROM(Configuration ROM)、ノード特有の用途に使用されるイニシャルユニットスペース(Initial Unit Space)、プラグコントロールレジスタ(Plug Control Register(PCRs))などとして用いられる。
【0143】
ここで、図14は、主要なCSRのオフセットアドレス、名前、および働きを示している。
【0144】
図14において、「オフセット」の欄は、イニシャルレジスタスペースが始まるFFFFF0000000h(hは、その前の値が16進数であることを表す)番地からのオフセットアドレスを示している。オフセット220hを有する帯域幅レジスタは、上述したように、アイソクロナス通信に割り当て可能な帯域を示しており、アイソクロナスリソースマネージャとして動作しているノードの値だけが有効とされる。即ち、図13のCSRは、各ノードが有しているが、帯域幅レジスタについては、アイソクロナスリソースマネージャのものだけが有効とされる。従って、帯域幅レジスタは、実質的に、アイソクロナスリソースマネージャだけが有する。
【0145】
オフセット224h乃至228hのチャンネル番号レジスタは、上述したように、その各ビットが0乃至63番のチャンネル番号のそれぞれに対応し、ビットが0である場合には、そのチャンネルが既に割り当てられていることを示している。チャンネル番号レジスタも、アイソクロナスリソースマネージャとして動作しているノードのもののみが有効である。
【0146】
図13に戻り、イニシャルレジスタスペース内のアドレス400h乃至800hに、ゼネラルROMフォーマットに基づいたコンフィギレーションROMが配置される。
【0147】
ここで、図15は、ゼネラルROMフォーマットを示している。
【0148】
IEEE1394上のアクセスの単位であるノードは、ノードの中にアドレス空間を共通に使用しつつ独立して動作をするユニットを複数個有することができる。ユニットディレクトリ(unit directories)は、このユニットに対するソフトウェアのバージョンや位置を示すことができる。バスインフォブロック(bus info block)とルートディレクトリ(root directory)の位置は固定されているが、その他のブロックの位置はオフセットアドレスによって指定される。
【0149】
ここで、図16は、バスインフォブロック、ルートディレクトリ、およびユニットディレクトリの詳細を示している。
【0150】
バスインフォブロック内のCompany IDには、機器の製造者を示すID番号が格納される。Chip IDには、その機器固有の、他の機器と重複のない世界で唯一のIDが記憶される。また、IEC1833の規格により、IEC1883を満たした機器のユニットディレクトリのユニットスペックID(unit spec id)の、ファーストオクテットには00hが、セカンドオクテットにはA0hが、サードオクテットには2Dhが、それぞれ書き込まれる。さらに、ユニットスイッチバージョン(unit sw version)のファーストオクテットには、01hが、サードオクテットのLSB(Least Significant Bit)には、1が書き込まれる。
【0151】
ノードは、図13のイニシャルレジスタスペース内のアドレス900h乃至9FFhに、IEC1883に規定されるPCR(Plug Control Register)を有する。これは、アナログインタフェースに類似した信号経路を論理的に形成するために、プラグという概念を実体化したものである。
【0152】
ここで、図17は、PCRの構成を示している。
【0153】
PCRは、出力プラグを表すoPCR(output Plug Control Resister)と、入力プラグを表すiPCR(input Plug Control Register)を有する。また、PCRは、各機器固有の出力プラグまたは入力プラグの情報を示すレジスタoMPR(output Master Plug Register)とiMPR(input Master Plug Register)を有する。IEEE1394機器は、oMPRおよびiMPRをそれぞれ複数持つことはないが、個々のプラグに対応したoPCRおよびiPCRを、IEEE1394機器の能力によって複数持つことが可能である。図17に示したPCRは、それぞれ31個のoPCR#0乃至#30およびiPCR#0乃至#30を有する。アイソクロナスデータの流れは、これらのプラグに対応するレジスタを操作することによって制御される。
【0154】
図18は、oMPR,oPCR,iMPR、およびiPCRの構成を示している。
【0155】
図18AはoMPRの構成を、図18BはoPCRの構成を、図18CはiMPRの構成を、図18DはiPCRの構成を、それぞれ示している。
【0156】
oMPRおよびiMPRのMSB側の2ビットのデータレートケイパビリティ(data rate capability)には、その機器が送信または受信可能なアイソクロナスデータの最大伝送速度を示すコードが格納される。oMPRのブロードキャストチャンネルベース(broadcast channel base)は、ブロードキャスト出力に使用されるチャンネルの番号を規定する。
【0157】
oMPRのLSB側の5ビットのナンバーオブアウトプットプラグス(number of output plugs)には、その機器が有する出力プラグ数、即ち、oPCRの数を示す値が格納される。iMPRのLSB側の5ビットのナンバーオブインプットプラグス(number of input plugs)には、その機器が有する入力プラグ数、即ち、iPCRの数を示す値が格納される。non-persistent extension fieldおよびpersistent extension fieldは、将来の拡張の為に定義された領域である。
【0158】
oPCRおよびiPCRのMSBのオンライン(on-line)は、プラグの使用状態を示す。即ち、その値が1であればそのプラグがON-LINEであり、0であればOFF-LINEであることを示す。oPCRおよびiPCRのブロードキャストコネクションカウンタ(broadcast connection counter)の値は、ブロードキャストコネクションの有り(1)または無し(0)を表す。oPCRおよびiPCRの6ビット幅を有するポイントトウポイントコネクションカウンタ(point-to-point connection counter)が有する値は、そのプラグが有するポイントトウポイントコネクション(point-to-point connection)の数を表す。
【0159】
oPCRおよびiPCRの6ビット幅を有するチャンネルナンバー(channel number)が有する値は、そのプラグが接続されるアイソクロナスチャンネルの番号を示す。
oPCRの2ビット幅を有するデータレート(data rate)の値は、そのプラグから出力されるアイソクロナスデータのパケットの現実の伝送速度を示す。oPCRの4ビット幅を有するオーバーヘッドID(overhead ID)に格納されるコードは、アイソクロナス通信のオーバーのバンド幅を示す。oPCRの10ビット幅を有するペイロード(payload)の値は、そのプラグが取り扱うことができるアイソクロナスパケットに含まれるデータの最大値を表す。
【0160】
次に、以上のようなIEEE1394通信を行うIEEE1394機器については、その制御のためのコマンドとして、AV/Cコマンドセットが規定されている。そこで、本実施の形態でも、親機1は、このAV/Cコマンドセットを利用して、子機2を制御するようになっている。但し、親機1から子機2を制御するにあたっては、AV/Cコマンドセット以外の独自のコマンド体系を用いることも可能である。
【0161】
ここで、AV/Cコマンドセットについて、簡単に説明する。
【0162】
図19は、アシンクロナス転送モードで伝送されるAV/Cコマンドセットのパケットのデータ構造を示している。
【0163】
AV/Cコマンドセットは、AV(Audio Visual)機器を制御するためのコマンドセットで、AV/Cコマンドセットを用いた制御系では、ノード間において、AV/Cコマンドフレームおよびレスポンスフレームが、FCP(Function Control Protocol)を用いてやり取りされる。バスおよびAV機器に負担をかけないために、コマンドに対するレスポンスは、100ms以内に行うことになっている。
【0164】
図19に示すように、アシンクロナスパケットのデータは、水平方向32ビット(=1 quadlet)で構成されている。図中上段はパケットのヘッダ部分(packet header)を示しており、図中下段はデータブロック(data block)を示している。
destination_IDは、宛先を示している。
【0165】
CTSはコマンドセットのIDを示しており、AV/CコマンドセットではCTS=“0000”である。ctype/responseは、パケットがコマンドの場合はコマンドの機能分類を示し、パケットがレスポンスの場合はコマンドの処理結果を示す。コマンドは大きく分けて、(1)機能を外部から制御するコマンド(CONTROL)、(2)外部から状態を問い合わせるコマンド(STATUS)、(3)制御コマンドのサポートの有無を外部から問い合わせるコマンド(GENERAL INQUIRY(opcodeのサポートの有無)およびSPECIFIC INQUIRY(opcodeおよびoperandsのサポートの有無))、(4)状態の変化を外部に知らせるよう要求するコマンド(NOTIFY)の4種類が定義されている。
【0166】
レスポンスはコマンドの種類に応じて返される。CONTROLコマンドに対するレスポンスには、NOT INPLEMENTED(実装されていない)、ACCEPTED(受け入れる)、REJECTED(拒絶)、およびINTERIM(暫定)がある。STATUSコマンドに対するレスポンスには、NOT INPLEMENTED、REJECTED、IN TRANSITION(移行中)、およびSTABLE(安定)がある。GENERAL INQUIRYおよびSPECIFIC INQUIRYコマンドに対するレスポンスには、IMPLEMENTED(実装されている)、およびNOT IMPLEMENTEDがある。NOTIFYコマンドに対するレスポンスには、NOT IMPLEMENTED,REJECTED,INTERIM、およびCHANGED(変化した)がある。
【0167】
subunit typeは、機器内の機能を特定するために設けられており、例えば、tape recorder/player,tuner等が割り当てられる。同じ種類のsubunitが複数存在する場合の判別を行うために、判別番号としてsubunit id(subunit typeの後に配置される)でアドレッシングを行う。opcodeはコマンドを表しており、operandはコマンドのパラメータを表している。Additional operandsは追加のoperandが配置されるフィールドである。paddingはパケット長を所定のビット数とするためにダミーのデータが配置されるフィールドである。data CRC(Cyclic Redundancy Check)はデータ伝送時のエラーチェックに使われるCRCが配置される。
【0168】
次に、図20は、AV/Cコマンドの具体例を示している。
【0169】
図20Aは、ctype/responseの具体例を示している。図中上段がコマンド(Command)を表しており、図中下段がレスポンス(Response)を表している。“0000”にはCONTROL、“0001”にはSTATUS、“0010”にはSPECIFIC INQUIRY、“0011”にはNOTIFY、“0100”にはGENERAL INQUIRYが割り当てられている。“0101乃至0111”は将来の仕様のために予約確保されている。
また、“1000”にはNOT INPLEMENTED、“1001”にはACCEPTED、“1010”にはREJECTED、“1011”にはIN TRANSITION、“1100”にはIMPLEMENTED/STABLE、“1101”にはCHNGED、“1111”にはINTERIMが割り当てられている。“1110”は将来の仕様のために予約確保されている。
【0170】
図20Bは、subunit typeの具体例を示している。“00000”にはVideo Monitor、“00011”にはDisk recorder/Player、“00100”にはTape recorder/Player、“00101”にはTuner、“00111”にはVideo Camera、“11100”にはVendor unique、“11110”にはSubunit type extended to next byteが割り当てられている。なお、“11111”にはunitが割り当てられているが、これは機器そのものに送られる場合に用いられ、例えば電源のオンオフなどが挙げられる。
【0171】
図20Cは、opcodeの具体例を示している。各subunit type毎にopcodeのテーブルが存在し、ここでは、subunit typeがTape recorder/Playerの場合のopcodeを示している。また、opcode毎にoperandが定義されている。ここでは、“00h”にはVENDOR-DEPENDENT、“50h”にはSEACH MODE、“51h”にはTIMECODE、“52h”にはATN、“60h”にはOPEN MIC、“61h”にはREAD MIC、“62h”にはWRITE MIC、“C1h”にはLOAD MEDIUM、“C2h”にはRECORD、“C3h”にはPLAY、“C4h”にはWINDが、それぞれ割り当てられている。
【0172】
図21は、AV/Cコマンドとレスポンスの具体例を示している。
【0173】
例えば、ターゲット(コンスーマ)(制御される側)としての再生機器に再生指示を行う場合、コントローラ(制御する側)は、図21Aのようなコマンドをターゲットに送る。このコマンドは、AV/Cコマンドセットを使用しているため、CTS=“0000”となっている。ctypeは、機器を外部から制御するコマンド(CONTROL)を用いるため、“0000”となっている(図20A)。subunit typeは、Tape recorder/Playerであることより、“00100”となっている(図20B)。idは、ID#0の場合を示しており、000となっている。opcodeは、再生を意味する“C3h”となっている(図20C)。operandは、FORWARDを意味する“75h”となっている。そして、再生されると、ターゲットは、図21Bのようなレスポンスをコントローラに返す。ここでは、受け入れを意味するacceptedがresponseに配置されており、responseは、“1001”となっている(図20A参照)。responseを除いて、他は図21Aと同じであるので説明は省略する。
【0174】
スケーラブルTVシステムにおいて、親機1と子機2との間では、上述のようなAV/Cコマンドセットを用いて、各種の制御が行われる。但し、本実施の形態では、親機1と子機2との間で行われる制御のうち、既定のコマンドとレスポンスで対処できないものについては、新たなコマンドとレスポンスが定義されており、その新たなコマンドとレスポンスを用いて、各種の制御が行われる。
【0175】
なお、以上のIEEE1394通信およびAV/Cコマンドセットについては、「WHITE SERISE No.181 IEEE1394マルチメディアインタフェース」株式会社トリケップス発行、にその詳細が説明されている。
【0176】
次に、図10に示した親機1の信号処理部137では(図11に示した子機2の信号処理部157においても同様)、上述したように、DSP137Aがプログラムを実行することにより、各種のディジタル信号処理を行うが、そのうちの1つとして、画像データを、第1の画像データから第2の画像データに変換する画像変換処理がある。
【0177】
ここで、例えば、第1の画像データを低解像度の画像データとするとともに、第2の画像データを高解像度の画像データとすれば、画像変換処理は、解像度を向上させる解像度向上処理ということができる。また、例えば、第1の画像データを低S/N(Siginal/Noise)の画像データとするとともに、第2の画像データを高S/Nの画像データとすれば、画像変換処理は、ノイズを除去するノイズ除去処理ということができる。さらに、例えば、第1の画像データを所定のサイズの画像データとするとともに、第2の画像データを、第1の画像データのサイズを大きくまたは小さくした画像データとすれば、画像変換処理は、画像のリサイズ(拡大または縮小)を行うリサイズ処理ということができる。
【0178】
従って、画像変換処理によれば、第1および第2の画像データをどのように定義するかによって、様々な処理を実現することができる。
【0179】
図22は、上述のような画像変換処理を行う信号処理部137の機能的構成例を示している。なお、図22の機能的構成は、信号処理部137のDSP137Aが、EEPROM137Bに記憶されたプログラムを実行することで実現される。
【0180】
信号処理部137(図10)では、フレームメモリ127に記憶された画像データ、またはCPU129から供給される画像データが、第1の画像データとして、タップ抽出部161および162に供給される。
【0181】
タップ抽出部161は、第2の画像データを構成する画素を、順次、注目画素とし、さらに、その注目画素の画素値を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして抽出する。
【0182】
具体的には、タップ抽出部161は、注目画素に対応する、第1の画像データの画素に対して、空間的または時間的に近い位置にある複数の画素(例えば、注目画素に対応する、第1の画像データの画素と、それに空間的に隣接する画素など)を、予測タップとして抽出する。
【0183】
タップ抽出部162は、注目画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして抽出する。
【0184】
なお、ここでは、説明を簡単にするために、予測タップとクラスタップは、同一のタップ構造を有するものとする。但し、予測タップとクラスタップとは、異なるタップ構造とすることが可能である。
【0185】
タップ抽出部161で得られた予測タップは、予測部165に供給され、タップ抽出部162で得られたクラスタップは、クラス分類部163に供給される。
【0186】
クラス分類部163は、タップ抽出部162からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数メモリ164に供給する。
【0187】
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。
【0188】
ADRCを用いる方法では、クラスタップを構成する画素の画素値が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。
【0189】
なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。
従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最小値MINが減算された後に、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。
【0190】
なお、クラス分類部163には、例えば、クラスタップを構成する画素の画素値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素の画素値で構成され、各画素の画素値に、Kビットが割り当てられているとすると、クラス分類部163が出力するクラスコードの場合の数は、(2N)K通りとなり、画素の画素値のビット数Kに指数的に比例した膨大な数となる。
【0191】
従って、クラス分類部163においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。
【0192】
係数メモリ164は、係数生成部166から供給されるクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部163から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部163から供給されるクラスコードが表すクラスのタップ係数)を、予測部165に供給する。
【0193】
ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。
【0194】
予測部165は、タップ抽出部161が出力する予測タップと、係数メモリ164が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測部165は、注目画素の画素値(の予測値)、即ち、第2の画像データを構成する画素の画素値を求めて出力する。
【0195】
係数生成部166は、係数種メモリ167に記憶されている係数種データと、パラメータメモリ168に記憶されたパラメータとに基づいて、クラスごとのタップ係数を生成し、係数メモリ164に供給して上書きする形で記憶させる。
【0196】
係数種メモリ167は、後述する係数種データの学習によって得られるクラスごとの係数種データを記憶している。ここで、係数種データは、タップ係数を生成する、いわば種になるデータである。
【0197】
パラメータメモリ168は、ユーザがリモコン15を操作すること等によって、CPU129(図10)から供給されるパラメータを上書きする形で記憶する。
【0198】
次に、図23のフローチャートを参照して、図22の信号処理部137による画像変換処理について説明する。
【0199】
タップ抽出部161では、そこに入力される第1の画像データに対する第2の画像データを構成する各画素が、順次、注目画素とされる。そして、ステップS1において、パラメータメモリ168は、CPU129からパラメータが供給されたかどうかを判定し、供給されたと判定した場合、ステップS2に進み、パラメータメモリ168は、その供給されたパラメータを上書きする形で記憶し、ステップS3に進む。
【0200】
また、ステップS1において、CPU129からパラメータが供給されていないと判定された場合、ステップS2をスキップして、ステップS3に進む。
【0201】
従って、パラメータメモリ168では、CPU129からパラメータが供給された場合、即ち、例えば、ユーザがリモコン15を操作して、パラメータが入力された場合、あるいは、CPU129においてパラメータが設定された場合には、その記憶内容が、入力または設定されたパラメータによって更新される。
【0202】
ステップS3では、係数生成部166が、係数種メモリ167からクラスごとの係数種データを読み出すとともに、パラメータメモリ168からパラメータを読み出し、その係数種データとパラメータに基づいて、クラスごとのタップ係数を求める。そして、ステップS4に進み、係数生成部166は、そのクラスごとのタップ係数を、係数メモリ164に供給し、上書きする形で記憶させ、ステップS5に進む。
【0203】
ステップS5では、タップ抽出部161と162が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ抽出する。そして、予測タップは、タップ抽出部161から予測部165に供給され、クラスタップは、タップ抽出部162からクラス分類部163に供給される。
【0204】
クラス分類部163は、タップ抽出部162から、注目画素についてのクラスタップを受信し、ステップS6において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部163は、そのクラス分類の結果得られる注目画素のクラスを表すクラスコードを、係数メモリ164に出力し、ステップS7に進む。
【0205】
ステップS7では、係数メモリ164が、クラス分類部163から供給されるクラスコードに対応するアドレスに記憶されているタップ係数を読み出して出力する。さらに、ステップS7では、予測部165が、係数メモリ164が出力するタップ係数を取得し、ステップS8に進む。
【0206】
ステップS8では、予測部165が、タップ抽出部161が出力する予測タップと、係数メモリ164から取得したタップ係数とを用いて、所定の予測演算を行う。これにより、予測部165は、注目画素の画素値を求め、フレームメモリ127(図10)に書き込んで、ステップS9に進む。
【0207】
ステップS9では、タップ抽出部161が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS9において、まだ、注目画素としていない第2の画像データがあると判定された場合、その、まだ注目画素とされていない第2の画像データの画素のうちの1つが、新たに注目画素とされ、ステップS1に戻り、以下、同様の処理が繰り返される。
【0208】
また、ステップS9において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理を終了する。
【0209】
なお、図23において、ステップS3およびS4の処理は、パラメータメモリ168に、新たなパラメータ上書きされた場合に行い、他の場合はスキップすることが可能である。
【0210】
次に、図22の予測部165における予測演算、係数生成部166におけるタップ係数の生成、および係数種メモリ167に記憶させる係数種データの学習について説明する。
【0211】
いま、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データをLPF(Low Pass Filter)によってフィルタリングする等してその画質(解像度)を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを抽出し、その予測タップとタップ係数を用いて、高画質画素の画素値を、所定の予測演算によって求める(予測する)ことを考える。
【0212】
いま、所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。
【0213】
【数1】
【0214】
但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像データの画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。
【0215】
ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。
【0216】
一方、図22の実施の形態では、係数生成部166において、タップ係数wnが、係数種メモリ167に記憶された係数種データと、パラメータメモリ168に記憶されたパラメータとから生成されるが、この係数生成部166におけるタップ係数wnの生成が、例えば、係数種データとパラメータを用いた次式によって行われることとする。
【0217】
【数2】
【0218】
但し、式(2)において、βm,nは、n番目のタップ係数wnを求めるのに用いられるm番目の係数種データを表し、zは、パラメータを表す。なお、式(2)では、タップ係数wnが、M個の係数種データβn,1,βn,2,・・・,βn,Mを用いて求められるようになっている。
【0219】
ここで、係数種データβm,nとパラメータzから、タップ係数wnを求める式は、式(2)に限定されるものではない。
【0220】
いま、式(2)におけるパラメータzによって決まる値zm-1を、新たな変数tmを導入して、次式で定義する。
【0221】
【数3】
【0222】
式(3)を、式(2)に代入することにより、次式が得られる。
【0223】
【数4】
【0224】
式(4)によれば、タップ係数wnは、係数種データβn,mと変数tmとの線形1次式によって求められることになる。
【0225】
ところで、いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。
【0226】
【数5】
【0227】
いま、式(5)の予測値yk’は、式(1)にしたがって求められるため、式(5)のyk’を、式(1)にしたがって置き換えると、次式が得られる。
【0228】
【数6】
【0229】
但し、式(6)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。
【0230】
式(6)のwnに、式(4)を代入することにより、次式が得られる。
【0231】
【数7】
【0232】
式(7)の予測誤差ekを0とする係数種データβn,mが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような係数種データβn,mを求めることは、一般には困難である。
【0233】
そこで、係数種データβn,mが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な係数種データβn,mは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
【0234】
【数8】
【0235】
但し、式(8)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。
【0236】
式(8)の自乗誤差の総和Eの最小値(極小値)は、式(9)に示すように、総和Eを係数種データβn,mで偏微分したものを0とするβn,mによって与えられる。
【0237】
【数9】
【0238】
式(6)を、式(9)に代入することにより、次式が得られる。
【0239】
【数10】
【0240】
いま、Xi,p,j,qとYi,pを、式(11)と(12)に示すように定義する。
【0241】
【数11】
【数12】
【0242】
この場合、式(10)は、Xi,p,j,qとYi,pを用いた式(13)に示す正規方程式で表すことができる。
【0243】
【数13】
【0244】
式(13)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβn,mについて解くことができる。
【0245】
図22の信号処理部137においては、多数の高画質画素y1,y2,・・・,yKを学習の教師となる教師データとするとともに、各高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kを学習の生徒となる生徒データとして、式(13)を解く学習を行うことにより求められた係数種データβn,mが、係数種メモリ167に記憶されており、係数生成部166では、その係数種データβn,mと、パラメータメモリ168に記憶されたパラメータzから、式(2)にしたがって、タップ係数wnが生成される。そして、予測部165において、そのタップ係数wnと、高画質画素としての注目画素についての予測タップを構成する低画質画素(第1の画像データの画素)xnを用いて、式(1)が計算されることにより、高画質画素としての注目画素の画素値(に近い予測値)が求められる。
【0246】
次に、図24は、式(13)の正規方程式をたてて解くことにより係数種データβn,mを求める学習を行う学習装置の構成例を示している。
【0247】
学習装置には、係数種データβn,mの学習に用いられる学習用画像データが入力されるようになっている。ここで、学習用画像データとしては、例えば、解像度の高い高画質画像データを用いることができる。
【0248】
学習装置において、学習用画像データは、教師データ生成部171と生徒データ生成部173に供給される。
【0249】
教師データ生成部171は、そこに供給される学習用画像データから教師データを生成し、教師データ記憶部172に供給する。即ち、ここでは、教師データ生成部171は、学習用画像データとしての高画質画像データを、そのまま教師データとして、教師データ記憶部172に供給する。
【0250】
教師データ記憶部172は、教師データ生成部171から供給される教師データとしての高画質画像データを記憶する。
【0251】
生徒データ生成部173は、学習用画像データから生徒データを生成し、生徒データ記憶部174に供給する。即ち、生徒データ生成部173は、学習用画像データとしての高画質画像データをフィルタリングすることにより、その解像度を低下させることで、低画質画像データを生成し、この低画質画像データを、生徒データとして、生徒データ記憶部174に供給する。
【0252】
ここで、生徒データ生成部173には、学習用画像データの他、図22のパラメータメモリ168に供給されるパラメータzが取り得る範囲の幾つかの値が、パラメータ生成部180から供給されるようになっている。即ち、いま、パラメータzが取り得る値が0乃至Zの範囲の実数であるとすると、生徒データ生成部173には、例えば、z=0,1,2,・・・,Zが、パラメータ生成部180から供給されるようになっている。
【0253】
生徒データ生成部173は、学習用画像データとしての高画質画像データを、そこに供給されるパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、生徒データとしての低画質画像データを生成する。
【0254】
従って、この場合、生徒データ生成部173では、図25に示すように、学習用画像データとしての高画質画像データについて、Z+1種類の、解像度の異なる生徒データとしての低画質画像データが生成される。
【0255】
なお、ここでは、例えば、パラメータzの値が大きくなるほど、カットオフ周波数の高いLPFを用いて、高画質画像データをフィルタリングし、生徒データとしての低画質画像データを生成するものとする。従って、ここでは。値の大きいパラメータzに対応する低画質画像データほど、解像度が高い。
【0256】
また、本実施の形態では、説明を簡単にするために、生徒データ生成部173において、高画質画像データの水平方向および垂直方向の両方向の解像度を、パラメータzに対応する分だけ低下させた低画質画像データを生成するものとする。
【0257】
図24に戻り、生徒データ記憶部174は、生徒データ生成部173から供給される生徒データを記憶する。
【0258】
タップ抽出部175は、教師データ記憶部172に記憶された教師データとしての高画質画像データを構成する画素を、順次、注目教師画素とし、その注目教師画素について、生徒データ記憶部174に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの所定のものを抽出することにより、図22のタップ抽出部161が構成するのと同一のタップ構造の予測タップを構成し、足し込み部178に供給する。
【0259】
タップ抽出部176は、注目教師画素について、生徒データ記憶部174に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの所定のものを抽出することにより、図22のタップ抽出部162が構成するのと同一のタップ構造のクラスタップを構成し、クラス分類部177に供給する。
【0260】
なお、タップ抽出部175と176には、パラメータ生成部180が生成するパラメータzが供給されるようになっており、タップ抽出部175と176は、パラメータ生成部180から供給されるパラメータzに対応して生成された生徒データ(ここでは、パラメータzに対応するカットオフ周波数のLPFを用いて生成された生徒データとしての低画質画像データ)を用いて、予測タップとクラスタップをそれぞれ構成する。
【0261】
クラス分類部177は、タップ抽出部176が出力するクラスタップに基づき、図22のクラス分類部163と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部178に出力する。
【0262】
足し込み部178は、教師データ記憶部172から、注目教師画素を読み出し、その注目教師画素、タップ抽出部175から供給される注目教師画素について構成された予測タップを構成する生徒データ、およびその生徒データを生成したときのパラメータzを対象とした足し込みを、クラス分類部177から供給されるクラスコードごとに行う。
【0263】
即ち、足し込み部178には、教師データ記憶部172に記憶された教師データyk、タップ抽出部175が出力する予測タップxi,k(xj,k)、およびクラス分類部177が出力するクラスコードの他、その予測タップを構成するのに用いられた生徒データを生成したときのパラメータzも、パラメータ生成部180から供給されるようになっている。
【0264】
そして、足し込み部178は、クラス分類部177から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k(xj,k)とパラメータzを用い、式(13)の左辺の行列における、式(11)で定義されるコンポーネントXi,p,j,qを求めるための生徒データおよびパラメータzの乗算(xi,ktpxj,ktq)と、サメーション(Σ)に相当する演算を行う。なお、式(11)のtpは、式(3)にしたがって、パラメータzから計算される。式(11)のtqも同様である。
【0265】
さらに、足し込み部178は、やはり、クラス分類部177から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k、教師データyk、およびパラメータzを用い、式(13)の右辺のベクトルにおける、式(12)で定義されるコンポーネントYi,pを求めるための生徒データxi,k、教師データyk、およびパラメータzの乗算(xi,ktpyk)と、サメーション(Σ)に相当する演算を行う。なお、式(12)のtpは、式(3)にしたがって、パラメータzから計算される。
【0266】
即ち、足し込み部178は、前回、注目教師画素とされた教師データについて求められた式(13)における左辺の行列のコンポーネントXi,p,j,qと、右辺のベクトルのコンポーネントYi,pを、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネントXi,p,j,qまたはベクトルのコンポーネントYi,pに対して、新たに注目教師画素とされた教師データについて、その教師データyk、生徒データxi,k(xj,k)、およびパラメータzを用いて計算される、対応するコンポーネントxi,ktpxj,ktqまたはxi,ktpykを足し込む(式(11)のコンポーネントXi,p,j,qまたは式(12)のコンポーネントYi,pにおけるサメーションで表される加算を行う)。
【0267】
そして、足し込み部178は、0,1,・・・,Zのすべての値のパラメータzにつき、教師データ記憶部172に記憶された教師データすべてを注目教師画素として、上述の足し込みを行うことにより、各クラスについて、式(13)に示した正規方程式をたてると、その正規方程式を、係数種算出部179に供給する。
【0268】
係数種算出部179は、足し込み部178から供給されるクラスごとの正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。
【0269】
パラメータ生成部180は、図22のパラメータメモリ168に供給されるパラメータzが取り得る範囲の幾つかの値としての、例えば、上述したようなz=0,1,2,・・・,Zを生成し、生徒データ生成部173に供給する。また、パラメータ生成部180は、生成したパラメータzを、タップ抽出部175および176、並びに足し込み部178にも供給する。
【0270】
次に、図26のフローチャートを参照して、図24の学習装置の処理(学習処理)について、説明する。
【0271】
まず最初に、ステップS21において、教師データ生成部171と生徒データ生成部173が、学習用画像データから、教師データと生徒データを、それぞれ生成して出力する。即ち、教師データ生成部171は、学習用画像データを、そのまま、教師データとして出力する。また、生徒データ生成部171には、パラメータ生成部180が生成するZ+1個の値のパラメータzが供給され、生徒データ生成部171は、学習用画像データを、パラメータ生成部180からのZ+1個の値(0,1,・・・,Z)のパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、各フレームの教師データ(学習用画像データ)について、Z+1フレームの生徒データを生成して出力する。
【0272】
教師データ生成部171が出力する教師データは、教師データ記憶部172に供給されて記憶され、生徒データ生成部173が出力する生徒データは、生徒データ記憶部174に供給されて記憶される。
【0273】
その後、ステップS22に進み、パラメータ生成部180は、パラメータzを、初期値としての、例えば0にセットし、タップ抽出部175および176、並びに足し込み部178に供給して、ステップS23に進む。ステップS23では、タップ抽出部175は、教師データ記憶部172に記憶された教師データのうち、まだ、注目教師画素としていないものを、注目教師画素とする。さらに、ステップS23では、タップ抽出部175が、注目教師画素について、生徒データ記憶部174に記憶された、パラメータ生成部180が出力するパラメータzに対する生徒データ(注目教師画素となっている教師データに対応する学習用画像データを、パラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより生成された生徒データ)から予測タップを構成し、足し込み部178に供給するとともに、タップ抽出部176が、やはり、注目教師画素について、生徒データ記憶部174に記憶された、パラメータ生成部180が出力するパラメータzに対する生徒データからクラスタップを構成し、クラス分類部177に供給する。
【0274】
そして、ステップS24に進み、クラス分類部177は、注目教師画素についてのクラスタップに基づき、注目教師画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部178に出力して、ステップS25に進む。
【0275】
ステップS25では、足し込み部178は、教師データ記憶部172から注目教師画素を読み出し、その注目教師画素、タップ抽出部175から供給される予測タップ、パラメータ生成部180が出力するパラメータzを用い、式(13)における左辺の行列のコンポーネントxi,Ktpxj,Ktqと、右辺のベクトルのコンポーネントxi,KtpyKを計算する。さらに、足し込み部178は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、クラス分類部177からのクラスコードに対応するものに対して、注目画素、予測タップ、およびパラメータzから求められた行列のコンポーネントxi,Ktpxj,Ktqとベクトルのコンポーネントxi,KtpyKを足し込み、ステップS26に進む。
【0276】
ステップS26では、パラメータ生成部180が、自身が出力しているパラメータzが、その取り得る値の最大値であるZに等しいかどうかを判定する。ステップS26において、パラメータ生成部180が出力しているパラメータzが最大値Zに等しくない(最大値Z未満である)と判定された場合、ステップS27に進み、パラメータ生成部180は、パラメータzに1を加算し、その加算値を新たなパラメータzとして、タップ抽出部175および176、並びに足し込み部178に出力する。そして、ステップS23に戻り、以下、同様の処理が繰り返される。
【0277】
また、ステップS26において、パラメータzが最大値Zに等しいと判定された場合、ステップS28に進み、タップ抽出部175が、教師データ記憶部172に、まだ、注目教師画素としていない教師データが記憶されているかどうかを判定する。ステップS28において、注目教師画素としていない教師データが、まだ、教師データ記憶部172に記憶されていると判定された場合、タップ抽出部175は、まだ注目教師画素としていない教師データを、新たに、注目教師画素として、ステップS22に戻り、以下、同様の処理が繰り返される。
【0278】
また、ステップS28において、注目教師画素としていない教師データが、教師データ記憶部172に記憶されていないと判定された場合、足し込み部178は、いままでの処理によって得られたクラスごとの式(13)における左辺の行列と、右辺のベクトルを、係数種算出部179に供給し、ステップS29に進む。
【0279】
ステップS29では、係数種算出部179は、足し込み部178から供給されるクラスごとの式(13)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、各クラスごとに、係数種データβm,nを求めて出力し、処理を終了する。
【0280】
なお、学習用画像データの数が十分でないこと等に起因して、係数種データを求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、係数種算出部179は、例えば、デフォルトの係数種データを出力するようになっている。
【0281】
ところで、図24の学習装置では、図25に示したように、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データに、パラメータzに対応して解像度を劣化させた低画質画像データを生徒データとして、式(4)によって係数種データβm,nとパラメータzに対応する変数tmとで表されるタップ係数wn、並びに生徒データxnから、式(1)の線形1次式で予測される教師データの予測値yの自乗誤差の総和を最小にする係数種データβm,nを直接求める学習を行うようにしたが、係数種データβm,nの学習は、その他、例えば、図27に示すようにして行うことが可能である。
【0282】
即ち、図27の実施の形態では、図25の実施の形態における場合と同様に、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データを、パラメータzに対応したカットオフ周波数のLPFによってフィルタリングすることにより、その水平解像度および垂直解像度を低下させた低画質画像データを生徒データとして、まず最初に、タップ係数wn、並びに生徒データxnを用いて式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和を最小にするタップ係数wnが、パラメータzの値(ここでは、z=0,1,・・・,Z)ごとに求められる。さらに、図27の実施の形態では、求められたタップ係数wnを教師データとするとともに、パラメータzを生徒データとして、式(4)によって係数種データβm,n、並びに生徒データであるパラメータzに対応する変数tmから予測される教師データとしてのタップ係数wnの予測値の自乗誤差の総和を最小にする係数種データβm,nを求める学習が行われる。
【0283】
具体的には、上述の式(8)で表される、式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和Eを最小(極小)にするタップ係数wnは、その総和Eをタップ係数wnで偏微分したものを0とするものであり、従って、次式を満たす必要がある。
【0284】
【数14】
【0285】
そこで、上述の式(6)をタップ係数wnで偏微分すると、次式が得られる。
【0286】
【数15】
【0287】
式(14)と(15)から、次式が得られる。
【0288】
【数16】
【0289】
式(16)のekに、式(6)を代入することにより、式(16)は、式(17)に示す正規方程式で表すことができる。
【0290】
【数17】
【0291】
式(17)の正規方程式は、例えば、式(13)の正規方程式における場合と同様に、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。
【0292】
式(17)の正規方程式を解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnは、クラスごとに、かつパラメータzの値(z=0,1,・・・,Z)ごとに求められる。
【0293】
一方、本実施の形態では、式(4)により、係数種データβm,nと、パラメータzに対応する変数tmとから、タップ係数が求められるが、いま、この式(4)によって求められるタップ係数を、wn’と表すこととすると、次の式(18)で表される、最適なタップ係数wnと式(4)により求められるタップ係数wn’との誤差enを0とする係数種データβn,mが、最適なタップ係数wnを求めるのに最適なものとなるが、すべてのタップ係数wnについて、そのような係数種データβn,mを求めることは、一般には困難である。
【0294】
【数18】
【0295】
なお、式(18)は、式(4)によって、次式のように変形することができる。
【0296】
【数19】
【0297】
そこで、係数種データβn,mが最適なものであることを表す規範として、例えば、やはり、最小自乗法を採用することとすると、最適な係数種データβn,mは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
【0298】
【数20】
【0299】
式(20)の自乗誤差の総和Eの最小値(極小値)は、式(21)に示すように、総和Eを係数種データβn,mで偏微分したものを0とするβn,mによって与えられる。
【0300】
【数21】
【0301】
式(19)を、式(21)に代入することにより、次式が得られる。
【0302】
【数22】
【0303】
いま、Xi,j,とYiを、式(23)と(24)に示すように定義する。
【0304】
【数23】
【数24】
【0305】
この場合、式(22)は、Xi,jとYiを用いた式(25)に示す正規方程式で表すことができる。
【0306】
【数25】
【0307】
式(25)の正規方程式も、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβn,mについて解くことができる。
【0308】
次に、図28は、式(25)の正規方程式をたてて解くことにより係数種データβn,mを求める学習を行う学習装置の構成例を示している。なお、図中、図24における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0309】
足し込み部190には、クラス分類部177が出力する注目教師画素についてのクラスコードと、パラメータ生成部180が出力するパラメータzが供給されるようになっている。そして、足し込み部190は、教師データ記憶部172から、注目教師画素を読み出し、その注目教師画素と、タップ抽出部175から供給される注目教師画素について構成された予測タップを構成する生徒データとを対象とした足し込みを、クラス分類部177から供給されるクラスコードごとに、かつパラメータ生成部180が出力するパラメータzの値ごとに行う。
【0310】
即ち、足し込み部190には、教師データ記憶部172に記憶された教師データyk、タップ抽出部175が出力する予測タップxn,k、クラス分類部177が出力するクラスコード、およびパラメータ生成部180が出力する、予測タップxn,kを構成するのに用いられた生徒データを生成したときのパラメータzが供給される。
【0311】
そして、足し込み部190は、クラス分類部177から供給されるクラスコードに対応するクラスごとに、かつパラメータ生成部180が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kを用い、式(17)の左辺の行列における生徒データどうしの乗算(xn,kxn',k)と、サメーション(Σ)に相当する演算を行う。
【0312】
さらに、足し込み部190は、やはり、クラス分類部177から供給されるクラスコードに対応するクラスごとに、かつパラメータ生成部180が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(17)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kyk)と、サメーション(Σ)に相当する演算を行う。
【0313】
即ち、足し込み部190は、前回、注目教師画素とされた教師データについて求められた式(17)における左辺の行列のコンポーネント(Σxn,kxn',k)と、右辺のベクトルのコンポーネント(Σxn,kyk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kxn',k)またはベクトルのコンポーネント(Σxn,kyk)に対して、新たに注目教師画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1xn',k+1またはxn,k+1yk+1を足し込む(式(17)のサメーションで表される加算を行う)。
【0314】
そして、足し込み部190は、教師データ記憶部172に記憶された教師データすべてを注目教師画素として、上述の足し込みを行うことにより、各クラスについて、パラメータzの各値ごとに、式(17)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部191に供給する。
【0315】
タップ係数算出部191は、足し込み部190から供給される各クラスについての、パラメータzの値ごとの正規方程式を解くことにより、各クラスについて、パラメータzの値ごとの最適なタップ係数wnを求め、足し込み部192に供給する。
【0316】
足し込み部192は、各クラスごとに、パラメータz(に対応する変数tm)と、最適なタップ係数wnを対象とした足し込みを行う。
【0317】
即ち、足し込み部192は、パラメータzから式(3)によって求められる変数ti(tj)を用い、式(25)の左辺の行列における、式(23)で定義されるコンポーネントXi,jを求めるためのパラメータzに対応する変数ti(tj)どうしの乗算(titj)と、サメーション(Σ)に相当する演算を、クラスごとに行う。
【0318】
ここで、コンポーネントXi,jは、パラメータzによってのみ決まるものであり、クラスとは関係がないので、コンポーネントXi,jの計算は、実際には、クラスごとに行う必要はなく、1回行うだけで済む。
【0319】
さらに、足し込み部192は、パラメータzから式(3)によって求められる変数tiと、最適なタップ係数wnとを用い、式(25)の右辺のベクトルにおける、式(24)で定義されるコンポーネントYiを求めるためのパラメータzに対応する変数tiおよび最適なタップ係数wnの乗算(tiwn)と、サメーション(Σ)に相当する演算を、クラスごとに行う。
【0320】
足し込み部192は、各クラスごとに、式(23)で表されるコンポーネントXi,jと、式(24)で表されるコンポーネントYiを求めることにより、各クラスについて、式(25)の正規方程式をたてると、その正規方程式を、係数種算出部193に供給する。
【0321】
係数種算出部193は、足し込み部192から供給されるクラスごとの式(25)の正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。
【0322】
図22の信号処理部137における係数種メモリ167には、以上のようにして求められたクラスごとの係数種データβm,nを記憶させておくようにすることもできる。
【0323】
ここで、図22の信号処理部137においては、例えば、係数種メモリ167を設けずに、図28のタップ係数算出部191が出力するパラメータzの各値ごとの最適なタップ係数wnをメモリに記憶させておき、パラメータメモリ168に記憶されたパラメータzに応じて、メモリに記憶された最適なタップ係数を選択して、係数メモリ164にセットするようにすることも可能である。但し、この場合、パラメータzが取り得る値の数に比例した大きな容量のメモリが必要となる。これに対して、係数種メモリ167を設け、係数種データを記憶させておく場合には、係数種メモリ167の記憶容量は、パラメータzが取り得る値の数に依存しないので、係数種メモリ167として、小さな容量のメモリを採用することができる。さらに、係数種データβm,nを記憶させておく場合には、その係数種データβm,nと、パラメータzの値とから、式(2)によりタップ係数wnが生成されることから、パラメータzの値に応じた、いわば連続的なタップ係数wnを得ることができる。そして、その結果、図22の予測部165が第2の画像データとして出力する高画質画像データの画質を、無段階に滑らかに調整することが可能となる。
【0324】
なお、上述の場合には、学習用画像データを、そのまま第2の画像データに対応する教師データとするとともに、その学習用画像データの解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、係数種データの学習を行うようにしたことから、係数種データとしては、第1の画像データを、その解像度を向上させた第2の画像データに変換する解像度向上処理としての画像変換処理を行うものを得ることができる。
【0325】
従って、親機1の信号処理部137のEEPROM137Aに、その係数種データを記憶させておくとともに、図22の機能的構成を実現し、かつ図23のフローチャートにしたがった画像変換処理を行うプログラムを記憶させておくことにより、信号処理部137では、パラメータzに対応して、画像データの水平解像度および垂直解像度を向上させることができる。
【0326】
ここで、第1の画像データに対応する生徒データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、係数種データとしては、各種の画像変換処理を行うものを得ることができる。
【0327】
即ち、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、パラメータzに対応するレベルのノイズを重畳した画像データを生徒データとして、学習処理を行うことにより、係数種データとしては、第1の画像データを、そこに含まれるノイズを除去(低減)した第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。
【0328】
また、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を、パラメータzに対応して間引いた画像データを生徒データとして、または、パラメータzに対応するサイズの画像データを生徒データとするとともに、その生徒データとしての画像データの画素を所定の間引き率で間引いた画像データを教師データとして、学習処理を行うことにより、係数種データとしては、第1の画像データを、拡大または縮小した第2の画像データに変換するリサイズ処理としての画像変換処理を行うものを得ることができる。
【0329】
従って、親機1の信号処理部137のEEPROM137Aに、ノイズ除去処理用の係数種データや、リサイズ処理用の係数種データを記憶させておくことにより、信号処理部137では、パラメータzに対応して、画像データのノイズ除去やリサイズ(拡大または縮小)を行うことができる。
【0330】
なお、上述の場合には、タップ係数wnを、式(2)に示したように、β1,nz0+β2,nz1+・・・+βM,nzM-1で定義し、この式(2)によって、水平および垂直方向の解像度を、いずれも、パラメータzに対応して向上させるためのタップ係数wnを求めるようにしたが、タップ係数wnとしては、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるものを求めるようにすることも可能である。
【0331】
即ち、タップ係数wnを、式(2)に代えて、例えば、3次式β1,nzx 0zy 0+β2,nzx 1zy 0+β3,nzx 2zy 0+β4,nzx 3zy 0+β5,nzx 0zy 1+β6,nzx 0zy 2+β7,nzx 0zy 3+β8,nzx 1zy 1+β9,nzx 2zy 1+β10,nzx 1zy 2で定義するとともに、式(3)で定義した変数tmを、式(3)に代えて、t1=zx 0zy 0,t2=zx 1zy 0,t3=zx 2zy 0,t4=zx 3zy 0,t5=zx 0zy 1,t6=zx 0zy 2,t7=zx 0zy 3,t8=zx 1zy 1,t9=zx 2zy 1,t10=zx 1zy 2で定義する。この場合も、タップ係数wnは、最終的には、式(4)で表すことができ、従って、学習装置(図24、図28)において、パラメータzxとzyに対応して、教師データの水平解像度と垂直解像度をそれぞれ劣化させた画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるタップ係数wnを求めることができる。
【0332】
その他、例えば、水平解像度と垂直解像度それぞれに対応するパラメータzxとzyに加えて、さらに、時間方向の解像度に対応するパラメータztを導入することにより、水平解像度、垂直解像度、時間解像度を、独立のパラメータzx,zy,ztに対応して、それぞれ独立に向上させるタップ係数wnを求めることが可能となる。
【0333】
また、リサイズ処理についても、解像度向上処理における場合と同様に、水平および垂直方向を、いずれもパラメータzに対応する拡大率(または縮小率)でリサイズするタップ係数wnの他、水平と垂直方向を、それぞれパラメータzxとzyに対応する拡大率で、独立にリサイズするタップ係数wnを求めることが可能である。
【0334】
さらに、学習装置(図24、図28)において、パラメータzxに対応して教師データの水平解像度および垂直解像度を劣化させるとともに、パラメータzyに対応して教師データにノイズを付加した画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、パラメータzxに対応して水平解像度および垂直解像度を向上させるとともに、パラメータzyに対応してノイズ除去を行うタップ係数wnを求めることができる。
【0335】
次に、上述のような画像変換処理を行う機能は、親機1のみならず、子機2も有している。
【0336】
そこで、図29は、上述の画像変換処理を行う子機2(図11)の信号処理部157の機能的構成例を示している。なお、図29の機能的構成も、図22の信号処理部137における場合と同様に、信号処理部157のDSP157Aが、EEPROM157Bに記憶されたプログラムを実行することで実現される。
【0337】
図29において、子機2の信号処理部157は、親機1の信号処理部137(図22)のタップ抽出部161乃至パラメータメモリ168とそれぞれ同様に構成されるタップ抽出部201乃至パラメータメモリ208で構成されるため、その説明は省略する。
【0338】
なお、親機1の信号処理部137と、子機2の信号処理部157には、同一の係数種データを記憶させておくことも可能であるが、本実施の形態では、少なくとも一部が異なる係数種データを記憶させておくものとする。
【0339】
即ち、例えば、親機1の信号処理部137には、リサイズ処理用の係数種データと、解像度向上処理用の係数種データを記憶させておき、子機2の信号処理部157には、リサイズ処理用の係数種データと、ノイズ除去処理用の係数種データを記憶させておくものとする。
【0340】
あるいは、例えば、親機1の信号処理部137には、リサイズ処理用の係数種データを記憶させておき、ある1つの子機2ijの信号処理部157には、ノイズ除去処理用の係数種データを記憶させておくとともに、他の1つの子機2pqの信号処理部157には、解像度向上処理用の係数種データを記憶させておくことも可能である。
【0341】
ここで、親機1の信号処理部137と、子機2の信号処理部157の両方に、各種の処理を行うための係数種データを記憶させておくことも可能であるが、その場合、その各種の処理を行うための係数種データを、EEPROM137Bと157Bに記憶させる必要がある。従って、EEPROM137Bと157Bとして、記憶容量の大きなものが必要となり、親機1や子機2のコストが大になる。
【0342】
一方、本実施の形態では、スケーラブルTVシステムにおいて、親機1と子機2とは、IEEE1394通信が可能なように接続されることから、親機1または子機2は、子機2または親機1が有する係数種データを、IEEE1394通信によって取得することができる。従って、例えば、ノイズ除去処理を行う係数種データを記憶している子機2が親機1に接続されれば、親機1は、自身がその係数種データを有していなくても(記憶していなくても)、子機2から係数種データを取得して、ノイズ除去処理を行うことが可能となる。
【0343】
その結果、親機1は(子機2も同様)、スケーラブルTVシステムとして接続される子機2が増加するほど、実行可能な処理、つまり機能が増加することになる。
【0344】
この場合、EEPROM137Bと157Bとして、記憶容量の小さいものを採用することができ、親機1や子機2のコストを低減することができる。さらに、この場合、親機1に加えて、子機2を増設していくほど、スケーラブルTVシステム全体としての機能が増加することから、ユーザに、子機の購入意欲を起こさせることができる。そして、ユーザが、新たな子機を購入した場合でも、ユーザが既に所有している子機2は、その子機2が有する係数種データを用いて行われる処理に必要であり、ユーザがその所有している子機2を廃棄することを防止することができる。その結果、資源の有効利用に資することができる。
【0345】
なお、本実施の形態では、例えば、子機2において、信号処理部157は、子機2単体では、処理を行わないようになっている。即ち、子機2の信号処理部157は、IEEE1394通信によって、親機1から、CPU149(図11)を経由してコマンドを受信した場合に、そのコマンドに対応して処理を行うようになっている。
【0346】
従って、子機2は、大きくは、アンテナで受信されたテレビジョン放送信号に対応する画像を、CRT31に表示するとともに、音声を、スピーカユニット32Lおよび32Rから出力する機能(以下、適宜、TV機能という)と、信号処理部157が処理を行うことによって提供される機能(以下、適宜、特別機能という)とを有するが、単体では、TV機能しか使用できず、特別機能は使用することができない。即ち、子機2の特別機能を使用するには、その子機2が、親機1に接続され、スケーラブルTVシステムを構成する必要がある。
【0347】
次に、図30のフローチャートを参照して、図10の親機1の処理について説明する。
【0348】
まず最初に、ステップS41において、CPU129は、端子パネル21に、何らかの機器が接続されるか、または、IEEE1394インタフェース133もしくはIR受信部135から、何らかのコマンドが供給されるというイベントが生じたかどうかを判定し、何らのイベントも生じていないと判定した場合、ステップS41に戻る。
【0349】
また、ステップS41において、端子パネル21に機器が接続されるイベントが生じたと判定された場合、ステップS42に進み、CPU129は、後述する図31の認証処理を行い、ステップS41に戻る。
【0350】
ここで、端子パネル21に機器が接続されたかどうかを判定するには、端子パネル21に機器が接続されたことを検出する必要があるが、この検出は、例えば、次のようにして行われる。
【0351】
即ち、端子パネル21(図3)に設けられたIEEE1394端子21ijに、(IEEE1394ケーブルを介して)機器が接続されると、そのIEEE1394端子21ijの端子電圧が変化する。IEEE1394インタフェース133は、この端子電圧の変化を、CPU129に報告するようになっており、CPU129は、IEEE1394インタフェース133から、端子電圧の変化の報告を受けることによって、端子パネル21に機器が新たに接続されたことを検出する。なお、CPU129は、例えば、同様の手法で、端子パネル21から機器が切り離されたことを認識する。
【0352】
一方、ステップS41において、IEEE1394インタフェース133もしくはIR受信部135から、何らかのコマンドが供給されるイベントが生じたと判定された場合、ステップS43に進み、親機1では、そのコマンドに対応した処理が行われ、ステップS41に戻る。
【0353】
次に、図31のフローチャートを参照して、親機1が図30のステップS42で行う認証処理について説明する。
【0354】
親機1の認証処理では、端子パネル21に新たに接続された機器(以下、適宜、接続機器という)が、正当なIEEE1394機器であるかどうかについての認証と、そのIEEE1394機器が、親機または子機となるテレビジョン受像機(スケーラブル対応機)であるかどうかいついての認証の2つの認証が行われる。
【0355】
即ち、親機1の認証処理では、まず最初に、ステップS51において、CPU129は、IEEE1394インタフェース133を制御することにより、接続機器に対して、相互認証を行うことを要求する認証要求コマンドを送信させ、ステップS52に進む。
【0356】
ステップS52では、CPU129は、認証要求コマンドに対応するレスポンスが、接続機器から返ってきたかどうかを判定する。ステップS52において、認証要求コマンドに対応するレスポンスが、接続機器から返ってきていないと判定された場合、ステップS53に進み、CPU129は、タイムオーバとなったかどうか、即ち、認証要求コマンドを送信してから所定の時間が経過したかどうかを判定する。
【0357】
ステップS53において、タイムオーバであると判定された場合、即ち、認証要求コマンドを、接続機器に送信してから、所定の時間が経過しても、その接続機器から、認証要求コマンドに対応するレスポンスが返ってこない場合、ステップS54に進み、CPU129は、接続機器が正当なIEEE1394機器でなく、認証に失敗したとして、動作モードを、その接続機器との間では、何らのデータのやりとりも行わないモードである単体モードに設定して、リターンする。
【0358】
従って、親機1は、その後、正当なIEEE1394機器でない接続機器との間では、IEEE1394通信は勿論、何らのデータのやりとりも行わない。
【0359】
一方、ステップS53において、タイムオーバでないと判定された場合、ステップS52に戻り、以下、同様の処理を繰り返す。
【0360】
そして、ステップS52において、認証要求コマンドに対応するレスポンスが、接続機器から返ってきたと判定された場合、即ち、接続機器からのレスポンスが、IEEE1394インタフェース133で受信され、CPU129に供給された場合、ステップS55に進み、CPU129は、所定のアルゴリズムにしたがって、乱数(疑似乱数)R1を生成し、IEEE1394インタフェース133を介して、接続機器に送信する。
【0361】
その後、ステップS56に進み、CPU129は、ステップS55で送信した乱数R1に対して、その乱数R1を、所定の暗号化アルゴリズム(例えば、DES(Data Encryption Standard)や、FEAL(Fast data Encipherment Algorithm)、RC5などの秘密鍵暗号化方式)で暗号化した暗号化乱数E’(R1)が、接続機器から送信されてきたかどうかを判定する。
【0362】
ステップS56において、接続機器から暗号化乱数E’(R1)が送信されてきていないと判定された場合、ステップS57に進み、CPU129は、タイムオーバとなったかどうか、即ち、乱数R1を送信してから所定の時間が経過したかどうかを判定する。
【0363】
ステップS57において、タイムオーバであると判定された場合、即ち、乱数R1を、接続機器に送信してから、所定の時間が経過しても、その接続機器から、暗号化乱数E’(R1)が送信されてこない場合、ステップS54に進み、CPU129は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0364】
一方、ステップS57において、タイムオーバでないと判定された場合、ステップS56に戻り、以下、同様の処理を繰り返す。
【0365】
そして、ステップS56において、接続機器から暗号化乱数E’(R1)が送信されてきたと判定された場合、即ち、接続機器からの暗号化乱数E’(R1)が、IEEE1394インタフェース133で受信され、CPU129に供給された場合、ステップS58に進み、CPU129は、ステップS55で生成した乱数R1を、所定の暗号化アルゴリズムで暗号化し、暗号化乱数E(R1)を生成して、ステップS59に進む。
【0366】
ステップS59では、CPU129は、接続機器から送信されてきた暗号化乱数E’(R1)と、自身がステップS58で生成した暗号化乱数E(R1)とが等しいかどうかを判定する。
【0367】
ステップS59において、暗号化乱数E’(R1)とE(R1)とが等しくないと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズム(必要に応じて、暗号化に用いられる秘密鍵も含む)が、CPU129で採用されている暗号化アルゴリズムと異なるものである場合、ステップS54に進み、CPU129は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0368】
また、ステップS59において、暗号化乱数E’(R1)とE(R1)とが等しいと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズムが、CPU129で採用されている暗号化アルゴリズムと等しいものである場合、ステップS60に進み、CPU129は、接続機器が親機1の認証を行うための乱数R2が、接続機器から送信されてきたかどうかを判定する。
【0369】
ステップS60において、乱数R2が送信されてきていないと判定された場合、ステップS61に進み、CPU129は、タイムオーバとなったかどうか、即ち、例えば、ステップS59で暗号化乱数E’(R1)とE(R1)とが等しいと判定されてから、所定の時間が経過したかどうかを判定する。
【0370】
ステップS61において、タイムオーバであると判定された場合、即ち、相当の時間が経過しても、接続機器から、乱数R2が送信されてこない場合、ステップS54に進み、CPU129は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0371】
一方、ステップS61において、タイムオーバでないと判定された場合、ステップS60に戻り、以下、同様の処理を繰り返す。
【0372】
そして、ステップS60において、接続機器から、乱数R2が送信されてきたと判定された場合、即ち、接続機器からの乱数R2が、IEEE1394インタフェース133で受信され、CPU129に供給された場合、ステップS62に進み、CPU129は、乱数R2を所定の暗号化アルゴリズムで暗号化し、暗号化乱数E(R1)を生成して、IEEE1394インタフェース133を介して、接続機器に送信する。
【0373】
ここで、ステップS60において、接続機器から乱数R2が送信されてきた時点で、接続機器が正当なIEEE1394機器であることの認証が成功する。
【0374】
その後、ステップS63に進み、CPU129は、IEEE1394インタフェース133を制御することにより、接続機器の機器IDと機能情報を要求する機能情報要求コマンドとともに、自身の機器IDと機能情報を、接続機器に送信する。
【0375】
ここで、機器IDは、親機1や子機2となるテレビジョン受像機を特定するユニークなIDである。
【0376】
また、機能情報は、自身の機能に関する情報で、例えば、自身が有する係数種データの種類(どのような画像変換処理を行うことができる係数種データであるのか)、外部から受け付けるコマンドの種類(例えば、電源のオン/オフ、音量調整、チャンネル、輝度、シャープネスなどを制御するコマンドのうちのいずれを外部から受け付けるか)、管面表示(OSD表示)が可能かどうか、ミュート状態になり得るかどうか、スリープ状態となり得るかどうかなどといった情報が含まれる。さらに、機能情報には、自身が親機としての機能を有するのか、または子機としての機能を有するのかといった情報も含まれる。
【0377】
なお、親機1では、機器IDおよび機能情報は、例えば、EEPROM130や、図15に示したコンフィギレーションROMのvendor_dependent_informationなどに記憶させておくことができる。
【0378】
その後、ステップS64に進み、CPU129は、ステップS63で接続機器に送信した機能情報要求コマンドに対応して、その接続機器が、機器IDと機能情報を送信してくるのを待って、その機器IDと機能情報を、IEEE1394インタフェース133を介して受信し、EEPROM130に記憶させて、ステップS65に進む。
【0379】
ステップS65では、CPU129は、EEPROM130に記憶された機能情報を参照することにより、接続機器が子機であるかどうかを判定する。ステップS65において、接続機器が子機であると判定された場合、即ち、接続機器が子機であることの認証に成功した場合、ステップS66およびS67をスキップして、ステップS68に進み、CPU129は、動作モードを、その子機である接続機器に対して特別機能による処理を行わせるための制御コマンドを提供、即ち、子機の特別機能を制御する特別機能コマンド受付/提供モードに設定して、リターンする。
【0380】
一方、ステップS65において、接続機器が子機でないと判定された場合、ステップS66に進み、CPU129は、EEPROM130に記憶された機能情報を参照することにより、接続機器が親機であるかどうかを判定する。ステップS66において、接続機器が親機であると判定された場合、即ち、接続機器が親機であることの認証に成功した場合、ステップS67に進み、CPU129は、親機である接続機器との間で親子調整処理を行う。
【0381】
即ち、この場合、親機1に、他の親機が接続されていることから、スケーラブルTVシステムを構成するテレビジョン受像機の中に、親機として機能するものが、2台存在することになる。本実施の形態では、スケーラブルTVシステムにおける親機は1台である必要があり、このため、ステップS67では、親機1と、接続機器としての親機との間で、いずれが親機としてのテレビジョン受像機として機能するかを決定する親子調整処理が行われる。
【0382】
具体的には、例えば、より早く、スケーラブルTVシステムを構成することとなった親機、つまり、本実施の形態では、親機1が、親機としてのテレビジョン受像機として機能するように決定される。なお、親機として機能しないように決定された他の親機は、子機として機能することとなる。
【0383】
ステップS67で親子調整処理が行われた後は、ステップS68に進み、CPU129は、上述したように、動作モードを、特別機能コマンド受付/提供モードに設定して、リターンする。
【0384】
一方、ステップS66において、接続機器が親機でないと判定された場合、即ち、接続機器が親機および子機のいずれでもなく、従って、接続機器が親機または子機であることの認証に失敗した場合、ステップS69に進み、CPU129は、動作モードを、接続機器との間で、既定のAV/Cコマンドセットのやりとりは可能であるが、特別機能による処理を行うための制御コマンドのやりとりはできない通常機能コマンド受付/提供モードに設定して、リターンする。
【0385】
即ち、この場合、接続機器は、親機および子機のいずれでもないため、そのような接続機器が、親機1に接続されても、特別機能は提供されない。但し、この場合、接続機器は、正当なIEEE1394機器ではあることから、親機1と接続機器との間における既定のAV/Cコマンドセットのやりとりは許可される。従って、この場合、親機1と接続機器については、他方(あるいは、親機1に接続されている他のIEEE1394機器)から、既定のAV/Cコマンドセットによって制御することは可能である。
【0386】
次に、図32のフローチャートを参照して、図11の子機2の処理について説明する。
【0387】
まず最初に、ステップS71において、CPU149は、端子パネル41に、何らかの機器が接続されるか、または、IEEE1394インタフェース153もしくはIR受信部155から、何らかのコマンドが供給されるというイベントが生じたかどうかを判定し、何らのイベントも生じていないと判定した場合、ステップS71に戻る。
【0388】
また、ステップS71において、端子パネル41に機器が接続されるイベントが生じたと判定された場合、ステップS72に進み、CPU149は、後述する図33の認証処理を行い、ステップS71に戻る。
【0389】
ここで、端子パネル41に機器が接続されたかどうかを判定するには、端子パネル41に機器が接続されたことを検出する必要があるが、この検出は、例えば、図30のステップS41で説明した場合と同様に行われる。
【0390】
一方、ステップS71において、IEEE1394インタフェース153もしくはIR受信部155から、何らかのコマンドが供給されるイベントが生じたと判定された場合、ステップS73に進み、子機2では、そのコマンドに対応した処理が行われ、ステップS71に戻る。
【0391】
次に、図33のフローチャートを参照して、子機2が図32のステップS72で行う認証処理について説明する。
【0392】
子機2の認証処理では、端子パネル41に新たに接続された機器(接続機器)が、正当なIEEE1394機器であるかどうかについての認証と、そのIEEE1394機器が、親機であるかどうかいついての認証の2つの認証が行われる。
【0393】
即ち、子機2の認証処理では、まず最初に、ステップS81において、CPU149は、接続機器から、相互認証を行うことを要求する認証要求コマンドが送信されてきたかどうかを判定し、送信されてきていないと判定した場合、ステップS82に進む。
【0394】
ステップS82では、CPU149は、タイムオーバとなったかどうか、即ち、認証処理を開始してから所定の時間が経過したかどうかを判定する。
【0395】
ステップS82において、タイムオーバであると判定された場合、即ち、認証処理を開始してから、所定の時間が経過しても、接続機器から、認証要求コマンドが送信されてこない場合、ステップS83に進み、CPU149は、接続機器が正当なIEEE1394機器でなく、認証に失敗したとして、動作モードを、その接続機器との間では、何らのデータのやりとりも行わないモードである単体モードに設定して、リターンする。
【0396】
従って、子機2は、親機1と同様に、正当なIEEE1394機器でない接続機器との間では、IEEE1394通信は勿論、何らのデータのやりとりも行わない。
【0397】
一方、ステップS82において、タイムオーバでないと判定された場合、ステップS81に戻り、以下、同様の処理を繰り返す。
【0398】
そして、ステップS81において、認証要求コマンドが、接続機器から送信されてきたと判定された場合、即ち、図31のステップS51で接続機器としての親機1から送信されてくる認証要求コマンドが、IEEE1394インタフェース153で受信され、CPU149に供給された場合、ステップS84に進み、CPU149は、IEEE1394インタフェース153を制御することにより、認証要求コマンドに対するレスポンスを、接続機器に送信させる。
【0399】
ここで、本実施の形態では、図31におけるステップS51乃至S53の処理を親機1に、図33のステップS81,S82、およびS84の処理を子機2に、それぞれ行わせるようにしたが、図31におけるステップS51乃至S53の処理は子機2に、図33のステップS81,S82、およびS84の処理は親機1に、それぞれ行わせるようにすることも可能である。
【0400】
その後、ステップS85に進み、CPU149は、接続機器から、乱数R1が送信されてきたかどうかを判定し、送信されてきていないと判定した場合、ステップS86に進む。
【0401】
ステップS86では、CPU149は、タイムオーバとなったかどうか、即ち、ステップS84で認証要求コマンドに対するレスポンスを送信してから所定の時間が経過したかどうかを判定する。
【0402】
ステップS86において、タイムオーバであると判定された場合、即ち、認証コマンドに対するレスポンスを送信してから、所定の時間が経過しても、接続機器から、乱数R1が送信されてこない場合、ステップS83に進み、CPU149は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを、その接続機器との間では、何らのデータのやりとりも行わないモードである単体モードに設定して、リターンする。
【0403】
一方、ステップS86において、タイムオーバでないと判定された場合、ステップS85に戻り、以下、同様の処理を繰り返す。
【0404】
そして、ステップS85において、接続機器から乱数R1が送信されてきたと判定された場合、即ち、図31のステップS55で接続機器としての親機1から送信されてくる乱数R1が、IEEE1394インタフェース153で受信され、CPU149に供給された場合、ステップS87に進み、CPU149は、その乱数R1を、所定の暗号化アルゴリズムで暗号化し、暗号化乱数E’(R1)を生成する。さらに、ステップS87では、CPU149は、IEEE1394インタフェース153を制御することにより、暗号化乱数E’(R1)を、接続機器に送信し、ステップS89に進む。
【0405】
ステップS89では、CPU149は、乱数(疑似乱数)R2を生成し、IEEE1394インタフェース153を制御することにより、乱数R2を接続機器に送信させ、ステップS90に進む。
【0406】
ステップS90では、CPU149は、接続機器としての親機1が図31のステップS62で生成する、乱数R2を暗号化した暗号化乱数E(R2)が、接続機器から送信されてきたかどうかを判定する。
【0407】
ステップS90において、接続機器から暗号化乱数E(R2)が送信されてきていないと判定された場合、ステップS91に進み、CPU149は、タイムオーバとなったかどうか、即ち、乱数R2を送信してから所定の時間が経過したかどうかを判定する。
【0408】
ステップS91において、タイムオーバであると判定された場合、即ち、乱数R2を、接続機器に送信してから、所定の時間が経過しても、その接続機器から、暗号化乱数E(R2)が送信されてこない場合、ステップS83に進み、CPU149は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0409】
一方、ステップS91において、タイムオーバでないと判定された場合、ステップS90に戻り、以下、同様の処理を繰り返す。
【0410】
そして、ステップS90において、接続機器から暗号化乱数E(R2)が送信されてきたと判定された場合、即ち、接続機器からの暗号化乱数E(R2)が、IEEE1394インタフェース153で受信され、CPU149に供給された場合、ステップS92に進み、CPU149は、ステップS89で生成した乱数R2を、所定の暗号化アルゴリズムで暗号化し、暗号化乱数E’(R2)を生成して、ステップS93に進む。
【0411】
ステップS93では、CPU149は、接続機器から送信されてきた暗号化乱数E(R2)と、自身がステップS92生成した暗号化乱数E’(R2)とが等しいかどうかを判定する。
【0412】
ステップS93において、暗号化乱数E(R2)とE’(R2)とが等しくないと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズム(必要に応じて、暗号化に用いられる秘密鍵も含む)が、CPU149で採用されている暗号化アルゴリズムと異なるものである場合、ステップS83に進み、CPU149は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0413】
また、ステップS93において、暗号化乱数E(R2)とE’(R2)とが等しいと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズムが、CPU149で採用されている暗号化アルゴリズムと等しいものであり、これにより、接続機器が正当なIEEE1394機器であることの認証が成功した場合、ステップS94に進み、CPU149は、接続機器としての親機1が、図31のステップS63で機能情報要求コマンドとともに送信してくる機器IDおよび機能情報を、IEEE1394インタフェース153を介して受信し、EEPROM150に記憶させる。
【0414】
そして、ステップS95に進み、CPU149は、IEEE1394インタフェース153を制御することにより、ステップS94で受信した接続機器からの機能情報要求コマンドに対応して、自身の機器IDと機能情報を、接続機器に送信させ、ステップS96に進む。
【0415】
ここで、子機2では、機能IDと機能情報は、図31で説明した親機1における場合と同様に、EEPROM150や、図15に示したコンフィギレーションROMのvendor_dependent_informationなどに記憶させておくことができる。
【0416】
ステップS96では、CPU149は、EEPROM150に記憶された機能情報を参照することにより、接続機器が親機であるかどうかを判定する。ステップS96において、接続機器が親機であると判定された場合、即ち、接続機器が親機であることの認証に成功した場合、ステップS97に進み、CPU149は、動作モードを、親機である接続機器からの制御コマンドを受け付け、その制御コマンドに対応して特別機能による処理を行う、即ち、特別機能を制御する制御コマンドを受け付ける特別機能コマンド受付/提供モードに設定して、リターンする。
【0417】
ここで、子機2は、特別機能コマンド受付/提供モードとなると、基本的に、自身のフロントパネル154やIR受信部155から供給されるコマンドを無視し、IEEE1394インタフェース153で受信される親機1からのコマンドにしたがって各種の処理を行う状態となる。即ち、子機2は、例えば、チャンネルや音量の設定その他を、親機1からのコマンドにのみ対応して行う状態となる。従って、スケーラブルTVシステムは、親機1によって、そのスケーラブルTVシステムを構成するすべての子機2を制御する、いわば集中制御型のシステムであるということができる。
【0418】
なお、親機1(図10)から子機2へのコマンドの送信は、そのフロントパネル134やIR受信部135からの入力に基づいて行うこともできるし、子機2のフロントパネル154やIR受信部155への入力を、IEEE1394インタフェース153を介して親機1に転送し、そのようにして子機2から親機1に転送されてくる入力に基づいて行うこともできる。
【0419】
一方、ステップS96において、接続機器が親機でないと判定された場合、即ち、接続機器が親機であることの認証に失敗した場合、ステップS98に進み、CPU149は、動作モードを、接続機器との間で、既定のAV/Cコマンドセットのやりとりは可能であるが、特別機能による処理を行うための制御コマンドのやりとりはできない通常機能コマンド受付/提供モードに設定して、リターンする。
【0420】
即ち、この場合、接続機器は、親機でないため、そのような接続機器が、子機2に接続されても、特別機能は提供されない。従って、子機2に、他の子機が接続されただけでは、特別機能は提供されない。但し、この場合、接続機器は、正当なIEEE1394機器ではあることから、子機2と接続機器との間における既定のAV/Cコマンドセットのやりとりは許可される。従って、この場合、子機2と接続機器(他の子機を含む)については、他方から、既定のAV/Cコマンドセットによって制御することは可能である。
【0421】
次に、親機1と子機2で、図31と図33で説明した認証処理がそれぞれ成功し、親機1および子機2が、その動作モードを、特別機能コマンド受付/提供モードとした後に、スケーラブルTVシステムが特別機能を提供するために、親機1と子機2が、図30のステップS43と図32のステップS73でそれぞれ行う処理の詳細の例について説明する。
【0422】
まず、親機1では、図10で説明したようにして、テレビジョン放送番組としての画像と音声が出力される(画像が表示され、音声が出力される)が、親機1において、このように、画像と音声が出力されている場合に、ユーザが、リモコン15(図7)のガイドボタンスイッチ63(またはリモコン35(図8)のガイドボタンスイッチ93)をオンとするように操作すると、リモコン15において、ユーザの操作に対応する赤外線が出射される。この赤外線は、親機1(図10)のIR受信部135で受信され、ガイドボタンスイッチ63の操作に対応するコマンド(以下、適宜、キャプション表示コマンドという)が、CPU129に供給される。
【0423】
なお、リモコン15による赤外線は、子機2(図11)のIR受信部155でも受信されるが、子機2では、この赤外線は無視される。
【0424】
親機1(図10)のCPU129は、以上のようにして、キャプション表示コマンドを受信すると、図34のフローチャートにしたがった親機のクローズドキャプション処理を行う。
【0425】
即ち、CPU129は、まず最初に、ステップS101において、デマルチプレクサ124に供給されているトランスポートストリームに、クローズドキャプションデータが含まれているかどうかを判定する。
【0426】
ここで、MPEGビデオストリーム中に、クローズドキャプションデータを含める場合には、クローズドキャプションデータは、例えば、そのシーケンス層におけるMPEGユーザデータ(MPEG-2ユーザデータ)として配置される。この場合、ステップS101では、CPU129は、デマルチプレクサ124に供給されているトランスポートストリームを参照することにより、そのトランスポートストリーム中に、クローズドキャプションデータが含まれているかどうかを判定する。
【0427】
ステップS101において、トランスポートストリーム中に、クローズドキャプションデータが含まれないと判定された場合、以降の処理をスキップして、クローズドキャプション処理を終了する。
【0428】
また、ステップS101において、トランスポートストリーム中に、クローズドキャプションデータが含まれると判定された場合、ステップS102に進み、CPU129は、EEPROM130に記憶された、スケーラブルTVシステムを構成する子機の機能情報、および自身の機能情報を参照することにより、スケーラブルTVシステムを構成するテレビジョン受像機の中から、クローズドキャプション用の係数種データを有するものを検索する。即ち、機能情報には、上述したように、スケーラブルTVシステムを構成する各テレビジョン受像機が有する係数種データの種類が含まれており、ステップS102では、このような機能情報を参照することにより、クローズドキャプション用の係数種データを有するテレビジョン受像機の検索が行われる。
【0429】
ここで、クローズドキャプション用の係数種データとは、例えば、クローズドキャプションデータによって表示されるクローズドキャプションの画像データを、教師データとするとともに、その教師データの解像度を劣化させた画像データ、その教師データにノイズを加えた画像データ、またはその教師データを縮小した画像データなどを、生徒データとして、学習を行うことにより得られる係数種データであり、クローズドキャプションの画像について、その解像度の向上、ノイズの除去、または拡大を行うのに、特に適した係数種データを意味する。
【0430】
その後、ステップS103に進み、CPU129は、ステップS102の検索結果に基づいて、クローズドキャプション専用の係数種データを有するテレビジョン受像機が存在するかどうかを判定する。
【0431】
ステップS103において、クローズドキャプション専用の係数種データを有するテレビジョン受像機が存在しないと判定された場合、ステップS104に進み、CPU129は、通常のクローズドキャプション表示を開始するように、信号処理部137を制御する。
【0432】
即ち、信号処理部137は、いわゆるクローズドキャプションデコーダとしての機能も有しており、CPU129は、デマルチプレクサ124に、トランスポートストリーム中のクローズドキャプションデータを要求し、その要求に応じて、デマルチプレクサ124から供給されるクローズドキャプションデータを、信号処理部137に供給する。信号処理部137は、CPU129からのクローズドキャプションデータをデコード処理し、その結果得られるクローズドキャプションを、フレームメモリ127に記憶された画像データの所定の位置に重畳する。これにより、CRT11には、MPEGビデオデコーダ125でデコードされた画像データに、クローズドキャプションが重畳された画像データが表示される。
【0433】
従って、この場合、親機1のCRT11では、クローズドキャプションデコーダを内蔵している一般的なテレビジョン受像機における場合と同様に、コンテンツとしての画像に、対応するクローズドキャプションが重畳されて表示される。
【0434】
以上のようにして、クローズドキャプションの表示が開始されると、ステップS105に進み、CPU129は、ステップS101における場合と同様に、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれているかどうかを判定する。
【0435】
ステップS105において、クローズドキャプションデータがないと判定された場合、ステップS106をスキップして、ステップS107に進み、CPU129は、信号処理部137を制御することにより、クローズドキャプションデータのデコード処理を終了させ、クローズドキャプション処理を終了する。
【0436】
一方、ステップS105において、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれていると判定された場合、ステップS106に進み、CPU129は、クローズドキャプション表示を終了するコマンド(以下、適宜、クローズドキャプション表示オフコマンドという)が送信されてきたかどうかを判定する。
【0437】
ステップS106において、クローズドキャプション表示オフコマンドが送信されてきていないと判定された場合、ステップS105に戻り、以下、同様の処理が繰り返される。即ち、この場合、クローズドキャプションの表示が続行される。
【0438】
また、ステップS106において、クローズドキャプション表示オフコマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)のガイドボタンスイッチ63(またはリモコン35(図8)のガイドボタンスイッチ93)をオフとするように操作することにより、リモコン15から、クローズドキャプション表示オフコマンドに対応する赤外線が出射され、IR受信部135で受信された場合、ステップS107に進み、CPU129は、上述したように、信号処理部137を制御することにより、クローズドキャプションデータのデコード処理を終了させ、クローズドキャプション処理を終了する。
【0439】
一方、ステップS103において、クローズドキャプション専用の係数種データを有するテレビジョン受像機としての子機(以下、適宜、キャプション係数種データ保有子機という)が存在すると判定された場合、ステップS108に進み、CPU129は、スケーラブルTVシステムを構成するテレビジョン受像機としての子機の中から、クローズドキャプションを表示させるものを選択する。
【0440】
即ち、CPU129は、例えば、親機1の左隣に配置された子機223や、下に配置された子機232などを、クローズドキャプションを表示させる子機(以下、適宜、キャプション表示用子機という)として選択する。なお、親機1は、子機2ijの、親機1から見た配置位置を、上述したように、あらかじめ認識しており、これにより、親機1の左隣に配置された子機223や、下に配置された子機232などの各配置位置にある子機ijを特定する。
【0441】
その後、ステップS109に進み、CPU129は、IEEE1394インタフェース133を介して、キャプション係数種データ保有子機に、コマンドを送信し、これにより、クローズドキャプション専用の係数種データを要求する。
【0442】
ここで、CPU129は、キャプション係数種データ保有子機となっている子機を、EEPROM130に機能情報とともに記憶されている機器IDによって特定し、クローズドキャプション専用の係数種データを要求するコマンド(以下、適宜、係数種データ要求コマンドという)を、その機器ID宛に送信する。CPU129は、係数種データ要求コマンド以外のコマンドも、そのコマンドを送るべき子機を、機器IDによって特定し、その機器ID宛に送信する。
【0443】
ステップS109では、さらに、CPU129は、係数種データ要求コマンドを受信したキャプション係数種データ保有子機からクローズドキャプション専用の係数種データが送信されてくるのを待って、そのクローズドキャプション専用の係数種データを、IEEE1394インタフェース133を介して受信し、これにより、クローズドキャプション専用の係数種データを取得する。
【0444】
ここで、CPU129は、自身の信号処理部137のEEPROM137Bに、クローズドキャプション専用の係数種データが記憶されている場合には、ステップS109において、クローズドキャプション専用の係数種データを、EEPROM137Bから読み出すことにより取得する。
【0445】
また、クローズドキャプション専用の係数種データが、スケーラブルTVシステムを構成するテレビジョン受像機のいずれにも記憶されていない場合であっても、例えば、図示せぬ係数種データ提供用サーバにおいて、クローズドキャプション専用の係数種データが提供されているときには、CPU129では、モデム136を制御することにより、係数種データ提供用サーバにアクセスし、その係数種データ提供用サーバから、クローズドキャプション専用の係数種データを取得するようにすることが可能である。
【0446】
なお、このような係数種データ提供用サーバによる係数種データの提供は、クローズドキャプション専用の係数種データに限らず、後述する各種の処理(画像変換処理)に用いられる係数種データについても、同様に行うことが可能である。
【0447】
また、係数種データ提供用サーバによる係数種データの提供は、無償または有償のいずれで行うことも可能である。
【0448】
CPU129は、ステップS109でクローズドキャプション専用の係数種データを取得すると、ステップS110に進み、IEEE1394インタフェース133を制御することにより、キャプション表示用子機に対して、クローズドキャプションの表示を指令するクローズドキャプション表示コマンドとともに、クローズドキャプション専用の係数種データを送信し、ステップS111に進む。
【0449】
ステップS111では、CPU129は、IEEE1394インタフェース133を制御することにより、キャプション表示用子機に対して、そのIEEE1394インタフェース153(図11)への入力を選択して、そのCRT31に表示することを指令する外部入力選択コマンドを送信し、ステップS112に進む。
【0450】
ステップS112では、CPU129は、クローズドキャプションデータの、キャプション表示用子機への転送を開始する。
【0451】
即ち、CPU129は、デマルチプレクサ124に、トランスポートストリーム中のクローズドキャプションデータを要求し、その要求に応じて、デマルチプレクサ124から供給されるクローズドキャプションデータを受信する。さらに、CPU129は、IEEE1394インタフェース133を制御することにより、デマルチプレクサ124から受信したクローズドキャプションデータを、キャプション表示用子機に転送させる。
【0452】
以上のようにして、クローズドキャプションデータの、キャプション表示用子機への転送が開始されると、ステップS113に進み、CPU129は、ステップS101における場合と同様に、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれているかどうかを判定する。
【0453】
ステップS113において、クローズドキャプションデータがないと判定された場合、ステップS114をスキップして、ステップS115に進み、CPU129は、IEEE1394インタフェース133を制御することにより、クローズドキャプションデータの転送処理を終了させ、クローズドキャプション処理を終了する。
【0454】
一方、ステップS113において、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれていると判定された場合、ステップS114に進み、CPU129は、クローズドキャプション表示を終了するコマンド(クローズドキャプション表示オフコマンド)が送信されてきたかどうかを判定する。
【0455】
ステップS114において、クローズドキャプション表示オフコマンドが送信されてきていないと判定された場合、ステップS113に戻り、以下、同様の処理が繰り返される。即ち、この場合、クローズドキャプションデータの、キャプション表示用子機への転送が続行される。
【0456】
また、ステップS114において、クローズドキャプション表示オフコマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)のガイドボタンスイッチ63(またはリモコン35(図8)のガイドボタンスイッチ93)をオフとするように操作することにより、リモコン15から、クローズドキャプション表示オフコマンドに対応する赤外線が出射され、IR受信部135で受信された場合、ステップS115に進み、CPU129は、IEEE1394インタフェース133を制御することにより、クローズドキャプションデータの転送処理を終了させ、クローズドキャプション処理を終了する。
【0457】
親機1において、図34のクローズドキャプション処理が行われ、これにより、そのステップS110において、クローズドキャプション表示コマンドが送信され、そのクローズドキャプション表示コマンドが、キャプション表示用子機としての子機2で受信されると(子機2(図11)のIEEE1394インタフェース153で受信され、CPU149に供給されると)、その子機2では、図35のフローチャートにしたがった子機のクローズドキャプション処理が行われる。
【0458】
即ち、キャプション表示用子機としての子機2(図11)では、まず最初に、ステップS121において、図34のステップS110で、親機1からクローズドキャプション表示コマンドとともに送信されてくるクローズドキャプション専用の係数種データが、IEEE1394インタフェース153で受信され、CPU149に供給され、ステップS122に進む。
【0459】
ステップS122では、CPU149は、クローズドキャプション専用の係数種データを、信号処理部157に転送し、係数種メモリ207(図29)にセットする(記憶)させる。なお、その際、信号処理部157は、自身が元から係数種メモリ207に記憶している係数種データを、あらかじめ、EEPROM157Bの空き領域に待避させる。
【0460】
ここで、キャプション表示用子機としての子機2が、キャプション係数種データ保有子機でもある場合、即ち、子機2の信号処理部157を構成する係数メモリ207に、元からクローズドキャプション専用の係数種データが記憶されている場合、上述のステップS121およびS122の処理、並びに後述するステップS128の処理は、スキップするようにすることができる。
【0461】
その後、ステップS123に進み、CPU149は、親機1が図34のステップS111で送信してくる外部入力選択コマンドを受信したかどうかを判定し、受信していないと判定した場合、ステップS123に戻る。
【0462】
また、ステップS123において、親機1からの外部入力選択コマンドを受信したと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの外部入力選択コマンドが受信され、CPU149に供給された場合、ステップS124に進み、CPU149は、IEEE1394インタフェース153で受信されるクローズドキャプションデータを選択して、信号処理部157に供給する状態となり、ステップS125に進む。
【0463】
ステップS125では、CPU149は、親機1が図34のステップS112で転送を開始するクローズドキャプションデータが送信されてきたかどうかを判定する。
【0464】
ステップS125において、親機1からのクローズドキャプションデータが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1からのクローズドキャプションデータが受信され、CPU149に供給された場合、ステップS126に進み、CPU149は、そのクローズドキャプションデータを、信号処理部157に供給し、そのクローズドキャプションデータを対象とし、かつ、ステップS122で係数種メモリ207(図29)にセットされたクローズドキャプション専用の係数種データを用いた画像変換処理を行わせる。
【0465】
即ち、この場合、信号処理部157は、CPU149からのクローズドキャプションデータをデコードし、その結果得られるクローズドキャプションの画像データを、係数種メモリ207に記憶されたクローズドキャプション専用の係数種データから生成されるタップ係数を用いて画像変換処理することにより、高画質のクローズドキャプションの画像データに変換する。
【0466】
この高画質のクローズドキャプションの画像データは、ステップS127において、フレームメモリ147およびNTSCエンコーダ148を介してCRT31に供給されて表示される。そして、ステップS125に戻り、ステップS125において、親機1からクローズドキャプションデータが送信されてこないと判定されるまで、ステップS125乃至S127の処理が繰り返される。
【0467】
そして、ステップS125において、親機1からクローズドキャプションデータが送信されてこないと判定された場合、即ち、IEEE1394インタフェース153において、クローズドキャプションデータを受信することができなくなった場合、ステップS128に進み、信号処理部157は、EEPROM157Bに待避しておいた元の係数種データを、係数種メモリ207(図29)にセットし直し(上書きし)、クローズドキャプション処理を終了する。
【0468】
図34の親機のクローズドキャプション処理、および図35の子機のクローズドキャプション処理によれば、スケーラブルTVシステムを構成するテレビジョン受像機の中に、クローズドキャプション専用の係数種データを有するものが存在しない場合には、親機1では、従来の、クローズドキャプションデコーダ内蔵型のテレビジョン受像機と同様に、テレビジョン放送番組としての画像データに、クローズドキャプションの画像データが重畳され、CRT11に表示される。
【0469】
一方、スケーラブルTVシステムを構成するテレビジョン受像機の中に、クローズドキャプション専用の係数種データを有するものが存在する場合には、親機1のCRT11では、テレビジョン放送番組としての画像データだけが表示される。さらに、キャプション表示用子機としての子機2のCRT31では、親機1のCRT11に表示された画像データに対応するクローズドキャプションの画像データであって、高画質の画像データに変換されたものが表示される。
【0470】
従って、ユーザは、テレビジョン放送番組としての画像データを、クローズドキャプションの画像データに妨げられることなく、見ることができる。さらに、ユーザは、高画質のクローズドキャプションの画像データを見ることができる。
【0471】
なお、スケーラブルTVシステムを構成するテレビジョン受像機の中に、クローズドキャプション専用の係数種データを有するものが存在しない場合であっても、クローズドキャプションの画像データは、テレビジョン放送番組の画像データとは別に、キャプション表示用子機としての子機2のCRT31に表示させるようにすることが可能である。この場合、ユーザは、高画質のクローズドキャプションの画像データを見ることはできないが、それでも、テレビジョン放送番組としての画像データを、クローズドキャプションの画像データに妨げられることなく、見ることが可能となる。
【0472】
また、上述の場合には、クローズドキャプションの画像データを、キャプション表示用子機としての1台の子機2にのみ表示させるようにしたが、クローズドキャプションの画像データは、その他、スケーラブルTVシステムを構成する2台以上の子機において表示するようにすることも可能である。即ち、例えば、複数言語のクローズドキャプションデータが存在する場合には、各言語のクローズドキャプションの画像データを、異なる子機で表示するようにすることが可能である。
【0473】
次に、スケーラブルTVシステムは、例えば、画像データの一部を拡大する特別機能を有しており、この特別機能は、親機1と子機2において、一部拡大処理が行われることにより実現される。
【0474】
一部拡大処理を行うことの指示は、例えば、メニュー画面から行うことができるようになっている。
【0475】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、一部拡大処理を表すアイコン(以下、適宜、一部拡大アイコンという)が表示されるようになっており、ユーザが、この一部拡大アイコンを、リモコン15を操作してクリックした場合、親機1と子機2それぞれにおいて、一部拡大処理が開始される。
【0476】
そこで、まず、図36のフローチャートを参照して、親機の一部拡大処理について説明する。
【0477】
例えば、いま、親機1のCRT11に、テレビジョン放送番組としての画像データ(以下、適宜、番組画像データという)が表示されている状態において、一部拡大アイコンがクリックされたとすると、まず最初に、ステップS131において、CPU129は、親機1に代えて、その親機1のCRT11に表示された番組画像データの全体を表示させる子機(以下、適宜、全体表示用子機という)を、スケーラブルTVシステムを構成するテレビジョン受像機の中から選択し、ステップS132に進む。
【0478】
ここで、全体表示用子機としては、スケーラブルTVシステムを構成する子機のうちの1台だけを選択するようにすることも可能であるし、2台以上(すべてを含む)を選択するようにすることも可能である。
【0479】
ステップS132では、CPU129は、IEEE1394インタフェース133を制御することにより、全体表示用子機と通信し、これにより、全体表示用子機の電源がオン状態となっているかどうかを判定する。
【0480】
ステップS132において、全体表示用子機の電源がオン状態となってないと判定された場合、ステップS133に進み、CPU129は、IEEE1394インタフェース133を制御することにより、全体表示用子機に対して、電源をオン状態にすることを指令するコマンドを送信し、これにより、全体表示用子機を、電源オンの状態にさせ、ステップS134に進む。
【0481】
また、ステップS132において、全体表示用子機の電源がオン状態となっていると判定された場合、ステップS133をスキップして、ステップS134に進み、CPU129は、信号処理部137を制御することにより、CRT11に表示された画像において、拡大すべき位置(拡大位置)を指定することを要求するメッセージ(以下、拡大位置指定要求メッセージという)を、CRT11に、例えばOSD表示させる。
【0482】
即ち、この場合、信号処理部137は、CPU129からの制御にしたがい、拡大位置指定要求メッセージのOSDデータを生成し、フレームメモリ127に記憶された番組画像データに重畳する。この拡大位置指定要求メッセージのOSDデータが重畳された番組画像データは、フレームメモリ127から、NTSCエンコーダ128を介して、CRT11に供給され、これにより、CRT11においては、番組画像データとともに、拡大位置指定要求メッセージがOSD表示される。
【0483】
その後、ステップS135に進み、CPU129は、ユーザが、ステップS134で表示された拡大位置指定要求メッセージに対応して、拡大位置を指定したかどうかを判定し、拡大位置を指定していないと判定した場合、ステップS135に戻る。
【0484】
また、ステップS135において、ユーザが拡大位置を指定したと判定された場合、即ち、ユーザが、リモコン15(またはリモコン35)を操作することにより、CRT11の表示画面上の位置を指定し、これにより、その位置に対応する赤外線が、IR受信部135で受信され、CPU129に供給された場合、CPU129は、その指定された位置を、拡大位置として認識し、ステップS136に進む。
【0485】
ステップS136では、CPU129は、IEEE1394インタフェース133を制御することにより、全体表示用子機に対して、そのIEEE1394インタフェース153(図11)への入力を選択して、そのCRT31に表示することを指令する外部入力選択コマンドを送信し、ステップS137に進む。
【0486】
ステップS137では、CPU129は、番組画像データの、全体表示用子機への転送を開始する。
【0487】
即ち、CPU129は、デマルチプレクサ124に、トランスポートストリーム中の、MPEGビデオデコーダ125に供給されているTSパケットを要求し、その要求に応じて、デマルチプレクサ124から供給されるTSパケットを受信する。さらに、CPU129は、IEEE1394インタフェース133を制御することにより、デマルチプレクサ124から受信したTSパケットを、全体表示用子機に転送させる。従って、全体表示用子機には、親機1のCRT11で表示されている番組画像データに対応するTSパケットが転送され、さらに、全体表示用子機において、後述する図37の子機の一部拡大処理が行われることにより、そのTSパケットに対応する番組画像データが表示される。即ち、全体表示用子機では、親機1で表示されていた番組画像データの全体が表示される。
【0488】
なお、CPU129においては、全体表示用子機には、TSパケットではなく、フレームメモリ127に記憶された番組画像データ、即ち、MPEGデコード後の画像データを、信号処理部137を介して読み出して転送するようにすることも可能である。この場合、全体表示用子機では、番組画像データを、MPEGデコードすることなく表示することができる。
【0489】
以上のようにして、TSパケットの、全体表示用子機への転送が開始されると、ステップS138に進み、CPU129は、信号処理部137を制御することにより、フレームメモリ127に記憶された番組画像データの拡大位置を中心とする所定の範囲を拡大範囲として、その拡大範囲を対象とし、かつ、係数種メモリ167(図22)にセットされたリサイズ処理用の係数種データを用いた画像変換処理を行わせる。
【0490】
即ち、本実施の形態では、親機1の信号処理部137(図22)を構成する係数種メモリ167には、少なくとも、リサイズ処理用の係数種データが記憶されており、信号処理部137は、フレームメモリ127に記憶された番組画像データの拡大位置を中心とする所定の範囲としての拡大範囲を、係数種メモリ167に記憶されたリサイズ処理用の係数種データから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲の番組画像データを、所定の拡大率で拡大(リサイズ)した画像データ(以下、適宜、一部拡大画像データという)に変換する。
【0491】
この一部拡大画像データは、ステップS139において、フレームメモリ127およびNTSCエンコーダ128を介してCRT11に供給されて表示される。
【0492】
従って、この場合、親機1のCRT11では、番組画像データの、ユーザが指定した拡大位置を中心とする所定の範囲(拡大範囲)を拡大した一部拡大画像データが表示される。
【0493】
ここで、拡大範囲を、どのような大きさの範囲にするかは、例えば、拡大率に対応して設定される。
【0494】
即ち、一部拡大処理を行うにあたっては、例えば、デフォルトの拡大率(デフォルト拡大率)があらかじめ設定されており、CPU129は、そのデフォルト拡大率に対応するパラメータを、信号処理部137(図22)のパラメータメモリ168にセットする。従って、信号処理部137では、番組画像データが、デフォルト拡大率だけ拡大されるリサイズ処理が行われる。
【0495】
一方、CRT11に表示することのできる画像データの大きさ、即ち、表示画面の大きさは、あらかじめ決まっている。
【0496】
そこで、CPU129は、デフォルト拡大率だけ拡大した場合に、CRT11の表示画面の大きさとなる、拡大位置を中心とする範囲を、拡大範囲として設定するようになっている。
【0497】
なお、ステップS138の画像変換処理を行う際の拡大率は、ユーザが設定するようにすることができる。
【0498】
即ち、例えば、CPU129において、信号処理部137を制御することにより、CRT11には、拡大率を指定することのできる、リモコン15(またはリモコン35)によって操作可能なレバー(以下、適宜、拡大率指定用レバーという)を表示させ、その拡大率指定用レバーの位置によって、拡大率を指定するようにすることが可能である。
【0499】
この場合、ユーザがリモコン15を操作することによって、拡大率指定用レバーの位置を移動すると、CPU129において、その移動後の位置に対応する拡大率のパラメータが、信号処理部137(図22)のパラメータメモリ168に設定される。さらに、CPU129は、拡大率指定用レバーの位置に対応する拡大率に対応して、拡大位置を中心とする拡大範囲を、上述したデフォルト拡大率における場合と同様に設定し、その拡大範囲を対象とする画像変換処理(リサイズ処理)を、信号処理部137に指令する。
【0500】
以上により、CRT11には、ユーザによるリモコン15の操作に応じた拡大率によって、拡大位置を中心とした拡大範囲の番組画像データを拡大した一部拡大画像データが表示されることになる。
【0501】
なお、拡大率指定用レバーは、親機1のCRT11にOSD表示したり、スケーラブルTVシステムを構成する、親機1以外のテレビジョン受像機に表示させるようにすることが可能である。
【0502】
その後、ステップS140に進み、CPU129は、一部拡大画像データの表示を終了するコマンド(以下、適宜、一部拡大終了コマンドという)が送信されてきたかどうかを判定する。
【0503】
ステップS140において、一部拡大終了コマンドが送信されてきていないと判定された場合、ステップS133に戻り、以下、同様の処理が繰り返される。
【0504】
また、ステップS140において、一部拡大終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における一部拡大アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである一部拡大終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS141に進み、CPU129は、IEEE1394インタフェース133を制御することにより、番組画像データの、全体表示用子機への転送を終了させる。
【0505】
そして、ステップS142に進み、CPU129は、信号処理部137を制御することにより、リサイズ処理の実行を停止させ、一部拡大処理を終了する。これにより、CRT11では、通常サイズで画像が表示されるようになる。
【0506】
次に、図37のフローチャートを参照して、全体表示用子機としての子機の一部拡大処理について説明する。
【0507】
全体表示用子機としての子機2では、まず最初に、ステップS151において、CPU149は、親機1が図36のステップS136で送信してくる外部入力選択コマンドを受信したかどうかを判定し、受信していないと判定した場合、ステップS151に戻る。
【0508】
また、ステップS151において、親機1からの外部入力選択コマンドを受信したと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの外部入力選択コマンドが受信され、CPU149に供給された場合、ステップS152に進み、CPU149は、IEEE1394インタフェース153で受信される番組画像データを選択し、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する状態となり、ステップS153に進む。
【0509】
ステップS153では、CPU149は、親機1が図36のステップS137で転送を開始する番組画像データが送信されてきたかどうかを判定する。
【0510】
ステップS153において、親機1からの番組画像データが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの番組画像データが受信され、CPU149に供給された場合、ステップS154に進み、CPU149は、その番組画像データを、CRT31に表示させる。
【0511】
即ち、本実施の形態では、図36のステップS137において、親機1から全体表示用子機としての子機2に対して、番組画像データとしてのTSパケットの送信が開始されるが、この場合、CPU149は、IEEE1394インタフェース153を介して受信した親機1からのTSパケットを、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する。MPEGビデオデコーダ145は、そのTSパケットをMPEGデコードし、番組画像データを得て、フレームメモリ147に書き込む。そして、フレームメモリ147に書き込まれた番組画像データは、NTSCエンコーダ148を介して、CRT31に供給されて表示される。
【0512】
その後、ステップS153に戻り、ステップS153において、親機1から番組画像データが送信されてこないと判定されるまで、ステップS153およびS154の処理が繰り返される。
【0513】
また、ステップS153において、親機1から番組画像データが送信されてこないと判定された場合、即ち、IEEE1394インタフェース153において、番組画像データを受信することができなくなった場合、一部拡大処理を終了する。
【0514】
図36の親機の一部拡大処理、および図37の子機の一部拡大処理によれば、例えば、図38Aに示すように、スケーラブルTVシステムを構成する第2行第2列に位置する親機1に番組画像データが表示されている場合において、その番組画像データにおける、ある位置Pが拡大位置として指定されると、その拡大位置Pを中心(重心)とする所定の長方形の範囲(図38Aにおいて点線で示す範囲)が拡大範囲として設定され、図38Bに示すように、その拡大範囲の番組画像データを拡大した一部拡大画像データが、番組画像データに代えて、親機1に表示される。
【0515】
さらに、例えば、親機1の左隣の子機221が、全体表示用子機として選択された場合には、図38Bに示すように、その全体表示用子機である子機221に、親機1に表示されていた番組画像データの全体が表示される。
【0516】
従って、ユーザは、親機1において、番組画像データにおける、より詳細に見たい部分を、細部にわたって見ることができる。さらに、ユーザは、子機2において、番組画像データの全体も見ることができる。また、本実施の形態では、上述したように、ユーザがリモコン15を操作することによって、一部拡大画像データの拡大率を設定することができるので、ユーザは、番組画像データにおける、より詳細に見たい部分を、必要な程度にまで自由に拡大して見ることができる。
【0517】
ここで、親機1(図10)の信号処理部137(図22)では、係数種データから生成されるタップ係数wnを用いて、式(1)したがい、番組画像データの拡大範囲が、一部拡大画像データに画像変換されるが、この画像変換は、式(1)だけに注目すれば、一見、単なる補間処理であるように見える。しかしながら、式(1)で用いられるタップ係数wnを生成するのに用いられる係数種データは、図24乃至図28を参照して説明したように、教師データと生徒データとを用いての学習によって得られるものであり、そのような係数種データから生成されるタップ係数wnを用いて画像を変換することにより、教師データに含まれる成分を再現することができる。即ち、リサイズ処理用の係数種データについて言えば、その係数種データが生成されたタップ係数wnによれば、元の画像に現れていない細部を再現して、その画像を拡大することができる。従って、学習により求められる係数種データから生成される式(1)による画像変換処理としてのリサイズ処理は、単なる補間処理による画像の拡大処理とは、まったく異なる。
【0518】
なお、番組画像データの拡大範囲の、一部拡大画像データへの拡大処理は、係数種データから求められるタップ係数を用いる他、単なる補間処理によって行うことも可能である。しかしながら、単なる補間処理による場合は、元の番組画像データが有していない細部を再現することはできないため、拡大率を大にするほど、いわばブロック状の角張った部分が目立つぼやけた画像が得られることになる。
【0519】
また、本実施の形態では、親機1に一部拡大画像データを表示し、子機2に番組画像データの全体を表示するようにしたが、親機1に番組画像データを表示させたまま、子機2に一部拡大画像データを表示するようにすることも可能である。
【0520】
さらに、本実施の形態では、親機1に一部拡大画像データを表示し、全体表示用子機としての子機2に番組画像データの全体を表示するようにしたが、それらの表示に加えて、スケーラブルTVシステムを構成する他のテレビジョン受像機に、一部拡大画像データまたは番組画像データの全体を表示するようにすることも可能である。
【0521】
また、スケーラブルTVシステムを構成する親機1では、番組画像データの全体を表示し、他のテレビジョン受像機としての子機211乃至233それぞれには、拡大率が異なる一部拡大画像データを表示するようにすることが可能である。なお、この場合、拡大率が異なる一部拡大画像データは、すべて親機1の信号処理部137において生成し、他のテレビジョン受像機としての子機211乃至233それぞれに供給することもできるし、他のテレビジョン受像機としての子機211乃至233それぞれの信号処理部157において、各拡大率の一部拡大画像データを生成するようにすることも可能である。
【0522】
さらに、本実施の形態では、リサイズ処理用の係数種データが、親機1に記憶されているものとしたが、リサイズ処理用の係数種データが、親機1に記憶されていない場合において、スケーラブルTVシステムを構成する他のテレビジョン受像機が、リサイズ処理用の係数種データを記憶しているときには、親機1において、そのテレビジョン受像機からリサイズ処理用の係数種データを取得するようにすることが可能である。また、リサイズ処理用の係数種データは、その他、上述したように、係数種データ提供用サーバから取得するようにすることも可能である。
【0523】
なお、上述の場合には、番組画像データを拡大するリサイズ処理を行うようにしたが、リサイズ処理では、番組画像データを縮小することも可能である。
【0524】
また、上述の場合には、テレビジョン放送番組としての画像データ(番組画像データ)を拡大するようにしたが、一部拡大処理では、その他、外部の装置(光ディスク装置や、光磁気ディスク装置、VTRなど)から入力される画像データを、その処理の対象とすることが可能である。
【0525】
さらに、一部拡大処理では、番組画像データの一部の水平方向および垂直方向の両方を、同一の拡大率だけ拡大することは勿論、水平方向と垂直方向それぞれを、異なる拡大率だけ拡大することも可能である。
【0526】
また、本実施の形態では、番組画像データ中の、CRT11の表示画面で表示可能な拡大範囲だけを対象として一部拡大処理を行うようにしたが、一部拡大処理は、番組画像データ全体を対象に行うことも可能である。この場合、CRT11には、番組画像データを拡大した拡大画像の全体を表示することはできないため、その一部分だけが表示されることとなるが、その拡大画像のどの部分をCRT11に表示するかは、例えば、リモコン15の操作にしたがって変更するようにすることが可能である。
【0527】
次に、スケーラブルTVシステムは、上述したように、画像データの一部を拡大する他、その全体を拡大する特別機能を有しており、この特別機能は、親機1と子機2において、全体拡大処理が行われることにより実現される。
【0528】
全体拡大処理を行うことの指示も、例えば、一部拡大処理を行うことの指示と同様に、メニュー画面から行うことができるようになっている。
【0529】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、全体拡大処理を表すアイコン(以下、適宜、全体拡大アイコンという)が表示されるようになっており、ユーザが、この全体拡大アイコンを、リモコン15を操作してクリックすることにより、親機1と子機2それぞれにおいて、全体拡大処理が開始される。
【0530】
そこで、まず、図39のフローチャートを参照して、親機の全体拡大処理について説明する。
【0531】
例えば、いま、親機1のCRT11に、テレビジョン放送番組としての画像データ(番組画像データ)が表示されている状態において、全体拡大アイコンがクリックされたとすると、まず最初に、ステップS161において、親機1(図10)のCPU129は、IEEE1394インタフェース133を制御することにより、スケーラブルTVシステムを構成するすべての子機に、リサイズ処理用の係数種データを送信する。
【0532】
ここで、本実施の形態では、親機1の信号処理部137(図22)の係数種メモリ167には、リサイズ処理用の係数種データが記憶されているものとし、CPU129は、ステップS161において、このリサイズ処理用の係数種データを、信号処理部137から読み出して送信する。
【0533】
なお、親機1が、リサイズ処理用の係数種データを有していない場合には、上述した一部拡大処理における場合と同様に、スケーラブルTVシステムを構成する他のテレビジョン受像機のうち、リサイズ処理用の係数種データを記憶しているものや、係数種データ提供用サーバから、リサイズ処理用の係数種データを取得するようにすることが可能である。
【0534】
そして、ステップS162に進み、CPU129は、IEEE1394インタフェース133を介して、スケーラブルTVシステムを構成するすべての子機211乃至33と通信することにより、電源がオフになっている子機2ijがあるかどうかを判定する。
【0535】
ステップS162において、電源がオフになっている子機2ijがあると判定された場合、ステップS163に進み、CPU129は、IEEE1394インタフェース133を介して、電源をオンにすることを指令するコマンドを送信し、これにより、電源がオフになっている子機2ijの電源をオン状態にさせ、ステップS164に進む。
【0536】
また、ステップS162において、電源がオフになっている子機2ijがないと判定された場合、ステップS163をスキップして、ステップS164に進み、CPU129は、IEEE1394インタフェース133を制御することにより、すべての子機211乃至233に対して、そのIEEE1394インタフェース153(図11)への入力を選択して、そのCRT31に表示することを指令する外部入力選択コマンドを送信し、ステップS165に進む。
【0537】
ステップS165では、CPU129は、番組画像データを拡大する拡大率Nを1倍に初期化し、さらに、最大拡大率Nmaxと拡大ピッチαを設定する。
【0538】
即ち、全体拡大処理では、例えば、図1Aに示した3×3台のテレビジョン受像機で構成されるスケーラブルTVシステムにおいて、親機1に表示された番組画像データの全体(全画面)が、親機1を中心として、他のテレビジョン受像機である子機211乃至233に亘って徐々に拡大されていき、最終的には、3×3台のテレビジョン受像機の全体に、番組画像データの全体を拡大した画像データ(以下、適宜、全体拡大画像データという)が表示される。
【0539】
従って、親機1に表示された番組画像データの全体は、最終的には、スケーラブルTVシステムを構成するテレビジョン受像機の全体に表示可能な大きさの全体拡大画像データに拡大されるが、この最終的な全体拡大画像データと、元の番組画像データ(親機1に表示された番組画像データ)との比が、最大拡大率Nmaxとして設定される。即ち、本実施の形態では、親機1に表示された番組画像データが、3×3台のテレビジョン受像機に表示される全体拡大画像データに拡大されることから、例えば、対角線を考えれば、単純には3倍に拡大されることになるので、最大拡大率Nmaxは3倍に設定される。
【0540】
また、全体拡大処理では、上述したように、親機1に表示された番組画像データの全体が徐々に拡大されていくが、これは、例えば、番組画像データを、徐々に大きな拡大率Nで拡大し、最終的には、最大拡大率Nmaxで拡大することによって実現することができる。従って、この場合、拡大率Nを、1倍から最大拡大率Nmaxに、徐々に変化させる必要があるが、この拡大率Nを変化させるピッチが、拡大ピッチαであり、例えば、最大拡大率Nmax−1を、1以上の所定の値(以下、適宜、拡大回数値という)で除算した値が設定される。
【0541】
ここで、拡大回数値は、あらかじめ、親機1に設定しておくこともできるし、ユーザがリモコン15(またはリモコン35)を操作することにより設定可能なようにすることもできる。拡大回数値を小さな値に設定した場合には、親機1に表示された番組画像データは、即座に、大きな全体拡大画像データに拡大され、拡大回数値を大きな値に設定した場合には、親機1に表示された番組画像データは、徐々に、大きな全体拡大画像データに拡大されることになる。
【0542】
ステップS165において、上述したように、拡大率Nの初期化、並びに最大拡大率Nmaxおよび拡大ピッチαの設定が行われた後は、ステップS166に進み、CPU129は、拡大率Nを、N+α倍に新たに設定し、ステップS167に進む。
【0543】
なお、ステップS166において新たに設定された拡大率Nが、最大拡大率Nmaxを越える場合には、CPU129は、拡大率Nを最大拡大率Nmaxに設定する。
【0544】
ステップS167では、CPU129は、親機1に表示された番組画像データ中の、その信号処理部137で拡大すべき範囲としての拡大範囲と、各子機2ij(図11)の信号処理部157で拡大すべき範囲としての拡大範囲とを、ステップS165で設定した拡大率Nに基づいて求め、ステップS168に進む。ステップS168では、CPU129は、親機1のCRT11と、各子機2ij(図11)のCRT31それぞれにおいて、番組画像データの拡大範囲を拡大した画像データ(これも、以下、適宜、一部拡大画像データという)を表示させる範囲としての表示範囲を、ステップS165で設定した拡大率Nに基づいて求め、ステップS169に進む。
【0545】
ここで、図40を参照して、親機1の拡大範囲(親機1の信号処理部137で拡大すべき番組画像データの範囲)、および子機2ijの拡大範囲(子機2ijの信号処理部157で拡大すべき番組画像データの範囲)、並びに子機2ijの表示範囲(子機2ijCRT31において、子機2ijの拡大範囲の番組画像データを拡大した一部拡大画像データを表示させる範囲)を、拡大率Nに基づいて算出する算出方法について説明する。
【0546】
図40Aは、3×3台のテレビジョン受像機で構成されるスケーラブルTVシステムの表示画面を示している。
【0547】
即ち、スケーラブルTVシステムの表示画面は、1台の親機1のCRT11による表示画面と、8台の子機211乃至233それぞれのCRT31による表示画面との合計9台のCRTによる表示画面で構成される。なお、上述したように、親機1と子機2ijの表示画面サイズは、同一である。
【0548】
全体拡大処理では、上述したように、親機1に表示された番組画像データの全体が徐々に拡大されていくが、いま、親機1に表示された番組画像データを画像データQとするとともに、その画像データQを所定の拡大率Nで拡大して得られる全体拡大画像データを画像データQ’とする。
【0549】
この場合、親機1の表示画面サイズの縦と横の長さを、それぞれaとbで表すと、番組画像データQの縦と横の長さも、それぞれaとbとなる。
【0550】
また、全体拡大画像データQ’は、番組画像データQの縦と横の長さをN倍したものであるから、その縦と横の長さは、それぞれNaとNbとなる。
【0551】
全体拡大処理では、上述したように、親機1に表示された番組画像データQの全体を、親機1を中心として拡大した全体拡大画像データQ’が表示されるから、親機1および子機211乃至233のすべてによって、全体拡大画像データQ’を、親機1を中心として表示する場合には、親機1では、その表示画面中の、図40AにおいてR1で示す範囲に一部拡大画像データを表示する必要があり、子機2ijでは、図40AにおいてRijで示す範囲に一部拡大画像データを表示する必要がある。
【0552】
そこで、図39のステップS168では、範囲R1が親機1の表示範囲として求められるとともに、範囲Rijが子機2ijの表示範囲として求められる。
【0553】
即ち、親機1については、その表示画面全体が表示範囲R1として求められる。また、親機1の左上の子機211については、その表示画面の右下側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R11として求められ、親機1の上の子機212については、その表示画面の下側の横×縦がb×((Na−a)/2)の範囲が表示範囲R12として求められる。さらに、親機1の右上の子機213については、その表示画面の左下側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R13として求められ、親機1の左の子機221については、その表示画面の右側の横×縦が((Nb−b)/2)×aの範囲が表示範囲R21として求められる。また、親機の右の子機223については、その表示画面の左側の横×縦が((Nb−b)/2)×aの範囲が表示画面R23として求められ、親機1の左下の子機231については、その表示画面の右上側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R31として求められる。さらに、親機1の下の子機232については、その表示画面の上側の横×縦がb×((Na−a)/2)の範囲が表示範囲R32として求められ、親機の右下の子機233については、その表示画面の左上側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R33として求められる。
【0554】
一方、いま、図40Aに示した親機1の表示範囲R1および子機2ijの表示範囲Rijを、全体拡大画像データQ’の範囲と捉えると、全体拡大画像データQ’における範囲R1およびRijの画像データは、元の番組画像データQの一部を拡大した一部拡大画像データであるため、親機1の表示範囲R1および子機2ijの表示範囲Rijに表示させる一部拡大画像データに拡大する番組画像データQの範囲としての拡大範囲を求める必要がある。
【0555】
そこで、ステップS167では、図40Bに示すように、全体拡大画像データQ’の範囲R1とRijに対応する、元の番組画像データQの範囲r1とrijが、親機1の拡大範囲と子機2ijの拡大範囲として、それぞれ求められる。
【0556】
即ち、いまの場合、Nb×Naの大きさの全体拡大画像データQ’は、b×aの大きさの番組画像データQをN倍の拡大率で拡大したものであるから、全体拡大画像データQ’の範囲R1とRijを1/Nに縮小した範囲に相当する、番組画像データQの範囲r1とrijが、親機1の拡大範囲と子機2ijの拡大範囲として、それぞれ求められる。
【0557】
具体的には、親機1については、番組画像データQの中心部分の横×縦がb/N×a/Nの範囲が拡大範囲r1として求められる。また、親機1の左上の子機211については、番組画像データQの左上側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r11として求められ、親機1の上の子機212については、番組画像データQの上側の横×縦が(b/N)×((a−a/N)/2)の範囲が拡大範囲r12として求められる。さらに、親機1の右上の子機213については、番組画像データQの右上側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r13として求められ、親機1の左の子機221については、番組画像データQの左側の横×縦が((b−b/N)/2)×(a/N)の範囲が拡大範囲r21として求められる。また、親機の右の子機223については、番組画像データQの右側の横×縦が((b−b/N)/2)×(a/N)の範囲が表示画面R23として求められ、親機1の左下の子機231については、番組画像データQの左下側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r31として求められる。さらに、親機1の下の子機232については、番組画像データQの下側の横×縦が(b/N)×((a−a/N)/2)の範囲が拡大範囲r32として求められ、親機の右下の子機233については、番組画像データQの右下側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r33として求められる。
【0558】
図39に戻り、ステップS169では、CPU129は、IEEE1394インタフェース133を制御することにより、ステップS161で送信したリサイズ処理用の係数種データを用いて、画像データを拡大するリサイズ処理を行って表示することを指令する拡大表示コマンドを、番組画像データ、拡大率N、拡大範囲、および表示範囲とともに、各子機2ijに送信する。
【0559】
ここで、CPU129は、番組画像データについては、デマルチプレクサ124に、トランスポートストリーム中の、MPEGビデオデコーダ125に供給されているTSパケットを要求し、その要求に応じて、デマルチプレクサ124から供給されるTSパケットを受信して、各子機2ijに送信する。
【0560】
また、CPU129は、拡大範囲および表示範囲については、各子機2ijについて求められた拡大範囲および表示範囲を、その子機2ijに送信する。
【0561】
なお、CPU129においては、各子機2ijには、TSパケットではなく、フレームメモリ127に記憶された番組画像データ、即ち、MPEGデコード後の画像データを、信号処理部137を介して読み出して送信するようにすることも可能である。この場合、各子機2ijでは、番組画像データを、MPEGデコードする必要がなくなる。
【0562】
また、このように、MPEGデコード後の番組画像データを子機2ijに送信する場合には、番組画像データの全体ではなく、番組画像データのうちの、子機2ijについて求められた拡大範囲の分だけを送信するようにすることが可能である。
【0563】
その後、ステップS170に進み、CPU129は、ステップS166で設定した拡大率Nに対応するパラメータzを、信号処理部137(図22)のパラメータメモリ168にセットし、ステップS171に進む。
【0564】
ステップS171では、CPU129は、信号処理部137(図22)を制御することにより、フレームメモリ127に記憶された、ステップS169で各子機2ijに送信したのと同一の番組画像データの、親機1について求められた拡大範囲r1(図40B)を対象とした画像変換処理を行わせる。
【0565】
即ち、本実施の形態では、親機1の信号処理部137(図22)を構成する係数種メモリ167には、リサイズ処理用の係数種データが記憶されており、信号処理部137は、フレームメモリ127に記憶された番組画像データの拡大範囲r1を、係数種メモリ167に記憶されたリサイズ処理用の係数種データと、パラメータメモリ168に記憶されたパラメータzから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲r1の番組画像データを、拡大率Nで拡大(リサイズ)した画像データとしての一部拡大画像データに変換する。
【0566】
さらに、このとき、CPU129は、一部拡大画像データが、CRT11の表示画面中の、親機1について求められた表示範囲R1(図40A)の位置に表示されるものとなるように、信号処理部137を制御する。即ち、これにより、信号処理部137では、一部拡大画像データが、CRT11の表示画面中の、親機1について求められた表示範囲R1(図40A)の位置に表示されるように、その表示位置が調整される。
【0567】
なお、親機1については、図40で説明したことから、表示範囲R1は、CRT11の表示画面サイズに一致しているため、実際には、一部拡大画像データの表示位置を調整する必要はない。
【0568】
ステップS172において、信号処理部137は、ステップS171で得られた一部拡大画像データを、フレームメモリ127およびNTSCエンコーダ128を介してCRT11に供給して表示させる。
【0569】
従って、この場合、親機1のCRT11では、その表示画面全体に、番組画像データの拡大範囲r1を拡大率Nだけ拡大した一部拡大画像データが表示される。
【0570】
その後、ステップS173に進み、CPU129は、拡大率Nが、最大拡大率Nmax未満であるかどうかを判定する。ステップS173において、拡大率Nが、最大拡大率Nmax未満であると判定された場合、ステップS166に進み、以下、同様の処理が繰り返される。
【0571】
また、ステップS173において、拡大率Nが、最大拡大率Nmax未満でないと判定された場合、即ち、ステップS166で拡大率Nが、最大拡大率Nmaxに設定された場合、ステップS174に進み、CPU129は、ステップS169における場合と同様に、IEEE1394インタフェース133を制御することにより、拡大表示コマンドを、番組画像データ、拡大率N、拡大範囲、および表示範囲を、各子機2ijに送信し、ステップS175に進む。
【0572】
ステップS175では、CPU129は、信号処理部137(図22)を制御することにより、フレームメモリ127に記憶された、ステップS174で各子機2ijに送信したのと同一の番組画像データの、親機1について求められた拡大範囲r1(図40B)を対象とした画像変換処理を行わせる。
【0573】
即ち、これにより、ステップS175では、ステップS169における場合と同様に、信号処理部137は、フレームメモリ127に記憶された番組画像データの拡大範囲r1を、係数種メモリ167に記憶されたリサイズ処理用の係数種データと、パラメータメモリ168に記憶されたパラメータzから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲r1の番組画像データを、拡大率Nで拡大(リサイズ)した画像データとしての一部拡大画像データに変換する。
【0574】
この一部拡大画像データは、ステップS176において、ステップS172における場合と同様に、フレームメモリ127およびNTSCエンコーダ128を介してCRT11に供給されて表示される。
【0575】
ここで、ステップS174で各子機2ijに送信される拡大率N、拡大範囲、表示範囲は、最後に行われたステップS166乃至S168でそれぞれ求められたものであるから、拡大率Nは最大拡大率Nmaxになっている。さらに、拡大範囲と表示範囲は、最大拡大率Nmaxになっている拡大率Nについて求められたものとなっている。
【0576】
従って、この場合、親機1の拡大範囲と表示範囲も、最大拡大率Nmaxになっている拡大率Nについて求められたものとなっている。
【0577】
また、ステップS175の画像変換処理が行われる際には、最後に行われたステップS170の処理によって、信号処理部137(図22)のパラメータメモリ168には、最大拡大率Nmaxに対応したパラメータzがセットされている。
【0578】
以上から、ステップS176では、最大拡大率Nmaxになっている拡大率Nについて求められた拡大範囲r1の番組画像データを、最大拡大率Nmaxで拡大することにより得られる一部拡大画像データが、最大拡大率Nmaxになっている拡大率Nについて求められた表示範囲R1(上述したように、親機1については、CRT11の表示画面に等しい)に表示される。
【0579】
その後、ステップS177に進み、CPU129は、全体拡大画像データの表示を終了するコマンド(以下、適宜、全体拡大終了コマンドという)が送信されてきたかどうかを判定する。
【0580】
ステップS177において、全体拡大終了コマンドが送信されてきていないと判定された場合、ステップS174に戻り、以下、同様の処理が繰り返される。従って、この場合、親機1では、最大拡大率Nmaxで拡大された一部拡大画像データの表示が続行される。
【0581】
また、ステップS177において、全体拡大終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における全体拡大アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである全体拡大終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS178に進み、信号処理部137における画像変換処理を終了し、親機1の全体拡大処理を終了する。これにより、フレームメモリ127に記憶された番組画像データは、そのまま、NTSCエンコーダ128を介して、CRT11に供給されるようになり、CRT11では、番組画像データが、通常のサイズで表示される。
【0582】
次に、図41のフローチャートを参照して、スケーラブルTVシステムを構成する各子機2ijで行われる子機の全体拡大処理について説明する。
【0583】
子機2ij(図11)では、まず最初に、ステップS181において、CPU149が、図39のステップS161で親機1からリサイズ処理用の係数種データが送信されてくるのを待って、その係数種データを、IEEE1394インタフェース153を介して受信する。さらに、ステップS181では、CPU149は、受信したリサイズ処理用の係数種データを、信号処理部157(図29)に転送し、その係数種メモリ207にセットする。なお、その際、信号処理部157は、自身が元から係数種メモリ207に記憶している係数種データを、あらかじめ、EEPROM157Bの空き領域に待避させる。
【0584】
ここで、子機2ijの信号処理部157を構成する係数メモリ207に、リサイズ処理用の係数種データが記憶されている場合、上述のステップS181、および後述するステップS188の処理は、スキップするようにすることができる。
【0585】
その後、ステップS182に進み、CPU149は、親機1が図39のステップS164で送信してくる外部入力選択コマンドを受信したかどうかを判定し、受信していないと判定した場合、ステップS182に戻る。
【0586】
また、ステップS182において、親機1からの外部入力選択コマンドを受信したと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの外部入力選択コマンドが受信され、CPU149に供給された場合、ステップS183に進み、CPU149は、IEEE1394インタフェース153で受信される番組画像データを選択し、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する状態となり、ステップS184に進む。
【0587】
ステップS184では、CPU149は、親機1から、拡大表示コマンドとともに、番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが送信されてきたかどうかを判定する。
【0588】
ステップS184において、親機1から、拡大表示コマンドとともに、番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの拡大表示コマンド、並びに番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが受信され、CPU149に供給された場合、CPU149は、以下、拡大表示コマンドにしたがい、その拡大表示コマンドとともに送信されてきた番組画像データの拡大範囲rijを、拡大率Nで拡大し、その結果得られる一部拡大画像データを、CRT31の表示画面中の表示範囲Rijに表示させる処理を行う。
【0589】
即ち、この場合、ステップS184からS185に進み、CPU149は、CPU149は、拡大表示コマンドとともに受信した拡大率Nに対応するパラメータzを、信号処理部157(図29)のパラメータメモリ208にセットし、ステップS186に進む。
【0590】
ステップS186では、CPU149は、信号処理部157(図29)を制御することにより、フレームメモリ147に記憶された、拡大表示コマンドとともに受信した番組画像データの、子機2ijについて求められた拡大範囲rij(図40B)を対象とした画像変換処理を行わせる。
【0591】
即ち、本実施の形態では、図39のステップS169およびS174において、親機1から、子機2ijに対して、拡大表示コマンドとともに、番組画像データとしてのTSパケットが送信されるが、この場合、CPU149は、IEEE1394インタフェース153を介して受信した親機1からのTSパケットを、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する。MPEGビデオデコーダ145は、そのTSパケットをMPEGデコードし、番組画像データを得て、フレームメモリ147に書き込む。
【0592】
一方、子機2ijの信号処理部157(図29)を構成する係数種メモリ207には、ステップS181でリサイズ処理用の係数種データがセットされており、信号処理部157は、フレームメモリ147に記憶された番組画像データの拡大範囲rijを、係数種メモリ207に記憶されたリサイズ処理用の係数種データと、パラメータメモリ208に記憶されたパラメータzから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲rijの番組画像データを、拡大率Nで拡大(リサイズ)した画像データとしての一部拡大画像データに変換する。
【0593】
さらに、このとき、CPU149は、一部拡大画像データが、CRT31の表示画面中の、子機ijについて求められた表示範囲Rij(図40A)の位置に表示されるものとなるように、信号処理部157を制御する。即ち、これにより、信号処理部157では、一部拡大画像データが、CRT31の表示画面中の、子機2ijについて求められた表示範囲Rij(図40A)の位置に表示されるように、その表示位置が調整される。
【0594】
具体的には、例えば、子機211では、図40Aに示したように、一部拡大画像データが、そのCRT31の表示画面中の右下の表示範囲R11に表示されるように、一部拡大画像データの表示位置が調整される。
【0595】
なお、この場合、子機211では、CRT31の表示画面中の表示範囲R11以外の範囲の画像データは、例えば、黒レベルとされる。他の子機2ijにおいても同様である。
【0596】
ステップS187において、信号処理部157は、ステップS186で得られた一部拡大画像データを、フレームメモリ147およびNTSCエンコーダ148を介してCRT31に供給して表示させる。
【0597】
その後、ステップS184に戻り、以下、ステップS184乃至S187の処理が繰り返される。
【0598】
一方、ステップS184において、親機1から、拡大表示コマンドとともに、番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが送信されてこないと判定された場合、即ち、IEEE1394インタフェース153において、拡大表示コマンド、並びに番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijを受信することができなくなった場合、ステップS188に進み、信号処理部157は、EEPROM157Bに待避しておいた元の係数種データを、係数種メモリ207(図29)にセットし直し、子機の全体拡大処理を終了する。
【0599】
図39の親機の全体拡大処理、および図41の子機の全体拡大処理によれば、例えば、図42Aに示すように、スケーラブルTVシステムを構成する第2行第2列に位置する親機1に番組画像データが表示されている場合に、その親機1に表示された番組画像データの全体が、図42Bに示すように、親機1を中心として、子機211乃至233に亘って徐々に拡大されていき、最終的には、図42Cに示すように、3×3台の親機1および子機211乃至233の全体に、番組画像データの全体を拡大した全体拡大画像データが表示されることになる。
【0600】
従って、ユーザは、番組画像データの全体を、その細部にわたって拡大した全体拡大画像データを見ることができる。
【0601】
但し、スケーラブルTVシステムにおいては、実際には、そのスケーラブルTVシステムを構成するテレビジョン受像機の筐体が存在するから、隣接するテレビジョン受像機どうしの、その隣接部分は筐体であり、その部分には、画像は表示されない。即ち、図42では、図を簡略化するため、隣接するテレビジョン受像機どうしの間に存在する筐体部分を省略している。しかしながら、実際には、隣接するテレビジョン受像機どうしの間には、筐体が存在し、従って、全体拡大画像データは、僅かではあるが、テレビジョン受像機の筐体部分で表示されず、いわば区切られたものとなるという問題点がある。
【0602】
しかしながら、人間の視覚には、画像の一部に、その視聴を妨げる微小幅のラインがあっても、そのラインで隠されている部分の画像を、その周辺の画像から補間する補間作用があるため、上述した問題点は、全体拡大画像データを視聴する上で、それほど大きな問題とはならない。
【0603】
なお、全体拡大処理においても、一部拡大処理で説明した場合と同様に、リサイズ処理用の係数種データを用いて、画像変換処理を行って全体拡大画像データを得る他、単なる補間処理によって、番組画像データを拡大した全体拡大画像データを得ることが可能である。
【0604】
但し、番組画像データの全体を、その細部にわたって拡大した全体拡大画像データを見ることができるのは、信号処理部137および157において、リサイズ処理用の係数種データを用いて、画像変換処理を行った場合であり、単なる補間処理によって、番組画像データの拡大を行った場合には、全体拡大画像データを見ることはできるが、その細部の再現は行われない。即ち、単なる補間処理による場合は、リサイズ処理用の係数種データを用いた画像変換処理による場合に比較して、大きく画質の劣化した全体拡大画像データしか見ることはできない。
【0605】
ここで、本実施の形態では、図31および図33で説明した認証が成功した場合にのみ、特別機能を提供するようにしたが、認証が失敗した場合であっても、特別機能を、いわば制限付きで提供するようにすることが可能である。
【0606】
即ち、例えば、認証が成功した場合には、リサイズ処理用の係数種データを用いた画像変換処理によって、全体拡大画像データを提供し、認証が失敗した場合には、単なる補間処理による全体拡大画像データを提供するようにすることが可能である。
【0607】
この場合、スケーラブルTVシステムを、親機や子機でないテレビジョン受像機を用いて構成しているユーザは、全体拡大画像データを見ることはできるが、その全体拡大画像データは、単なる補間処理によるものなので、リサイズ処理用の係数種データを用いた画像変換処理による場合に比較して、かなり画質の劣化したものとなる。
【0608】
これに対して、スケーラブルTVシステムを、親機や子機であるテレビジョン受像機を用いて構成しているユーザは、リサイズ処理用の係数種データを用いた画像変換処理による高画質の全体拡大画像データを見ることができる。
【0609】
その結果、スケーラブルTVシステムを、親機や子機でないテレビジョン受像機を用いて構成しているユーザにおいては、高画質の全体拡大画像データを見るために、親機や子機であるテレビジョン受像機を購入するインセンティブが働くことになる。
【0610】
なお、本実施の形態では、親機1に表示された番組画像データの全体を、スケーラブルTVシステムを構成するテレビジョン受像機の全体に表示可能な大きさの全体拡大画像データに拡大する拡大率を、最大拡大率Nmaxとして設定するようにしたが、最大拡大率Nmaxは、ユーザが、リモコン15(またはリモコン35)を操作することにより、任意の値に設定可能なようにすることができる。
【0611】
この場合、最大拡大率Nmaxが、番組画像データを、スケーラブルTVシステムを構成するテレビジョン受像機の全体に表示可能な大きさの全体拡大画像データよりも大きい画像データに拡大する値(以下、適宜、規定外最大拡大率という)に設定されることがあり、その規定外最大拡大率で拡大された全体拡大画像データは、その全体を、スケーラブルTVシステムで表示することができなくなる。即ち、規定外最大拡大率で拡大された全体拡大画像データは、その一部だけしか表示することができなくなる。この場合、規定外最大拡大率で拡大された全体拡大画像データのどの部分を表示するかは、例えば、ユーザが、リモコン15(またはリモコン35)を操作することにより設定可能なようにすることができる。
【0612】
また、上述の場合には、スケーラブルTVシステムを構成する各テレビジョン受像機において、そのテレビジョン受像機で表示すべき一部拡大画像データを生成するようにしたが、スケーラブルTVシステムを構成する各テレビジョン受像機で表示すべき一部拡大画像データは、例えば、親機1などの1台、または複数台のテレビジョン受像機において生成するようにすることが可能である。即ち、例えば、親機1において、全体拡大画像データを生成し、その全体拡大画像データのうちの一部である一部拡大画像データを、IEEE1394インタフェース133を介して、各子機2ijに送信するようにすることが可能である。但し、この場合、親機1は、自身で表示すべき一部拡大画像データの他、他のテレビジョン受像機である各子機2ijで表示すべき一部拡大画像データも生成する必要があるので、その処理負担が大になる。
【0613】
さらに、上述の場合には、テレビジョン放送番組としての画像データ(番組画像データ)を拡大するようにしたが、全体拡大処理でも、一部拡大処理における場合と同様に、外部の装置から入力される画像データを、その処理の対象とすることが可能である。
【0614】
さらに、全体拡大処理においても、一部拡大処理における場合と同様に、番組画像データの一部の水平方向および垂直方向の両方を、同一の拡大率だけ拡大することは勿論、水平方向と垂直方向それぞれを、異なる拡大率だけ拡大することも可能である。
【0615】
また、上述の場合には、3×3台のテレビジョン受像機で構成されるスケーラブルTVシステムにおいて、その中心に配置された親機1に表示される画像データが、その周囲に配置された各子機2ijの方向(左上、左、左下、上、下、右上、右、右下の8方向)それぞれに向かって拡大されていく全体拡大画像データが表示されるが、その他、例えば、左下に配置された子機231に表示される画像データが、その上に配置された子機221、右上に配置された親機1、右に配置された子機232の方向それぞれに向かって拡大されていくような全体拡大画像データを表示するようにすることも可能である。
【0616】
さらに、上述の場合には、親機1や各子機2ijにおいて、ユーザがリモコン15を操作することにより、全体拡大処理を行うことの指令があった後に、全体拡大画像データ(を構成する一部拡大画像データ)を生成するようにしたが、親機1や各子機2ijでは、常時、拡大率Nが、1+α,1+2α,1+3α,・・・,Nmax倍の全体拡大画像データを生成するようにし、全体拡大処理を行うことの指令があった場合は、即座に、その拡大率Nが1+α,1+2α,1+3α,・・・,Nmax倍の全体拡大画像データを、順次表示するようにすることも可能である。
【0617】
次に、スケーラブルTVシステムは、そのスケーラブルTVシステムを構成するテレビジョン受像機全体に、画像データを表示する、いわゆるマルチ画面表示を行う特別機能を有しており、この特別機能は、親機1と子機2において、マルチ画面表示処理が行われることにより実現される。
【0618】
マルチ画面表示処理を行うことの指示も、例えば、一部拡大処理や全体拡大処理を行うことの指示と同様に、メニュー画面から行うことができるようになっている。
【0619】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、マルチ画面表示処理を表すアイコン(以下、適宜、マルチ画面表示アイコンという)が表示されるようになっており、ユーザが、このマルチ画面表示アイコンを、リモコン15を操作してクリックすることにより、親機1と子機2それぞれにおいて、マルチ画面表示処理が開始される。
【0620】
そこで、図43のフローチャートを参照して、親機のマルチ画面表示処理について説明する。
【0621】
ここで、マルチ画面表示処理では、図42Cに示したように、スケーラブルTVシステムを構成するテレビジョン受像機全体に、番組画像データが表示される。従って、親機1のマルチ画面表示処理は、実質的には、拡大率Nを最大拡大率Nmaxに固定し、拡大ピッチαを無視して行う、図39の全体拡大処理と等価である。
【0622】
このため、親機1のマルチ画面表示処理では、ステップS191乃至S194において、図39のステップS161乃至S164における場合とそれぞれ同様の処理が行われる。
【0623】
そして、ステップS195に進み、図39のステップS165における場合と同様にして、最大拡大率Nmaxが設定され、ステップS196に進む。ステップS196では、親機1(図10)のCPU129は、拡大率Nを、最大拡大率Nmaxに設定し、ステップS197に進む。
【0624】
ステップS197では、CPU129は、最大拡大率Nmaxが設定されている拡大率Nに基づき、親機1における番組画像データの拡大範囲r1と、各子機2ij(図11)における番組画像データの拡大範囲rijとを、図39のステップS167における場合と同様にして求め、ステップS198に進む。
【0625】
ここで、図39の全体拡大処理では、ステップS167で拡大範囲を求める他、ステップS168で表示範囲も求めるが、拡大率Nが、最大拡大率Nmaxである場合には、親機1の表示範囲R1は、そのCRT11の表示画面全体であり、また、子機2ijの表示範囲Rijも、そのCRT31の表示画面全体であるから、あらかじめ分かっており、求める必要がない(または、あらかじめ求められていると考えることができる)。このため、マルチ画面表示処理では、改めて、親機1の表示範囲R1と、子機2ijの表示範囲Rijを求めるようにはされていない。
【0626】
ステップS198では、CPU129は、図39のステップS170における場合と同様にして、最大拡大率Nmaxが設定されている拡大率Nに対応するパラメータzを、信号処理部137(図22)のパラメータメモリ168にセットする。
【0627】
そして、ステップS199乃至S201に順次進み、図39のステップS174乃至S176における場合とそれぞれ同様に処理が行われ、これにより、親機1では、最大拡大率Nmaxで拡大された一部拡大画像データが表示される。
【0628】
その後、ステップS202に進み、CPU129は、マルチ画面表示を終了するコマンド(以下、適宜、マルチ画面表示終了コマンドという)が送信されてきたかどうかを判定する。
【0629】
ステップS202において、マルチ画面表示終了コマンドが送信されてきていないと判定された場合、ステップS199に戻り、以下、同様の処理が繰り返される。従って、この場合、親機1では、最大拡大率Nmaxで拡大された一部拡大画像データの表示が続行される。
【0630】
また、ステップS202において、マルチ画面表示終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面におけるマルチ画面表示アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドであるマルチ画面表示終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS203に進み、信号処理部137における画像変換処理を終了し、親機1のマルチ画面表示処理を終了する。これにより、フレームメモリ127に記憶された番組画像データは、そのまま、NTSCエンコーダ128を介して、CRT11に供給されるようになり、CRT11では、番組画像データが、通常のサイズで表示される。
【0631】
なお、子機2ijのマルチ画面表示処理(子機2ijが行うマルチ画面表示処理)は、図41で説明した子機2ijの全体拡大処理と同様であるため、その説明は、省略する。
【0632】
次に、スケーラブルTVシステムは、そのスケーラブルTVシステムを構成するテレビジョン受像機それぞれに同一の処理を行わせる特別機能を有しており、この特別機能は、親機1において、一括同時制御処理が行われることにより実現される。
【0633】
一括同時制御処理を行うことの指示も、例えば、一部拡大処理等を行うことの指示と同様に、メニュー画面から行うことができるようになっている。
【0634】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、一括同時制御処理を表すアイコン(以下、適宜、一括同時制御アイコンという)が表示されるようになっており、ユーザが、この一括同時制御アイコンを、リモコン15を操作してクリックすることにより、親機1において、一括同時制御処理が開始される。
【0635】
そこで、図44のフローチャートを参照して、親機の一括同時制御処理について説明する。
【0636】
一括同時制御処理では、親機1(図10)のCPU129は、リモコン15(またはリモコン25)が操作されることにより、所定の処理を指令するコマンドが入力されるのを待って、即ち、IR受信部15において、リモコン15からの所定のコマンドに対応する赤外線が受信され、CPU129に供給されるのを待って、ステップS211において、そのコマンドを受信する。さらに、ステップS211では、CPU129は、そのコマンドに対応した処理を行い、ステップS212に進む。
【0637】
ステップS212では、CPU129は、ステップS211で受信した、リモコン15の操作に対応したコマンド(以下、適宜、リモコンコマンドという)に対応する処理を行うことができる子機2ijが、スケーラブルTVシステムを構成するテレビジョン受像機の中に存在するかどうかを判定する。
【0638】
なお、ステップS212の判定処理は、CPU129がEEPROM130に記憶された各子機2ijの機能情報を参照することで行われる。
【0639】
ステップS212において、リモコンコマンドに対応する処理を行うことのできる子機2ijが存在すると判定された場合、ステップS213に進み、CPU129は、IEEE1394インタフェース133を制御することにより、リモコンコマンドに対応する処理を行うことのできる子機2ijすべてに、リモコンコマンドを送信する。
【0640】
従って、例えば、いま、スケーラブルTVシステムを構成する子機2ijすべてが、リモコンコマンドに対応する処理を行うことができるものであれば、その子機2ijすべてに、リモコンコマンドが送信され、各子機2ijでは、そのリモコンコマンドに対応する処理、即ち、ステップS211で親機1で行われたのと同一の処理が行われる。
【0641】
一方、ステップS212において、リモコンコマンドに対応する処理を行うことのできる子機2ijが存在しないと判定された場合、ステップS213をスキップして、ステップS214に進み、CPU129は、一括同時制御処理を終了するコマンド(以下、適宜、一括同時制御終了コマンドという)が送信されてきたかどうかを判定する。
【0642】
ステップS212において、一括同時制御終了コマンドが送信されてきていないと判定された場合、リモコン15が操作されることにより、所定の処理を指令するコマンド(リモコンコマンド)が入力されるのを待って、ステップS211に戻り、以下、同様の処理が繰り返される。
【0643】
また、ステップS212において、一括同時制御終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における一括同時制御アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである一括同時制御終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、一括同時制御処理を終了する。
【0644】
一括同時制御処理によれば、例えば、いま、スケーラブルTVシステムを構成する子機2ijすべてが、リモコンコマンドに対応する処理を行うことができるものであるとすると、ユーザが、リモコン15を操作することにより、例えば、あるチャンネルを選択することが指令された場合、図45Aに示すように、スケーラブルTVシステムを構成する親機1および子機2のすべてにおいて、そのチャンネルで放送されている画像データが表示される。さらに、ユーザが、リモコン15を操作することにより、他のチャンネルへの切り換えを指令すると、図45Bに示すように、スケーラブルTVシステムを構成する親機1および子機2のすべてにおいて、チャンネルの切り換えが行われる。
【0645】
従って、ユーザは、1つのリモコン15によって、スケーラブルTVシステムを構成するテレビジョン受像機すべてを、同時に、同じように制御することができる。
【0646】
次に、上述したように、親機1には、リモコン15を付随させ、各子機2ijにも、それぞれ、リモコン35を付随させることが可能である。さらに、上述したように、親機1は、そのリモコン15によっても、子機2ijのリモコン35によっても制御することが可能であり、子機2ijも、そのリモコン35によっても、親機1のリモコン15によっても制御することが可能である。
【0647】
従って、スケーラブルTVシステムを構成するテレビジョン受像機は、そのすべてを、1台のリモコン15(または35)だけで制御することが可能である。
【0648】
しかしながら、1台のリモコン15だけで、複数台のテレビジョン受像機それぞれを、別個に制御するには、例えば、リモコン15に、複数台のテレビジョン受像機それぞれの機器IDを設定しておき、所望のコマンドを入力する操作を行う前に、制御しようとするテレビジョン受像機の機器IDを入力する操作等の、制御対象とするテレビジョン受像機を特定する操作が必要となり、面倒である。
【0649】
そこで、親機1の制御には、それに付随するリモコン15を、各子機2ijの制御には、やはり、各子機2ijに付随するリモコン35を、それぞれ用いるようにする方法がある。
【0650】
しかしながら、この方法では、図1AのスケーラブルTVシステムを構成するテレビジョン受像機それぞれを、別個に制御するのに、9台という多数のリモコンが必要となる。さらに、この場合、どのリモコンが、どのテレビジョン受像機を制御するものなのか、一見しただけでは分からなくなることがある。
【0651】
従って、スケーラブルTVシステムを構成する親機1と各子機2ijのうち、ユーザが制御対象としているテレビジョン受像機を、親機1のリモコン15と各子機2ijのリモコン35のうちの任意のリモコンによって、ユーザが、制御対象としているテレビジョン受像機を特定する操作を行うことなく制御することができれば、便利である。
【0652】
そこで、スケーラブルTVシステムは、ユーザが、制御対象としているテレビジョン受像機を認識し、その制御対象のテレビジョン受像機を、リモコン15(またはリモコン35)によって制御可能とする特別機能を有しており、この特別機能は、親機1と子機2において、個別処理が行われることにより実現される。
【0653】
個別処理を行うことの指示は、例えば、メニュー画面から行うことができるようになっている。
【0654】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、個別処理を表すアイコン(以下、適宜、個別処理アイコンという)が表示されるようになっており、ユーザが、この個別処理アイコンを、リモコン15を操作してクリックすることにより、親機1と子機2それぞれにおいて、個別処理が開始される。
【0655】
そこで、まず、図46のフローチャートを参照して、親機1の個別処理について説明する。
【0656】
親機1(図10)の個別処理では、CPU129は、IR受信部135において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS221において、IR受信部135における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射する。この赤外線は、親機1のIR受信部135、および各子機2ij(図11)のIR受信部155で受光されるが、ステップS221では、CPU129は、IR受信部135に、その赤外線の受信強度を検出させ、その供給を受ける。
【0657】
そして、ステップS222に進み、CPU129は、IEEE1394インタフェース133を介して、各子機2ijに、各子機2ijでのリモコン15からの赤外線の受信強度を要求し、その要求に応じて、各子機2ijから送信されてくる赤外線の受信強度を、IEEE1394インタフェース133を介して取得(受信)する。
【0658】
即ち、上述したように、ユーザがリモコン15を操作することにより、そのリモコン15が出射する赤外線は、親機1のみならず、各子機2ijでも受光されるが、ステップS222では、その赤外線の、各子機2ijでの受信強度が取得される。
【0659】
その後、ステップS223に進み、CPU129は、ステップS221で検出した親機1での赤外線の受信強度と、ステップS222で取得した各子機2ijでの赤外線の受信強度の中から、最大の受信強度(最大受信強度)を検出し、ステップS224に進む。
【0660】
ステップS224では、CPU129は、最大受信強度が得られたテレビジョン受像機(以下、適宜、最大受信強度装置という)が親機1または子機2のいずれであるかを判定する。
【0661】
ステップS224において、最大受信強度装置が親機1であると判定された場合、ステップS225に進み、CPU129は、IR受信部135で受光された赤外線が表すコマンドが、親機1に対するものであるとして、そのコマンドに対応する処理を実行する。
【0662】
一方、ステップS224において、最大受信強度装置が子機2であると判定された場合、ステップS226に進み、CPU129は、IEEE1394インタフェース133を制御することにより、IR受信部135で受光された赤外線が表すコマンドが、その最大受信強度装置である子機2ijに対するものであるとして、そのコマンドを、最大受信強度装置である子機2ijに送信する。
【0663】
従って、この場合、最大受信強度装置である子機2ijでは、後述する図47で説明するように、リモコン15からの赤外線が表すコマンドに対応する処理が行われることになる。
【0664】
ここで、ユーザは、リモコン15(またはリモコン35)を操作することによって、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御を行う場合、一般に、リモコン15を、その制御対象であるテレビジョン受像機に向けて操作する。
【0665】
この場合、例えば、いま、リモコン15(またはリモコン35)が出射する赤外線が指向性の強いものであるとすると、ユーザが制御対象としようとしているテレビジョン受像機は、リモコン15が出射する赤外線の主軸の方向にあるもの、即ち、赤外線の受信強度が最も大きい最大受信強度装置であるということになる。
【0666】
従って、上述のように、最大受信強度装置において、リモコン15からの赤外線が表すコマンドに対応する処理を実行することで、ユーザが制御対象としたテレビジョン受像機、つまり最大受信強度装置において、ユーザによるリモコン15の操作に対応した処理が行われることになる。
【0667】
具体的には、例えば、ユーザが、リモコン15を、親機1に向けて、チャンネル操作や音量操作を行った場合、親機1が最大受信強度装置となり、その結果、最大受信強度装置である親機1において、その操作に対応して、チャンネルや音量が変更される。また、例えば、ユーザが、リモコン15を、ある子機2ijに向けて、チャンネル操作や音量操作を行った場合、その子機2ijが最大受信強度装置となり、その結果、最大受信強度装置である子機2ijにおいて、その操作に対応して、チャンネルや音量が変更される。
【0668】
ステップS225およびS226の処理後は、いずれも、ステップS227に進み、CPU129は、個別処理を終了するコマンド(以下、適宜、個別処理終了コマンドという)が送信されてきたかどうかを判定する。
【0669】
ステップS227において、個別処理終了コマンドが送信されてきていないと判定された場合、リモコン15が操作されることにより出射される赤外線が、IR受信部135で受光されるのを待って、ステップS221に戻り、以下、同様の処理が繰り返される。
【0670】
また、ステップS227において、個別処理終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における個別処理アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである個別処理終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS228に進み、CPU129は、IEEE1394インタフェース133を制御することにより、個別処理終了コマンドを、各子機2ijに送信し、親機1の個別処理を終了する。
【0671】
次に、図47のフローチャートを参照して、子機の個別処理について説明する。
【0672】
子機2(図11)の個別処理では、CPU149は、IR受信部155において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS231において、IR受信部155における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射するが、この赤外線は、上述したように、子機2のIR受信部155で受光される。ステップS231では、CPU149は、IR受信部155に、その赤外線の受信強度を検出させ、その供給を受ける。
【0673】
そして、ステップS232に進み、CPU149は、親機1から赤外線の受信強度の要求が送信されてくるのを待って、IEEE1394インタフェース153を介して、親機1に、ステップS231で検出した赤外線の受信強度を送信する。このステップS232で、子機2から送信される赤外線の受信強度が、親機1で行われる、上述した図46のステップS222で取得(受信)される。
【0674】
その後、ステップS233に進み、CPU149は、親機1からコマンドが送信されてきたかどうかを判定する。即ち、親機1は、上述した図46のステップS226やS228において、子機2に対して、コマンドを送信するが、ステップS233では、そのようにして親機1からコマンドが送信されてきたかどうかが判定される。
【0675】
ステップS233において、親機1からコマンドが送信されてきていないと判定された場合、ステップS233に戻る。
【0676】
また、ステップS233において、親機1からコマンドが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1から送信されてきたコマンドが受信され、CPU149に供給された場合、ステップS234に進み、CPU149は、そのコマンドが、個別処理終了コマンドであるかどうかを判定する。
【0677】
ステップS234において、親機1から送信されてきたコマンドが、個別処理終了コマンドでないと判定された場合、ステップS235に進み、CPU149は、親機1から送信されてきたコマンドに対応する処理を実行し、ステップS233に戻る。
【0678】
これにより、図46で説明したように、ユーザがリモコン15を操作するにあたって、そのリモコン15が向けられた子機2では、そのリモコン15の操作に対応する処理(例えば、チャンネルや音量の変更)が行われる。
【0679】
一方、ステップS234において、親機1から送信されてきたコマンドが、個別処理終了コマンドであると判定された場合、子機2の個別処理を終了する。
【0680】
以上のように、リモコン15(またはリモコン35)として、赤外線の指向性が強いものを用い、さらに、スケーラブルTVシステムを構成するテレビジョン受像機において、リモコン15からの赤外線の受信強度が最も大きい最大受信強度装置を検出するようにすることにより、ユーザが制御しようとしているテレビジョン受像機を特定(認識)することができるので、スケーラブルTVシステムを構成する親機1と各子機2ijのうち、ユーザが制御対象としているテレビジョン受像機を、親機1のリモコン15と各子機2ijのリモコン35のうちの任意のリモコンによって、ユーザが制御対象としているテレビジョン受像機を特定する操作を行うことなく制御することができる。
【0681】
次に、個別処理によれば、例えば、あるユーザAが、リモコン15によって、ある子機2ijのチャンネル操作を行って、ある番組PGMAを視聴し、また、他のユーザBが、リモコン35によって他の子機2pqのチャンネル操作を行って、他の番組PGMBを視聴するといったように、複数のユーザが、個別に、異なる番組を視聴することができる。
【0682】
この場合、子機2ijと2pq(図11)のCRT31には、異なる番組の画像データが表示されることとなるが、仮に、子機2ijと2pqとが隣り合う位置に配置されていたとしても、子機2ijと2pqに異なる番組の画像データが表示されることは、それほど大きな問題にはならない。
【0683】
即ち、いまの場合、子機2ijには番組PGMAの画像データが表示され、子機2pqには番組PGMBの画像データが表示されるため、いずれの画像データも、ユーザAとBの視界に入ることになる。
【0684】
しかしながら、ユーザAは、子機2ijに表示された番組PGMAの画像データを視聴しようとし、ユーザBは、子機2pqに表示された番組PGMBの画像データを視聴しようとしているため、ユーザAにおいては、視聴しようとしていない番組PGMBの画像データは、いわばマスクされ、ユーザBにおいても、視聴しようとしていない番組PGMAの画像データはマスクされる。
【0685】
従って、ユーザAにとって、他の子機2pqに表示された番組PGMBの画像データは、子機2ijに表示された番組PGMAの画像データの視聴の大きな妨げにはならず、ユーザBにとっても、他の子機2ijに表示された番組PGMAの画像データは、子機2pqに表示された番組PGMBの画像データの視聴の大きな妨げにならない。
【0686】
しかしながら、この場合、異なる画像データにそれぞれ付随する異なる音声データが出力されること、即ち、子機ijのスピーカユニット32Lおよび32Rから番組PGMAの音声データが出力され、子機2pqのスピーカユニット32Lおよび32Rから番組PGMBの音声データが出力されることについては、多少の問題がある。
【0687】
即ち、人間の聴覚には、いわゆるカクテルパーティ効果が認められ、多数の音声データが混在する中から、所望の音声データを聞き分けることが可能であるが、それでも、パワーの小さい音声データは、パワーの大きな音声データにマスクされてしまうなど、所望の音声データ以外の音声データ、つまりノイズとなる音声データの存在は、所望の音声データの視聴の妨げとなる。
【0688】
そこで、スケーラブルTVシステムは、親機1や子機2で番組を視聴しているユーザの方向に、その親機1のスピーカユニット12Lおよび12Rや、子機2のスピーカユニット32Lおよび32R(を構成するスピーカ)の指向性の主軸の方向を向け、これにより、ユーザが視聴している番組の音声データを、そのユーザに聞き取りやすくする特別機能を有しており、この特別機能は、親機1および子機2において、スピーカ制御処理が行われることにより実現される。
【0689】
即ち、ここでは、例えば、親機1(図10)のスピーカユニット12Lおよび12Rの指向性は、非常に強いものとなっており、ユニット駆動部138が、スピーカユニット12Lおよび12Rを駆動し、その向きを機械的に(メカニカルに)変えることによって、指向性の主軸の方向を、所定の方向に向けることができるようになっている。子機2のスピーカユニット32Lおよび32Rも同様に、指向性の強いもので、ユニット駆動部158によって駆動されることにより、指向性の主軸の方向を、所定の方向に向けることができるようになっている。
【0690】
スピーカ制御処理は、例えば、図46および図47で説明した個別処理が行われている場合に、その個別処理と並列で行われる。
【0691】
そこで、図48のフローチャートを参照して、親機のスピーカ制御処理について説明する。
【0692】
親機のスピーカ制御処理では、CPU129は、IR受信部135において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS241において、IR受信部135における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射する。この赤外線は、親機1のIR受信部135、および各子機2ij(図11)のIR受信部155で受光されるが、ステップS241では、CPU129は、IR受信部135に、その赤外線の受信強度を検出させ、その供給を受ける。
【0693】
そして、ステップS242に進み、CPU129は、IEEE1394インタフェース133を介して、各子機2ijに、各子機2ijでのリモコン15からの赤外線の受信強度を要求し、その要求に応じて、各子機2ijから送信されてくる赤外線の受信強度を、IEEE1394インタフェース133を介して取得(受信)する。
【0694】
即ち、上述したように、ユーザがリモコン15を操作することにより、そのリモコン15が出射する赤外線は、親機1のみならず、各子機2ijでも受光されるが、ステップS242では、その赤外線の、各子機2ijでの受信強度が取得される。
【0695】
ここで、親機1のスピーカ制御処理におけるステップS241とS242では、図46の親機1の個別処理におけるステップS221とS222とそれぞれ同様の処理が行われる。従って、親機1のスピーカ制御処理では、ステップS241およびS242の処理を行わず、親機1の個別処理におけるステップS221とS222で得られる受信強度を、そのまま採用することが可能である。
【0696】
その後、ステップS243に進み、CPU129は、ステップS241で検出した親機1での赤外線の受信強度と、ステップS242で取得した各子機2ijでの赤外線の受信強度の中から、任意の3つの受信強度、即ち、例えば、受信強度の大きい順に、第1位から第3位までの受信強度を選択し、ステップS244に進む。
【0697】
ステップS244では、CPU129は、ステップS243で選択した3つの第1位から第3位までの受信強度それぞれに対応する距離を検出し、ステップS245に進む。
【0698】
即ち、リモコン15から出射される赤外線の、テレビジョン受像機における受信強度は、例えば、リモコン15とテレビジョン受像機(のIR受信部135または155)との間の距離に対応している。
【0699】
そこで、親機1(図10)のEEPROM150には、例えば、図49に示すような、リモコン15から出射される赤外線の、テレビジョン受像機における受信強度と、リモコン15からテレビジョン受像機までの距離との対応関係を表す強度対距離テーブルが記憶されており、ステップS244では、CPU129は、例えば、この強度対距離テーブルを参照することにより、第1位から第3位までの受信強度それぞれに対応する距離を検出する。
【0700】
なお、強度対距離テーブルは、例えば、テレビジョン受像機から複数の距離だけ離れた位置それぞれにおいて、リモコン15を操作し、テレビジョン受像機で受光される受信強度を測定することで作成することが可能である。
【0701】
図48に戻り、ステップS245では、CPU129は、第1位乃至第3位の受信強度それぞれに対応する距離から、それらの受信強度の赤外線を出射したリモコン15の位置を検出する。
【0702】
ここで、図50を参照して、第1位乃至第3位の受信強度それぞれに対応する距離から、それらの受信強度の赤外線を出射したリモコン15の位置を検出する方法について説明する。なお、ここでは、説明を簡単にするために、第1位と第2位の2つの受信強度のみを考える。
【0703】
例えば、いま、親機1における受信強度と、(スケーラブルTVシステムの正面方向から見て)その右隣の子機223における受信強度が、第1位と第2位の受信強度であったとするとともに、親機1における受信強度に対応する距離をr1と、子機223における受信強度に対応する距離をr23と、それぞれ表すこととする。
【0704】
この場合、ある2次元平面を考えると、リモコン15は、図50に示すように、親機1のIR受信部135で赤外線が受光された点P1を中心とする半径r1の円c1の円周上に存在し、かつ、子機223のIR受信部155で赤外線が受光された点P23を中心とする半径r23の円c23の円周上に存在することになる。
【0705】
従って、リモコン15は、円c1とc23の円周の交点PUに存在することとなり、リモコン15の位置PUを検出することができることとなる。
【0706】
なお、上述の場合には、2つの受信強度からリモコン15の位置を求めたため、2次元平面上の位置が検出されることとなるが、リモコン15の3次元空間上の位置は、図50で説明した場合と同様にして、3つの受信強度それぞれに対応する距離を半径とする球の球面どうしの交点を求めることで検出することが可能である。
【0707】
再び、図48に戻り、ステップS245でリモコン15の位置が検出された後は、ステップS246に進み、CPU129は、ステップS241で検出した親機1での赤外線の受信強度と、ステップS242で取得した各子機2ijでの赤外線の受信強度の中から、最大受信強度を検出する。なお、ステップS246における最大受信強度の検出は省略し、その代わりに、上述の図46のステップS223で検出される最大受信強度を流用することが可能である。
【0708】
ステップS246では、さらに、CPU129は、最大受信強度が得られたテレビジョン受像機(最大受信強度装置)が親機1または子機2のいずれであるかを判定する。
【0709】
ステップS246において、最大受信強度装置が親機1であると判定された場合、ステップS247に進み、CPU129は、その最大受信強度装置である親機1のスピーカユニット12Lおよび12Rの指向性の主軸の方向を、ステップS245で検出されたリモコン15の位置(以下、適宜、ユーザ位置という)の方向に向けるように、ユニット駆動部138を制御して、ステップS241に戻る。
【0710】
この場合、ユニット駆動部138は、CPU129の制御にしたがい、スピーカユニット12Lおよび12Rを、例えばパン方向またはチルト方向に回転駆動し、これにより、その指向性の主軸の方向を、ユーザ位置の方向に向ける。
【0711】
一方、ステップS246において、最大受信強度装置が子機2であると判定された場合、ステップS248に進み、CPU129は、IEEE1394インタフェース133を制御することにより、スピーカユニット32Lおよび32Rの指向性の主軸の方向を、ユーザ位置に向けるように指令するスピーカ制御コマンドを、最大受信強度装置である子機2ijに送信し、ステップS241に戻る。
【0712】
従って、この場合、最大受信強度装置である子機2ijでは、後述する図51で説明するように、スピーカユニット32Lおよび32Rが、その指向性の主軸の方向を、ユーザ位置の方向に向けるように、パン方向またはチルト方向に回転駆動される。
【0713】
上述したように、ユーザは、リモコン15(またはリモコン35)を操作することによって、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御を行う場合、一般に、リモコン15を、その制御対象であるテレビジョン受像機に向けて操作する。
【0714】
この場合、例えば、いま、リモコン15(またはリモコン35)が出射する赤外線が指向性の強いものであるとすると、ユーザが制御対象としようとしているテレビジョン受像機は、リモコン15が出射する赤外線の主軸の方向にあるもの、即ち、赤外線の受信強度が最も大きい最大受信強度装置であるということになる。
【0715】
従って、最大受信強度装置が、リモコン15を操作したユーザが視聴している番組の画像データおよび音声データが出力されているテレビジョン受像機であり、その最大受信強度装置である親機1のスピーカユニット12Lおよび12R、または子機2のスピーカユニット32Lおよび32Rの指向性の主軸の方向を、リモコン15を操作したユーザの方向に向けることにより、そのユーザは、所望する番組の音声データを、明瞭に聞き取ることが可能となる。
【0716】
次に、図51のフローチャートを参照して、子機2のスピーカ制御処理について説明する。
【0717】
子機2(図11)のスピーカ制御処理では、CPU149は、IR受信部155において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS251において、IR受信部155における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射するが、この赤外線は、上述したように、子機2のIR受信部155で受光される。ステップS251では、CPU129は、IR受信部155に、その赤外線の受信強度を検出させ、その供給を受ける。
【0718】
そして、ステップS252に進み、CPU149は、親機1から赤外線の受信強度の要求が送信されてくるのを待って、IEEE1394インタフェース153を介して、親機1に、ステップS251で検出した赤外線の受信強度を送信する。このステップS252で、子機2から送信される赤外線の受信強度が、親機1で行われる、上述した図48のステップS242で取得(受信)される。
【0719】
ここで、子機2のスピーカ制御処理におけるステップS251とS252では、図47の子機2の個別処理におけるステップS231とS232とそれぞれ同様の処理が行われる。従って、子機2のスピーカ制御処理では、ステップS251およびS252の処理を行わず、子機2の個別処理におけるステップS231とS232で得られる受信強度を、そのまま採用することが可能である。
【0720】
その後、ステップS253に進み、CPU149は、親機1からスピーカ制御コマンドが送信されてきたかどうかを判定する。即ち、親機1は、上述した図48のステップS248において、子機2に対して、スピーカ制御コマンドを送信するが、ステップS253では、そのようにして親機1からスピーカ制御コマンドが送信されてきたかどうかが判定される。
【0721】
ステップS253において、親機1からスピーカ制御コマンドが送信されてきていないと判定された場合、ステップS251に戻る。
【0722】
また、ステップS253において、親機1からスピーカ制御コマンドが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1から送信されてきたスピーカ制御コマンドが受信され、CPU149に供給された場合、ステップS254に進み、CPU149は、スピーカ制御コマンドにしたがい、子機2のスピーカユニット32Lおよび32Rの指向性の主軸の方向を、図48のステップS245で検出されたリモコン15の位置(ユーザ位置)の方向に向けるように、ユニット駆動部158を制御して、ステップS251に戻る。
【0723】
この場合、ユニット駆動部158は、CPU149の制御にしたがい、スピーカユニット32Lおよび32Rを、例えばパン方向またはチルト方向に回転駆動し、これにより、その指向性の主軸の方向を、ユーザ位置の方向に向ける。
【0724】
従って、この場合、子機2においては、その子機2に向かって、リモコン15を操作したユーザ、即ち、その子機2で出力されている画像データおよび音声データとしての番組を視聴しているユーザの方向に、スピーカユニット32Lおよび32Rの指向性の主軸の方向が向けられることとなり、そのユーザは、所望する番組の音声データを、明瞭に聞き取ることが可能となる。
【0725】
なお、図48および図51のスピーカ制御処理は、例えば、図46および図47の個別処理が終了したときに終了する。
【0726】
また、上述の場合には、ユーザ位置に対応して、スピーカユニット12Lおよび12R(またはスピーカユニット32Lおよび32R)の指向性の主軸の方向の向きだけを制御するようにしたが、その他、例えば、スピーカユニット12Lおよび12Rの音量も制御するようにすることが可能である。即ち、例えば、ユーザが番組を視聴しているテレビジョン受像機が、そのユーザ位置から離れているほど、スピーカユニット12Lおよび12Rの音量を大とするようにすることが可能である。
【0727】
さらに、上述の場合には、テレビジョン受像機におけるリモコン15からの赤外線の受信強度に基づいて、そのリモコン15の位置(ユーザ位置)を検出するようにしたが、リモコン15の位置は、その他、例えば、GPS(Global Positioning System)を利用したり、各テレビジョン受像機から超音波を発し、その超音波をリモコン15で受信して送り返すようにすることなどによって検出することが可能である。
【0728】
次に、上述のスピーカ制御処理においては、スピーカユニット12Lおよび12R(並びにスピーカユニット32Lおよび32R)として、指向性のあるものを用い、その指向性の主軸の方向を、ユニット駆動部138(およびユニット駆動部158)によって、パン方向またはチルト方向に回転駆動することにより、所定の方向(ユーザ位置の方向)に向けるようにしたが、このような指向性の主軸の方向の制御は、電子的に行うこともできる。
【0729】
即ち、図52は、指向性の主軸の方向の制御を電子的に行うスピーカユニット12Lの構成例を示している。なお、他のスピーカユニット12R,32L、および32Rも、スピーカユニット12Lと同様に構成されるため、その説明は、省略する。
【0730】
図52の実施の形態において、MPEGオーディオデコーダ126(図10)が出力する音声データは、ディジタルフィルタ2111および2112に供給される。ディジタルフィルタ2111および2112には、ユニット駆動部138(図10)によって、所定のタップ係数がセットされるようになっており、ディジタルフィルタ2111と2112は、そこに供給される同一の音声データを、ユニット駆動部138によってセットされたタップ係数に基づいてフィルタリングすることにより、その音声データに含まれる各周波数成分を、各周波数成分ごとに所定の遅延時間だけ遅延した音声データを得て、スピーカ2121と2122に、それぞれ供給する。
【0731】
スピーカ2121と2122は、いずれも、無指向性のスピーカで、ディジタルフィルタ2111と2112から供給される音声データを出力(放音)する。
【0732】
いま、スピーカユニット12Lにおいて、2つのスピーカ2121と2122の主軸を、それぞれ、Y1とY2と表すと、スピーカ2121と2122は、その主軸Y1とY2が2次元平面内(ここでは、紙面内)において並行となるように配置されている。さらに、スピーカ2121と2122は、それぞれのコーン(振動板)が主軸Y1とY2の方向において等しい位置となるように配置されている。
【0733】
ここで、主軸Y1とY2との間の距離(以下、適宜、主軸間距離という)をaで表すとともに、2次元平面内において、主軸Y1またはY2を基準とする反時計方向への角度(放射角)をθで表すこととする。
【0734】
以上のように構成されるスピーカユニット12Lに対して、音声データとして、単一の周波数成分でなる、例えば正弦波信号を入力した場合、その音声データとしての正弦波信号は、ディジタルフィルタ2111と2112でフィルタリングされ、これにより、例えば、遅延時間D1とD2だけ、それぞれ遅延され、スピーカ2121と2122に供給されて出力される。
【0735】
この場合、スピーカ2121と2122それぞれから出力される音波どうしが干渉する。さらに、例えば、いま、遅延時間D1とD2とが、D2≧D1の関係にあるとすると、スピーカ2121と2122それぞれから出力される音波どうしの間には、D2−D1だけの時間差(以下、適宜、遅延時間差という)が生じている。また、スピーカ2121と2122それぞれの主軸Y1とY2と角度θをなす軸Y11とY12上の音波どうしには、行路差が生じている。
【0736】
その結果、スピーカ2121と2122から出力される2つの音波の観測点(リスニング位置)ごとに、その2つの音波の干渉時の位相関係が異なることになり、例えば、ある観測点においては、2つの音波が同相で加算され、スピーカ2121と2122のうちの一方しかない場合の2倍の音量の音波となる。また、他の観測点においては、2つの音波が逆相で加算され(相殺され)、音量が0となる。従って、スピーカ2121と2122の総合の音量特性は指向性を有することになる。
【0737】
図53および図54は、上述のようにして得られるスピーカ2121と2122の総合の音量特性の指向性の例を示している。なお、図53および図54の実施の形態では、最大音量を、0dBに正規化してある。
【0738】
図53は、主軸間距離aを10cmとするとともに、遅延時間差D2−D1をa/Cとして、周波数が1000Hzの正弦波を入力した場合の音量特性の指向性を示している。なお、Cは、音速を表し、ここでは、340m/sとする。
【0739】
図53の実施の形態では、角度θが30度以上の範囲において、最大の音量が得られている。また、角度θが−45度の位置において、音量がほとんど0(ヌル)となっている。
【0740】
図54は、図53で説明した条件のうち、入力を、周波数が5000Hzの正弦波に代えた場合の音量特性の指向性を示している。
【0741】
図54の実施の形態では、角度θが45度以上の範囲に主ビームが現れている。また、角度θが0度から45度の範囲に、主ビームと同程度の大きさの副ビーム(グレーティングビーム)を生じている。このような大きな副ビームを生じるのは、図54の副ビームの範囲においては、2つの音波の位相差が、5000Hzの正弦波の波長の整数倍となり、2つの音波が同相で加算されるからである。
【0742】
このことは、他の副ビームについても同様であり、スピーカ2121と2122それぞれから観測点までの距離が、主軸間距離aに比べて十分大きい場合には、一般に、次式が成立するときに、スピーカ2121と2122が出力する2つの音波の位相が同相となって、主ビームと同じ大きさの副ビームを生じる。
【0743】
【0744】
但し、式(26)において、fは入力の周波数を表し、nは、0以上の整数値である。
【0745】
なお、式(26)において、nが0の場合は、主ビームを表す。
【0746】
例えば、周波数fが1000Hzの場合に、式(26)を満足するのは、nが0のときだけであり、従って、この場合、主ビーム以外に、同じ大きさの副ビームを生じることはない。
【0747】
ここで、例えば、nが1の場合に、式(26)を満足する周波数f、即ち、副ビームを生じる周波数fは、f=C/(a(1−cosθ))で表すことができる。図53の実施の形態で説明した条件下では、この周波数fは、約1700Hzとなるが、これは、主軸間距離aが、音波の半波長に等しいときの周波数である。
【0748】
以上から、図52のスピーカユニット12Lによれば、ディジタルフィルタ2111と2112において、そこに供給される音声データの各周波数成分を、その各周波数成分ごとに遅延し、これにより、各周波数成分ごとに、所定の遅延時間差D2−D1を与えた音声データを、スピーカ2121と2122に供給して出力することにより、スピーカ2121と2122の総合の音量特性は指向性を有するものとなる。そして、各周波数成分についての主ビームの方向およびヌル方向は、その周波数成分に与える遅延時間差によって変更することができる。
【0749】
即ち、スピーカユニット12Lの指向性の主軸の方向は、ディジタルフィルタ2111と2112にセットするタップ係数によって変更することができる。
【0750】
従って、ユニット駆動部138において、ディジタルフィルタ2111と2112に、所定のタップ係数を与えることにより、スピーカユニット12Lの指向性の主軸の方向を、所望の方向に向けることができる。
【0751】
なお、上述の場合には、スピーカユニット12Lに、2つのスピーカ2121と2122を設け、その2つのスピーカ2121と2122から出力される2つの音波どうしの干渉を利用して、指向性の主軸の方向を制御するようにしたが、その他、例えば、スピーカユニット12Lと12Rを、それぞれ、1つのスピーカで構成し、スピーカユニット12Lのスピーカと、スピーカユニット12Rのスピーカから出力される2つの音波どうしの干渉を利用して、指向性の主軸の方向を制御するようにすることも可能である。
【0752】
また、スピーカユニット12Lは、2個よりも多い数のスピーカでなる、いわゆるスピーカアレイで構成することができる。スピーカユニット12Lを、多数のスピーカで構成する場合には、より急峻な指向性を実現することができる。
【0753】
次に、上述の場合には、リモコン15の位置(ユーザ位置)を、親機1または子機2における、リモコン15からの赤外線の受信強度に基づいて検出し、そのリモコン15の位置の方向に、スピーカユニット12Lおよび12R、またはスピーカユニット32Lおよび32Rの指向性の主軸の方向を向けるようにしたが、スピーカユニット12Lおよび12R、またはスピーカユニット32Lおよび32Rの指向性の主軸の方向を、リモコン15の位置の方向に向けるだけであれば、リモコン15の位置まで検出する必要はなく、親機1または子機2からのリモコン15の方向が分かれば良い。
【0754】
そこで、図55および図56を参照して、親機1(または子機2)からのリモコン15の方向の検出方法について説明する。
【0755】
親機1からのリモコン15の方向は、図55に示すように、親機1(図10)のIR受信部135に、所定の距離Dだけ離れた2つの受光部135Aと135Bを設けることにより検出することが可能である。
【0756】
いま、親機1からリモコン15までの距離が、受光部135Aと135Bの間の距離Dに比較して十分大きいとすると、リモコン15から受光部135Aに入射する赤外線と、リモコン15から受光部135Bに入射する赤外線とは平行とみなすことができる。
【0757】
そして、図55に示すように、リモコン15から受光部135Aおよび135Bに入射する赤外線が、受光部135Aと135Bとを結ぶ直線となす角度をφとすると、リモコン15から受光部135Aに入射する赤外線と、リモコン15から受光部135Bに入射する赤外線との間の行路差dは、Dcosφで表すことができる。
【0758】
また、光速をcで表すとともに、受光部135Aと135Bで、リモコン15からの赤外線が受光されるタイミングの時間差をτで表すと、行路差dは、cτで表すことができる。
【0759】
従って、角度φ、即ち、リモコン15の方向φは、arccos(τc/D)で表される。即ち、リモコン15の方向φは、受光部135Aと135Bで、リモコン15からの赤外線が受光されるタイミングの時間差τを測定することで求めることができる。
【0760】
次に、親機1(または子機2)からのリモコン15の方向は、IR受信部135(またはIR受信部155)を、図56に示すように構成することによって検出することも可能である。
【0761】
即ち、図56の実施の形態では、IR受信部135は、複数の赤外線受光部としての画素を有する赤外線ラインセンサ221と、その赤外線ラインセンサ221上に赤外線を集光するレンズ222から構成されている。
【0762】
なお、赤外線ラインセンサ221は、例えば、レンズ222の光軸上に配置されている。
【0763】
以上のように構成されるIR受信部135では、リモコン15から出射された赤外線は、レンズ222を介して、赤外線ラインセンサ221に入射し、その赤外線ラインセンサ上の所定の位置の画素で受光される。
【0764】
この場合、赤外線ラインセンサ221に対する赤外線の入射角αが変化すると、これに対応して、その赤外線を受光する画素、つまり、受光位置も変化する。
【0765】
そして、いま、この受光位置と、赤外線ラインセンサ221上のレンズ222の光軸との交点との間の距離をrで表すとともに、赤外線ラインセンサ221とレンズ222との距離をSで表すと、入射角α、即ち、リモコン15の方向αは、arctan(S/r)で表される。
【0766】
従って、リモコン15の方向αは、赤外線ラインセンサ221上のレンズ222の光軸との交点と、赤外線を受光した画素の位置との間の距離rを測定することにより求めることができる。
【0767】
次に、図57は、親機1の他の構成例を示している。なお、図中、図10における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図57の親機1は、接続検出部139が新たに設けられている他は、図10における場合と同様に構成されている。
【0768】
接続検出部139は、電気的または機械的に、他のテレビジョン受像機が接続されたことを検出し、CPU129に供給するようになっている。
【0769】
従って、図57の実施の形態では、端子パネル21におけるIEEE1394端子21ij(図3F)の端子電圧の変化ではなく、接続検出部139において、他のテレビジョン受像機との接続が検出される。
【0770】
次に、図58は、子機2の他の構成例を示している。なお、図中、図11における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図58の子機2は、接続検出部159が新たに設けられている他は、図11における場合と同様に構成されている。
【0771】
接続検出部159は、電気的または機械的に、他のテレビジョン受像機が接続されたことを検出し、CPU149に供給するようになっている。
【0772】
従って、図58の実施の形態では、図57の実施の形態における場合と同様に、端子パネル41におけるIEEE1394端子411(図5F)の端子電圧の変化ではなく、接続検出部159において、他のテレビジョン受像機との接続が検出される。
【0773】
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0774】
そこで、図59は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0775】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク305やROM303に予め記録しておくことができる。
【0776】
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体311に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体311は、いわゆるパッケージソフトウエアとして提供することができる。
【0777】
なお、プログラムは、上述したようなリムーバブル記録媒体311からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部308で受信し、内蔵するハードディスク305にインストールすることができる。
【0778】
コンピュータは、CPU(Central Processing Unit)302を内蔵している。CPU302には、バス301を介して、入出力インタフェース310が接続されており、CPU302は、入出力インタフェース310を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部307が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)303に格納されているプログラムを実行する。あるいは、また、CPU302は、ハードディスク305に格納されているプログラム、衛星若しくはネットワークから転送され、通信部308で受信されてハードディスク305にインストールされたプログラム、またはドライブ309に装着されたリムーバブル記録媒体311から読み出されてハードディスク305にインストールされたプログラムを、RAM(Random Access Memory)304にロードして実行する。これにより、CPU302は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU302は、その処理結果を、必要に応じて、例えば、入出力インタフェース310を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部306から出力、あるいは、通信部308から送信、さらには、ハードディスク305に記録等させる。
【0779】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0780】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0781】
なお、上述したスケーラブルTVシステムは、ディジタルおよびアナログのいずれのテレビジョン受像機によって構成することも可能である。
【0782】
また、スケーラブルTVシステムを構成するテレビジョン受像機は、例えば、そのテレビジョン受像機が親機または子機であるのか、さらには、子機である場合には、何台目の子機であるのかによって、販売価格に差を設けるようにすることができる。
【0783】
即ち、スケーラブルTVシステムでは、上述したように、親機が存在しなければ、特別機能が提供されないため、親機の価値は高く、従って、販売価格を高く設定するようにすることができる。
【0784】
また、ユーザは、親機の購入後は、子機を随時追加購入していくこととなると予想されるが、最初の数台の子機については、例えば、親機よりも低価格ではなるが、一般のテレビジョン受像機よりは高価格の販売価格を設定するようにすることができる。そして、その後に購入される子機については、さらに低価格の販売価格を設定するようにすることができる。
【0785】
なお、スケーラブルTVシステムを構成する親機となるテレビジョン受像機は、例えば、一般的なディジタルのテレビジョン受像機に、信号処理部137を追加するとともに、CPU129に実行させるプログラムを変更することで構成することが可能である。従って、スケーラブルTVシステムを構成する親機となるテレビジョン受像機は、一般的なディジタルのテレビジョン受像機を利用して、比較的容易に製造することができるので、スケーラブルTVシステムが提供する上述したような特別機能を考慮すれば、そのコストメリット(コストパフォーマンス)は高いと言うことができる。この点については、子機としてのテレビジョン受像機についても同様である。
【0786】
また、本発明は、チューナを内蔵する表示装置であるテレビジョン受像機の他、チューナを内蔵せずに、外部からの画像および音声を出力する表示装置にも適用可能である。
【0787】
【発明の効果】
以上の如く、本発明によれば、多数の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したスケーラブルTVシステムの一実施の形態の構成例を示す斜視図である。
【図2】親機1の外観構成例を示す斜視図である。
【図3】親機1の外観構成例を示す6面図である。
【図4】子機2の外観構成例を示す斜視図である。
【図5】子機2の外観構成例を示す6面図である。
【図6】スケーラブルTVシステムを構成する親機1および子機2を収納する専用ラックの外観構成例を示す斜視図である。
【図7】リモコン15の外観構成例を示す平面図である。
【図8】リモコン35の外観構成例を示す平面図である。
【図9】リモコン15の他の外観構成例を示す平面図である。
【図10】親機1の電気的構成例を示すブロック図である。
【図11】子機2の電気的構成例を示すブロック図である。
【図12】 IEEE1394通信プロトコルのレイヤ構造を示す図である。
【図13】 CSRアーキテクチャのアドレス空間を示す図である。
【図14】 CSRのオフセットアドレス、名前、および働きを示す図である。
【図15】ゼネラルROMフォーマットを示す図である。
【図16】バスインフォブロック、ルートディレクトリ、およびユニットディレクトリの詳細を示す図である。
【図17】 PCRの構成を示す図である。
【図18】 oMPR,oPCR,iMPR、およびiPCRの構成を示す図である。
【図19】 AV/Cコマンドのアシンクロナス転送モードで伝送されるパケットのデータ構造を示す図である。
【図20】 AV/Cコマンドの具体例を示す図である。
【図21】 AV/Cコマンドとレスポンスの具体例を示す図である。
【図22】信号処理部137の詳細構成例を示すブロック図である。
【図23】信号処理部137による画像変換処理を説明するフローチャートである。
【図24】学習装置の構成例を示すブロック図である。
【図25】生徒データ生成部173の処理を説明するための図である。
【図26】学習装置による係数種データの学習処理を説明するフローチャートである。
【図27】係数種データの学習方法を説明するための図である。
【図28】学習装置の他の構成例を示すブロック図である。
【図29】信号処理部157の構成例を示すブロック図である。
【図30】親機1の処理を説明するフローチャートである。
【図31】親機1による認証処理を説明するフローチャートである。
【図32】子機2の処理を説明するフローチャートである。
【図33】子機2による認証処理を説明するフローチャートである。
【図34】親機1によるクローズドキャプション処理を説明するフローチャートである。
【図35】子機2によるクローズドキャプション処理を説明するフローチャートである。
【図36】親機1による一部拡大処理を説明するフローチャートである。
【図37】子機2による一部拡大処理を説明するフローチャートである。
【図38】一部拡大処理が行われた場合のスケーラブルTVシステムの表示例を示す図である。
【図39】親機1による全体拡大処理を説明するフローチャートである。
【図40】表示範囲と拡大範囲の求め方を説明するための図である。
【図41】子機2による全体拡大処理を説明するフローチャートである。
【図42】全体拡大処理が行われた場合のスケーラブルTVシステムの表示例を示す図である。
【図43】親機1によるマルチ画面表示処理を説明するフローチャートである。
【図44】親機1による一括同時制御処理を説明するフローチャートである。
【図45】一括同時制御処理が行われた場合のスケーラブルTVシステムの表示例を示す図である。
【図46】親機1による個別処理を説明するフローチャートである。
【図47】子機2による個別処理を説明するフローチャートである。
【図48】親機1によるスピーカ制御処理を説明するフローチャートである。
【図49】強度対距離テーブルを示す図である。
【図50】リモコン15までの距離の算出方法を説明するための図である。
【図51】子機2によるスピーカ制御処理を説明するフローチャートである。
【図52】スピーカユニット12Lの構成例を示すブロック図である。
【図53】指向性を示す図である。
【図54】指向性を示す図である。
【図55】リモコン15の方向の検出方法を説明するための図である。
【図56】IR受信部135の構成例を示す図である。
【図57】親機1の他の電気的構成例を示すブロック図である。
【図58】子機2の他の電気的構成例を示すブロック図である。
【図59】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
1 親機, 2,211,212,213,214,215,221,222,223,224,225,231,232,233,234,235,241,242,243,244,245,251,252,253,254,255 子機, 11 CRT, 12L,12R スピーカユニット, 15 リモコン, 21 端子パネル, 2111,2112,2113,2121,2123,2131,2132,2133 IEEE1394端子, 22 アンテナ端子, 23 入力端子, 24 出力端子, 31 CRT, 32L,32R スピーカユニット, 35 リモコン, 41 端子パネル, 411 IEEE1394端子, 42 アンテナ端子, 43 入力端子, 44 出力端子, 51 セレクトボタンスイッチ, 52 ボリウムボタンスイッチ, 53 チャンネルアップダウンボタンスイッチ, 54 メニューボタンスイッチ, 55 イグジットボタンスイッチ, 56 ディスプレイボタン, 57 エンタボタンスイッチ, 58 数字ボタン(テンキー)スイッチ, 59 テレビ/ビデオ切換ボタンスイッチ, 60 テレビ/DSS切換ボタンスイッチ, 61 ジャンプボタンスイッチ, 62 ランゲージボタン, 63 ガイドボタンスイッチ, 64 フェイバリットボタンスイッチ, 65 ケーブルボタンスイッチ, 66 テレビスイッチ, 67 DSSボタンスイッチ, 68乃至70 LED, 71 ケーブル電源ボタンスイッチ, 72 テレビ電源ボタンスイッチ, 73 DSS電源ボタンスイッチ, 74 ミューティングボタンスイッチ, 75 スリープボタンスイッチ, 76 発光部, 81 セレクトボタンスイッチ, 82 ボリウムボタンスイッチ, 83 チャンネルアップダウンボタンスイッチ, 84 メニューボタンスイッチ, 85 イグジットボタンスイッチ, 86 ディスプレイボタン, 87 エンタボタンスイッチ, 88 数字ボタン(テンキー)スイッチ, 89 テレビ/ビデオ切換ボタンスイッチ, 90 テレビ/DSS切換ボタンスイッチ, 91 ジャンプボタンスイッチ, 92 ランゲージボタン, 93 ガイドボタンスイッチ, 94 フェイバリットボタンスイッチ, 95 ケーブルボタンスイッチ, 96 テレビスイッチ, 97 DSSボタンスイッチ, 98乃至100LED, 101 ケーブル電源ボタンスイッチ, 102 テレビ電源ボタンスイッチ, 103 DSS電源ボタンスイッチ, 104 ミューティングボタンスイッチ, 105 スリープボタンスイッチ, 106 発光部, 110 ボタンスイッチ, 111乃至114 方向ボタンスイッチ, 121 チューナ, 122 QPSK復調回路, 123 エラー訂正回路, 124デマルチプレクサ, 125 MPEGビデオデコーダ, 126 MPEGオーディオデコーダ, 127 フレームメモリ, 128 NTSCエンコーダ, 129 CPU, 130 EEPROM, 131 ROM, 132RAM, 133 IEEE1394インタフェース, 134 フロントパネル, 135 IR受信部, 135A,135B 受光部, 136 モデム, 137 信号処理部, 137A DSP, 137B EEPROM, 137C RAM, 138 ユニット駆動部, 139 接続検出部, 141 チューナ, 142 QPSK復調回路, 143 エラー訂正回路, 144 デマルチプレクサ, 145 MPEGビデオデコーダ, 146 MPEGオーディオデコーダ, 147 フレームメモリ, 148 NTSCエンコーダ, 149 CPU, 150 EEPROM, 151 ROM, 152 RAM, 153 IEEE1394インタフェース, 154 フロントパネル, 155 IR受信部, 156 モデム, 157 信号処理部, 157A DSP, 157B EEPROM, 157C RAM, 158 ユニット駆動部, 159 接続検出部, 161,162 タップ抽出部, 163 クラス分類部, 164 係数メモリ, 165 予測部, 166 係数生成部, 167 係数種メモリ, 168 パラメータメモリ, 171 教師データ生成部, 172 教師データ記憶部, 173 生徒データ生成部, 174 生徒データ記憶部, 175,176 タップ抽出部, 177 クラス分類部, 178 足し込み部, 179 係数種算出部, 180 パラメータ生成部, 190 足し込み部, 191 タップ係数算出部, 192 足し込み部, 193 係数種算出部, 201,202 タップ抽出部, 203クラス分類部, 204 係数メモリ, 205 予測部, 206 係数生成部, 207 係数種メモリ, 208 パラメータメモリ, 2111,2112 ディジタルフィルタ, 2121,2122 スピーカ, 221 赤外線ラインセンサ, 222 レンズ, 301 バス, 302 CPU, 303 ROM, 304 RAM, 305 ハードディスク, 306 出力部, 307 入力部, 308 通信部, 309 ドライブ, 310 入出力インタフェース, 311 リムーバブル記録媒体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display device, a control method, a program, a recording medium, and a display system, and in particular, when a large number of display devices are connected and used, higher functions can be realized than when used alone. The present invention relates to a display device, a control method, a program, a recording medium, and a display system.
[0002]
[Prior art]
For example, in a television receiver, a television broadcast signal is received, an image as a television broadcast program is displayed, and sound accompanying the image is output.
[0003]
[Problems to be solved by the invention]
By the way, the conventional television receiver is premised on operating alone, and therefore, when a user purchases a new television receiver, the television owned by the user is used. John receivers are no longer needed and are often discarded even if they are still usable.
[0004]
Therefore, when a large number of television receivers are connected and higher functions can be realized than when a single television receiver is connected, the disposal of usable television receivers can be prevented, thereby contributing to effective use of resources. it can.
[0005]
The present invention has been made in view of such a situation, and when a display device such as a large number of television receivers is connected and used, it is possible to realize a higher function than when used alone. It is something that can be done.
[0006]
[Means for Solving the Problems]
The display device of the present invention includes a connection detection unit that detects that another display device is connected, an authentication unit that performs authentication between the other display device in which connection is detected by the connection detection unit, and authentication. With a function changing means for changing the function of the display device when successful,There are two types of display devices and other display devices: a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. The authentication unit performs authentication as to whether or not the other display device is legitimate and authentication as to whether or not the other display device is a parent or child display device.It is characterized by that.
[0007]
The control method of the present invention includes a connection detection step for detecting that another display device is connected, an authentication step for performing authentication between the other display device for which connection is detected in the connection detection step, and authentication. A function change step that changes the function of the display device if successful;The display device and other display devices include a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. There are types, and the authentication step includes the steps of authenticating whether the other display device is valid and authenticating whether the other display device is the parent or child display device. IncludingAnd features.
[0008]
The program according to the present invention includes a connection detection step for detecting that another display device is connected, an authentication step for performing authentication between the other display device in which connection is detected in the connection detection step, and authentication is successful. Function change step to change the function of the display deviceThe display device and other display devices include a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. There are types, and the authentication step includes the steps of authenticating whether the other display device is valid and authenticating whether the other display device is the parent or child display device. IncludingAnd features.
[0009]
Recording medium of the present inventionThe program ofA connection detection step for detecting that another display device is connected; an authentication step for performing authentication with another display device for which connection has been detected in the connection detection step; and a display device if the authentication is successful Function change step to change the function ofThe display device and other display devices include a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. There are types, and the authentication step includes the steps of authenticating whether the other display device is valid and authenticating whether the other display device is the parent or child display device. IncludingAnd features.
[0010]
In the display system of the present invention, the parent and child display devices authenticate between the connection detection means for detecting that another display device is connected and the other display devices for which connection is detected by the connection detection means. And an authentication means for performing the function, and a function changing means for changing its function when the authentication is successful,The authentication means performs authentication as to whether or not the other display device from which the connection is detected is valid, and authentication as to whether or not the other display device is a parent or child display device.It is characterized by that.
[0011]
In the display device, the control method, the program, the recording medium, and the display system of the present invention, it is detected that another display device is connected, and authentication is performed with the detected other display device. In detailAuthentication about whether or not the detected other display device is valid and authentication about whether or not the detected other display device is a parent or child display device are performed.When the authentication is successful, the function changes.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a scalable TV (Television) system to which the present invention is applied (a system is a logical collection of a plurality of devices, regardless of whether or not the devices of each configuration are in the same casing. 1 is a perspective view showing a configuration example of an embodiment.
[0013]
In the embodiment of FIG. 1A, the scalable TV system includes nine
[0014]
Here, the number of television receivers constituting the scalable TV system is not limited to nine or 25. In other words, the scalable TV system can be configured by an arbitrary plurality of television receivers. Further, as shown in FIG. 1, the arrangement of the television receivers constituting the scalable TV system is not limited to 3 × 3 or 5 × 5. That is, the arrangement of the television receivers constituting the scalable TV system can be, for example, horizontal × vertical 1 × 2, 2 × 1, 2 × 3, or the like. Further, the arrangement shape of the television receivers constituting the scalable TV system is not limited to a lattice shape (matrix shape) as shown in FIG. 1, and may be a pyramid shape, for example.
[0015]
In this way, the scalable TV system can be said to be a “scalable” system because an arbitrary number of television receivers can be arranged and arranged in an arbitrary number in the horizontal and vertical directions. .
[0016]
The television receiver constituting the scalable TV system is controlled by a parent television receiver that can control other television receivers (hereinafter referred to as “parent device” as appropriate) and other television receivers. However, there are two types of child television receivers (hereinafter referred to as slave units as appropriate) that cannot control other television receivers.
[0017]
In order for the scalable TV system to perform various processes to be described later, the television receiver that constitutes the scalable TV system is compatible with the scalable TV system (hereinafter referred to as a scalable compatible apparatus as appropriate), and It is a condition that at least one of the devices is a master unit. For this reason, in the embodiment of FIG. 1A and FIG. 1B, among the television receivers constituting the scalable TV system, for example, the television receiver disposed at the center is the
[0018]
From the above, when there is a television receiver that is not a scalable compatible device among the television receivers constituting the scalable TV system, some television receivers can enjoy the functions of the scalable TV system. Can not. Further, even if the television receivers constituting the scalable TV system are scalable compatible devices, if all of them are slave units, the functions of the scalable TV system cannot be enjoyed.
[0019]
Therefore, in order to enjoy the function of the scalable TV system, the user needs to purchase at least one or more parent devices, or one parent device and one or more child devices.
[0020]
Note that the master unit also has the function of a slave unit, and therefore, a plurality of master units may exist in the television receiver constituting the scalable TV system.
[0021]
In the embodiment of FIG. 1A, among the 3 × 3 television receivers, the
[0022]
Therefore, in the embodiment of FIG. 1, the
[0023]
In the scalable TV system, regardless of the position of the
[0024]
Here, in the following, for the sake of simplicity, the scalable TV system is assumed to be composed of 3 × 3 television receivers as shown in FIG. 1A. It is assumed that it is arranged at the center of a television receiver that constitutes a scalable TV system.
[0025]
In addition, the subunit |
[0026]
In addition, hereinafter, the
[0027]
Next, FIG. 2 is a perspective view illustrating a configuration example of a television receiver that is the
[0028]
The
[0029]
Then, an image of a television broadcast signal received by an antenna (not shown) is displayed on the
[0030]
The
[0031]
The
[0032]
In addition, the
[0033]
Next, FIG. 3 is a six-sided view illustrating a configuration example of the
[0034]
3A is a front view of
[0035]
A fixing mechanism is provided on the upper surface (FIG. 3B), the bottom surface (FIG. 3C), the left side surface (FIG. 3D), and the right side surface (FIG. 3E) of the
[0036]
The fixing mechanism can be configured by a mechanical mechanism, or can be configured by, for example, a magnet.
[0037]
As shown in FIG. 3F, a
[0038]
The
[0039]
Here, in the embodiment of FIG. 3F, the
[0040]
Therefore, in the scalable TV system of FIG.11IEEE1394 terminal 2111,
[0041]
In the scalable TV system of FIG.ijWhich IEEE1394 terminal of the
[0042]
In the embodiment of FIG. 3F, the
[0043]
Furthermore, the electrical connection between the television receivers constituting the scalable TV system is not limited to IEEE1394, and for example, a LAN (IEEE802) can be adopted. Further, the electrical connection between television receivers constituting the scalable TV system can be performed wirelessly instead of wired.
[0044]
A cable connected to an antenna (not shown) is connected to the
[0045]
Next, FIG. 4 is a perspective view showing a configuration example of a television receiver as the
[0046]
The subunit |
[0047]
An image of a television broadcast signal received by an antenna (not shown) is displayed on the
[0048]
Similarly to the
[0049]
The
[0050]
Further, in order to configure the scalable TV system of FIG. 1A, the user has one
[0051]
Therefore, the
[0052]
Here, as described above, the
[0053]
Next, FIG. 5 is a 6-side view showing an example of the configuration of the
[0054]
5A is a front view of the
[0055]
The top surface (FIG. 5B), bottom surface (FIG. 5C), left side surface (FIG. 5D), and right side surface (FIG. 5E) of the
[0056]
As shown in FIG. 5F, a
[0057]
The
[0058]
The number of IEEE1394 terminals provided on the
[0059]
A cable connected to an antenna (not shown) is connected to the
[0060]
One
[0061]
Note that the scalable TV system of FIG. 1A is configured by directly arranging other television receivers on the top, bottom, left, or right of a television receiver as a master unit or a slave unit. It is also possible to arrange the television receiver in a rack dedicated to the scalable TV system shown in FIG. When the dedicated rack is used in this way, it is possible to prevent the displacement of the television receiver constituting the scalable TV system more firmly.
[0062]
Here, when a scalable TV system is configured by directly arranging another television receiver on the top, bottom, left, or right of a television receiver as a master unit or a slave unit, for example,
[0063]
Next, FIG. 7 is a plan view showing a configuration example of the
[0064]
The select button switch 51 can be operated (direction operation) in a total of eight directions including four directions in the vertical and horizontal directions and four oblique directions in the middle thereof. Furthermore, the select button switch 51 can be pressed (select operation) in a direction perpendicular to the upper surface of the
[0065]
Here, when the menu screen is displayed, a cursor that indicates an item or the like on the menu screen is displayed on the
[0066]
The
[0067]
The
[0068]
A numeric button (ten-key) switch 58 on which
[0069]
The TV / video
[0070]
The
[0071]
The
[0072]
LEDs (Light Emitting Diodes) 68, 69, and 70 are lit when the
[0073]
The cable
[0074]
The
[0075]
When the
[0076]
Next, FIG. 8 is a plan view showing a configuration example of the
[0077]
The
[0078]
Next, FIG. 9 is a plan view showing another configuration example of the
[0079]
In the embodiment of FIG. 9, instead of the select button switch 51 that can be operated in eight directions in FIG. 7, four direction button switches 111, 112, 113, and 114 in the up, down, left, and right directions, and buttons for performing a select operation. A
[0080]
The other button switches are basically the same as those shown in FIG. 7 although their arrangement positions are different.
[0081]
Note that the
[0082]
In addition, the
[0083]
Next, FIG. 10 shows an example of the electrical configuration of the
[0084]
A television broadcast signal received by an antenna (not shown) is supplied to the
[0085]
Under the control of the
[0086]
The
[0087]
The frame memory 127 temporarily stores the image data output from the
[0088]
The
[0089]
The
[0090]
The
[0091]
The
[0092]
Although not shown in FIGS. 2 and 3,
[0093]
The
[0094]
The
[0095]
The
[0096]
In other words, the
[0097]
The data and programs stored in the
[0098]
Here, signal processing performed by the
[0099]
The unit driving unit 138 drives the
[0100]
In the
[0101]
That is, a transport stream as a television broadcast signal received by the antenna is supplied to the
[0102]
In the MPEG
[0103]
On the other hand, in the
[0104]
Next, FIG. 11 shows an example of the electrical configuration of the
[0105]
Since the subunit |
[0106]
As shown in FIG. 3F and FIG. 5F, the
[0107]
Next, in the present embodiment, the
[0108]
Therefore, IEEE1394 communication will be described with reference to FIGS.
[0109]
IEEE1394 is one of the serial bus standards, and IEEE1394 communication is suitable for transferring data that needs to be reproduced in real time, such as images and sounds, because it can perform isochronous transfer of data.
[0110]
In other words, between devices having IEEE1394 interfaces (IEEE1394 devices), data is isochronously transferred using a transmission band of 100 μs at maximum with a period of 125 μs (microseconds) (although it is called time). It can be performed. In addition, isochronous transfer can be performed with a plurality of channels as long as the transmission bandwidth is within the above-described range.
[0111]
FIG. 12 shows the layer structure of the IEEE1394 communication protocol.
[0112]
The IEEE1394 protocol has a three-layered structure including a transaction layer, a link layer, and a physical layer. Each layer communicates with each other, and each layer communicates with serial bus management. Furthermore, the transaction layer and the link layer also communicate with higher-order applications. There are four types of transmission / reception messages used for this communication: request, indication (indication), response (response), and confirmation (confirmation), and the arrows in FIG. 12 indicate this communication.
[0113]
Note that communication with “.req” at the end of the arrow name indicates a request, and “.ind” indicates an instruction. “.Resp” indicates a response, and “.conf” indicates confirmation. For example, TR_CONT.req is a request communication sent from the serial bus management to the transaction layer.
[0114]
The transaction layer provides an asynchronous transmission service for data communication with other IEEE1394 devices (devices having an IEEE1394 interface) in response to a request from an application. Request Response Protocol) is realized. That is, as a data transfer method based on the IEEE1394 standard, there is asynchronous transmission in addition to the above-described isochronous transmission, and the transaction layer performs asynchronous transmission processing. Data transmitted by asynchronous transmission is made up of IEEE1394 devices by three types of transactions: read transaction, write transaction, and lock transaction, which are units of processing required for the protocol of the transaction layer. Transmitted between them.
[0115]
The link layer performs processing such as data transmission service using acknowledge, address processing, data error confirmation, and data framing. One packet transmission performed by the link layer is called a subaction, and there are two types of subactions, an asynchronous subaction and an isochronous subaction.
[0116]
The asynchronous subaction is performed by designating a physical ID (Physical Identification) that identifies a node (a unit that can be accessed in IEEE1394) and an address in the node, and the node that has received the data returns an acknowledge. However, in the asynchronous broadcast subaction that sends data to all nodes in the IEEE1394 serial bus, the node that received the data does not return an acknowledge.
[0117]
On the other hand, in the isochronous subaction, data is transmitted by designating a channel number at a constant cycle (125 μs as described above). In the isochronous subaction, the acknowledge is not returned.
[0118]
The physical layer converts logical symbols used in the link layer into electrical signals. In addition, the physical layer performs processing for arbitration requests from the link layer (arbitration when a node that performs IEEE1394 communication competes), or reconfigures the IEEE1394 serial bus in response to a bus reset. Or perform automatic assignment.
[0119]
Serious bus management provides basic bus control functions and ISO / IEC13212 CSR (Control & Status Register Architecture). The serial bus management has functions of a node controller (Node Controllor), an isochronous resource manager (Isochronous Resource Manager), and a bus manager (Bus Manager). The node controller controls the node state, physical ID, and the like, and also controls the transaction layer, link layer, and physical layer. The isochronous resource manager provides the usage status of resources used for isochronous communication. In order to perform isochronous communication, at least one of the devices connected to the IEEE1394 serial bus has the function of the isochronous resource manager. IEEE1394 equipment is required. The bus manager has the highest function among the functions, and aims to optimize the use of the IEEE1394 serial bus. Note that the presence of the isochronous resource manager and the bus manager is arbitrary.
[0120]
[0121]
Here, in the tree identification, a parent-child relationship between nodes as an IEEE1394 device is determined. In addition, the root node designates a node that has acquired the right to use the IEEE1394 serial bus by arbitration. The physical ID is determined by transferring a packet called a self-ID packet to each node. The self-ID packet includes information such as the data transfer rate of the node and whether the node can become an isochronous resource manager.
[0122]
As described above, the isochronous resource manager is a node that provides a usage status of resources used for isochronous communication, and has a bandwidth register (BANDWIDTH_AVAILABLE register) and a channel number register (CHANNELS_AVAILABLE register) described later. Further, the isochronous resource manager also has a register indicating a physical ID of a node that becomes a bus manager. Note that if there is no bus manager in a node as an IEEE1394 device connected by an IEEE1394 serial bus, the isochronous resource manager functions as a simple bus manager.
[0123]
The cycle master transmits a cycle start packet on the IEEE1394 serial bus every 125 μs that is the period of isochronous transmission. For this reason, the cycle master has a cycle time register (CYCLE_TIME register) for counting the period (125 μs). Note that the root node becomes a cycle master, but if the root node does not have a function as a cycle master, the bus manager changes the root node.
[0124]
The bus manager manages power on the IEEE1394 serial bus, changes the root node described above, and the like.
[0125]
If the determination of the isochronous resource manager or the like as described above is performed after the bus reset, data transmission via the IEEE1394 serial bus is possible.
[0126]
In isochronous transmission, which is one of the IEEE1394 data transmission systems, a transmission band and a transmission channel are secured, and then a packet (isochronous packet) in which data is arranged is transmitted.
[0127]
That is, in isochronous transmission, the cycle master broadcasts a cycle start packet on the IEEE1394 serial bus at a period of 125 μs. When the cycle start packet is broadcast, an isochronous packet can be transmitted.
[0128]
In order to perform isochronous transmission, it is necessary to declare the reservation of resources for isochronous transmission by rewriting the bandwidth register for securing the transmission band provided by the isochronous resource manager and the channel number register for securing the channel.
[0129]
Here, the bandwidth register and the channel number register are allocated as one of CSRs (Control & Status Registers) described later having a 64-bit address space defined by ISO / IEC13213.
[0130]
The bandwidth register is a 32-bit register, the upper 19 bits are reserved, and the lower 13 bits represent a transmission band (bw_remaining) that can be used at present.
[0131]
That is, the initial value of the bandwidth register is 00000000000000000001001100110011B (B indicates that the previous value is a binary number) (= 4915). This is for the following reason. That is, in IEEE1394, the time required for transmission of 32 bits at 1572.864 Mbps (bit per second) is defined as 1, and the above 125 μs corresponds to 00000000000000000001100000000000B (= 6144). However,
[0132]
The remaining 25 μs transmission band, which is the maximum transmission band used in isochronous transmission from 125 μs except for 100 μs, is used in asynchronous transmission. Asynchronous transmission is used when reading the stored value of the bandwidth register or channel number register.
[0133]
In order to start isochronous transmission, it is necessary to secure a transmission band for that purpose. That is, for example, when isochronous transmission is performed using a transmission band of 10 μs out of one cycle of 125 μs, it is necessary to secure the transmission band of 10 μs. This transmission band is secured by rewriting the value of the bandwidth register. That is, as described above, when a transmission band of 10 μs is secured, 492, which is a value corresponding to 10 μs, is subtracted from the value of the bandwidth register, and the subtraction value is set in the bandwidth register. Therefore, for example, when the value of the bandwidth register is now 4915 (when isochronous transmission is not performed at all), when a transmission bandwidth of 10 μs is secured, the value of the bandwidth register is 4915 (= 00000000000000000001000101000111B) is rewritten from 4915 by subtracting 492 corresponding to 10 μs from 4915.
[0134]
If the value obtained by subtracting the transmission band to be secured (used) from the value of the bandwidth register is smaller than 0, the transmission band cannot be secured, and therefore the value of the bandwidth register is rewritten. In addition, isochronous transmission cannot be performed.
[0135]
In order to perform isochronous transmission, it is necessary to secure a transmission channel in addition to securing the transmission band as described above. The transmission channel is secured by rewriting the channel number register.
[0136]
The channel number register is a 64-bit register, and each bit corresponds to each channel. That is, when the value of the nth bit (the nth bit from the least significant bit) is 1, this indicates that the n−1th channel is not in use, and when it is 0, the n−th bit. Indicates that one channel is in use. Therefore, when no channel is used, the channel number register is 1111111111111111111111111111111111111111111111111111111111111111B. For example, when the first channel is secured, the channel number register is rewritten to 1111111111111111111111111111111111111111111111111111111111111101B.
[0137]
Since the channel number register is 64 bits as described above, it is possible to secure 64 channels from the 0th to the 63rd channels at the maximum by isochronous transmission, but the 63rd channel broadcasts isochronous packets. Used when
[0138]
As described above, since isochronous transmission is performed after securing the transmission band and transmission channel, it is possible to perform data transmission with a guaranteed transmission rate, and as described above, playback in real time such as images and audio is possible. It is particularly suitable for data transmission that needs to be done.
[0139]
Next, the IEEE1394 communication conforms to the CSR architecture having a 64-bit address space defined by ISO / IEC13213 as described above.
[0140]
FIG. 13 shows the address space of the CSR architecture.
[0141]
The upper 16 bits of the CSR are a node ID indicating each node, and the remaining 48 bits are used for designating an address space given to each node. The upper 16 bits are further divided into 10 bits of bus ID and 6 bits of physical ID (node ID in a narrow sense). Since a value in which all bits are 1 is used for a special purpose, 1023 buses and 63 nodes can be designated.
[0142]
Of the 256 terabyte address space defined by the lower 48 bits of CSR, the space defined by the upper 20 bits is an initial register space (Initial space used for 2048-byte CSR-specific registers and IEEE1394-specific registers). Register space), private space (private space), initial memory space (initial memory space), etc., and the space defined by the lower 28 bits is the space defined by the upper 20 bits is the initial register space In some cases, it is used as a configuration ROM (Configuration ROM), an initial unit space (Initial Unit Space) used for a node-specific purpose, a plug control register (PCRs), or the like.
[0143]
Here, FIG. 14 shows offset addresses, names, and functions of main CSRs.
[0144]
In FIG. 14, an “offset” column indicates an offset address from the address FFFFF0000000h (h indicates that the previous value is a hexadecimal number) where the initial register space starts. As described above, the bandwidth register having the offset 220h indicates a band that can be allocated to isochronous communication, and only the value of the node operating as the isochronous resource manager is valid. That is, each node has the CSR in FIG. 13, but only the bandwidth register of the isochronous resource manager is valid. Thus, the bandwidth register is essentially only an isochronous resource manager.
[0145]
As described above, in the channel number register of
[0146]
Returning to FIG. 13, a configuration ROM based on the general ROM format is arranged at
[0147]
Here, FIG. 15 shows a general ROM format.
[0148]
A node that is a unit of access on IEEE1394 can have a plurality of units that operate independently while using an address space in common. The unit directories can indicate the software version and location for this unit. The positions of the bus info block and the root directory are fixed, but the positions of other blocks are specified by offset addresses.
[0149]
Here, FIG. 16 shows details of the bus info block, the root directory, and the unit directory.
[0150]
The Company ID in the bus info block stores an ID number indicating the manufacturer of the device. The Chip ID stores a unique ID unique to the device in the world that does not overlap with other devices. Also, according to the IEC1833 standard, 00h is written in the first octet, A0h is written in the second octet, and 2Dh is written in the third octet of the unit spec ID (unit spec id) of the unit directory of the equipment that satisfies IEC1883. . Further, 01h is written in the first octet of the unit switch version (unit sw version), and 1 is written in the LSB (Least Significant Bit) of the third octet.
[0151]
The node has a PCR (Plug Control Register) defined in IEC1883 at
[0152]
Here, FIG. 17 shows the structure of PCR.
[0153]
The PCR has an oPCR (output Plug Control Register) representing an output plug and an iPCR (input Plug Control Register) representing an input plug. The PCR also has registers oMPR (output Master Plug Register) and iMPR (input Master Plug Register) indicating information of output plugs or input plugs specific to each device. An IEEE1394 device does not have a plurality of oMPRs and iMPRs, but can have a plurality of oPCRs and iPCRs corresponding to individual plugs depending on the capabilities of the IEEE1394 devices. The PCR shown in FIG. 17 has 31
[0154]
FIG. 18 shows the configuration of oMPR, oPCR, iMPR, and iPCR.
[0155]
18A shows the oMPR configuration, FIG. 18B shows the oPCR configuration, FIG. 18C shows the iMPR configuration, and FIG. 18D shows the iPCR configuration.
[0156]
The 2-bit data rate capability on the MSB side of oMPR and iMPR stores a code indicating the maximum transmission rate of isochronous data that can be transmitted or received by the device. The oMPR broadcast channel base specifies the number of the channel used for broadcast output.
[0157]
The 5-bit number of output plugs on the LSB side of the oMPR stores a value indicating the number of output plugs that the device has, that is, the number of oPCRs. The 5-bit number of input plugs on the LSB side of iMPR stores a value indicating the number of input plugs that the device has, that is, the number of iPCRs. The non-persistent extension field and the persistent extension field are areas defined for future extension.
[0158]
The on-line of the oPCR and iPCR MSB indicates the usage status of the plug. That is, if the value is 1, the plug is ON-LINE, and if it is 0, it indicates OFF-LINE. The value of the broadcast connection counter of oPCR and iPCR represents the presence (1) or absence (0) of a broadcast connection. The value of a point-to-point connection counter having a 6-bit width of oPCR and iPCR represents the number of point-to-point connections that the plug has.
[0159]
The value of a channel number having a 6-bit width of oPCR and iPCR indicates the number of an isochronous channel to which the plug is connected.
The value of the data rate having a 2-bit width of the oPCR indicates the actual transmission rate of the isochronous data packet output from the plug. A code stored in an overhead ID having a 4-bit width of oPCR indicates an over bandwidth of isochronous communication. The value of payload having a 10-bit width of oPCR represents the maximum value of data included in an isochronous packet that can be handled by the plug.
[0160]
Next, an AV / C command set is defined as a command for controlling the IEEE1394 equipment that performs the IEEE1394 communication as described above. Therefore, also in the present embodiment, the
[0161]
Here, the AV / C command set will be briefly described.
[0162]
FIG. 19 shows the data structure of an AV / C command set packet transmitted in the asynchronous transfer mode.
[0163]
The AV / C command set is a command set for controlling an AV (Audio Visual) device. In a control system using the AV / C command set, an AV / C command frame and a response frame are FCP ( They are exchanged using Function Control Protocol. In order not to put a burden on the bus and AV equipment, the response to the command is performed within 100 ms.
[0164]
As shown in FIG. 19, the data of the asynchronous packet is composed of 32 bits (= 1 quadlet) in the horizontal direction. The upper part of the figure shows a packet header, and the lower part of the figure shows a data block.
destination_ID indicates the destination.
[0165]
CTS indicates the ID of the command set. In the AV / C command set, CTS = “0000”. ctype / response indicates the function classification of the command when the packet is a command, and indicates the processing result of the command when the packet is a response. Commands can be broadly classified as follows: (1) Command to control functions from the outside (CONTROL), (2) Command to inquire about the status from outside (STATUS), and (3) Command to inquire from the outside about support of control commands (GENERAL INQUIRY (4) (4) A command (NOTIFY) requesting to notify the outside of a change in state is defined. (OPCODE support / non-support) and SPECIFIC INQUIRY (OPCODE / operands support / not supported))
[0166]
Responses are returned according to the type of command. Responses to the CONTROL command include NOT INPLEMENTED (not implemented), ACCEPTED, REJECTED, and INTERIM. Responses to the STATUS command include NOT INPLEMENTED, REJECTED, IN TRANSITION (transition), and STABLE (stable). Responses to GENERAL INQUIRY and SPECIFIC INQUIRY commands include IMPLEMENTED (implemented) and NOT IMPLEMENTED. Responses to NOTIFY commands include NOT IMPLEMENTED, REJECTED, INTERIM, and CHANGED.
[0167]
The subunit type is provided to specify the function in the device, and for example, tape recorder / player, tuner, etc. are assigned. In order to determine when there are a plurality of subunits of the same type, addressing is performed with a subunit id (arranged after the subunit type) as a discrimination number. The opcode represents a command, and the operand represents a command parameter. Additional operands is a field in which additional operands are arranged. Padding is a field in which dummy data is arranged to set the packet length to a predetermined number of bits. A data CRC (Cyclic Redundancy Check) is a CRC used for an error check during data transmission.
[0168]
Next, FIG. 20 shows a specific example of the AV / C command.
[0169]
FIG. 20A shows a specific example of ctype / response. The upper part of the figure represents a command, and the lower part of the figure represents a response. “0000” is assigned CONTROL, “0001” is assigned STATUS, “0010” is assigned SPECIFIC INQUIRY, “0011” is assigned NOTIFY, and “0100” is assigned GENERAL INQUIRY. “0101 to 0111” are reserved for future specifications.
“1000” is NOT INPLEMENTED, “1001” is ACCEPTED, “1010” is REJECTED, “1011” is IN TRANSITION, “1100” is IMPLEMENTED / STABLE, “1101” is CHNGED, “1111” ”Is assigned INTERIM. “1110” is reserved for future specifications.
[0170]
FIG. 20B shows a specific example of the subunit type. “00000” is a Video Monitor, “00011” is a Disk recorder / Player, “00100” is a Tape recorder / Player, “00101” is a Tuner, “00111” is a Video Camera, “11100” is a Vendor unique. “11110” is assigned subunit type extended to next byte. Note that “11111” is assigned a unit, but this is used when it is sent to the device itself, for example, turning on / off the power.
[0171]
FIG. 20C shows a specific example of opcode. There is an opcode table for each subunit type. Here, the opcode is shown when the subunit type is Tape recorder / Player. An operand is defined for each opcode. Here, “00h” is VENDOR-DEPENDENT, “50h” is SEACH MODE, “51h” is TIMECODE, “52h” is ATN, “60h” is OPEN MIC, “61h” is READ MIC, "62h" is assigned WRITE MIC, "C1h" is assigned LOAD MEDIUM, "C2h" is assigned RECORD, "C3h" is assigned PLAY, and "C4h" is assigned WIND.
[0172]
FIG. 21 shows specific examples of AV / C commands and responses.
[0173]
For example, when a playback instruction is given to a playback device as a target (consumer) (controlled side), the controller (controlling side) sends a command as shown in FIG. 21A to the target. Since this command uses the AV / C command set, CTS = “0000”. The ctype is “0000” because a command (CONTROL) for controlling the device from the outside is used (FIG. 20A). The subunit type is “00100” because it is a tape recorder / player (FIG. 20B). id indicates the case of
[0174]
In the scalable TV system, various controls are performed between the
[0175]
The details of the above IEEE1394 communication and AV / C command set are described in “WHITE SERISE No.181 IEEE1394 Multimedia Interface” published by Trikes Co., Ltd.
[0176]
Next, in the
[0177]
Here, for example, if the first image data is low resolution image data and the second image data is high resolution image data, the image conversion process is a resolution improvement process for improving the resolution. it can. Also, for example, if the first image data is low S / N (Siginal / Noise) image data and the second image data is high S / N image data, the image conversion process may reduce noise. It can be referred to as noise removal processing for removal. Further, for example, if the first image data is image data of a predetermined size and the second image data is image data in which the size of the first image data is increased or decreased, the image conversion process is performed as follows. This can be referred to as resizing processing for resizing (enlarging or reducing) an image.
[0178]
Therefore, according to the image conversion process, various processes can be realized depending on how the first and second image data are defined.
[0179]
FIG. 22 shows a functional configuration example of the
[0180]
In the signal processing unit 137 (FIG. 10), the image data stored in the frame memory 127 or the image data supplied from the
[0181]
The
[0182]
Specifically, the
[0183]
The
[0184]
Here, in order to simplify the description, it is assumed that the prediction tap and the class tap have the same tap structure. However, the prediction tap and the class tap can have different tap structures.
[0185]
The prediction tap obtained by the
[0186]
The
[0187]
Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed.
[0188]
In the method using ADRC, the pixel values of the pixels constituting the class tap are subjected to ADRC processing, and the class of the target pixel is determined according to the ADRC code obtained as a result.
[0189]
In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX-MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel values constituting the class tap are requantized to K bits. That is, the minimum value MIN is subtracted from the pixel value of each pixel constituting the class tap, and the subtracted value is DR / 2.KDivide by (quantize). A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code.
Therefore, when a class tap is subjected to, for example, 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is an average of the maximum value MAX and the minimum value MIN after the minimum value MIN is subtracted. Divided by the value (rounded down after the decimal point), the pixel value of each pixel is made 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.
[0190]
Note that the
[0191]
Therefore, the
[0192]
The
[0193]
Here, the tap coefficient corresponds to a coefficient that is multiplied with input data in a so-called tap in the digital filter.
[0194]
The
[0195]
The
[0196]
The
[0197]
The
[0198]
Next, image conversion processing by the
[0199]
In the
[0200]
If it is determined in step S1 that no parameter is supplied from the
[0201]
Therefore, in the
[0202]
In step S3, the
[0203]
In step S5, the
[0204]
The
[0205]
In step S7, the
[0206]
In step S <b> 8, the
[0207]
In step S9, the
[0208]
If it is determined in step S9 that there is no second image data that has not yet been set as the pixel of interest, the process ends.
[0209]
In FIG. 23, the processing in steps S3 and S4 can be performed when a new parameter is overwritten in the
[0210]
Next, prediction calculation in the
[0211]
Now, the high-quality image data (high-quality image data) is used as the second image data, and the high-quality image data is filtered by LPF (Low Pass Filter) to reduce the image quality (resolution). Using low-quality image data (low-quality image data) as first image data, a prediction tap is extracted from the low-quality image data, and the pixel value of the high-quality pixel is set to a predetermined value using the prediction tap and the tap coefficient. Consider obtaining (predicting) by prediction calculation.
[0212]
Assuming that, for example, linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.
[0213]
[Expression 1]
[0214]
However, in formula (1), xnRepresents the pixel value of the pixel of the n-th low-quality image data (hereinafter referred to as “low-quality pixel” as appropriate) constituting the prediction tap for the high-quality pixel y, and wnRepresents the n-th tap coefficient multiplied by the n-th low image quality pixel (pixel value thereof). In Equation (1), the prediction tap is N low-quality pixels x1, X2, ..., xNIt is made up of.
[0215]
Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.
[0216]
On the other hand, in the embodiment of FIG.nIs generated from the coefficient seed data stored in the
[0217]
[Expression 2]
[0218]
However, in equation (2), βm, nIs the nth tap coefficient wnRepresents the m-th coefficient seed data used to determine, and z represents a parameter. In Equation (2), the tap coefficient wnIs M coefficient seed data βn, 1, Βn, 2, ..., βn, MIt has come to be requested using.
[0219]
Where coefficient seed data βm, nAnd the tap coefficient w from the parameter znThe equation for obtaining is not limited to Equation (2).
[0220]
Now, the value z determined by the parameter z in equation (2)m-1To the new variable tmIs defined by the following formula.
[0221]
[Equation 3]
[0222]
By substituting equation (3) into equation (2), the following equation is obtained.
[0223]
[Expression 4]
[0224]
According to equation (4), the tap coefficient wnIs the coefficient seed data βn, mAnd variable tmIs obtained by a linear linear expression.
[0225]
By the way, the true value of the pixel value of the high-quality pixel of the k-th sample is ykAnd the true value y obtained by equation (1)kThe predicted value of yk′ Represents the prediction error ekIs expressed by the following equation.
[0226]
[Equation 5]
[0227]
Now, the predicted value y in equation (5)kSince ′ is obtained according to equation (1), y in equation (5)kSubstituting ′ according to equation (1) yields:
[0228]
[Formula 6]
[0229]
However, in Formula (6), xn, kRepresents the n-th low-quality pixel constituting the prediction tap for the high-quality pixel of the k-th sample.
[0230]
W in formula (6)nBy substituting equation (4) into the following equation:
[0231]
[Expression 7]
[0232]
Prediction error e in equation (7)kCoefficient seed data β with 0n, mIs optimal for predicting high-quality pixels, but for all high-quality pixels, such coefficient seed data βn, mIt is generally difficult to find
[0233]
Therefore, coefficient seed data βn, mFor example, if the least squares method is adopted as a standard indicating that is optimal, the optimum coefficient seed data βn, mCan be obtained by minimizing the sum E of square errors expressed by the following equation.
[0234]
[Equation 8]
[0235]
However, in Equation (8), K is a high-quality pixel ykAnd its high-quality pixel ykLow quality pixel x that constitutes the prediction tap for1, k, X2, k, ..., xN, kRepresents the number of samples (the number of learning samples).
[0236]
The minimum value (local minimum value) of the sum E of square errors in equation (8) is calculated by using the sum E as coefficient seed data β as shown in equation (9).n, mΒ with the partial differentiation at 0n, mGiven by.
[0237]
[Equation 9]
[0238]
By substituting equation (6) into equation (9), the following equation is obtained.
[0239]
[Expression 10]
[0240]
X nowi, p, j, qAnd Yi, pIs defined as shown in equations (11) and (12).
[0241]
## EQU11 ##
[Expression 12]
[0242]
In this case, equation (10) becomes Xi, p, j, qAnd Yi, pIt can be expressed by a normal equation shown in equation (13) using
[0243]
[Formula 13]
[0244]
The normal equation of Expression (13) is obtained by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like to obtain coefficient seed data βn, mCan be solved.
[0245]
In the
[0246]
Next, FIG. 24 shows the coefficient seed data β by building and solving the normal equation of Expression (13).n, m2 shows an example of the configuration of a learning device that performs learning for obtaining the information.
[0247]
The learning device includes coefficient seed data βn, mLearning image data used for learning is input. Here, as the learning image data, for example, high-resolution image data with high resolution can be used.
[0248]
In the learning device, the learning image data is supplied to the teacher
[0249]
The teacher
[0250]
The teacher
[0251]
The student
[0252]
Here, in addition to the learning image data, the student
[0253]
The student
[0254]
Therefore, in this case, as shown in FIG. 25, the student
[0255]
Note that, here, for example, as the value of the parameter z increases, the high-quality image data is filtered by using an LPF with a high cutoff frequency, and low-quality image data as student data is generated. So here. The lower the image quality data corresponding to the larger parameter z, the higher the resolution.
[0256]
In the present embodiment, in order to simplify the description, the student
[0257]
Returning to FIG. 24, the student
[0258]
The
[0259]
The
[0260]
The
[0261]
The
[0262]
The adding
[0263]
That is, the
[0264]
Then, the adding
[0265]
Further, the adding
[0266]
That is, the adding
[0267]
Then, the
[0268]
The coefficient
[0269]
The
[0270]
Next, processing (learning processing) of the learning device in FIG. 24 will be described with reference to the flowchart in FIG.
[0271]
First, in step S21, the teacher
[0272]
The teacher data output from the teacher
[0273]
Thereafter, the process proceeds to step S22, and the
[0274]
In step S 24, the
[0275]
In step S25, the adding
[0276]
In step S26, the
[0277]
If it is determined in step S26 that the parameter z is equal to the maximum value Z, the process proceeds to step S28, where the
[0278]
If it is determined in step S28 that the teacher data that is not the target teacher pixel is not stored in the teacher
[0279]
In step S29, the coefficient
[0280]
In addition, due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining coefficient seed data cannot be obtained. The coefficient
[0281]
In the learning apparatus of FIG. 24, as shown in FIG. 25, high-quality image data as learning image data is used as teacher data, and the resolution is degraded in the high-quality image data in accordance with the parameter z. The low-quality image data obtained as the student data is used as coefficient data βm, nAnd variable t corresponding to parameter zmTap coefficient w expressed bynAnd student data xnTo coefficient seed data β that minimizes the sum of the square errors of the predicted values y of the teacher data predicted by the linear linear expression of Expression (1).m, nIs used to perform direct learning, but the coefficient seed data βm, nOther learning can be performed as shown in FIG. 27, for example.
[0282]
That is, in the embodiment of FIG. 27, as in the embodiment of FIG. 25, the high-quality image data as the learning image data is used as the teacher data, and the high-quality image data corresponds to the parameter z. First, the tap coefficient w is filtered using the low-quality image data with the reduced horizontal resolution and vertical resolution as the student data by filtering with the LPF having the cut-off frequency.nAnd student data xnIs a tap coefficient w that minimizes the sum of squared errors of the predicted value y of the teacher data predicted by the linear primary prediction expression of Expression (1) usingnIs obtained for each value of the parameter z (here, z = 0, 1,..., Z). Further, in the embodiment of FIG. 27, the obtained tap coefficient wnAs the teacher data and the parameter z as the student data, the coefficient seed data βm, n, And a variable t corresponding to the parameter z which is student datamTap coefficient w as teacher data predicted fromnCoefficient seed data β that minimizes the sum of the square errors of the predicted values ofm, nLearning to ask for.
[0283]
Specifically, a tap for minimizing (minimizing) the sum E of squared errors of the predicted value y of the teacher data predicted by the linear primary prediction expression of Expression (1) represented by Expression (8) above. Coefficient wnIs the tap coefficient wnTherefore, it is necessary to satisfy the following equation.
[0284]
[Expression 14]
[0285]
Therefore, the above equation (6) is changed to the tap coefficient w.nThe following equation is obtained by partial differentiation with.
[0286]
[Expression 15]
[0287]
From the equations (14) and (15), the following equation is obtained.
[0288]
[Expression 16]
[0289]
E in equation (16)kBy substituting equation (6) into equation (16), equation (16) can be expressed by the normal equation shown in equation (17).
[0290]
[Expression 17]
[0291]
The normal equation of Expression (17) is obtained by using, for example, the sweep coefficient (Gauss-Jordan elimination method) or the like as in the case of the normal equation of Expression (13).nCan be solved.
[0292]
By solving the normal equation of Expression (17), an optimum tap coefficient (here, a tap coefficient that minimizes the sum E of square errors) wnIs obtained for each class and for each value of the parameter z (z = 0, 1,..., Z).
[0293]
On the other hand, in the present embodiment, the coefficient seed data βm, nAnd a variable t corresponding to the parameter zmFrom this, the tap coefficient is obtained. Now, the tap coefficient obtained by this equation (4) is expressed as wn′, The optimum tap coefficient w expressed by the following equation (18):nAnd tap coefficient w obtained by equation (4)nError with ‘e’nCoefficient seed data β with 0n, mIs the optimal tap coefficient wnAll tap coefficients wnSuch coefficient seed data βn, mIt is generally difficult to find
[0294]
[Expression 18]
[0295]
Equation (18) can be transformed into the following equation by Equation (4).
[0296]
[Equation 19]
[0297]
Therefore, coefficient seed data βn, mFor example, if the least square method is adopted as a norm representing that is optimal, the optimum coefficient seed data βn, mCan be obtained by minimizing the sum E of square errors expressed by the following equation.
[0298]
[Expression 20]
[0299]
The minimum value (minimum value) of the sum E of square errors in equation (20) is calculated by using the sum E as coefficient seed data β as shown in equation (21).n, mΒ with the partial differentiation at 0n, mGiven by.
[0300]
[Expression 21]
[0301]
By substituting equation (19) into equation (21), the following equation is obtained.
[0302]
[Expression 22]
[0303]
X nowi, j,And YiIs defined as shown in equations (23) and (24).
[0304]
[Expression 23]
[Expression 24]
[0305]
In this case, equation (22) isi, jAnd YiIt can be represented by a normal equation shown in equation (25) using
[0306]
[Expression 25]
[0307]
The normal equation of the equation (25) is also obtained by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like to obtain coefficient seed data βn, mCan be solved.
[0308]
Next, FIG. 28 shows the coefficient seed data β by building and solving the normal equation of Expression (25).n, m2 shows an example of the configuration of a learning device that performs learning for obtaining the information. In the figure, portions corresponding to those in FIG. 24 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.
[0309]
The
[0310]
That is, the
[0311]
Then, the adding
[0312]
Further, the adding
[0313]
That is, the adding
[0314]
Then, the
[0315]
The tap
[0316]
For each class, the adding
[0317]
That is, the adding
[0318]
Where component Xi, jIs determined only by the parameter z and has nothing to do with the class, so the component Xi, jActually, it is not necessary to perform the calculation for each class.
[0319]
Further, the adding
[0320]
For each class, the
[0321]
The coefficient
[0322]
The
[0323]
Here, in the
[0324]
In the above-described case, the learning image data is directly used as teacher data corresponding to the second image data, and the low-quality image data in which the resolution of the learning image data is degraded is used as the first image. Since the coefficient seed data is learned as the student data corresponding to the data, as the coefficient seed data, the resolution is improved by converting the first image data into the second image data whose resolution is improved. What performs the image conversion process as a process can be obtained.
[0325]
Therefore, a program that stores the coefficient seed data in the
[0326]
Here, depending on the selection method of the student data corresponding to the first image data and the image data to be the teacher data corresponding to the second image data, the coefficient seed data is to be subjected to various image conversion processes. Obtainable.
[0327]
That is, for example, high-quality image data is used as teacher data, and learning processing is performed using image data in which noise of a level corresponding to the parameter z is superimposed on the high-quality image data as the teacher data as student data. As a result, the coefficient seed data may be obtained by performing image conversion processing as noise removal processing for converting the first image data into second image data from which noise contained therein is removed (reduced). it can.
[0328]
Also, for example, certain image data is used as teacher data, and image data obtained by thinning out the number of pixels of the image data as the teacher data corresponding to the parameter z is used as student data, or the size corresponding to the parameter z is used. The image data is the student data, and the learning process is performed using the image data obtained by thinning out the pixels of the image data as the student data at a predetermined thinning rate as the teacher data. It is possible to obtain data that undergoes image conversion processing as resizing processing for converting data into enlarged or reduced second image data.
[0329]
Therefore, by storing coefficient type data for noise removal processing and coefficient type data for resizing processing in the
[0330]
In the above case, the tap coefficient wnAs shown in equation (2), β1, nz0+ Β2, nz1+ ... + βM, nzM-1And the tap coefficient w for improving both the horizontal and vertical resolutions corresponding to the parameter z by the equation (2).nThe tap coefficient wnAs the horizontal and vertical resolution, independent parameters zxAnd zyCorresponding to the above, it is also possible to seek what can be improved independently.
[0331]
That is, tap coefficient wnInstead of the expression (2), for example, the cubic expression β1, nzx 0zy 0+ Β2, nzx 1zy 0+ Β3, nzx 2zy 0+ Β4, nzx Threezy 0+ Β5, nzx 0zy 1+ Β6, nzx 0zy 2+ Β7, nzx 0zy Three+ Β8, nzx 1zy 1+ Β9, nzx 2zy 1+ Β10, nzx 1zy 2And a variable t defined by equation (3)mIn place of equation (3)1= Zx 0zy 0, T2= Zx 1zy 0, TThree= Zx 2zy 0, TFour= Zx Threezy 0, TFive= Zx 0zy 1, T6= Zx 0zy 2, T7= Zx 0zy Three, T8= Zx 1zy 1, T9= Zx 2zy 1, TTen= Zx 1zy 2Define in. In this case, tap coefficient wnCan be finally expressed by equation (4), and therefore, in the learning device (FIGS. 24 and 28), the parameter zxAnd zyIn response to the above, the image data obtained by degrading the horizontal resolution and the vertical resolution of the teacher data is used as student data, and learning is performed.m, nTo determine the horizontal and vertical resolution as independent parameters zxAnd zyTap coefficient w to be improved independently of each othernCan be requested.
[0332]
Other parameters z corresponding to horizontal resolution and vertical resolution, for examplexAnd zyIn addition to the parameter z corresponding to the temporal resolution.tBy introducing the horizontal resolution, vertical resolution, temporal resolution, independent parameters zx, Zy, ZtTap coefficient w to be improved independently of each othernCan be obtained.
[0333]
In the resizing process, as in the resolution improving process, the tap coefficient w for resizing both the horizontal and vertical directions at an enlargement rate (or reduction rate) corresponding to the parameter z.nIn addition, the horizontal and vertical directionsxAnd zyTap factor w to be resized independently at an enlargement ratio corresponding tonCan be obtained.
[0334]
Further, in the learning device (FIGS. 24 and 28), the parameter zxCorresponding to the deterioration of the horizontal and vertical resolution of the teacher data, and the parameter zyThe image data obtained by adding noise to the teacher data corresponding to them, nTo obtain the parameter zxTo improve horizontal and vertical resolution corresponding toyTap coefficient w to remove noise corresponding tonCan be requested.
[0335]
Next, the function of performing the image conversion processing as described above has not only the
[0336]
FIG. 29 shows an example of the functional configuration of the
[0337]
29, the
[0338]
It is possible to store the same coefficient seed data in the
[0339]
In other words, for example, the
[0340]
Alternatively, for example, the
[0341]
Here, it is possible to store coefficient seed data for performing various processes in both the
[0342]
On the other hand, in the present embodiment, in the scalable TV system, the
[0343]
As a result, in the master unit 1 (same in the slave unit 2), as the number of
[0344]
In this case, as the
[0345]
In the present embodiment, for example, in the
[0346]
Accordingly, the
[0347]
Next, with reference to the flowchart of FIG. 30, the process of the main |
[0348]
First, in step S41, the
[0349]
If it is determined in step S41 that an event has occurred in which a device is connected to the
[0350]
Here, in order to determine whether or not a device is connected to the
[0351]
That is, the
[0352]
On the other hand, if it is determined in step S41 that an event has occurred in which any command is supplied from the
[0353]
Next, with reference to the flowchart of FIG. 31, the authentication process which the main |
[0354]
In the authentication process of the
[0355]
That is, in the authentication process of the
[0356]
In step S52, the
[0357]
If it is determined in step S53 that the time is over, that is, a response corresponding to the authentication request command is transmitted from the connected device even if a predetermined time has elapsed since the authentication request command was transmitted to the connected device. If the message does not return, the process proceeds to step S54, and the
[0358]
Accordingly, the
[0359]
On the other hand, if it is determined in step S53 that the time is not over, the process returns to step S52, and thereafter the same processing is repeated.
[0360]
If it is determined in step S52 that the response corresponding to the authentication request command has been returned from the connected device, that is, if the response from the connected device is received by the
[0361]
Thereafter, the process proceeds to step S56, and the
[0362]
If it is determined in step S56 that the encrypted random number E ′ (R1) has not been transmitted from the connected device, the process proceeds to step S57, in which the
[0363]
If it is determined in step S57 that the time is over, that is, the random number R1 is transmitted from the connected device to the encrypted random number E ′ (R1) even if a predetermined time elapses after being transmitted to the connected device. Is not transmitted, the process proceeds to step S54, and as described above, the
[0364]
On the other hand, if it is determined in step S57 that the time is not over, the process returns to step S56, and thereafter the same processing is repeated.
[0365]
If it is determined in step S56 that the encrypted random number E ′ (R1) has been transmitted from the connected device, that is, the encrypted random number E ′ (R1) from the connected device is received by the
[0366]
In step S59, the
[0367]
If it is determined in step S59 that the encrypted random numbers E ′ (R1) and E (R1) are not equal, that is, the encryption algorithm employed in the connected device (used for encryption if necessary). (Including the secret key) is different from the encryption algorithm employed by the
[0368]
If it is determined in step S59 that the encrypted random numbers E ′ (R1) and E (R1) are equal, that is, the encryption algorithm employed by the connected device is the encryption employed by the
[0369]
If it is determined in step S60 that the random number R2 has not been transmitted, the process proceeds to step S61, and the
[0370]
If it is determined in step S61 that the time is over, that is, if the random number R2 is not transmitted from the connected device even if a considerable time has elapsed, the process proceeds to step S54, and the
[0371]
On the other hand, if it is determined in step S61 that the time is not over, the process returns to step S60, and thereafter the same processing is repeated.
[0372]
If it is determined in step S60 that the random number R2 has been transmitted from the connected device, that is, if the random number R2 from the connected device is received by the
[0373]
Here, at step S60, when the random number R2 is transmitted from the connected device, authentication that the connected device is a valid IEEE1394 device is successful.
[0374]
Thereafter, the process proceeds to step S63, and the
[0375]
Here, the device ID is a unique ID that identifies the television receiver that becomes the
[0376]
The function information is information related to its own function, for example, the type of coefficient seed data that it has (what kind of coefficient seed data can be subjected to image conversion processing), and the type of command received from the outside ( For example, which of the commands for controlling power on / off, volume adjustment, channel, brightness, sharpness, etc. is accepted from the outside), whether or not the screen display (OSD display) is possible, and whether it can be muted Information such as whether or not it can be in a sleep state is included. Further, the function information includes information indicating whether the device itself has a function as a parent device or a function as a child device.
[0377]
In the
[0378]
Thereafter, the process proceeds to step S64, and the
[0379]
In step S65, the
[0380]
On the other hand, if it is determined in step S65 that the connected device is not a child device, the process proceeds to step S66, and the
[0381]
In other words, in this case, since another parent device is connected to the
[0382]
More specifically, for example, the parent device that has constituted the scalable TV system earlier, that is, in the present embodiment, the
[0383]
After the parent-child adjustment process is performed in step S67, the process proceeds to step S68, and as described above, the
[0384]
On the other hand, when it is determined in step S66 that the connected device is not the parent device, that is, the connected device is neither the parent device nor the child device, and therefore, the authentication that the connected device is the parent device or the child device has failed. If YES in step S69, the
[0385]
That is, in this case, since the connected device is neither a parent device nor a child device, even if such a connected device is connected to the
[0386]
Next, with reference to the flowchart of FIG. 32, the process of the subunit |
[0387]
First, in step S71, the
[0388]
If it is determined in step S71 that an event for connecting a device to the
[0389]
Here, in order to determine whether or not a device is connected to the
[0390]
On the other hand, if it is determined in step S71 that an event has occurred in which any command is supplied from the
[0390]
Next, with reference to the flowchart of FIG. 33, the authentication process which the subunit |
[0392]
In the authentication process of the
[0393]
That is, in the authentication process of the
[0394]
In step S82, the
[0395]
If it is determined in step S82 that the time is over, that is, if an authentication request command is not transmitted from the connected device even after a predetermined time has elapsed since the start of the authentication process, the process proceeds to step S83. The
[0396]
Therefore, as with the
[0397]
On the other hand, if it is determined in step S82 that the time is not over, the process returns to step S81, and thereafter the same processing is repeated.
[0398]
If it is determined in step S81 that the authentication request command has been transmitted from the connected device, that is, the authentication request command transmitted from the
[0399]
Here, in the present embodiment, the processing in steps S51 to S53 in FIG. 31 is performed in the
[0400]
Thereafter, the process proceeds to step S85, and the
[0401]
In step S86, the
[0402]
If it is determined in step S86 that the time is over, that is, if the random number R1 is not transmitted from the connected device even after a predetermined time has elapsed since the response to the authentication command was transmitted, step S83 is performed. Then, as described above, the
[0403]
On the other hand, if it is determined in step S86 that the time is not over, the process returns to step S85, and thereafter the same processing is repeated.
[0404]
When it is determined in step S85 that the random number R1 has been transmitted from the connected device, that is, the random number R1 transmitted from the
[0405]
In step S89, the
[0406]
In step S90, the
[0407]
If it is determined in step S90 that the encrypted random number E (R2) has not been transmitted from the connected device, the process proceeds to step S91, and the
[0408]
If it is determined in step S91 that the time is over, that is, even if a predetermined time has elapsed after the random number R2 is transmitted to the connected device, the encrypted random number E (R2) is received from the connected device. If it has not been transmitted, the process proceeds to step S83, and the
[0409]
On the other hand, if it is determined in step S91 that the time is not over, the process returns to step S90, and thereafter the same processing is repeated.
[0410]
If it is determined in step S90 that the encrypted random number E (R2) has been transmitted from the connected device, that is, the encrypted random number E (R2) from the connected device is received by the
[0411]
In step S93, the
[0412]
If it is determined in step S93 that the encrypted random numbers E (R2) and E ′ (R2) are not equal, that is, the encryption algorithm employed in the connected device (used for encryption if necessary). If the encryption algorithm employed by the
[0413]
If it is determined in step S93 that the encrypted random numbers E (R2) and E ′ (R2) are equal, that is, the encryption algorithm employed by the connected device is the encryption employed by the
[0414]
In step S95, the
[0415]
Here, in the
[0416]
In step S96, the
[0417]
Here, when the
[0418]
Note that the transmission of the command from the parent device 1 (FIG. 10) to the
[0419]
On the other hand, if it is determined in step S96 that the connected device is not the parent device, that is, if the authentication that the connected device is the parent device fails, the process proceeds to step S98, and the
[0420]
That is, in this case, since the connection device is not the parent device, even if such a connection device is connected to the
[0421]
Next, the authentication process described with reference to FIGS. 31 and 33 has succeeded in the
[0422]
First, as described in FIG. 10, the
[0423]
Infrared light from the
[0424]
When receiving the caption display command as described above, the
[0425]
That is, the
[0426]
Here, when closed caption data is included in the MPEG video stream, the closed caption data is arranged, for example, as MPEG user data (MPEG-2 user data) in the sequence layer. In this case, in step S101, the
[0427]
If it is determined in step S101 that the closed caption data is not included in the transport stream, the subsequent processing is skipped and the closed caption processing is terminated.
[0428]
If it is determined in step S101 that the closed caption data is included in the transport stream, the process proceeds to step S102, and the
[0429]
Here, the coefficient seed data for closed caption is, for example, the image data of the closed caption displayed by the closed caption data as the teacher data, the image data in which the resolution of the teacher data is degraded, and the teacher data It is coefficient seed data obtained by learning image data with noise added to it or image data obtained by reducing the teacher data as student data. For closed caption images, improvement in resolution, noise It means coefficient seed data particularly suitable for performing removal or enlargement.
[0430]
Thereafter, the process proceeds to step S103, and the
[0431]
If it is determined in step S103 that there is no television receiver having coefficient type data dedicated to closed caption, the process proceeds to step S104, and the
[0432]
That is, the
[0433]
Therefore, in this case, in the
[0434]
As described above, when the display of the closed caption is started, the process proceeds to step S105, and the
[0435]
If it is determined in step S105 that there is no closed caption data, the process skips step S106 and proceeds to step S107. The
[0436]
On the other hand, if it is determined in step S105 that the closed-caption data to be displayed is still included in the transport stream supplied to the
[0437]
If it is determined in step S106 that a closed caption display off command has not been transmitted, the process returns to step S105, and the same processing is repeated thereafter. That is, in this case, the closed caption display is continued.
[0438]
If it is determined in step S106 that a closed caption display off command has been transmitted, that is, for example, the user operates the
[0439]
On the other hand, if it is determined in step S103 that there is a handset as a television receiver having coefficient type data dedicated to closed caption (hereinafter referred to as caption coefficient type data holding handset as appropriate), the process proceeds to step S108. CPU129 selects what displays a closed caption from the subunit | mobile_unit as a television receiver which comprises a scalable TV system.
[0440]
That is, the
[0441]
Thereafter, the process proceeds to step S109, and the
[0442]
Here, the
[0443]
In step S109, the
[0444]
Here, when the coefficient seed data dedicated to closed caption is stored in the
[0445]
Further, even when coefficient seed data dedicated to closed caption is not stored in any of the television receivers constituting the scalable TV system, for example, in a coefficient seed data providing server (not shown), closed caption When dedicated coefficient seed data is provided, the
[0446]
The provision of coefficient seed data by such a coefficient seed data providing server is not limited to coefficient seed data dedicated to closed captioning, but is also the same for coefficient seed data used for various processes (image conversion processing) described later. Can be done.
[0447]
The provision of the coefficient seed data by the coefficient seed data providing server can be performed free of charge or for a fee.
[0448]
When the
[0449]
In step S111, the
[0450]
In step S112, the
[0451]
That is, the
[0452]
As described above, when the transfer of the closed caption data to the caption display slave unit is started, the process proceeds to step S113, and the
[0453]
If it is determined in step S113 that there is no closed caption data, step S114 is skipped and the process proceeds to step S115. The
[0454]
On the other hand, if it is determined in step S113 that the closed stream data to be displayed is still included in the transport stream supplied to the
[0455]
If it is determined in step S114 that the closed caption display off command has not been transmitted, the process returns to step S113, and the same processing is repeated thereafter. That is, in this case, the transfer of the closed caption data to the caption display slave unit is continued.
[0456]
When it is determined in step S114 that a closed caption display off command has been transmitted, that is, for example, the user operates the
[0457]
In the
[0458]
In other words, in the slave unit 2 (FIG. 11) as the caption display slave unit, first, in step S121, in step S110 of FIG. 34, the closed caption dedicated command transmitted from the
[0459]
In step S122, the
[0460]
Here, when the
[0461]
Thereafter, the process proceeds to step S123, in which the
[0462]
Further, when it is determined in step S123 that an external input selection command is received from the
[0463]
In step S125, the
[0464]
When it is determined in step S125 that the closed caption data from the
[0465]
That is, in this case, the
[0466]
In step S127, the high-quality closed caption image data is supplied to the
[0467]
If it is determined in step S125 that closed caption data is not transmitted from the
[0468]
According to the closed caption processing of the master unit shown in FIG. 34 and the closed caption processing of the slave unit shown in FIG. 35, some television receivers constituting the scalable TV system have coefficient seed data dedicated to closed captions. If not, the
[0469]
On the other hand, when there is a television receiver constituting the scalable TV system that has coefficient seed data dedicated for closed captioning, the
[0470]
Therefore, the user can view the image data as the television broadcast program without being obstructed by the image data of the closed caption. Furthermore, the user can view high-quality closed caption image data.
[0471]
Note that even if there is no television receiver that constitutes a scalable TV system that has coefficient type data dedicated to closed captioning, the image data of the closed caption is the image data of the television broadcast program. In addition, it is possible to display on the
[0472]
In the above-described case, the closed caption image data is displayed only on one
[0473]
Next, the scalable TV system has, for example, a special function for enlarging a part of image data, and this special function is realized by performing partial enlargement processing in the
[0474]
An instruction to perform the partial enlargement process can be performed from a menu screen, for example.
[0475]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the
[0476]
First, a partial enlargement process of the master unit will be described with reference to the flowchart of FIG.
[0477]
For example, if image data as a television broadcast program (hereinafter referred to as program image data as appropriate) is displayed on the
[0478]
Here, as the slave unit for whole display, it is possible to select only one of the slave units constituting the scalable TV system, or to select two or more units (including all). It is also possible to make it.
[0479]
In step S132, the
[0480]
If it is determined in step S132 that the power supply of the whole display slave unit is not turned on, the process proceeds to step S133, and the
[0481]
If it is determined in step S132 that the power of the whole display slave unit is on, step S133 is skipped and the process proceeds to step S134. The
[0482]
That is, in this case, the
[0483]
Thereafter, the process proceeds to step S135, and the
[0484]
If it is determined in step S135 that the user has designated an enlargement position, that is, the user designates a position on the display screen of the
[0485]
In step S136, the
[0486]
In step S137,
[0487]
That is, the
[0488]
In the
[0489]
As described above, when the transfer of the TS packet to the whole display slave unit is started, the process proceeds to step S138, and the
[0490]
That is, in this embodiment, at least coefficient type data for resizing processing is stored in the
[0491]
This partially enlarged image data is supplied to the
[0492]
Therefore, in this case, the
[0493]
Here, the size range of the enlargement range is set corresponding to the enlargement rate, for example.
[0494]
That is, when performing the partial enlargement process, for example, a default enlargement ratio (default enlargement ratio) is set in advance, and the
[0495]
On the other hand, the size of the image data that can be displayed on the
[0496]
Therefore, the
[0497]
Note that the user can set the enlargement ratio when performing the image conversion processing in step S138.
[0498]
That is, for example, by controlling the
[0499]
In this case, when the user moves the position of the enlargement ratio designating lever by operating the
[0500]
As described above, the partially enlarged image data obtained by enlarging the program image data in the enlarged range centered on the enlarged position is displayed on the
[0501]
The enlargement factor designating lever can be displayed on the
[0502]
Thereafter, the process proceeds to step S140, and the
[0503]
If it is determined in step S140 that a partial enlargement end command has not been transmitted, the process returns to step S133, and the same processing is repeated thereafter.
[0504]
If it is determined in step S140 that a partial enlargement end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display a menu screen on the
[0505]
In step S142, the
[0506]
Next, with reference to the flowchart of FIG. 37, the partial expansion process of the slave unit as the slave unit for whole display will be described.
[0507]
In
[0508]
If it is determined in step S151 that an external input selection command has been received from the
[0509]
In step S153, the
[0510]
If it is determined in step S153 that the program image data from the
[0511]
That is, in the present embodiment, in step S137 of FIG. 36, transmission of TS packets as program image data is started from the
[0512]
Thereafter, the process returns to step S153, and the processes of steps S153 and S154 are repeated until it is determined in step S153 that no program image data is transmitted from the
[0513]
If it is determined in step S153 that program image data has not been transmitted from
[0514]
According to the partial enlargement process of the master unit in FIG. 36 and the partial enlargement process of the slave unit in FIG. 37, for example, as shown in FIG. 38A, it is located in the second row and second column constituting the scalable TV system. When program image data is displayed on the
[0515]
Furthermore, for example, the
[0516]
Therefore, the user can see in detail the portion of the program image data that the user wants to see in detail in the
[0517]
Here, in the signal processing unit 137 (FIG. 22) of the base unit 1 (FIG. 10), the tap coefficient w generated from the coefficient seed data is used.nIn accordance with Equation (1), the enlarged range of the program image data is converted into partially enlarged image data. This image conversion is a simple interpolation process at first glance if only attention is paid to Equation (1). Looks like that. However, the tap coefficient w used in equation (1)nAs described with reference to FIG. 24 to FIG. 28, the coefficient seed data used to generate the data is obtained by learning using teacher data and student data, and such coefficient seed data. Tap coefficient w generated fromnThe component included in the teacher data can be reproduced by converting the image using. That is, for the coefficient seed data for resizing processing, the tap coefficient w from which the coefficient seed data was generatednAccording to the above, it is possible to reproduce details not appearing in the original image and to enlarge the image. Therefore, the resizing process as the image conversion process by the equation (1) generated from the coefficient seed data obtained by learning is completely different from the image enlargement process by simple interpolation process.
[0518]
Note that the enlargement process of the enlargement range of the program image data to the partially enlarged image data can be performed by a simple interpolation process in addition to the tap coefficient obtained from the coefficient seed data. However, in the case of simple interpolation processing, the details that the original program image data does not have cannot be reproduced. Therefore, the larger the enlargement ratio, the more blurred the image that the block-like square portions are conspicuous. Will be.
[0519]
In the present embodiment, partially enlarged image data is displayed on the
[0520]
Further, in the present embodiment, the partially enlarged image data is displayed on the
[0521]
In addition, in the
[0522]
Furthermore, in the present embodiment, the coefficient seed data for resizing processing is stored in the
[0523]
In the above case, the resizing process for enlarging the program image data is performed. However, in the resizing process, the program image data can be reduced.
[0524]
In the above case, the image data (program image data) as a television broadcast program is enlarged. However, in the partial enlargement process, other external devices (optical disk device, magneto-optical disk device, Image data input from a VTR or the like can be the target of the processing.
[0525]
Furthermore, in the partial enlargement process, both the horizontal direction and the vertical direction of a part of the program image data are enlarged by the same enlargement ratio, and the horizontal direction and the vertical direction are enlarged by different enlargement ratios. Is also possible.
[0526]
In the present embodiment, the partial enlargement process is performed only for the enlargement range that can be displayed on the display screen of the
[0527]
Next, as described above, the scalable TV system has a special function for enlarging a part of image data as well as for enlarging the entire image data. This is realized by performing the entire enlargement process.
[0528]
An instruction to perform the entire enlargement process can also be given from the menu screen, for example, similarly to an instruction to perform the partial enlargement process.
[0529]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the
[0530]
First, the overall enlargement process of the master unit will be described with reference to the flowchart of FIG.
[0531]
For example, if the entire enlargement icon is clicked in a state where image data (program image data) as a television broadcast program is displayed on the
[0532]
Here, in the present embodiment, it is assumed that coefficient type data for resizing processing is stored in the
[0533]
In addition, when the
[0534]
Then, the process proceeds to step S162, and the
[0535]
In step S162,
[0536]
In step S162, the
[0537]
In step S165, the
[0538]
That is, in the overall enlargement process, for example, in the scalable TV system configured by 3 × 3 television receivers shown in FIG. 1A, the entire program image data (full screen) displayed on the
[0539]
Therefore, the entire program image data displayed on the
[0540]
In the overall enlargement process, as described above, the entire program image data displayed on the
[0541]
Here, the enlargement count value can be set in advance in the
[0542]
In step S165, as described above, the enlargement ratio N is initialized and the maximum enlargement ratio N is set.maxAfter the setting of the enlargement pitch α, the process proceeds to step S166, and the
[0543]
The enlargement factor N newly set in step S166 is the maximum enlargement factor N.maxIn the case of exceeding the
[0544]
In step S167, the
[0545]
Here, referring to FIG. 40, the expansion range of master device 1 (the range of program image data to be enlarged by
[0546]
FIG. 40A shows a display screen of a scalable TV system composed of 3 × 3 television receivers.
[0547]
That is, the display screen of the scalable TV system includes a display screen by the
[0548]
In the entire enlargement process, as described above, the entire program image data displayed on the
[0549]
In this case, when the vertical and horizontal lengths of the display screen size of the
[0550]
Further, since the entire enlarged image data Q 'is obtained by multiplying the vertical and horizontal lengths of the program image data Q by N times, the vertical and horizontal lengths are Na and Nb, respectively.
[0551]
In the entire enlargement process, as described above, since the entire enlarged image data Q ′ obtained by enlarging the entire program image data Q displayed on the
[0552]
Therefore, in step S168 of FIG. 39, the range R1Is obtained as the display range of
[0553]
That is, for the
[0554]
On the other hand, the display range R of
[0555]
Therefore, in step S167, as shown in FIG. 40B, the range R of the entire enlarged image data Q ′.1And RijRange r of the original program image data Q corresponding to1And rijHowever, the expansion range of the
[0556]
In other words, in this case, the entire enlarged image data Q ′ having a size of Nb × Na is obtained by enlarging the program image data Q having a size of b × a at an enlargement ratio of N times. Q 'range R1And RijRange r of program image data Q corresponding to the range reduced to 1 / N1And rijHowever, the expansion range of the
[0557]
Specifically, for
[0558]
Returning to FIG. 39, in step S169, the
[0559]
Here, for the program image data, the
[0560]
Further, the
[0561]
In addition, in CPU129, each
[0562]
Further, in this way, the program image data after MPEG decoding is transferred to the slave unit 2.ijIn the case of transmitting to the
[0563]
Thereafter, the process proceeds to step S170, and the
[0564]
In step S171, the
[0565]
That is, in the present embodiment, coefficient type data for resizing processing is stored in the
[0566]
Furthermore, at this time, the
[0567]
Note that the display range R of the
[0568]
In step S172, the
[0569]
Therefore, in this case, the
[0570]
Thereafter, the process proceeds to step S173, and the
[0571]
In step S173, the enlargement ratio N is set to the maximum enlargement ratio N.maxIf it is determined that the magnification is not less than, that is, the enlargement ratio N is the maximum enlargement ratio N in step S166.maxIf it is set, the process proceeds to step S174, and the
[0572]
In step S175, the
[0573]
That is, as a result, in step S175, as in step S169, the
[0574]
This partially enlarged image data is supplied to the
[0575]
Here, each
[0576]
Therefore, in this case, the enlargement range and display range of the
[0577]
Further, when the image conversion process of step S175 is performed, the maximum enlargement ratio N is stored in the
[0578]
From the above, in step S176, the maximum magnification NmaxThe enlargement range r obtained for the enlargement ratio N1Program image data of the maximum magnification NmaxThe partially enlarged image data obtained by enlarging at the maximum magnification NmaxDisplay range R obtained for the enlargement factor N1(As described above, the
[0579]
Thereafter, the process proceeds to step S177, and the
[0580]
If it is determined in step S177 that the entire enlargement end command has not been transmitted, the process returns to step S174, and the same processing is repeated thereafter. Therefore, in this case, the maximum magnification NmaxThe display of the partially enlarged image data enlarged at is continued.
[0581]
If it is determined in step S177 that the entire enlargement end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display a menu screen on the
[0582]
Next, referring to the flowchart of FIG. 41, each
[0583]
[0584]
Here,
[0585]
Thereafter, the process proceeds to step S182, in which the
[0586]
If it is determined in step S182 that an external input selection command has been received from the
[0587]
In step S184, the
[0588]
In step S184, program image data, an enlargement ratio N, an enlargement range r together with an enlargement display command from the
[0589]
That is, in this case, the process proceeds from step S184 to S185, and the
[0590]
In step S186, the
[0591]
That is, in this embodiment, in steps S169 and S174 in FIG.ijOn the other hand, a TS packet as program image data is transmitted together with the enlarged display command. In this case, the
[0592]
Meanwhile,
[0593]
Further, at this time, the
[0594]
Specifically, for example,
[0595]
In this case,
[0596]
In step S187, the
[0597]
Thereafter, the process returns to step S184, and the processes of steps S184 to S187 are repeated thereafter.
[0598]
On the other hand, in step S 184, the program image data, the enlargement ratio N, the enlargement range r together with the enlargement display command from the parent device 1.ij, And display range RijIn other words, in the
[0599]
According to the overall enlargement process of the master unit in FIG. 39 and the overall enlargement process of the slave unit in FIG. 41, for example, as shown in FIG. 42A, the master unit located in the second row and second column constituting the
[0600]
Therefore, the user can view the entire enlarged image data obtained by enlarging the entire program image data over the details.
[0601]
However, in a scalable TV system, there is actually a casing of a television receiver that constitutes the scalable TV system. Therefore, the adjacent portion between adjacent television receivers is a casing. No image is displayed on the part. That is, in FIG. 42, a housing portion that exists between adjacent television receivers is omitted in order to simplify the drawing. However, in practice, there is a casing between adjacent television receivers, and therefore the entire enlarged image data is not displayed on the casing portion of the television receiver, although it is slight. In other words, there is a problem of being separated.
[0602]
However, in human vision, even if a part of an image has a line with a very small width that hinders viewing, there is an interpolation action that interpolates an image of a portion hidden by the line from the surrounding image. For this reason, the above-described problems are not so serious when viewing the entire enlarged image data.
[0603]
In the overall enlargement process, similarly to the case described in the partial enlargement process, the coefficient seed data for resizing processing is used to perform the image conversion process to obtain the entire enlarged image data. It is possible to obtain the entire enlarged image data obtained by enlarging the program image data.
[0604]
However, the entire enlarged image data obtained by enlarging the entire program image data over the details can be viewed in the
[0605]
Here, in the present embodiment, the special function is provided only when the authentication described in FIGS. 31 and 33 is successful. However, even if the authentication fails, the special function is called It is possible to provide it with restrictions.
[0606]
That is, for example, when the authentication is successful, the entire enlarged image data is provided by the image conversion process using the coefficient seed data for the resizing process, and when the authentication fails, the entire enlarged image by the simple interpolation process is provided. It is possible to provide data.
[0607]
In this case, a user who configures a scalable TV system using a television receiver that is not a parent device or a child device can view the entire enlarged image data, but the entire enlarged image data is obtained by simple interpolation processing. Therefore, the image quality is considerably deteriorated as compared with the case of the image conversion process using the coefficient seed data for the resizing process.
[0608]
On the other hand, a user who configures a scalable TV system using a television receiver, which is a parent device or a child device, increases the overall image quality by image conversion processing using coefficient seed data for resizing processing. You can see the image data.
[0609]
As a result, in a user who configures a scalable TV system using a television receiver that is not a parent device or a child device, the television that is the parent device or the child device is used to view high-quality overall enlarged image data. An incentive to purchase a receiver will work.
[0610]
In the present embodiment, the enlargement ratio for enlarging the entire program image data displayed on the
[0611]
In this case, the maximum magnification NmaxHowever, the value for expanding the program image data to image data larger than the entire enlarged image data of a size that can be displayed on the entire television receiver that constitutes the scalable TV system (hereinafter referred to as an unspecified maximum enlargement ratio as appropriate). In other words, the entire enlarged image data enlarged at the maximum enlargement ratio outside the specified range cannot be displayed on the scalable TV system. That is, only a part of the entire enlarged image data enlarged at the non-standard maximum enlargement ratio can be displayed. In this case, which part of the entire enlarged image data enlarged at the non-standard maximum enlargement ratio may be set by the user operating the remote controller 15 (or the remote controller 35), for example. it can.
[0612]
Further, in the above-described case, in each television receiver configuring the scalable TV system, partially enlarged image data to be displayed on the television receiver is generated. However, each component configuring the scalable TV system The partially enlarged image data to be displayed on the television receiver can be generated, for example, on one or a plurality of television receivers such as the
[0613]
Further, in the above-described case, the image data (program image data) as a television broadcast program is enlarged. However, in the entire enlargement process, as in the case of the partial enlargement process, it is input from an external device. Image data to be processed.
[0614]
Further, in the overall enlargement process, as in the case of the partial enlargement process, both the horizontal direction and the vertical direction of a part of the program image data are enlarged by the same enlargement ratio as well as the horizontal direction and the vertical direction. It is also possible to enlarge each by a different enlargement ratio.
[0615]
In the case described above, in the scalable TV system composed of 3 × 3 television receivers, the image data displayed on the
[0616]
Further, in the above case, the
[0617]
Next, the scalable TV system has a special function for displaying image data, that is, a so-called multi-screen display, on the entire television receiver constituting the scalable TV system. This is realized by performing multi-screen display processing in the
[0618]
The instruction to perform the multi-screen display process can be performed from the menu screen as in the case of the instruction to perform the partial enlargement process or the entire enlargement process, for example.
[0619]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the
[0620]
Therefore, the multi-screen display process of the master unit will be described with reference to the flowchart of FIG.
[0621]
Here, in the multi-screen display process, as shown in FIG. 42C, the program image data is displayed on the entire television receiver constituting the scalable TV system. Accordingly, the multi-screen display process of the
[0622]
For this reason, in the multi-screen display process of
[0623]
Then, the process proceeds to step S195, and the maximum enlargement ratio N is the same as in step S165 of FIG.maxIs set, and the process proceeds to step S196. In step S196,
[0624]
In step S197, the
[0625]
Here, in the entire enlargement process of FIG. 39, in addition to obtaining the enlargement range in step S167, the display range is also obtained in step S168, but the enlargement ratio N is the maximum enlargement ratio N.maxIs displayed, the display range R of the
[0626]
In step S198, the
[0627]
Then, the process proceeds to steps S199 to S201 in sequence, and the same processing as in steps S174 to S176 in FIG. 39 is performed.maxThe partially enlarged image data magnified in is displayed.
[0628]
Thereafter, the process proceeds to step S202, and the
[0629]
If it is determined in step S202 that the multi-screen display end command has not been transmitted, the process returns to step S199, and the same processing is repeated thereafter. Therefore, in this case, the maximum magnification NmaxThe display of the partially enlarged image data enlarged at is continued.
[0630]
If it is determined in step S202 that the multi-screen display end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display the menu screen on the
[0631]
In addition,
[0632]
Next, the scalable TV system has a special function that causes each television receiver that constitutes the scalable TV system to perform the same processing. It is realized by being performed.
[0633]
An instruction to perform the batch simultaneous control process can be performed from a menu screen, for example, as in the case of an instruction to perform a partial enlargement process.
[0634]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the
[0635]
Therefore, referring to the flowchart of FIG. 44, the batch simultaneous control process of the master unit will be described.
[0636]
In the collective simultaneous control process, the
[0637]
In step S212, the
[0638]
Note that the determination processing in step S212 is performed by each
[0639]
In step S212,
[0640]
Therefore, for example, now, the
[0641]
On the other hand, in step S212,
[0642]
If it is determined in step S212 that the batch simultaneous control end command has not been transmitted, the
[0643]
If it is determined in step S212 that the batch simultaneous control end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display the menu screen on the
[0644]
According to the collective simultaneous control processing, for example, the
[0645]
Therefore, the user can control all the television receivers constituting the scalable TV system at the same time in the same manner by one
[0646]
Next, as described above, the
[0647]
Therefore, all of the television receivers constituting the scalable TV system can be controlled by only one remote controller 15 (or 35).
[0648]
However, in order to individually control each of the plurality of television receivers with only one
[0649]
Therefore, in order to control the
[0650]
However, this method requires a large number of nine remote controllers to separately control each of the television receivers constituting the scalable TV system of FIG. 1A. Furthermore, in this case, it may not be clear at a glance which remote controller controls which television receiver.
[0651]
Accordingly, the
[0652]
Therefore, the scalable TV system has a special function that allows a user to recognize a television receiver as a control target and to control the control target television receiver with the remote controller 15 (or the remote controller 35). This special function is realized by performing individual processing in the
[0653]
The instruction to perform the individual processing can be performed from a menu screen, for example.
[0654]
That is, as described above, when the user operates the
[0655]
First, the individual processing of the
[0656]
In the individual processing of the base unit 1 (FIG. 10), the
[0657]
Then, the process proceeds to step S222, in which the
[0658]
That is, as described above, when the user operates the
[0659]
Thereafter, the process proceeds to step S223, in which the
[0660]
In step S224, the
[0661]
If it is determined in step S224 that the maximum reception intensity device is the
[0662]
On the other hand, if it is determined in step S224 that the maximum reception intensity device is the
[0663]
Therefore, in this case, the
[0664]
Here, when the user performs control of a certain television receiver constituting the scalable TV system by operating the remote controller 15 (or the remote controller 35), generally the
[0665]
In this case, for example, assuming that the infrared light emitted from the remote controller 15 (or the remote controller 35) is highly directional, the television receiver that the user intends to control is the infrared light emitted from the
[0666]
Therefore, as described above, by executing processing corresponding to the command represented by the infrared rays from the
[0667]
Specifically, for example, when the user operates the
[0668]
After the processes in steps S225 and S226, the process proceeds to step S227, and the
[0669]
If it is determined in step S227 that the individual process end command has not been transmitted, the infrared light emitted by operating the
[0670]
If it is determined in step S227 that an individual process end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display a menu screen on the
[0671]
Next, the individual processing of the slave unit will be described with reference to the flowchart of FIG.
[0672]
In the individual processing of the slave unit 2 (FIG. 11), the
[0673]
In step S232, the
[0674]
Thereafter, the process proceeds to step S233, and the
[0675]
If it is determined in step S233 that a command has not been transmitted from the
[0676]
If it is determined in step S233 that a command is transmitted from the
[0677]
If it is determined in step S234 that the command transmitted from the
[0678]
Thus, as described with reference to FIG. 46, when the user operates the
[0679]
On the other hand, if it is determined in step S234 that the command transmitted from the
[0680]
As described above, the remote controller 15 (or the remote controller 35) having a strong infrared directivity is used. Further, in the television receiver constituting the scalable TV system, the maximum infrared reception intensity from the
[0681]
Next, according to the individual processing, for example, a certain user A is controlled by a
[0682]
In this case,
[0683]
That is, in this case,
[0684]
However, the user A has the
[0685]
Therefore, for the user A, the
[0686]
However, in this case, different audio data associated with different image data is output.ijSpeaker PGM from the
[0687]
In other words, human auditory perception has a so-called cocktail party effect, and it is possible to distinguish desired audio data from a large number of audio data. However, low-power audio data The presence of audio data other than the desired audio data, that is, audio data that causes noise, such as being masked by large audio data, hinders viewing of the desired audio data.
[0688]
Therefore, the scalable TV system includes
[0689]
That is, here, for example, the directivity of the
[0690]
For example, when the individual processing described with reference to FIGS. 46 and 47 is performed, the speaker control processing is performed in parallel with the individual processing.
[0691]
Therefore, the speaker control process of the master unit will be described with reference to the flowchart of FIG.
[0692]
In the speaker control process of the master unit, the
[0693]
Then, the process proceeds to step S242, in which the
[0694]
That is, as described above, when the user operates the
[0695]
Here, in steps S241 and S242 in the speaker control process of
[0696]
Thereafter, the process proceeds to step S243, and the
[0697]
In step S244, the
[0698]
That is, the reception intensity of the infrared light emitted from the
[0699]
Therefore, in the
[0700]
The intensity versus distance table can be created, for example, by operating the
[0701]
Returning to FIG. 48, in step S245, the
[0702]
Here, with reference to FIG. 50, a method for detecting the position of the
[0703]
For example, now, the reception intensity in the
[0704]
In this case, considering a certain two-dimensional plane, as shown in FIG.1Radius r around1Circle of c1On the circumference of the
[0705]
Therefore, the
[0706]
In the above case, since the position of the
[0707]
Returning to FIG. 48 again, after the position of the
[0708]
In step S246, the
[0709]
If it is determined in step S246 that the maximum reception intensity device is the
[0710]
In this case, the unit driving unit 138 drives the
[0711]
On the other hand, if it is determined in step S246 that the maximum reception strength device is the
[0712]
Therefore, in this case, the
[0713]
As described above, when a user performs control of a certain television receiver constituting a scalable TV system by operating the remote controller 15 (or the remote controller 35), generally, the
[0714]
In this case, for example, assuming that the infrared light emitted from the remote controller 15 (or the remote controller 35) is highly directional, the television receiver that the user intends to control is the infrared light emitted from the
[0715]
Therefore, the maximum reception intensity device is a television receiver to which image data and audio data of a program viewed by the user who operates the
[0716]
Next, the speaker control process of the
[0717]
In the speaker control process of the slave unit 2 (FIG. 11), the
[0718]
In step S252, the
[0719]
Here, in steps S251 and S252 in the speaker control process of
[0720]
Thereafter, the process proceeds to step S253, and the
[0721]
If it is determined in step S253 that the speaker control command has not been transmitted from the
[0722]
If it is determined in step S253 that the speaker control command has been transmitted from the
[0723]
In this case, the unit drive unit 158 rotationally drives the
[0724]
Therefore, in this case, in the
[0725]
Note that the speaker control processing in FIGS. 48 and 51 ends when the individual processing in FIGS. 46 and 47 ends, for example.
[0726]
In the above-described case, only the direction of the direction of the main axis of directivity of the
[0727]
Furthermore, in the above-described case, the position of the remote controller 15 (user position) is detected based on the intensity of infrared rays received from the
[0728]
Next, in the speaker control process described above, the
[0729]
That is, FIG. 52 shows a configuration example of the
[0730]
In the embodiment of FIG. 52, the audio data output from the MPEG audio decoder 126 (FIG. 10) is the digital filter 211.1And 2112To be supplied.
[0731]
[0732]
Now, in the
[0733]
Here, a distance between the main axes Y1 and Y2 (hereinafter referred to as a distance between the main axes as appropriate) is represented by a, and an angle (radiation) in the counterclockwise direction with respect to the main axis Y1 or Y2 in the two-dimensional plane. The angle is expressed by θ.
[0734]
When, for example, a sine wave signal having a single frequency component is input as audio data to the
[0735]
In this case, the
[0736]
As a result, the
[0737]
53 and 54 show the
[0738]
FIG. 53 shows the directivity of the volume characteristic when a sine wave having a frequency of 1000 Hz is input with the distance a between the main axes being 10 cm and the delay time difference D2-D1 being a / C. C represents the speed of sound, and here it is 340 m / s.
[0739]
In the embodiment of FIG. 53, the maximum sound volume is obtained in the range where the angle θ is 30 degrees or more. In addition, the volume is almost 0 (null) at the position where the angle θ is −45 degrees.
[0740]
FIG. 54 shows the directivity of the volume characteristic when the input is replaced with a sine wave having a frequency of 5000 Hz among the conditions described in FIG.
[0741]
In the embodiment of FIG. 54, the main beam appears in a range where the angle θ is 45 degrees or more. Further, a sub beam (grating beam) having the same size as the main beam is generated in the range where the angle θ is 0 ° to 45 °. The reason why such a large sub beam is generated is that, in the sub beam range of FIG. 54, the phase difference between the two sound waves is an integral multiple of the wavelength of the sine wave of 5000 Hz, and the two sound waves are added in phase. It is.
[0741]
This is the same for the other sub beams, and the
[0743]
[0744]
However, in Formula (26), f represents an input frequency and n is an integer value of 0 or more.
[0745]
In formula (26), when n is 0, it represents the main beam.
[0746]
For example, when the frequency f is 1000 Hz, the expression (26) is satisfied only when n is 0. Therefore, in this case, a sub beam having the same size as the main beam is not generated. .
[0747]
Here, for example, when n is 1, the frequency f that satisfies the equation (26), that is, the frequency f that generates the sub-beam can be expressed by f = C / (a (1-cos θ)). Under the conditions described in the embodiment of FIG. 53, this frequency f is about 1700 Hz, which is the frequency when the distance between the main axes a is equal to the half wavelength of the sound wave.
[0748]
From the above, according to the
[0749]
That is, the direction of the main axis of directivity of the
[0750]
Therefore, in the unit driving unit 138, the
[0751]
In the above case, the
[0752]
Further, the
[0753]
Next, in the above-described case, the position (user position) of the
[0754]
Therefore, a method for detecting the direction of the
[0755]
As shown in FIG. 55, the direction of the
[0756]
Now, assuming that the distance from the
[0757]
As shown in FIG. 55, when the angle between the infrared rays incident on the
[0758]
Further, when the speed of light is represented by c and the time difference of the timing at which the infrared rays from the
[0759]
Therefore, the angle φ, that is, the direction φ of the
[0760]
Next, the direction of the
[0761]
That is, in the embodiment shown in FIG. 56, the
[0762]
The
[0763]
In the
[0764]
In this case, when the incident angle α of the infrared ray with respect to the
[0765]
Now, the distance between this light receiving position and the intersection of the optical axis of the
[0766]
Therefore, the direction α of the
[0767]
Next, FIG. 57 shows another configuration example of the
[0768]
The
[0769]
Therefore, in the embodiment of FIG. 57, the
[0770]
Next, FIG. 58 shows another configuration example of the
[0771]
The
[0772]
Therefore, in the embodiment of FIG. 58, the
[0773]
Next, the series of processes described above can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
[0774]
FIG. 59 shows a configuration example of an embodiment of a computer in which a program for executing the above-described series of processes is installed.
[0775]
The program can be recorded in advance on a
[0776]
Alternatively, the program is stored temporarily on a removable recording medium 311 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded) permanently. Such a removable recording medium 311 can be provided as so-called package software.
[0777]
The program is installed in the computer from the removable recording medium 311 as described above, or transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite, or a LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet. The computer can receive the program transferred in this way by the
[0778]
The computer includes a CPU (Central Processing Unit) 302. An input /
[0779]
Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).
[0780]
Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
[0781]
Note that the above-described scalable TV system can be configured by either a digital or analog television receiver.
[0782]
The television receiver that constitutes the scalable TV system depends on, for example, whether the television receiver is a parent device or a child device, and, if it is a child device, the number of child devices. It is possible to make a difference in the selling price.
[0783]
That is, in the scalable TV system, as described above, if the parent device does not exist, the special function is not provided, so the value of the parent device is high, and therefore, the selling price can be set high.
[0784]
In addition, after the purchase of the master unit, the user is expected to purchase additional slave units as needed, but the first few slave units are, for example, less expensive than the master unit. It is possible to set a selling price that is higher than that of a general television receiver. And about the subunit | mobile_unit purchased after that, a further low selling price can be set.
[0785]
Note that a television receiver serving as a parent device that configures a scalable TV system, for example, adds a
[0786]
The present invention can also be applied to a television receiver that is a display device incorporating a tuner and a display device that outputs images and sounds from the outside without incorporating a tuner.
[0787]
【The invention's effect】
As described above, according to the present invention, when a large number of display devices are connected and used, higher functions can be realized than when used alone.
[Brief description of the drawings]
FIG. 1 is a perspective view showing a configuration example of an embodiment of a scalable TV system to which the present invention is applied.
FIG. 2 is a perspective view showing an example of an external configuration of the
FIG. 3 is a 6-side view showing an example of an external configuration of the
FIG. 4 is a perspective view showing an example of an external configuration of the
FIG. 5 is a 6-side view showing an example of the external configuration of the
FIG. 6 is a perspective view showing an example of the external configuration of a dedicated rack that houses a
7 is a plan view showing an external configuration example of a
8 is a plan view showing an external configuration example of a
FIG. 9 is a plan view showing another external configuration example of the
FIG. 10 is a block diagram showing an example of the electrical configuration of the
FIG. 11 is a block diagram showing an example of the electrical configuration of the
FIG. 12 is a diagram showing a layer structure of an IEEE1394 communication protocol.
FIG. 13 is a diagram showing an address space of the CSR architecture.
FIG. 14 is a diagram showing CSR offset addresses, names, and functions.
FIG. 15 is a diagram showing a general ROM format;
FIG. 16 is a diagram showing details of a bus info block, a root directory, and a unit directory.
FIG. 17 is a diagram showing the structure of PCR.
FIG. 18 is a diagram showing the structure of oMPR, oPCR, iMPR, and iPCR.
FIG. 19 is a diagram illustrating a data structure of a packet transmitted in the asynchronous transfer mode of the AV / C command.
FIG. 20 is a diagram illustrating a specific example of an AV / C command.
FIG. 21 is a diagram illustrating a specific example of an AV / C command and a response.
22 is a block diagram illustrating a detailed configuration example of a
FIG. 23 is a flowchart for describing image conversion processing by the
FIG. 24 is a block diagram illustrating a configuration example of a learning device.
FIG. 25 is a diagram for explaining processing of a student
FIG. 26 is a flowchart illustrating a learning process of coefficient seed data by the learning device.
FIG. 27 is a diagram for explaining a learning method of coefficient seed data.
FIG. 28 is a block diagram illustrating another configuration example of the learning device.
29 is a block diagram illustrating a configuration example of a
FIG. 30 is a flowchart illustrating processing of
FIG. 31 is a flowchart illustrating authentication processing by
FIG. 32 is a flowchart for explaining processing of the
FIG. 33 is a flowchart for explaining authentication processing by the
FIG. 34 is a flowchart for explaining closed caption processing by the
FIG. 35 is a flowchart for explaining closed caption processing by the
FIG. 36 is a flowchart for describing a partial enlargement process by
FIG. 37 is a flowchart for explaining partial enlargement processing by the
FIG. 38 is a diagram illustrating a display example of the scalable TV system when a partial enlargement process is performed.
FIG. 39 is a flowchart illustrating an overall enlargement process performed by
FIG. 40 is a diagram for explaining how to obtain a display range and an enlarged range.
FIG. 41 is a flowchart illustrating an overall enlargement process performed by
FIG. 42 is a diagram illustrating a display example of the scalable TV system when the entire enlargement process is performed.
FIG. 43 is a flowchart illustrating multi-screen display processing by
FIG. 44 is a flowchart illustrating batch simultaneous control processing by
FIG. 45 is a diagram illustrating a display example of a scalable TV system when a batch simultaneous control process is performed.
FIG. 46 is a flowchart for describing individual processing by the
FIG. 47 is a flowchart for explaining individual processing by the
FIG. 48 is a flowchart for explaining speaker control processing by
FIG. 49 is a diagram showing an intensity versus distance table.
FIG. 50 is a diagram for explaining a method of calculating a distance to the
FIG. 51 is a flowchart illustrating speaker control processing by
FIG. 52 is a block diagram illustrating a configuration example of a
FIG. 53 is a diagram showing directivity.
FIG. 54 is a diagram showing directivity.
FIG. 55 is a diagram for explaining a method of detecting the direction of the
56 is a diagram illustrating a configuration example of an
FIG. 57 is a block diagram showing another example of the electrical configuration of the
FIG. 58 is a block diagram showing another example of the electrical configuration of the
FIG. 59 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present invention has been applied.
[Explanation of symbols]
1 Base unit, 2, 211, 212, 213, 214, 215, 2twenty one, 2twenty two, 2twenty three, 2twenty four, 2twenty five, 231, 232, 233, 234, 235, 241, 242, 243, 244, 245, 251, 252, 253, 254, 255 Slave unit, 11 CRT, 12L, 12R Speaker unit, 15 Remote control, 21 Terminal panel, 2111, 2112, 2113, 21twenty one, 21twenty three, 2131, 2132, 2133 IEEE1394 terminal, 22 antenna terminal, 23 input terminal, 24 output terminal, 31 CRT, 32L, 32R speaker unit, 35 remote control, 41 terminal panel, 411 IEEE1394 terminal, 42 antenna terminal, 43 input terminal, 44 output terminal, 51 select button switch, 52 volume button switch, 53 channel up / down button switch, 54 menu button switch, 55 exit button switch, 56 display button, 57 enter button switch , 58 Numeric keypad switch, 59 TV / video switch button switch, 60 TV / DSS switch button switch, 61 Jump button switch, 62 Language button, 63 Guide button switch, 64 Favorite button switch, 65 Cable button switch, 66 TV switch, 67 DSS button switch, 68-70 LED, 71 Cable power button switch , 72 TV power button switch, 73 DSS power button switch, 74 Muting button switch, 75 Sleep button switch, 76 Light emitting part, 81 Select button switch, 82 Volume button switch, 83 Channel up / down button switch, 84 Menu button switch, 85 exit button switch, 86 display button, 87 enter button switch, 88 numeric button (numeric keypad) switch, 89 TV / video switch button switch, 90 TV / DSS switch button switch, 91 jump button switch, 92 language button, 93 guide button Switch, 94 favorite button switch, 95 cable button switch, 96 TV switch , 97 DSS button switch, 98 to 100 LEDs, 101 cable power button switch, 102 TV power button switch, 103 DSS power button switch, 104 muting button switch, 105 sleep button switch, 106 light emitting unit, 110 button switch, 111 to 114 Direction button switch, 121 tuner, 122 QPSK demodulation circuit, 123 error correction circuit, 124 demultiplexer, 125 MPEG video decoder, 126 MPEG audio decoder, 127 frame memory, 128 NTSC encoder, 129 CPU, 130 EEPROM, 131 ROM, 132 RAM, 133 IEEE1394 interface, 134 front panel, 135 I R receiver, 135A, 135B light receiver, 136 modem, 137 signal processor, 137A DSP, 137B EEPROM, 137C RAM, 138 unit driver, 139 connection detector, 141 tuner, 142 QPSK demodulator, 143 error correction circuit, 144 Demultiplexer, 145 MPEG video decoder, 146 MPEG audio decoder, 147 Frame memory, 148 NTSC encoder, 149 CPU, 150 EEPROM, 151 ROM, 152 RAM, 153 IEEE1394 interface, 154 Front panel, 155 IR receiver, 156 Modem, 157 signal processing unit, 157A DSP, 157B EEPROM, 157C RAM, 158 unit Drive unit, 159 connection detection unit, 161, 162 tap extraction unit, 163 class classification unit, 164 coefficient memory, 165 prediction unit, 166 coefficient generation unit, 167 coefficient seed memory, 168 parameter memory, 171 teacher data generation unit, 172 teacher Data storage unit, 173 Student data generation unit, 174 Student data storage unit, 175, 176 Tap extraction unit, 177 Class classification unit, 178 Addition unit, 179 Coefficient seed calculation unit, 180 Parameter generation unit, 190 Addition unit, 191 Tap coefficient calculation unit, 192 Addition unit, 193 Coefficient seed calculation unit, 201, 202 Tap extraction unit, 203 class classification unit, 204 coefficient memory, 205 prediction unit, 206 coefficient generation unit, 207 coefficient seed memory, 208 Parameter memo , 2111, 2112 Digital filter, 2121, 2122 Speaker, 221 infrared line sensor, 222 lens, 301 bus, 302 CPU, 303 ROM, 304 RAM, 305 hard disk, 306 output unit, 307 input unit, 308 communication unit, 309 drive, 310 input / output interface, 311 removable recording medium
Claims (26)
前記他の表示装置が接続されたことを検出する接続検出手段と、
前記接続検出手段において接続が検出された前記他の表示装置との間で認証を行う認証手段と、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化手段と
を備え、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証手段は、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行う
ことを特徴とする表示装置。 A display device connected to another display device and having display means for displaying an image,
Connection detecting means for detecting that the other display device is connected;
Authentication means for performing authentication with the other display device whose connection is detected by the connection detection means;
If the authentication is successful, Bei example and a function change means for changing the function of the display device,
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication means performs authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
A display device characterized by that.
ことを特徴とする請求項1に記載の表示装置。In the function changing means, the authentication means has succeeded in both authentication that the other display device is valid and authentication that the other display device is the parent or child display device. The display device according to claim 1, wherein a function of the display device is changed.
前記機能変化手段は、前記他の表示装置の前記第2の機能を制御できない状態から、前記第2の機能を制御しうる状態に、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。The other display device has a first function that can be used when used alone and a second function that is different from the first function,
The function changing means changes the function of the display device from a state in which the second function of the other display device cannot be controlled to a state in which the second function can be controlled. The display device according to 1.
ことを特徴とする請求項3に記載の表示装置。The display device according to claim 3 , wherein the other display device has a function of converting first image data into second image data as the second function.
前記第2の画像データを構成する画素のうちの注目している注目位置の画素を予測するのに用いる予測タップを、前記第1の画像データから抽出する予測タップ抽出手段と、
前記注目位置の画素を予測するのに利用されるタップ係数を発生するタップ係数発生手段と、
前記タップ係数発生手段から発生されたタップ係数と、前記予測タップとに基づいて、前記注目位置の画素を予測する予測手段と
を備え、
前記第1の画像データを、前記予測手段において予測された画素でなる前記第2の画像データに変換する
ことを特徴とする請求項4に記載の表示装置。The other display device includes:
A prediction tap extracting means for extracting, from the first image data, a prediction tap used for predicting a pixel at a target position of interest among the pixels constituting the second image data;
Tap coefficient generating means for generating a tap coefficient used to predict a pixel at the target position;
Prediction means for predicting the pixel at the target position based on the tap coefficient generated from the tap coefficient generation means and the prediction tap;
The display device according to claim 4 , wherein the first image data is converted into the second image data including pixels predicted by the prediction unit.
ことを特徴とする請求項5に記載の表示装置。The function changing means displays, on the display means, an enlarged image obtained by enlarging a part of the image when there is an instruction to enlarge a part of the image displayed on the display means, and the entire image is displayed. The display device according to claim 5 , wherein the function of the display device is changed so that the other display device displays the image.
ことを特徴とする請求項6に記載の表示装置。The display device according to claim 6 , further comprising conversion means for converting a part of the image displayed on the display means into the enlarged image.
前記拡大画像を構成する画素のうちの注目している注目位置の画素を予測するのに用いる予測タップを、前記表示手段に表示される画像から抽出する予測タップ抽出手段と、
前記注目位置の画素を予測するのに利用されるタップ係数を発生するタップ係数発生手段と、
前記タップ係数発生手段から発生されたタップ係数と、前記予測タップとに基づいて、前記注目位置の画素を予測する予測手段と
を備え、
前記表示手段に表示される画像を、前記予測手段において予測された画素でなる前記拡大画像に変換する
ことを特徴とする請求項7に記載の表示装置。The converting means includes
A prediction tap extracting means for extracting a prediction tap used for predicting a pixel at a focused position of interest among pixels constituting the enlarged image from an image displayed on the display means;
Tap coefficient generating means for generating a tap coefficient used to predict a pixel at the target position;
Prediction means for predicting the pixel at the target position based on the tap coefficient generated from the tap coefficient generation means and the prediction tap;
Display device according to claim 7 you and converting the image displayed on the display unit, the enlarged image formed of predicted pixel in the prediction means.
前記コマンド受信手段において受信された前記コマンドに対応する処理を行う処理手段と
をさらに備え、
前記機能変化手段は、前記コマンド受信手段において前記コマンドが受信された場合に、前記コマンドを、前記他の表示装置に送信するように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
Processing means for performing processing corresponding to the command received by the command receiving means,
The function changing means changes the function of the display device so that the command is sent to the other display device when the command is received by the command receiving means. The display device according to 1.
所定の処理を行うことを指令するコマンドを入力する入力手段からのコマンドを受信するコマンド受信手段をさらに備え、
前記機能変化手段は、
前記コマンド受信手段において受信された前記コマンドが与えられるべき対象の装置である対象装置を認識し、
前記対象装置が、前記表示装置または前記他の表示装置のうちのいずれであるかを判定し、
前記対象装置が前記表示装置である場合には、前記コマンドに対応する処理を行い、前記対象装置が前記他の表示装置である場合には、前記コマンドを、前記対象装置である前記他の表示装置に送信する
ように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。 The display device functions as the parent display device,
Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
The function changing means is
Recognizing a target device that is a target device to which the command received by the command receiving means is to be given,
Determining whether the target device is the display device or the other display device;
When the target device is the display device, processing corresponding to the command is performed. When the target device is the other display device, the command is displayed as the other display that is the target device. The display device according to claim 1, wherein the function of the display device is changed so as to be transmitted to the device.
前記コマンド受信手段は、前記無線の信号を受信し、
前記対象装置を、前記コマンド受信手段において受信された前記無線の信号の強度と、前記他の表示装置において受信された前記無線の信号の強度に基づいて認識する
ことを特徴とする請求項10に記載の表示装置。The input means transmits a wireless signal corresponding to the command;
The command receiving means receives the wireless signal,
The target device, and the intensity of the received the radio signal at said command receiving means, to claim 10, wherein the recognized based on the intensity of the radio signals received at the other display device The display device described.
所定の処理を行うことを指令するコマンドを入力する入力手段からのコマンドを受信するコマンド受信手段と、
前記表示手段に表示される前記画像に付随する音声を出力する音声出力手段と
をさらに備え、
前記機能変化手段は、
前記入力手段の方向を検出し、
前記コマンド受信手段において受信された前記コマンドが与えられるべき対象の装置である対象装置を認識し、
前記対象装置が、前記表示装置または前記他の表示装置のうちのいずれであるかを判定し、
前記対象装置が前記表示装置である場合には、前記音声出力手段の指向性の主軸の方向を、前記入力手段の方向に向ける
ように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。 The display device functions as the parent display device,
Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
Voice output means for outputting voice accompanying the image displayed on the display means; and
The function changing means is
Detecting the direction of the input means;
Recognizing a target device that is a target device to which the command received by the command receiving means is to be given,
Determining whether the target device is the display device or the other display device;
When the target device is the display device, the function of the display device is changed so that the direction of the main axis of directivity of the audio output means is directed to the direction of the input means. Item 4. The display device according to Item 1.
前記機能変化手段は、前記対象装置が前記他の表示装置である場合には、前記対象装置である前記他の表示装置が出力する音声の指向性の主軸の方向を、前記入力手段の方向に向けることを指令するコマンドを、前記対象装置である前記他の表示装置に送信するように、前記表示装置の機能を変化させる
ことを特徴とする請求項12に記載の表示装置。The other display device displays an image and outputs a sound accompanying the image,
When the target device is the other display device, the function changing means changes the direction of the principal axis of the directivity of the sound output from the other display device that is the target device to the direction of the input means. The display device according to claim 12 , wherein a function of the display device is changed so that a command for directing is transmitted to the other display device that is the target device.
前記コマンド受信手段は、前記無線の信号を受信し、
前記対象装置を、前記コマンド受信手段において受信された前記無線の信号の強度と、前記他の表示装置において受信された前記無線の信号の強度に基づいて認識する
ことを特徴とする請求項12に記載の表示装置。The input means transmits a wireless signal corresponding to the command;
The command receiving means receives the wireless signal,
The target device, and the intensity of the received the radio signal at said command receiving means, to claim 12, wherein the recognized based on the intensity of the radio signals received at the other display device The display device described.
前記認証手段は、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親の表示装置であるかどうかについての認証とを行う
ことを特徴とする請求項1に記載の表示装置。The other display device includes a parent display device that can control a connection device connected to the other display device, and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication means performs authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent display device. Item 4. The display device according to Item 1.
ことを特徴とする請求項15に記載の表示装置。The function changing unit is configured when the authentication unit succeeds in both authentication that the other display device is valid and authentication that the other display device is the parent display device. The display device according to claim 15 , wherein the function of the display device is changed.
前記機能変化手段は、外部から前記第2の機能を制御できない状態から、前記第2の機能を制御しうる状態に、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。A first function that can be used when used alone and a second function that is different from the first function;
2. The function of the display device according to claim 1, wherein the function changing unit changes the function of the display device from a state in which the second function cannot be controlled from outside to a state in which the second function can be controlled. Display device.
ことを特徴とする請求項17に記載の表示装置。The display device according to claim 17 , wherein the second function has a function of converting first image data into second image data.
前記注目位置の画素を予測するのに利用されるタップ係数を発生するタップ係数発生手段と、
前記タップ係数発生手段から発生されたタップ係数と、前記予測タップとに基づいて、前記注目位置の画素を予測する予測手段と
をさらに備え、
前記第1の画像データを、前記予測手段において予測された画素でなる前記第2の画像データに変換する
ことを特徴とする請求項18に記載の表示装置。A prediction tap extracting means for extracting, from the first image data, a prediction tap used for predicting a pixel at a target position of interest among the pixels constituting the second image data;
Tap coefficient generating means for generating a tap coefficient used to predict a pixel at the target position;
Prediction means for predicting a pixel at the target position based on the tap coefficient generated from the tap coefficient generation means and the prediction tap; and
The display device according to claim 18 , wherein the first image data is converted into the second image data including pixels predicted by the prediction unit.
所定の処理を行うことを指令するコマンドを入力する入力手段からのコマンドを受信するコマンド受信手段と、
前記コマンドに対応する処理を行う処理手段と
をさらに備え、
前記機能変化手段は、前記コマンド受信手段において受信されたコマンドを無視し、前記他の表示装置からのコマンドに対応する処理を行うように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。 The display device functions as the child display device,
Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
Processing means for performing processing corresponding to the command, and
The function changing unit changes the function of the display device so as to perform processing corresponding to a command from the other display device, ignoring the command received by the command receiving unit. Item 4. The display device according to Item 1.
前記コマンド受信手段は、前記無線の信号を受信し、
前記機能変化手段は、前記コマンド受信手段において受信された前記無線の信号の強度を検出し、前記他の表示装置に送信するように、前記表示装置の機能を変化させる
ことを特徴とする請求項20に記載の表示装置。The input means transmits a wireless signal corresponding to the command;
The command receiving means receives the wireless signal,
Claim wherein the capability change means, which detects the intensity of the received the radio signal at said command receiving means, to transmit to the other display device, and wherein the changing the function of the display device 20. The display device according to 20 .
前記機能変化手段は、前記他の表示装置からのコマンドに対応して、前記音声出力手段の指向性の主軸の方向を、前記入力手段の方向に向けるように、前記表示装置の機能を変化させる
ことを特徴とする請求項21に記載の表示装置。Audio output means for outputting audio accompanying the image displayed on the display means;
The function changing means changes the function of the display device so that the direction of the main axis of directivity of the audio output means is directed to the direction of the input means in response to a command from the other display device. The display device according to claim 21 .
前記他の表示装置が接続されたことを検出する接続検出ステップと、
前記接続検出ステップにおいて接続が検出された前記他の表示装置との間で認証を行う認証ステップと、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化ステップと
を含み、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証ステップは、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含む
ことを特徴とする制御方法。A control method for a display device connected to another display device and having a display means for displaying an image,
A connection detection step of detecting that the other display device is connected;
An authentication step of performing authentication with the other display device in which connection is detected in the connection detection step;
A function changing step of changing the function of the display device when the authentication is successful;
Including
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication step includes a step of performing authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
A control method characterized by that .
前記他の表示装置が接続されたことを検出する接続検出ステップと、
前記接続検出ステップにおいて接続が検出された前記他の表示装置との間で認証を行う認証ステップと、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化ステップと
を含み、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証ステップは、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含む
ことを特徴とするプログラム。A program for causing a computer to perform control processing of a display device connected to another display device and having a display means for displaying an image,
A connection detection step of detecting that the other display device is connected;
An authentication step of performing authentication with the other display device in which connection is detected in the connection detection step;
A function changing step of changing the function of the display device when the authentication is successful;
Including
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication step includes a step of performing authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
Program, characterized in that.
前記他の表示装置が接続されたことを検出する接続検出ステップと、
前記接続検出ステップにおいて接続が検出された前記他の表示装置との間で認証を行う認証ステップと、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化ステップと
を含み、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証ステップは、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行う ステップを含む
プログラムが記録されている
ことを特徴とする記録媒体。A recording medium on which a program for causing a computer to perform control processing of a display device connected to another display device and having a display means for displaying an image is recorded,
A connection detection step of detecting that the other display device is connected;
An authentication step of performing authentication with the other display device in which connection is detected in the connection detection step;
A function changing step of changing the function of the display device when the authentication is successful;
Including
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication step includes a step of performing authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
A recording medium on which a program is recorded.
前記他の表示装置から制御しうるが、前記他の表示装置を制御できない1以上の子の表示装置と
からなる表示システムであって、
前記親および子の表示装置は、
前記他の表示装置が接続されたことを検出する接続検出手段と、
前記接続検出手段において接続が検出された前記他の表示装置との間で認証を行う認証手段と、
前記認証が成功した場合に、自身の機能を変化させる機能変化手段と
を有し、
前記認証手段は、接続が検出された前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行う
ことを特徴とする表示システム。A parent display device that can control other display devices;
A display system comprising one or more child display devices that can be controlled from the other display device but cannot control the other display device,
The parent and child display devices are:
Connection detecting means for detecting that the other display device is connected;
Authentication means for performing authentication with the other display device whose connection is detected by the connection detection means;
If the authentication is successful, it possesses a function change means for changing its function,
The authentication means performs authentication as to whether the other display device from which connection is detected is valid, and authentication as to whether the other display device is the parent or child display device. A display system characterized by performing .
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001399868A JP3693246B2 (en) | 2001-12-28 | 2001-12-28 | Display device, control method, program, recording medium, and display system |
EP02258939A EP1326436B1 (en) | 2001-12-28 | 2002-12-24 | Displaying information |
US10/330,970 US7071990B2 (en) | 2001-12-28 | 2002-12-27 | Display apparatus, display method, program, storage medium, and display system |
KR1020020085917A KR100953790B1 (en) | 2001-12-28 | 2002-12-28 | Display devices and control methods, programs and recording media, and display systems |
CNB021400334A CN1247010C (en) | 2001-12-28 | 2002-12-28 | Displaying apparatus, displaying device, programme, storage medium and displaying system |
US11/387,677 US7777811B2 (en) | 2001-12-28 | 2006-03-23 | Display apparatus, display method, program, storage medium, and display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001399868A JP3693246B2 (en) | 2001-12-28 | 2001-12-28 | Display device, control method, program, recording medium, and display system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005079999A Division JP4003778B2 (en) | 2005-03-18 | 2005-03-18 | Remote control control method and display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003195843A JP2003195843A (en) | 2003-07-09 |
JP3693246B2 true JP3693246B2 (en) | 2005-09-07 |
Family
ID=27604723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001399868A Expired - Fee Related JP3693246B2 (en) | 2001-12-28 | 2001-12-28 | Display device, control method, program, recording medium, and display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3693246B2 (en) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3880561B2 (en) * | 2002-09-05 | 2007-02-14 | 株式会社ソニー・コンピュータエンタテインメント | Display system |
US7737910B2 (en) * | 2003-12-04 | 2010-06-15 | Microsoft Corporation | Scalable display |
JP4543324B2 (en) * | 2005-04-28 | 2010-09-15 | ソニー株式会社 | Display system, display apparatus and method, recording medium, and program |
JP4956913B2 (en) | 2005-04-28 | 2012-06-20 | ソニー株式会社 | Display device and method, program, recording medium, and composite display device |
US8102333B2 (en) | 2005-04-28 | 2012-01-24 | Sony Corporation | Display device securing mechanism and display system that rotates display devices around a rotational axis |
JP4580825B2 (en) * | 2005-06-16 | 2010-11-17 | シャープ株式会社 | Display device |
JP4774861B2 (en) * | 2005-08-18 | 2011-09-14 | ソニー株式会社 | Flat panel speaker |
JP4736659B2 (en) | 2005-09-15 | 2011-07-27 | ソニー株式会社 | Multi-screen television receiver remote control system, remote controller and operation method, multi-screen television receiver and operation method, recording medium, and program |
JP4839782B2 (en) * | 2005-11-08 | 2011-12-21 | ソニー株式会社 | Output control system and method, output control apparatus and method, and program |
JP2007164060A (en) * | 2005-12-16 | 2007-06-28 | Sharp Corp | Multi-screen display device |
JP4914492B2 (en) * | 2006-03-28 | 2012-04-11 | ジーブイビービー ホールディングス エス.エイ.アール.エル. | Method and apparatus for displaying image with production switcher |
JP4778823B2 (en) * | 2006-03-31 | 2011-09-21 | 京セラ株式会社 | Mobile terminal device |
JP4633012B2 (en) * | 2006-07-04 | 2011-02-16 | シャープ株式会社 | Display device |
JP2008034977A (en) * | 2006-07-26 | 2008-02-14 | Sharp Corp | Display device |
JP5025230B2 (en) * | 2006-11-14 | 2012-09-12 | 三菱電機株式会社 | Multi-monitor monitoring control apparatus and process monitoring control system using the same |
KR101319536B1 (en) * | 2006-12-15 | 2013-10-21 | 삼성전자주식회사 | Display device and method of the driving |
JP5157320B2 (en) * | 2007-08-28 | 2013-03-06 | ソニー株式会社 | Program simultaneous viewing system |
US8121640B2 (en) | 2009-03-19 | 2012-02-21 | Microsoft Corporation | Dual module portable devices |
US8849570B2 (en) | 2009-03-19 | 2014-09-30 | Microsoft Corporation | Projected way-finding |
JP2015097090A (en) * | 2014-11-26 | 2015-05-21 | 日本電気株式会社 | Portable terminal system, control method of portable terminal system, and control program of portable terminal system |
JP6562621B2 (en) * | 2014-12-02 | 2019-08-21 | キヤノン株式会社 | Image display device, control method, program, and storage medium |
-
2001
- 2001-12-28 JP JP2001399868A patent/JP3693246B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003195843A (en) | 2003-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100953790B1 (en) | Display devices and control methods, programs and recording media, and display systems | |
JP3693246B2 (en) | Display device, control method, program, recording medium, and display system | |
KR100922029B1 (en) | Display device and control method | |
US6907301B2 (en) | Method and system for selecting and controlling devices in a home network | |
US9147342B2 (en) | Techniques for configuring and remotely controlling a multimedia system | |
JP4707673B2 (en) | User interface method and system for searching in devices connected to a network | |
US6785720B1 (en) | Method for connecting to server devices in browser-based home network apparatus therefor | |
US20040068756A1 (en) | Virtual link between CE devices | |
WO2008086371A2 (en) | Monitor configuration for media device | |
JP2006511997A (en) | Residential gateway system having a portable controller with a display for displaying video signals | |
KR20010074891A (en) | A method and system for electronic communication | |
JP4660877B2 (en) | Electronic equipment system | |
JP3700649B2 (en) | Display device, control method, program, recording medium, and display system | |
JP4003778B2 (en) | Remote control control method and display system | |
JP3969401B2 (en) | Display device and method, and program | |
JP4618319B2 (en) | Display control device and method, recording medium, program, display device, and display system | |
JP4602027B2 (en) | Display control apparatus and method, display apparatus, and display system | |
JP3624883B2 (en) | Display control apparatus, display control method, recording medium, program, and display system | |
JP4462272B2 (en) | Display system | |
JP2003199092A (en) | Display device and method for controlling, program and recording medium as well as display system | |
JP4618258B2 (en) | Display control apparatus and method, program | |
JP2010050792A (en) | Control unit of electronic device | |
US20090113470A1 (en) | Content management method, and broadcast receiving apparatus and video apparatus using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050603 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050616 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080701 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090701 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100701 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100701 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110701 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120701 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130701 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |