JP2019004401A - プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法 - Google Patents
プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法 Download PDFInfo
- Publication number
- JP2019004401A JP2019004401A JP2017119376A JP2017119376A JP2019004401A JP 2019004401 A JP2019004401 A JP 2019004401A JP 2017119376 A JP2017119376 A JP 2017119376A JP 2017119376 A JP2017119376 A JP 2017119376A JP 2019004401 A JP2019004401 A JP 2019004401A
- Authority
- JP
- Japan
- Prior art keywords
- projector
- unit
- input
- projectors
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 39
- 238000012545 processing Methods 0.000 claims description 133
- 230000005236 sound signal Effects 0.000 claims description 37
- 238000001514 detection method Methods 0.000 claims description 35
- 230000004044 response Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 abstract description 41
- 230000008569 process Effects 0.000 description 24
- 230000005540 biological transmission Effects 0.000 description 21
- 239000004973 liquid crystal related substance Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 11
- 238000012937 correction Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000001934 delay Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3147—Multi-projection systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/60—Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
【課題】複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムにおいて、プロジェクターの出力する音声のずれを抑制する。【解決手段】複数のプロジェクター200をデイジーチェーン接続したプロジェクションシステム1であって、各プロジェクター200は、HDMI信号が入力されるHDMI受信部252と、HDMI信号を、接続順において下位のプロジェクター200に出力するHDMI送信部256と、プロジェクター200における遅延を示す遅延情報を他のプロジェクター200に出力する通信制御部284と、を備え、各々のプロジェクター200は、各々のプロジェクター200にHDMI信号が入力されるタイミングと、接続順において最下位に位置するプロジェクター200に前HDMI信号が入力されるタイミングとの時間差に対応して、スピーカー243により音声を出力するプロジェクションシステム1。【選択図】図1
Description
本発明は、プロジェクションシステム、プロジェクター、及びプロジェクションシステムの制御方法に関する。
従来、複数のプロジェクターをケーブルで接続し、接続された複数のプロジェクターにより画像を投射するプロジェクションシステムが知られている(例えば、特許文献1参照)。
特許文献1は、ステレオ音声データに基づく音声を出力可能なプロジェクターを複数備えるマルチプロジェクションシステムを開示する。
特許文献1は、ステレオ音声データに基づく音声を出力可能なプロジェクターを複数備えるマルチプロジェクションシステムを開示する。
ところで、複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムでは、上位のプロジェクターから下位のプロジェクターに音声信号を順次伝送する。このため、各プロジェクターに音声信号が入力されるタイミングが異なり、各プロジェクターから出力される音声にずれが生じる場合があった。
本発明は、複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムにおいて、プロジェクターの出力する音声のずれを抑制することを目的とする。
本発明は、複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムにおいて、プロジェクターの出力する音声のずれを抑制することを目的とする。
上記課題を解決するため、本発明は、複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムであって、前記プロジェクターは、画像信号及び音声信号が入力される入力部と、前記入力部に入力される画像信号に基づき画像を投射する投射部と、前記入力部に入力される音声信号に基づき音声を出力する音声出力部と、前記入力部に入力される前記画像信号及び前記音声信号を、接続順において下位の前記プロジェクターに出力する信号出力部と、前記プロジェクターにおける遅延を示す遅延情報を他の前記プロジェクターに出力する遅延情報出力部と、を備え、前記デイジーチェーンを構成するいずれかの前記プロジェクターにおける遅延に対応するタイミングで、いずれか1以上の他の前記プロジェクターが、前記音声出力部により前記音声信号に基づく音声を出力する。
本発明によれば、いずれか1以上の他のプロジェクターが音声を出力するタイミングを、いずれかのプロジェクターが音声を出力するタイミングに合わせることができる。このた、め、プロジェクターの出力する音声のずれを抑制することができる。
本発明によれば、いずれか1以上の他のプロジェクターが音声を出力するタイミングを、いずれかのプロジェクターが音声を出力するタイミングに合わせることができる。このた、め、プロジェクターの出力する音声のずれを抑制することができる。
上記課題を解決するため、本発明は、複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムであって、前記プロジェクターは、画像信号及び音声信号が入力される入力部と、前記入力部に入力される画像信号に基づき画像を投射する投射部と、前記入力部に入力される音声信号に基づき音声を出力する音声出力部と、前記入力部に入力される前記画像信号及び前記音声信号を、接続順において下位の前記プロジェクターに出力する信号出力部と、前記プロジェクターにおける遅延を示す遅延情報を他の前記プロジェクターに出力する遅延情報出力部と、を備え、各々の前記プロジェクターは、各々の前記プロジェクターに前記画像信号が入力されるタイミングと、接続順において最下位に位置する前記プロジェクターに前記画像信号が入力されるタイミングとの時間差に対応して、前記音声出力部により前記音声信号に基づく音声を出力する。
本発明によれば、各々のプロジェクターが音声を出力するタイミングを、接続順において最下位に位置するプロジェクターが音声を出力するタイミングに合わせることができる。このため、プロジェクターの出力する音声のずれを抑制することができる。
本発明によれば、各々のプロジェクターが音声を出力するタイミングを、接続順において最下位に位置するプロジェクターが音声を出力するタイミングに合わせることができる。このため、プロジェクターの出力する音声のずれを抑制することができる。
また、本発明は、前記プロジェクターは、前記入力部に入力される前記画像信号に対し画像処理を実行する画像処理部を備え、前記遅延情報出力部は、前記入力部に入力される前記画像信号に対し前記画像処理部で実行する処理に要する時間を反映した前記遅延情報を出力する。
本発明によれば、遅延時間として、画像処理部で実行する処理に要する時間を反映した時間が出力される。このため、画像処理部で実行する処理に要する時間を反映して各プロジェクターが音声を出力するタイミングを設定することができる。
本発明によれば、遅延時間として、画像処理部で実行する処理に要する時間を反映した時間が出力される。このため、画像処理部で実行する処理に要する時間を反映して各プロジェクターが音声を出力するタイミングを設定することができる。
また、本発明は、前記遅延情報出力部は、前記画像信号が前記入力部に入力されてから前記信号出力部により出力されるまでの時間を示す前記遅延情報を出力する。
本発明によれば、入力部に画像信号が入力されてから信号出力部により出力されるまでの時間を他のプロジェクターに出力することができる。このため、他のプロジェクターにおいて、入力部に画像信号が入力されてから信号出力部により出力されるまでの時間に基づいて、最下位に位置するプロジェクターに画像信号が入力されるタイミングとの時間差を求めることができる。従って、プロジェクターの出力する音声のずれをより効果的に抑制することができる。
本発明によれば、入力部に画像信号が入力されてから信号出力部により出力されるまでの時間を他のプロジェクターに出力することができる。このため、他のプロジェクターにおいて、入力部に画像信号が入力されてから信号出力部により出力されるまでの時間に基づいて、最下位に位置するプロジェクターに画像信号が入力されるタイミングとの時間差を求めることができる。従って、プロジェクターの出力する音声のずれをより効果的に抑制することができる。
また、本発明は、前記プロジェクターは、前記画像信号が前記入力部に入力されてから前記信号出力部により出力されるまでの遅延時間を検出する遅延検出部を備え、前記遅延情報出力部は、前記遅延検出部により検出した前記遅延時間を示す前記遅延情報を出力する。
本発明によれば、プロジェクターにおいて、画像信号が入力部に入力されてから信号出力部により出力されるまでの遅延時間を検出することができる。
本発明によれば、プロジェクターにおいて、画像信号が入力部に入力されてから信号出力部により出力されるまでの遅延時間を検出することができる。
また、本発明は、いずれかの前記プロジェクターは、接続順において上位の前記プロジェクターが出力した前記遅延情報が示す時間に、前記画像信号が前記入力部に入力されてから前記信号出力部により出力されるまでの間の時間を加えた時間を示す前記遅延情報を、前記遅延情報出力部により出力する。
本発明によれば、上位のプロジェクターの遅延時間を反映させた遅延情報を下位のプロジェクターに出力することができる。
本発明によれば、上位のプロジェクターの遅延時間を反映させた遅延情報を下位のプロジェクターに出力することができる。
また、本発明は、いずれかの前記プロジェクターは、前記遅延情報出力部により、接続順において最上位の前記プロジェクターに前記遅延情報を出力する。
本発明によれば、最上位のプロジェクターにおいて、下位のプロジェクターの遅延情報に基づいて音声の出力タイミングを設定させることができる。
本発明によれば、最上位のプロジェクターにおいて、下位のプロジェクターの遅延情報に基づいて音声の出力タイミングを設定させることができる。
また、本発明は、いずれかの前記プロジェクターは、接続順において最上位及び最下位の前記プロジェクターを除く前記プロジェクターのそれぞれにおける前記遅延情報を、接続順において最上位の前記プロジェクターに出力する。
本発明によれば、最上位のプロジェクターにおいて、音声の出力タイミングの設定に必要なプロジェクターの遅延情報を、最上位のプロジェクターに入力させることができる。
本発明によれば、最上位のプロジェクターにおいて、音声の出力タイミングの設定に必要なプロジェクターの遅延情報を、最上位のプロジェクターに入力させることができる。
また、本発明は、前記プロジェクターは、前記入力部に入力される前記画像信号に対し画像処理を実行する画像処理部を備え、前記プロジェクターは、前記画像処理部における処理内容が異なる複数の動作モードを切り替えて実行可能に構成され、前記プロジェクターは、接続順ごと、及び複数の前記動作モードごとの遅延時間を登録したテーブルを記憶した記憶部と、前記接続順、及び前記画像処理部の動作モードに対応した遅延時間で、前記入力部に入力される音声信号に基づく音声を前記音声出力部に出力させる制御部と、を備える。
本発明によれば、接続順、及び画像処理部の動作モードに対応した遅延時間で、音声出力部に音声を出力させることができる。
本発明によれば、接続順、及び画像処理部の動作モードに対応した遅延時間で、音声出力部に音声を出力させることができる。
また、本発明は、接続順において最下位に位置する前記プロジェクターが前記音声信号に基づく音声を出力するタイミングに対応して、最下位に位置する前記プロジェクター以外の前記プロジェクターが音声を出力する。
本発明によれば、最下位に位置するプロジェクター以外のプロジェクターが音声を出力するタイミングを、最下位に位置するプロジェクターが音声を出力するタイミングに合わせることができる。
本発明によれば、最下位に位置するプロジェクター以外のプロジェクターが音声を出力するタイミングを、最下位に位置するプロジェクターが音声を出力するタイミングに合わせることができる。
また、本発明は、隣接する前記プロジェクターは、前記投射部により投射する画像が投射面において結合するよう配置される。
本発明によれば、隣接するプロジェクターが投射する画像を投射面において結合させることができる。
本発明によれば、隣接するプロジェクターが投射する画像を投射面において結合させることができる。
また、本発明は、所定の接続順に従って接続される複数の前記プロジェクターにより投射される画像が投射面において結合される。
本発明によれば、複数のプロジェクターが投射する画像を投射面において結合させることができる。
本発明によれば、複数のプロジェクターが投射する画像を投射面において結合させることができる。
上記課題を解決するため、本発明は、画像を投射する投射部を備えるプロジェクターであって、音声信号が入力される入力部と、前記入力部に入力される音声信号に基づき音声を出力する音声出力部と、前記入力部に入力される前記音声信号を、外部プロジェクターに出力する信号出力部と、前記プロジェクターにおける遅延を示す遅延情報を前記外部プロジェクターに出力する遅延情報出力部と、前記遅延情報に基づいて、前記音声出力部及び前記外部プロジェクターにより前記音声信号に基づき音声を出力するタイミングを決定する音声出力制御部と、を備える。
本発明によれば、遅延情報に基づいて、音声出力部及び外部プロジェクターが音声を出力するタイミングが決定される。このため、プロジェクター及び外部プロジェクターの出力する音声のずれを抑制することができる。
本発明によれば、遅延情報に基づいて、音声出力部及び外部プロジェクターが音声を出力するタイミングが決定される。このため、プロジェクター及び外部プロジェクターの出力する音声のずれを抑制することができる。
上記課題を解決するため、本発明は、それぞれ画像を投射する複数のプロジェクターをデイジーチェーン接続して構成されるプロジェクションシステムの制御方法であって、前記デイジーチェーンを構成する前記プロジェクターのいずれかから、接続順において下位に位置する前記プロジェクターに音声信号を伝送し、いずれかの前記プロジェクターにおける遅延を示す遅延情報を、接続順において、より下位に位置する前記プロジェクターに出力し、いずれかの前記プロジェクターにおける遅延に対応するタイミングで、いずれか1以上の他の前記プロジェクターにより前記音声信号に基づく音声を出力する。
本発明によれば、いずれか1以上の他のプロジェクターが音声を出力するタイミングを、いずれかのプロジェクターが音声を出力するタイミングに合わせることができる。このた、め、プロジェクターの出力する音声のずれを抑制することができる。
本発明によれば、いずれか1以上の他のプロジェクターが音声を出力するタイミングを、いずれかのプロジェクターが音声を出力するタイミングに合わせることができる。このた、め、プロジェクターの出力する音声のずれを抑制することができる。
以下、添付図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態のシステム構成図である。
本実施形態のプロジェクションシステム1は、画像供給装置100と、複数のプロジェクター200とを備える。図1には、複数のプロジェクター200としてプロジェクター200A、200B、200C、200Dの4機を示すが、プロジェクションシステム1を構成するプロジェクター200の台数は4機に限定されるものではない。以下の説明において、プロジェクター200A、200B、200C、200Dを特に区別する必要がない場合は、プロジェクター200と表記する。プロジェクター200Aは、本発明の「接続順において最上位のプロジェクター」に相当する。また、プロジェクター200Dは、本発明の「接続順において最下位のプロジェクター」に相当する。
図1は、本発明を適用した実施形態のシステム構成図である。
本実施形態のプロジェクションシステム1は、画像供給装置100と、複数のプロジェクター200とを備える。図1には、複数のプロジェクター200としてプロジェクター200A、200B、200C、200Dの4機を示すが、プロジェクションシステム1を構成するプロジェクター200の台数は4機に限定されるものではない。以下の説明において、プロジェクター200A、200B、200C、200Dを特に区別する必要がない場合は、プロジェクター200と表記する。プロジェクター200Aは、本発明の「接続順において最上位のプロジェクター」に相当する。また、プロジェクター200Dは、本発明の「接続順において最下位のプロジェクター」に相当する。
画像供給装置100は、プロジェクター200Aに接続される。画像供給装置100は、プロジェクター200AにHDMI(登録商標)信号を供給する。HDMI信号には、画像データや音声データが含まれる。画像データは、動画像の画像データであってもよいし、静止画像の画像データであってもよい。また、音声データは、モノラルの音声データであってもよいし、ステレオ(2チャンネル)の音声データであってもよい。また、ステレオ(2チャンネル)よりも多くの音声チャネルを用いるサラウンド方式(5.1チャンネルや7.1チャンネル)の音声データであってもよい。
画像供給装置100には、例えばノート型PC(Personal Computer)、デスクトップ型PCやタブレット端末、スマートフォン、PDA(Personal Digital Assistant)等を用いることができる。また、画像供給装置100として、ビデオ再生装置、DVD(Digital Versatile Disk)プレーヤー、ブルーレイディスクプレーヤー、ハードディスクレコーダー、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム機等を用いてもよい。
図2は、画像供給装置100の構成を示す構成図である。
画像供給装置100は、制御部110、再生部120、記録媒体130、HDMI(登録商標)インターフェイス(以下、インターフェイスをI/Fと略記する)部140を備える。制御部110は、画像供給装置100を制御する。再生部120は、制御部110の制御により、DVDやBlu−ray(登録商標)等の記録媒体130に記録されたコンテンツを再生する。また、再生部120は、再生したコンテンツの画像データや音声データをHDMII/F部140に出力する。
HDMII/F部140は、HDMIケーブル21に接続される。HDMIケーブル21は、一方の端部をHDMII/F部140に接続し、他方の端部をプロジェクター200AのHDMII/F部250Aに接続する。HDMII/F部140は、入力される画像データ及び音声データを、制御部110の制御に基づいて、所定の伝送フォーマットのHDMI信号に変換する。HDMII/F部140は、制御部110の制御に基づき、HDMI信号をHDMIケーブル21に出力する。
なお、再生部120は、フラッシュメモリー等の半導体記憶装置やHDD等の磁気記憶装置、光磁気記憶装置に記憶されたコンテンツを再生してもよい。また、ネットワーク上のサーバー装置からダウンロードされたコンテンツを再生部120で再生する構成であってもよい。
画像供給装置100は、制御部110、再生部120、記録媒体130、HDMI(登録商標)インターフェイス(以下、インターフェイスをI/Fと略記する)部140を備える。制御部110は、画像供給装置100を制御する。再生部120は、制御部110の制御により、DVDやBlu−ray(登録商標)等の記録媒体130に記録されたコンテンツを再生する。また、再生部120は、再生したコンテンツの画像データや音声データをHDMII/F部140に出力する。
HDMII/F部140は、HDMIケーブル21に接続される。HDMIケーブル21は、一方の端部をHDMII/F部140に接続し、他方の端部をプロジェクター200AのHDMII/F部250Aに接続する。HDMII/F部140は、入力される画像データ及び音声データを、制御部110の制御に基づいて、所定の伝送フォーマットのHDMI信号に変換する。HDMII/F部140は、制御部110の制御に基づき、HDMI信号をHDMIケーブル21に出力する。
なお、再生部120は、フラッシュメモリー等の半導体記憶装置やHDD等の磁気記憶装置、光磁気記憶装置に記憶されたコンテンツを再生してもよい。また、ネットワーク上のサーバー装置からダウンロードされたコンテンツを再生部120で再生する構成であってもよい。
プロジェクター200A、200B、200C及び200Dは、HDMIケーブル22、23、24によりデイジーチェーン接続される。プロジェクター200Bは、HDMIケーブル22を介してプロジェクター200Aに接続する。プロジェクター200Cは、HDMIケーブル23を介してプロジェクター200Bに接続する。プロジェクター200Dは、HDMIケーブル24を介してプロジェクター200Dに接続する。また、プロジェクター200Aと、末端に位置するプロジェクター200Dとは、HDMIケーブル25により接続される。
プロジェクター200Aは、HDMII/F部250Aを備える。HDMII/F部250Aは、HDMI受信部252A、254A及びHDMI送信部256Aを備える。図1では、HDMI受信部を「Rx」と表記し、HDMI送信部を「Tx」と表記する。
HDMI受信部252Aは、HDMIケーブル21により画像供給装置100に接続される。HDMI受信部254Aは、HDMIケーブル25によりプロジェクター200Dに接続される。また、HDMI送信部256Aは、HDMIケーブル22によりプロジェクター200Bに接続される。HDMI受信部252Aは、本発明の「入力部」に相当し、HDMI送信部256Aは、本発明の「信号出力部」に相当する。
HDMI受信部252Aは、HDMIケーブル21により画像供給装置100に接続される。HDMI受信部254Aは、HDMIケーブル25によりプロジェクター200Dに接続される。また、HDMI送信部256Aは、HDMIケーブル22によりプロジェクター200Bに接続される。HDMI受信部252Aは、本発明の「入力部」に相当し、HDMI送信部256Aは、本発明の「信号出力部」に相当する。
プロジェクター200Aは、画像供給装置100から送信されるHDMI信号をHDMI受信部252Aで受信する。プロジェクター200Aは、受信したHDMI信号を取り込んでプロジェクター200A内の画像処理部260A(図3参照)や音声処理部240A(図3参照)において処理する。また、プロジェクター200Aは、HDMI送信部256Aにより、HDMI信号をプロジェクター200Bに送信する。また、プロジェクター200Aは、プロジェクター200Dから送信されるHDMI信号をHDMI受信部254Aで受信する。
プロジェクター200Bは、HDMII/F部250Bを備える。HDMII/F部250Bは、HDMI受信部252Bと、HDMI送信部256Bとを備える。HDMI受信部252Bは、HDMIケーブル22によりプロジェクター200Aに接続される。HDMI送信部256Bは、HDMIケーブル23によりプロジェクター200Cに接続される。HDMI受信部252Bは、本発明の「入力部」に相当し、HDMI送信部256Bは、本発明の「信号送信部」に相当する。
プロジェクター200Bは、プロジェクター200Aから送信されるHDMI信号をHDMI受信部252Bで受信する。プロジェクター200Bは、受信したHDMI信号を取り込んでプロジェクター200B内の画像処理部260Bや音声処理部240B(ともに図示省略)において処理する。また、プロジェクター200Bは、HDMI送信部256Bにより、HDMI信号をプロジェクター200Cに送信する。
プロジェクター200Bは、プロジェクター200Aから送信されるHDMI信号をHDMI受信部252Bで受信する。プロジェクター200Bは、受信したHDMI信号を取り込んでプロジェクター200B内の画像処理部260Bや音声処理部240B(ともに図示省略)において処理する。また、プロジェクター200Bは、HDMI送信部256Bにより、HDMI信号をプロジェクター200Cに送信する。
プロジェクター200Cは、HDMII/F部250Cを備える。HDMII/F部250Cは、HDMI受信部252Cと、HDMI送信部256Cとを備える。HDMI受信部252Cは、HDMIケーブル23によりプロジェクター200Bに接続される。HDMI送信部256Cは、HDMIケーブル24によりプロジェクター200Dに接続される。HDMI受信部252Cは、本発明の「入力部」に相当し、HDMI送信部256Cは、本発明の「信号送信部」に相当する。
プロジェクター200Cは、プロジェクター200Bから送信されるHDMI信号をHDMI受信部252Cで受信する。プロジェクター200Cは、受信したHDMI信号を取り込んでプロジェクター200C内の画像処理部260Cや音声処理部240C(ともに図示省略)において処理する。また、プロジェクター200Cは、HDMI送信部256Cにより、HDMI信号をプロジェクター200Dに送信する。
プロジェクター200Cは、プロジェクター200Bから送信されるHDMI信号をHDMI受信部252Cで受信する。プロジェクター200Cは、受信したHDMI信号を取り込んでプロジェクター200C内の画像処理部260Cや音声処理部240C(ともに図示省略)において処理する。また、プロジェクター200Cは、HDMI送信部256Cにより、HDMI信号をプロジェクター200Dに送信する。
プロジェクター200Dは、HDMII/F部250Dを備える。HDMII/F部250Dは、HDMI受信部252Dと、HDMI送信部256Dとを備える。HDMI受信部252Dは、HDMIケーブル24によりプロジェクター200Cに接続される。HDMI送信部256Dは、HDMIケーブル25によりプロジェクター200Aに接続される。HDMI受信部252Dは、本発明の「入力部」に相当し、HDMI送信部256Dは、本発明の「信号送信部」に相当する。
プロジェクター200Dは、プロジェクター200Cから送信されるHDMI信号をHDMI受信部252Dで受信する。プロジェクター200Dは、受信したHDMI信号を取り込んでプロジェクター200D内の画像処理部260Dや音声処理部240D(ともに図示省略)において処理する。また、プロジェクター200Dは、HDMI送信部256Dにより、HDMI信号をプロジェクター200Aに送信する。
プロジェクター200Dは、プロジェクター200Cから送信されるHDMI信号をHDMI受信部252Dで受信する。プロジェクター200Dは、受信したHDMI信号を取り込んでプロジェクター200D内の画像処理部260Dや音声処理部240D(ともに図示省略)において処理する。また、プロジェクター200Dは、HDMI送信部256Dにより、HDMI信号をプロジェクター200Aに送信する。
HDMIケーブル21、22、23、24及び25は、画像データや音声データ、制御情報の伝送用のデータ線を有する。このデータ線は、TMDS(Transition Minimized Differential Signaling)チャネル#0,#1,#2の3つのデータ線である。これらのデータ線は、差動信号であるHDMI信号を一方向にシリアルに伝送するデータ線である。また、HDMIケーブル21、22、23、24及び25は、この他に、CEC(Consumer Electronics Control)線やDDC(Display Data Channel)線を有する。CEC線は、HDMIケーブルに接続した機器間で、制御用のデータを双方向に通信する信号線である。DDC線は、E−EDID(Enhanced Extended Display Identification Data)の読み出しに使用される2本の信号線である。E−EDIDは、HDMI信号の供給を受ける側の装置であるシンク機器を特定するデバイス情報である。HDMIケーブル21に接続した画像供給装置100とプロジェクター200Aとの間では、プロジェクター200Aがシンク機器として動作する。HDMIケーブル22に接続したプロジェクター200Aとプロジェクター200Bとの間では、プロジェクター200Bがシンク機器として動作する。HDMIケーブル23に接続したプロジェクター200Bとプロジェクター200Cとの間では、プロジェクター200Cがシンク機器として動作する。HDMIケーブル24に接続したプロジェクター200Cとプロジェクター200Dとの間では、プロジェクター200Dがシンク機器として動作する。HDMIケーブル25に接続したプロジェクター200Dとプロジェクター200Aとの間では、プロジェクター200Aがシンク機器として動作する。
図1には、プロジェクター200A、200B、200C、200Dを横方向に一列で配置し、各プロジェクター200がスクリーンSCに画像を横並びで投射する場合を示す。プロジェクター200Aは、画像をスクリーンSCの投射領域10Aに投射し、プロジェクター200Bは、画像をスクリーンSCの投射領域10Bに投射する。また、プロジェクター200Cは、画像をスクリーンSCの投射領域10Cに投射し、プロジェクター200Dは、画像をスクリーンSCの投射領域10Dに投射する。
プロジェクションシステム1は、プロジェクター200A、200B、200C及び200Dが投射する画像をスクリーンSCにおいて結合させ、一つの大画面の画像をスクリーンSCに投射するタイリング投射を行う。すなわち、タイリング投射では、隣接するプロジェクター200は、投射部210により投射する画像がスクリーンSCにおいて結合するように配置される。本実施形態では、プロジェクター200A及び200B、プロジェクター200B及び200C、プロジェクター200C及び200Dが隣接するプロジェクター200に相当する。
また、タイリング投射では、プロジェクター200は、投射する画像の縁が隣接するプロジェクター200が投射する画像の縁と互いに重なり合うように画像を投射する。これは、投射される画像の境界が目立たないようにするためである。例えば、プロジェクター200Aが投射する画像と、その右側に位置するプロジェクター200Bが投射する画像とは、互いの縁が重なって重畳領域11を形成する。同様に、プロジェクター200Bが投射する画像と、その右側に位置するプロジェクター200Cが投射する画像とは、互いの縁が重なって重畳領域12を形成する。同様に、プロジェクター200Cが投射する画像と、その右側に位置するプロジェクター200Dが投射する画像とは、互いの縁が重なって重畳領域13を形成する。
また、本実施形態は、プロジェクター200A〜200Dが画像を投射する投射対象がスクリーンSC(投射面)である場合を例にして説明するが、投射対象は、スクリーンSCに限定されない。投射対象は、一様な平面であってもよいし、曲面、不連続面あるいは凹凸を有する面などであってもよい。具体的には、建物の壁面や物体の表面を投射対象とすることができる。
また、プロジェクター200A〜200Dの設置方法は、平置きに限定されるものではなく、プロジェクター200A〜200Dを天井から吊り下げる天吊り設置や、壁面に掛ける壁掛け設置とすることも可能である。
また、図1には、プロジェクター200A〜200Dを横一列に並べて配置した場合を示すが、プロジェクター200A〜200Dを縦一列に並べて配置してもよい。また、プロジェクター200A〜200Dを2行2列に並べて配置してもよい。
また、プロジェクター200A〜200Dの設置方法は、平置きに限定されるものではなく、プロジェクター200A〜200Dを天井から吊り下げる天吊り設置や、壁面に掛ける壁掛け設置とすることも可能である。
また、図1には、プロジェクター200A〜200Dを横一列に並べて配置した場合を示すが、プロジェクター200A〜200Dを縦一列に並べて配置してもよい。また、プロジェクター200A〜200Dを2行2列に並べて配置してもよい。
図3は、プロジェクター200Aの構成を示す構成図である。プロジェクター200Aは、HDMII/F部250Aが2つのHDMI受信部252A及び254Aを備える点でプロジェクター200B及び200Cとは構成が異なる。しかし、これ以外の構成は、プロジェクター200A〜200Cで共通であるため、代表してプロジェクター200Aの構成について説明する。
また、以下の説明では、各プロジェクター200の機能ブロックを区別するため、プロジェクター200Aの機能ブロックには「A」の符号を付し、プロジェクター200Bの機能ブロックには「B」の符号を付す。同様に、プロジェクター200Cの機能ブロックには「C」の符号を付し、プロジェクター200Dの機能ブロックには「D」の符号を付して説明する。例えば、プロジェクター200Aの制御部を制御部280Aと表記し、プロジェクター200Bの制御部を制御部280Bと表記する。同様に、プロジェクター200Cの制御部を制御部280Cと表記し、プロジェクター200Dの制御部を制御部280Dと表記する。
また、以下の説明では、各プロジェクター200の機能ブロックを区別するため、プロジェクター200Aの機能ブロックには「A」の符号を付し、プロジェクター200Bの機能ブロックには「B」の符号を付す。同様に、プロジェクター200Cの機能ブロックには「C」の符号を付し、プロジェクター200Dの機能ブロックには「D」の符号を付して説明する。例えば、プロジェクター200Aの制御部を制御部280Aと表記し、プロジェクター200Bの制御部を制御部280Bと表記する。同様に、プロジェクター200Cの制御部を制御部280Cと表記し、プロジェクター200Dの制御部を制御部280Dと表記する。
プロジェクター200AのHDMII/F部250Aは、HDMI受信部252A、254Aと、HDMI送信部256Aとを備える。
HDMI受信部252A及び254Aは、HDMIケーブル21、25のそれぞれに接続する接続端子と、受信したHDMI信号を処理して、画像データや音声データ、制御情報に変換するインターフェイス回路とをそれぞれに備える。
また、HDMI送信部256Aは、HDMIケーブル22を接続する接続端子と、画像データや音声データ、制御情報をHDMI信号に変換するインターフェイス回路とを備える。
HDMI受信部252A及び254Aは、HDMIケーブル21、25のそれぞれに接続する接続端子と、受信したHDMI信号を処理して、画像データや音声データ、制御情報に変換するインターフェイス回路とをそれぞれに備える。
また、HDMI送信部256Aは、HDMIケーブル22を接続する接続端子と、画像データや音声データ、制御情報をHDMI信号に変換するインターフェイス回路とを備える。
プロジェクター200Aは、光学的な画像の形成を行い、スクリーンSCに画像を投射する投射部210Aを備える。投射部210Aは、光源部211A、光変調装置212A及び投射光学系213Aを備える。
光源部211Aは、キセノンランプや、超高圧水銀ランプ、LED(Light Emitting Diode)、レーザー光源等からなる光源を備える。また、光源部211Aは、光源が発した光を光変調装置212Aに導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部211Aは、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調装置212Aに至る経路上で低減させる調光素子等(いずれも図示略)を備えていてもよい。
光源部211Aは、キセノンランプや、超高圧水銀ランプ、LED(Light Emitting Diode)、レーザー光源等からなる光源を備える。また、光源部211Aは、光源が発した光を光変調装置212Aに導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部211Aは、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調装置212Aに至る経路上で低減させる調光素子等(いずれも図示略)を備えていてもよい。
光源部211Aは、光源駆動部221Aにより駆動される。光源駆動部221Aは、内部バス290Aに接続され、同じく内部バス290Aに接続された制御部280Aの制御によって光源部211Aの光源を点灯及び消灯させる。
光変調装置212Aは、例えば、R(赤)、G(緑)及びB(青)の三原色に対応した3枚の液晶パネル215Aを備える。すなわち、光変調装置212Aは、R(赤)の色光に対応した液晶パネル215Aと、G(緑)の色光に対応した液晶パネル215Aと、B(青)の色光に対応した液晶パネル215Aとを備える。光源部211Aが発する光はRGBの3色の色光に分離され、それぞれ対応する液晶パネル215Aに入射される。3枚の液晶パネル215Aは、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネル215Aを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系213Aに射出される。
光変調装置212Aは、光変調装置駆動部222Aにより駆動される。光変調装置駆動部222Aは、内部バス290Aに接続される。
光変調装置駆動部222Aには、画像処理部260AからR,G,Bの各原色に対応する画像データが入力される。光変調装置駆動部222Aは、入力された画像データを液晶パネル215Aの動作に適したデータ信号に変換する。光変調装置駆動部222Aは、変換したデータ信号に基づいて、各液晶パネル215Aの各画素に電圧を印加し、各液晶パネル215Aに画像を描画する。
光変調装置駆動部222Aには、画像処理部260AからR,G,Bの各原色に対応する画像データが入力される。光変調装置駆動部222Aは、入力された画像データを液晶パネル215Aの動作に適したデータ信号に変換する。光変調装置駆動部222Aは、変換したデータ信号に基づいて、各液晶パネル215Aの各画素に電圧を印加し、各液晶パネル215Aに画像を描画する。
投射光学系213Aは、光変調装置212Aにより変調された画像光をスクリーンSCに投射して、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系213Aは、スクリーンSCに投射される画像を拡大又は縮小させるズーム機構や、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。
プロジェクター200Aは、操作パネル231A、リモコン受光部235A及び入力処理部233Aを備える。操作パネル231A及びリモコン受光部235Aは、内部バス290Aに接続された入力処理部233Aに接続される。
操作パネル231Aには、プロジェクター200Aを操作するための各種操作キーが設けられる。操作パネル231Aには、例えば、プロジェクター200Aの電源オン又は電源オフを指示するための電源キー、各種設定を行うためのメニューキー等が設けられる。入力処理部233Aは、操作キーが操作されると、操作されたキーに対応した操作信号を制御部280Aに出力する。
操作パネル231Aには、プロジェクター200Aを操作するための各種操作キーが設けられる。操作パネル231Aには、例えば、プロジェクター200Aの電源オン又は電源オフを指示するための電源キー、各種設定を行うためのメニューキー等が設けられる。入力処理部233Aは、操作キーが操作されると、操作されたキーに対応した操作信号を制御部280Aに出力する。
また、プロジェクター200Aは、ユーザーが使用するリモコン5を有する。リモコン5は各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。
リモコン受光部235Aは、リモコン5から送信される赤外線信号を受光する。入力処理部233Aは、リモコン受光部235Aが受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成し、制御部280Aに出力する。
リモコン受光部235Aは、リモコン5から送信される赤外線信号を受光する。入力処理部233Aは、リモコン受光部235Aが受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成し、制御部280Aに出力する。
プロジェクター200Aは、音声処理部240A及びスピーカー243Aを備える。音声処理部240A及びスピーカー243Aは、本発明の「音声出力部」に相当する。
音声処理部240Aは、音声データに復号化、D/A変換、増幅等の信号処理を施し、アナログの音声信号に変換してスピーカー243Aに出力する。
音声処理部240Aは、音声データに復号化、D/A変換、増幅等の信号処理を施し、アナログの音声信号に変換してスピーカー243Aに出力する。
プロジェクター200Aは、無線通信部247Aを備える。無線通信部247Aは、内部バス290Aに接続され、制御部280Aの制御に従って動作する。
無線通信部247Aは、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御部280Aの制御の下、外部の装置との間で無線通信を実行する。無線通信部247Aの無線通信方式には、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)、UWB(Ultra Wide Band)、赤外線通信等の近距離無線通信方式を採用できる。また、無線通信部247Aの無線通信方式として携帯電話回線を利用した無線通信方式を採用できる。
無線通信部247Aは、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御部280Aの制御の下、外部の装置との間で無線通信を実行する。無線通信部247Aの無線通信方式には、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)、UWB(Ultra Wide Band)、赤外線通信等の近距離無線通信方式を採用できる。また、無線通信部247Aの無線通信方式として携帯電話回線を利用した無線通信方式を採用できる。
プロジェクター200Aは、画像処理系を備える。この画像処理系は、プロジェクター200Aの全体を統合的に制御する制御部280Aを中心に構成され、この他に、画像処理部260A、フレームメモリー265A及び記憶部270Aを備える。制御部280A、画像処理部260A及び記憶部270Aは、内部バス290Aによりデータ通信可能に相互に接続される。
画像処理部260Aは、画像供給装置100から受信した画像データをフレームメモリー265Aに展開して処理する。画像処理部260Aが行う処理には、例えば、解像度変換(スケーリング)処理又はリサイズ処理、歪み補正等の形状補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等が含まれる。画像処理部260Aは、制御部280Aにより指定された処理を実行し、必要に応じて、制御部280Aから入力されるパラメーターを使用して処理を行う。また、画像処理部260Aは、上記のうち複数の処理を組み合わせて実行することも勿論可能である。画像処理部260Aは、処理が終了した画像データをフレームメモリー265Aから読み出し、光変調装置駆動部222Aに出力する。
記憶部270Aは、例えば、ハードディスク装置等の補助記憶装置である。記憶部270Aは、DRAM(Dynamic RAM)、大容量の情報の記憶が可能なフラッシュメモリー又はCD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray Disc)等の光ディスクで代替されてもよい。記憶部270Aは、制御部280Aが実行する制御プログラムや各種データを記憶する。
また、記憶部270Aは、プロジェクター200Aや、200B、200C、200Dの識別情報を記憶する。記憶部270B、270C、270Dについても同様である。各プロジェクター200の識別情報は、ユーザーが操作パネル231Aを操作して入力してもよいし、DDC線を介してE−EDIDから読み出した各プロジェクター200のデバイス情報を使用してもよい。
また、記憶部270Aは、プロジェクター200Aや、200B、200C、200Dの識別情報を記憶する。記憶部270B、270C、270Dについても同様である。各プロジェクター200の識別情報は、ユーザーが操作パネル231Aを操作して入力してもよいし、DDC線を介してE−EDIDから読み出した各プロジェクター200のデバイス情報を使用してもよい。
制御部280Aは、ハードウェアとしてCPU、ROM、RAM(いずれも図示略)、その他の周辺回路(いずれも図示略)等を備え、プロジェクター200の各部を制御する。ROMは、フラッシュROM等の不揮発性の記憶装置であり、制御プログラム及びデータを記憶する。RAMは、CPUが演算処理を行う際のワークエリアとして使用される。CPUは、ROMや記憶部270Aから読み出した制御プログラムをRAMに展開し、展開した制御プログラムを実行してプロジェクター200Aの各部を制御する。
制御部280Aは、機能ブロックとして、投射制御部281A、表示制御部282A、遅延検出部283A及び通信制御部284Aを備える。通信制御部284Aは、本発明の「遅延情報出力部」に相当する。遅延検出部283Aは、本発明の「遅延検出部」及び「音声出力制御部」に相当する。これらの機能ブロックは、CPUが制御プログラムに従って演算処理を実行することで実現される機能をブロックとして便宜的に示したものであり、特定のアプリケーションやハードウェアを示すものではない。
投射制御部281Aは、プロジェクター200Aの各部を制御して、スクリーンSCに画像を表示させる。例えば、投射制御部281Aは、光変調装置駆動部222Aを制御して液晶パネル215Aに画像データに基づく画像を描画させる。また、投射制御部281Aは、光源駆動部221Aを制御して光源部211Aの光源の点灯と消灯とを制御し、また光源の輝度を調整する。
表示制御部282Aは、画像処理部260Aを制御して画像処理部260Aに画像処理を実行させる。
例えば、表示制御部282Aは、記憶部270Aに記憶させた画像データのサムネイルを生成して操作・表示パネル231Aに表示させる。表示制御部282Aは、操作・表示パネル231Aやリモコン5の操作により画像データが選択されると、選択された画像データを記憶部270Aから読み出して画像処理部260Aに出力する。この際、表示制御部282Aは、画像処理部260Aに実行させる画像処理の指示や、実行させる画像処理に必要なパラメーターを画像処理部260Aに出力する。
また、表示制御部282Aは、操作・表示パネル231Aに表示させる操作画面や操作ボタンが表示されたGUI(Graphical User Interface)画面のデータを生成して、操作・表示パネル231Aに表示させる。
例えば、表示制御部282Aは、記憶部270Aに記憶させた画像データのサムネイルを生成して操作・表示パネル231Aに表示させる。表示制御部282Aは、操作・表示パネル231Aやリモコン5の操作により画像データが選択されると、選択された画像データを記憶部270Aから読み出して画像処理部260Aに出力する。この際、表示制御部282Aは、画像処理部260Aに実行させる画像処理の指示や、実行させる画像処理に必要なパラメーターを画像処理部260Aに出力する。
また、表示制御部282Aは、操作・表示パネル231Aに表示させる操作画面や操作ボタンが表示されたGUI(Graphical User Interface)画面のデータを生成して、操作・表示パネル231Aに表示させる。
また、表示制御部282Aは、上位の装置(プロジェクター200Aの場合、画像供給装置100)から受信する配置情報に基づいて範囲情報を生成する。一つの大画面の画像をスクリーンSCに投射するタイリング投射では、画像データを複数に分割し、プロジェクションシステム1を構成するプロジェクター200の各々に、分割した画像データの各々を投射させる。範囲情報は、分割された画像データの範囲のうち、プロジェクター200Aが投射する画像データの範囲を示す情報である。
プロジェクター200B〜200Dにおいても、各表示制御部282B〜282Dは、配置情報に基づいて、プロジェクター200B〜200Dの各々が投射する画像データの範囲を示す範囲情報をそれぞれに生成する。
プロジェクター200B〜200Dにおいても、各表示制御部282B〜282Dは、配置情報に基づいて、プロジェクター200B〜200Dの各々が投射する画像データの範囲を示す範囲情報をそれぞれに生成する。
配置情報は、接続台数、接続形態(トポロジー)、先頭に位置するプロジェクター200の位置情報、カウンターの値等の情報が含まれる。
接続台数は、デイジーチェーン接続によって接続されたプロジェクター200の台数の情報である。本実施形態の接続台数は、プロジェクター200A、200B、200C及び200Dの4台である。
接続形態は、デイジーチェーン接続による接続の形態を示す情報である。接続形態には、例えば、複数のプロジェクター200を横一列に並べた形態や、縦一列に並べた形態、N行M列(N及びMは任意の自然数)に並べた形態等がある。
接続台数は、デイジーチェーン接続によって接続されたプロジェクター200の台数の情報である。本実施形態の接続台数は、プロジェクター200A、200B、200C及び200Dの4台である。
接続形態は、デイジーチェーン接続による接続の形態を示す情報である。接続形態には、例えば、複数のプロジェクター200を横一列に並べた形態や、縦一列に並べた形態、N行M列(N及びMは任意の自然数)に並べた形態等がある。
先頭に位置するプロジェクター200の位置情報は、画像供給装置100に接続したプロジェクター200の位置を示す情報である。本実施形態では、プロジェクター200Aを画像供給装置100に接続しているため、位置情報は「左」となる。プロジェクター200Dを画像供給装置100に接続した場合、位置情報は「右」となる。また、プロジェクター200Bを画像供給装置100に接続した場合、位置情報は「左から2番目」となり、プロジェクター200Cを画像供給装置100に接続した場合、位置情報は「右から2番目」となる。
また、複数のプロジェクター200を縦一列に並べた形態の場合、位置情報は、例えば、「上」、「下」、「上から2番目」、「下から2番目」といった情報となる。また、複数のプロジェクター200をN行M列に並べた形態の場合、位置情報は、例えば、「上から2行目、左から3番目」といった情報となる。
また、複数のプロジェクター200を縦一列に並べた形態の場合、位置情報は、例えば、「上」、「下」、「上から2番目」、「下から2番目」といった情報となる。また、複数のプロジェクター200をN行M列に並べた形態の場合、位置情報は、例えば、「上から2行目、左から3番目」といった情報となる。
カウンターの値は、各プロジェクター200の位置を特定する情報である。
例えば、画像供給装置100は、値を「0」に設定したカウンターを含む配置情報をプロジェクター200Aに出力する。プロジェクター200Aの表示制御部282Aは、配置情報に含まれるカウンターの値が「0」であるため、プロジェクター200Aの位置が先頭であると判定する。表示制御部282Aは、カウンターの値を「1」加算して、値を「1」に設定したカウンターを含む配置情報をプロジェクター200Bに出力する。プロジェクター200Bの表示制御部282Bは、配置情報に含まれるカウンターの値が「1」であるため、プロジェクター200Bの位置が先頭から2番目であると判定する。
以下、同様に、表示制御部282B、282Cは、カウンターの値を「1」加算して、値を「2」、「3」にそれぞれ設定したカウンターを含む配置情報を後段のプロジェクター200C、200Dにそれぞれ出力する。配置情報が入力された後段のプロジェクター200C、200Dは、カウンターの値に基づいて自身の位置を判定する。また、最下位のプロジェクター200であるプロジェクター200Dは、カウンターの値と、接続台数の情報とに基づいて、自身が最下位のプロジェクター200であると判定する。
例えば、画像供給装置100は、値を「0」に設定したカウンターを含む配置情報をプロジェクター200Aに出力する。プロジェクター200Aの表示制御部282Aは、配置情報に含まれるカウンターの値が「0」であるため、プロジェクター200Aの位置が先頭であると判定する。表示制御部282Aは、カウンターの値を「1」加算して、値を「1」に設定したカウンターを含む配置情報をプロジェクター200Bに出力する。プロジェクター200Bの表示制御部282Bは、配置情報に含まれるカウンターの値が「1」であるため、プロジェクター200Bの位置が先頭から2番目であると判定する。
以下、同様に、表示制御部282B、282Cは、カウンターの値を「1」加算して、値を「2」、「3」にそれぞれ設定したカウンターを含む配置情報を後段のプロジェクター200C、200Dにそれぞれ出力する。配置情報が入力された後段のプロジェクター200C、200Dは、カウンターの値に基づいて自身の位置を判定する。また、最下位のプロジェクター200であるプロジェクター200Dは、カウンターの値と、接続台数の情報とに基づいて、自身が最下位のプロジェクター200であると判定する。
表示制御部282Aは、配置情報に含まれる接続台数、接続形態、カウンターの値等に基づいて範囲情報を生成する。本実施形態は、4台のプロジェクター200を横一列に配置した接続形態であり、プロジェクター200Aはプロジェクションシステム1の左端に位置する。このため、表示制御部282Aは、画像データの縦方向に平行な方向で画像データを4分割した4つの範囲のうち、一番左側の範囲を範囲情報と判定し、この範囲を示す範囲情報を生成する。
表示制御部282Aは、画像処理部260Aに画像データを処理させるとき、すなわち、画像の投射開始前に、生成した範囲情報を画像処理部260Aに出力する。画像処理部260Aは、HDMII/F部250Aが受信した画像データが入力されると、入力した画像データから範囲情報が示す範囲を切り出し、切り出した範囲の画像データに対して画像処理を行う。
表示制御部282Aは、画像処理部260Aに画像データを処理させるとき、すなわち、画像の投射開始前に、生成した範囲情報を画像処理部260Aに出力する。画像処理部260Aは、HDMII/F部250Aが受信した画像データが入力されると、入力した画像データから範囲情報が示す範囲を切り出し、切り出した範囲の画像データに対して画像処理を行う。
遅延検出部283Aは、遅延時間を計測する。具体的には、遅延検出部283Aは、HDMII/F部250Aが画像供給装置100からHDMI信号を受信してから、HDMII/F部250AがHDMI信号を後段のプロジェクター200Bに出力するまでの時間を遅延時間として計測する。遅延検出部283Aの動作の詳細については後述する。
通信制御部284Aは、HDMII/F部250Aを制御して、画像供給装置100や各プロジェクター200との通信を行う。
本実施形態のプロジェクションシステム1は、各プロジェクター200から出力される音声のずれを低減することで、多チャンネル音声データの再生が可能なシステムである。
複数のプロジェクター200をデイジーチェーン接続したプロジェクションシステム1は、HDMI信号を上位のプロジェクター200から下位のプロジェクター200に順次伝送する構成である。このため、各プロジェクター200にHDMI信号が入力されるタイミングが異なる。このため、各プロジェクター200が入力されたHDMI信号を処理してそのまま再生する構成の場合、各プロジェクター200で再生される画像や音声にズレが生じる場合あった。特に、複数のプロジェクター200により、一つの画像を投射するタイリング投射では、画像のズレが目立ち、多チャンネル音声データを再生する場合、音声のズレが目立つ場合があった。
複数のプロジェクター200をデイジーチェーン接続したプロジェクションシステム1は、HDMI信号を上位のプロジェクター200から下位のプロジェクター200に順次伝送する構成である。このため、各プロジェクター200にHDMI信号が入力されるタイミングが異なる。このため、各プロジェクター200が入力されたHDMI信号を処理してそのまま再生する構成の場合、各プロジェクター200で再生される画像や音声にズレが生じる場合あった。特に、複数のプロジェクター200により、一つの画像を投射するタイリング投射では、画像のズレが目立ち、多チャンネル音声データを再生する場合、音声のズレが目立つ場合があった。
HDMI信号が入力されるタイミングが最も遅いプロジェクター200は、プロジェクションシステム1の最下位に位置するプロジェクター200Dである。このため、プロジェクター200Dよりも上位に位置するプロジェクター200A、200B及び200Cの画像及び音声の再生タイミングを、プロジェクター200Dの再生タイミングに合わせる制御を行う。
具体的には、プロジェクター200A、200B及び200Cの各々に、HDMI信号が入力されてから、HDMI信号を後段のプロジェクター200に出力するまでの遅延時間(内部遅延)を計測させる。ここでは、プロジェクター200Aの遅延時間を遅延時間D1と表記し、プロジェクター200Bの遅延時間を遅延時間D2と表記し、プロジェクター200Cの遅延時間を遅延時間D3と表記する。
プロジェクター200A〜200Cは、プロジェクター200A〜200Cの各々にHDMI信号が入力されるタイミングと、最下位のプロジェクター200DにHDMI信号が入力される時間差に対応して、スピーカー243A〜243Cから音声を出力する。
プロジェクター200A、200B及び200C各々は、計測した遅延時間に基づいて、プロジェクター200A、200B及び200Cの各々が、画像及び音声の再生を開始するタイミングを決定する。
プロジェクター200A、200B及び200C各々は、計測した遅延時間に基づいて、プロジェクター200A、200B及び200Cの各々が、画像及び音声の再生を開始するタイミングを決定する。
プロジェクター200CにHDMI信号が入力されるタイミングは、プロジェクター200DにHDMI信号が入力されるタイミングより、プロジェクター200Cの遅延時間D3だけ速い。このため、プロジェクター200Cの画像及び音声の再生タイミングを、遅延時間D3だけ遅延させる。
また、プロジェクター200BにHDMI信号が入力されるタイミングは、プロジェクター200DにHDMI信号が入力されるタイミングより、プロジェクター200Bの遅延時間D2、及びプロジェクター200Cの遅延時間D3だけ速い。このため、プロジェクター200Bの画像及び音声の再生タイミングを、遅延時間D2+D3だけ遅延させる。
また、プロジェクター200AにHDMI信号が入力されるタイミングは、プロジェクター200DにHDMI信号が入力されるタイミングより、遅延時間D1+D2+D3だけ速い。このため、プロジェクター200Aの画像及び音声の再生タイミングを、遅延時間D1+D2+D3だけ遅延させる。
また、プロジェクター200BにHDMI信号が入力されるタイミングは、プロジェクター200DにHDMI信号が入力されるタイミングより、プロジェクター200Bの遅延時間D2、及びプロジェクター200Cの遅延時間D3だけ速い。このため、プロジェクター200Bの画像及び音声の再生タイミングを、遅延時間D2+D3だけ遅延させる。
また、プロジェクター200AにHDMI信号が入力されるタイミングは、プロジェクター200DにHDMI信号が入力されるタイミングより、遅延時間D1+D2+D3だけ速い。このため、プロジェクター200Aの画像及び音声の再生タイミングを、遅延時間D1+D2+D3だけ遅延させる。
図4は、プロジェクションシステム1の動作を示すシーケンス図である。
まず、画像供給装置100は、プロジェクター200Aに配置情報を送信する(ステップS1)。プロジェクター200Aの通信制御部284Aは、画像供給装置100から配置情報を受信すると、受信した配置情報をメモリーに記憶させる。また、プロジェクター200Aの通信制御部284Aは、配置情報に含まれるカウンターの値を「1」加算してカウントアップする(ステップS2)。プロジェクター200Aは、「1」加算したカウンターを含む配置情報をプロジェクター200Bに送信する(ステップS3)。
まず、画像供給装置100は、プロジェクター200Aに配置情報を送信する(ステップS1)。プロジェクター200Aの通信制御部284Aは、画像供給装置100から配置情報を受信すると、受信した配置情報をメモリーに記憶させる。また、プロジェクター200Aの通信制御部284Aは、配置情報に含まれるカウンターの値を「1」加算してカウントアップする(ステップS2)。プロジェクター200Aは、「1」加算したカウンターを含む配置情報をプロジェクター200Bに送信する(ステップS3)。
プロジェクター200Bの通信制御部284Bは、プロジェクター200Aから配置情報を受信する。プロジェクター200Bの表示制御部282Bは、受信した配置情報をメモリーに記憶させる。また、プロジェクター200Bの通信制御部284Bは、受信した配置情報に含まれるカウンターの値を「1」加算して、カウンターの値をカウントアップする(ステップS4)。プロジェクター200Bは、値を変更したカウンターを含む配置情報をプロジェクター200Cに送信する(ステップS5)。
プロジェクター200Cの通信制御部284Cは、は、プロジェクター200Bから配置情報を受信する。プロジェクター200Cの通信制御部284Cは、受信した配置情報をメモリーに記憶させる。また、プロジェクター200Cの通信制御部284Cは、受信した配置情報に含まれるカウンターの値を「1」加算して、カウンターの値をカウントアップする(ステップS6)。プロジェクター200Cの通信制御部284Cは、値を変更したカウンターを含む配置情報をプロジェクター200Dに送信する(ステップS7)。
プロジェクター200Dの通信制御部284Dは、プロジェクター200Cから配置情報を受信すると、配置情報を受信したことを示す受信通知をプロジェクター200Aに送信する(ステップS8)。
プロジェクター200Aの遅延検出部283Aは、プロジェクター200Dから受信通知を受信すると、遅延時間D1の計測を開始する。図5は、プロジェクター200Aの遅延時間D1の計測手順を示すフローチャートである。ここで、図5に示すフローチャートを参照しながら、プロジェクター200Aの遅延時間D1の計測手順を説明する。
画像供給装置100は、遅延時間の計測用のHDMI信号を、予め設定された時間間隔でプロジェクター200Aに送信する。計測用のHDMI信号には、画像データや、垂直同期信号、水平同期信号、音声データ等が含まれる。この画像データや音声データは、遅延時間の計測用に予め用意したものであってもよいし、記録媒体130に記録された画像データを使用して、画像供給装置100が生成したものであってもよい。
プロジェクター200Aは、HDMI受信部252AによりHDMI信号を受信すると(ステップS1)、シリアルデータからパラレルデータへの変換、デコード等の処理を行って、HDMI信号に重畳されたデジタルデータを取り出す(ステップS22)。
次に、HDMII/F部250Aは、取り出したデジタルデータに垂直同期信号が含まれるか否かを判定する(ステップS23)。HDMII/F部250Aは、取り出したデジタルデータに垂直同期信号が含まれない場合(ステップS23/NO)、ステップS26の処理に移行する。また、HDMII/F部250Aは、取り出したデジタルデータに垂直同期信号が含まれる場合(ステップS23/YES)、遅延検出部283Aに割り込み信号を出力する。遅延検出部283Aは、HDMII/F部250Aから割り込み信号が入力されると、タイマーの計時を開始する(ステップS24)。また、遅延検出部283Aは、画像処理部260Aに画像処理の実行を指示する(ステップS25)。
HDMII/F部250Aは、引き続き受信するHDMI信号から取り出した画像データを画像処理部260Aに出力する。また、HDMII/F部250Aは、HDMI信号から音声データが取り出された場合、この音声データを遅延検出部283Aに出力する。遅延検出部283Aは、入力される音声データをメモリーに記憶させる。
HDMII/F部250Aは、引き続き受信するHDMI信号から取り出した画像データを画像処理部260Aに出力する。また、HDMII/F部250Aは、HDMI信号から音声データが取り出された場合、この音声データを遅延検出部283Aに出力する。遅延検出部283Aは、入力される音声データをメモリーに記憶させる。
画像処理部260Aは、HDMII/F部250Aから画像データが入力されると、入力された画像データに画像処理を行う(ステップS26)。画像処理部260Aが行う画像処理は、予め設定された画像処理であってもよいし、画像データの種類に対応した画像処理であってもよい。また、画像処理部260Aが行う画像処理は、1つの処理であってもよいし、例えば、デジタルズーム処理、色調補正処理、輝度補正処理等の複数の処理を組み合わせた処理であってもよい。
画像データの種類に対応した画像処理とは、例えば、画像処理部260Aに入力された画像データが24コマ/秒のフィルムモードの画像データである場合、画像処理部260Aは、フレーム補間処理を行って中間フレームを生成する処理を実行する。画像処理部260Aは、画像処理が終了すると、画像処理の終了した画像データをHDMII/F部250Aに出力する。
画像データの種類に対応した画像処理とは、例えば、画像処理部260Aに入力された画像データが24コマ/秒のフィルムモードの画像データである場合、画像処理部260Aは、フレーム補間処理を行って中間フレームを生成する処理を実行する。画像処理部260Aは、画像処理が終了すると、画像処理の終了した画像データをHDMII/F部250Aに出力する。
遅延検出部283Aは、垂直同期信号や水平同期信号の挿入タイミングをHDMII/F部250Aに指示する。また、遅延検出部283Aは、画像データが途切れるブランキング期間に、音声データを含むHDMI信号の生成を指示する。
HDMII/F部250Aは、遅延検出部283Aから垂直同期信号の挿入を指示されると、垂直同期信号を含むデータに、エンコード、シリアル変換等の処理を行ってHDMI信号を生成する(ステップS28)。HDMII/F部250Aは、生成したHDMI信号をHDMI送信部256Aによりプロジェクター200Bに送信する(ステップS29)。HDMII/F部250Aは、垂直同期信号を含むHDMI信号の送信が終了すると、制御部280Aに割り込み信号を出力する。
遅延検出部283Aは、HDMII/F部250Aから割り込み信号が入力されることで、タイマーの計時を終了し(ステップS30)、タイマーにより計時した時間を遅延時間D1としてメモリーに記憶させる(ステップS31)。プロジェクター200Aの遅延検出部283Aにより計測される遅延時間は、画像処理部260Aが実行する画像処理に要する時間を反映した時間である。プロジェクター200B〜200Cにおいて計測される遅延時間も、画像処理部260B、260Cが実行する画像処理に要する時間を反映した時間である。プロジェクター200A〜200Cにおいて計測される遅延時間は、画像処理部が実行する画像処理以外の処理に要する時間を含めてもよい。
遅延検出部283Aは、HDMII/F部250Aから割り込み信号が入力されることで、タイマーの計時を終了し(ステップS30)、タイマーにより計時した時間を遅延時間D1としてメモリーに記憶させる(ステップS31)。プロジェクター200Aの遅延検出部283Aにより計測される遅延時間は、画像処理部260Aが実行する画像処理に要する時間を反映した時間である。プロジェクター200B〜200Cにおいて計測される遅延時間も、画像処理部260B、260Cが実行する画像処理に要する時間を反映した時間である。プロジェクター200A〜200Cにおいて計測される遅延時間は、画像処理部が実行する画像処理以外の処理に要する時間を含めてもよい。
また、HDMII/F部250Aは、垂直同期信号の挿入の指示がない場合(ステップS27/NO)、画像処理部260Aから入力された画像データに、エンコード、シリアル変換等の処理を行ってHDMI信号を生成する(ステップS32)。また、HDMII/F部250Aは、遅延検出部283Aから音声データの生成が指示されると、例えば、メモリーから音声データを読み出して、エンコード、シリアル変換等の処理を行ってHDMI信号を生成する(ステップS32)。HDMII/F部250Aは、生成したHDMI信号をHDMI送信部256Aによりプロジェクター200Bに送信する(ステップS33)。
図4に示すシーケンス図を参照しながら引き続き説明する。
プロジェクター200Aは、遅延時間D1の計測が終了すると、プロジェクター200Bに、遅延時間D2の計測を指示する(ステップS10)。プロジェクター200Bは、プロジェクター200Aから遅延時間D2の計測を指示されると、プロジェクター200Aと同様の手順で遅延時間D2の計測を行う(ステップS11)。プロジェクター200Bの遅延検出部283Bは、プロジェクター200Aと同様に、垂直同期信号を含むHDMI信号が入力されたタイミングでタイマーの計測を開始する。また、遅延検出部283Bは、HDMI送信部256Bが、垂直同期信号を含むHDMI信号をHDMIケーブル23に出力したタイミングでタイマーの計測を終了し、計測された時間を遅延時間D2としてメモリーに記憶させる。
プロジェクター200Aは、遅延時間D1の計測が終了すると、プロジェクター200Bに、遅延時間D2の計測を指示する(ステップS10)。プロジェクター200Bは、プロジェクター200Aから遅延時間D2の計測を指示されると、プロジェクター200Aと同様の手順で遅延時間D2の計測を行う(ステップS11)。プロジェクター200Bの遅延検出部283Bは、プロジェクター200Aと同様に、垂直同期信号を含むHDMI信号が入力されたタイミングでタイマーの計測を開始する。また、遅延検出部283Bは、HDMI送信部256Bが、垂直同期信号を含むHDMI信号をHDMIケーブル23に出力したタイミングでタイマーの計測を終了し、計測された時間を遅延時間D2としてメモリーに記憶させる。
プロジェクター200Bが受信するHDMI信号に含まれる画像データは、プロジェクター200Aによって画像処理が施された画像データである。例えば、プロジェクター200Aは、画像処理として中間フレームを生成した場合、生成した中間フレームを含む画像データを、HDMI信号としてプロジェクター200Bに送信する。従って、プロジェクター200Bは、プロジェクター200AからHDMI信号を受信すると、受信したHDMI信号から垂直同期信号や、水平同期信号、画像データ、音声データ等を取り出す。そして、プロジェクター200Bは、取り出した垂直同期信号や、水平同期信号、画像データ、音声データを含むHDMI信号を生成し、HDMI送信部256Bによりプロジェクター200Cに送信する。
プロジェクター200Bの通信制御部284Bは、計測された遅延時間D2をプロジェクター200Cに送信する。プロジェクター200Bからプロジェクター200Cに送信される遅延時間D2は、本発明の「遅延情報」に相当する。
また、プロジェクター200Bの通信制御部284Bは、プロジェクター200Cに、遅延時間D3の計測を指示する(ステップS12)。
また、プロジェクター200Bの通信制御部284Bは、プロジェクター200Cに、遅延時間D3の計測を指示する(ステップS12)。
プロジェクター200Cの遅延検出部283Cは、プロジェクター200Bから遅延時間D3の計測を指示されると、プロジェクター200Aと同様の手順で遅延時間D3の計測を行う(ステップS13)。プロジェクター200Cの遅延検出部283Cは、プロジェクター200Aと同様に、垂直同期信号を含むHDMI信号が入力されたタイミングでタイマーの計測を開始する。また、遅延検出部283Cは、HDMI送信部256Cが、垂直同期信号を含むHDMI信号をHDMIケーブル24に出力したタイミングでタイマーの計測を終了し、計測された時間を遅延時間D3とする。
なお、プロジェクター200Cが受信するHDMI信号に含まれる画像データは、プロジェクター200Aによって画像処理が施された画像データである。このため、プロジェクター200Cは、プロジェクター200BからHDMI信号を受信すると、受信したHDMI信号から垂直同期信号や、水平同期信号、画像データ、音声データ等を取り出す。そして、プロジェクター200Cは、取り出した垂直同期信号や、水平同期信号、画像データ、音声データを含むHDMI信号を生成し、HDMI送信部256Cによりプロジェクター200Dに送信する。
なお、プロジェクター200Cが受信するHDMI信号に含まれる画像データは、プロジェクター200Aによって画像処理が施された画像データである。このため、プロジェクター200Cは、プロジェクター200BからHDMI信号を受信すると、受信したHDMI信号から垂直同期信号や、水平同期信号、画像データ、音声データ等を取り出す。そして、プロジェクター200Cは、取り出した垂直同期信号や、水平同期信号、画像データ、音声データを含むHDMI信号を生成し、HDMI送信部256Cによりプロジェクター200Dに送信する。
プロジェクター200Cの遅延検出部283Cは、計測された遅延時間D3をメモリーに記憶させる。また、通信制御部284Cは、計測された遅延時間D3と、プロジェクター200Bが計測した遅延時間D2とをプロジェクター200Dに送信する(ステップS14)。また、通信制御部284Cは、計測された遅延時間D3に、プロジェクター200Bが計測した遅延時間D2を加算した時間を遅延時間としてプロジェクター200Dに送信してもよい。この後、プロジェクター200Cは、プロジェクター200BからHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、遅延時間D3だけ遅延させる。
プロジェクター200Cは、遅延情報としての遅延時間D2及びD3を、最上位のプロジェクター200Aに出力する「いずれかのプロジェクター」に相当する。
プロジェクター200Cは、遅延情報としての遅延時間D2及びD3を、最上位のプロジェクター200Aに出力する「いずれかのプロジェクター」に相当する。
プロジェクター200Dは、プロジェクター200Cから遅延時間D2及びD3を受信すると、受信した遅延時間D2及びD3をプロジェクター200Aに送信する(ステップS15)。
プロジェクター200Dも、遅延情報としての遅延時間D2及びD3を、最上位のプロジェクター200Aに出力する「いずれかのプロジェクター」に相当する。
プロジェクター200Dも、遅延情報としての遅延時間D2及びD3を、最上位のプロジェクター200Aに出力する「いずれかのプロジェクター」に相当する。
プロジェクター200Aは、計測した遅延時間D1に、受信した遅延時間D2及びD3を加算した時間を遅延時間としてメモリーに記憶させる。また、プロジェクター200Aは、プロジェクター200Cの計測した遅延時間D3をプロジェクター200Bに送信する(ステップS16)。プロジェクター200Bは、計測した遅延時間D2に、受信した遅延時間D3を加算した時間を遅延時間としてメモリーに記憶させる。
この後、プロジェクター200Aは、画像供給装置100からHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、遅延時間D1+D2+D3だけ遅延させる。
また、プロジェクター200Bは、プロジェクター200AからHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、遅延時間D2+D3だけ遅延させる。
また、プロジェクター200Cは、プロジェクター200BからHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、遅延時間D3だけ遅延させる。
従って、接続順において最下位に位置するプロジェクター200Dが音声を出力するタイミングに対応して、最下位に位置するプロジェクター200D以外のプロジェクター200A〜200Cが音声を出力することができる。
また、プロジェクター200Bは、プロジェクター200AからHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、遅延時間D2+D3だけ遅延させる。
また、プロジェクター200Cは、プロジェクター200BからHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、遅延時間D3だけ遅延させる。
従って、接続順において最下位に位置するプロジェクター200Dが音声を出力するタイミングに対応して、最下位に位置するプロジェクター200D以外のプロジェクター200A〜200Cが音声を出力することができる。
HDMIに準拠した通信方式では、音声データは、画像データの送信が途切れるブランキング期間を利用して送信される。また、音声データの再生タイミングは、画像データの再生タイミングに同期させなければならない。
このため、プロジェクター200A〜200Cの各々において画像処理部260A〜260Cが実行する画像処理に要する時間を遅延時間として計測する。そして、計測した遅延時間に対応したタイミングでプロジェクター200A〜200Cが音声を出力することで、プロジェクター200A〜200Cが音声を出力するタイミングを、プロジェクター200Dが音声を出力するタイミングに合わせることができる。
このため、プロジェクター200A〜200Cの各々において画像処理部260A〜260Cが実行する画像処理に要する時間を遅延時間として計測する。そして、計測した遅延時間に対応したタイミングでプロジェクター200A〜200Cが音声を出力することで、プロジェクター200A〜200Cが音声を出力するタイミングを、プロジェクター200Dが音声を出力するタイミングに合わせることができる。
以上説明したように本実施形態は、複数のプロジェクター200をデイジーチェーン接続したプロジェクションシステム1である。プロジェクター200は、HDMI受信部252と、投射部210と、スピーカー243と、HDMI送信部256と、通信制御部284とを備える。
HDMI受信部252には、画像データ及び音声データが重畳されたHDMI信号が入力される。投射部210は、入力された画像データに基づき画像を投射する。スピーカー243は、入力された音声データを出力する。HDMI送信部256は、入力された画像データ及び音声データが重畳されたHDMI信号を、接続順において下位のプロジェクター200に出力する。通信制御部284は、プロジェクター200における遅延を示す遅延情報を他のプロジェクター200に出力する。
プロジェクター200A〜200Cは、プロジェクター200A〜200Cの各々にHDMI信号が入力されるタイミングと、最下位のプロジェクター200Dに画像信号が入力されるタイミングとの時間差に対応して、スピーカー243より音声を出力する。このため、プロジェクター200の出力する音声のずれを抑制することができる。
HDMI受信部252には、画像データ及び音声データが重畳されたHDMI信号が入力される。投射部210は、入力された画像データに基づき画像を投射する。スピーカー243は、入力された音声データを出力する。HDMI送信部256は、入力された画像データ及び音声データが重畳されたHDMI信号を、接続順において下位のプロジェクター200に出力する。通信制御部284は、プロジェクター200における遅延を示す遅延情報を他のプロジェクター200に出力する。
プロジェクター200A〜200Cは、プロジェクター200A〜200Cの各々にHDMI信号が入力されるタイミングと、最下位のプロジェクター200Dに画像信号が入力されるタイミングとの時間差に対応して、スピーカー243より音声を出力する。このため、プロジェクター200の出力する音声のずれを抑制することができる。
また、プロジェクター200は、受信したHDMI信号から取り出した画像データに対し画像処理を実行する画像処理部260を備える。通信制御部284は、受信した画像データに対し画像処理部260で実行する処理に要する時間を反映した遅延情報を出力する。
従って、遅延時間として、画像処理部260で実行する処理に要する時間を反映した時間を出力することができる。このため、各プロジェクター200に、画像処理部260で実行する処理に要する時間を反映したタイミングで音声を出力させることができる。
従って、遅延時間として、画像処理部260で実行する処理に要する時間を反映した時間を出力することができる。このため、各プロジェクター200に、画像処理部260で実行する処理に要する時間を反映したタイミングで音声を出力させることができる。
また、通信制御部284は、HDMI受信部252にHDMI信号が入力されてからHDMI送信部256により出力されるまでの時間を示す遅延情報を出力する。
従って、プロジェクター200A〜200Cにおいて、最下位に位置するプロジェクター200DにHDMI信号が入力されるタイミングとの時間差を求めることができる。このため、プロジェクター200の出力する音声のずれをより効果的に抑制することができる。
従って、プロジェクター200A〜200Cにおいて、最下位に位置するプロジェクター200DにHDMI信号が入力されるタイミングとの時間差を求めることができる。このため、プロジェクター200の出力する音声のずれをより効果的に抑制することができる。
また、プロジェクター200は、HDMI信号がHDMI受信部252に入力されてからHDMI送信部256により出力されるまでの遅延時間を検出する遅延検出部283を備える。通信制御部284は、遅延検出部283により検出した遅延時間を示す遅延情報を出力する。
従って、各プロジェクター200において、HDMI受信部252にHDMI信号が入力されてからHDMI送信部256により出力されるまでの遅延時間を検出することができる。
従って、各プロジェクター200において、HDMI受信部252にHDMI信号が入力されてからHDMI送信部256により出力されるまでの遅延時間を検出することができる。
また、プロジェクター200Cの通信制御部284は、プロジェクター200Bが出力した遅延情報が示す時間に、プロジェクター200Cにおいて計測した時間を加えた時間を示す遅延情報を出力する。
従って、上位のプロジェクター200Bの遅延時間を反映させた遅延情報を下位のプロジェクター200Cに出力することができる。
従って、上位のプロジェクター200Bの遅延時間を反映させた遅延情報を下位のプロジェクター200Cに出力することができる。
また、プロジェクター200Bの通信制御部284B、又はプロジェクター200Cの通信制御部284Cは、接続順において最上位のプロジェクター200Aに遅延情報を出力する。
従って、最上位のプロジェクター200Aにおいて、下位のプロジェクター200B、200Cの遅延情報に基づいて音声の出力タイミングを設定することができる。
従って、最上位のプロジェクター200Aにおいて、下位のプロジェクター200B、200Cの遅延情報に基づいて音声の出力タイミングを設定することができる。
また、プロジェクター200B、プロジェクター200Cは、接続順において最上位のプロジェクター200A及び最下位のプロジェクター200Dを除くプロジェクター200B、200Cの遅延情報を、最上位のプロジェクター200Aに出力する。
従って、最上位のプロジェクター200Aにおいて音声の出力タイミングの設定に必要なプロジェクター200B、200Cの遅延情報を、プロジェクター200Aに入力させることができる。
従って、最上位のプロジェクター200Aにおいて音声の出力タイミングの設定に必要なプロジェクター200B、200Cの遅延情報を、プロジェクター200Aに入力させることができる。
また、接続順において最下位に位置するプロジェクター200Dが音声信号に基づく音声を出力するタイミングに対応して、最下位に位置するプロジェクター200D以外のプロジェクター200A〜200Cが音声を出力する。
従って、最下位に位置するプロジェクター200D以外のプロジェクター200A〜200Cが音声を出力するタイミングを、最下位に位置するプロジェクター200Dが音声を出力するタイミングに合わせることができる。
従って、最下位に位置するプロジェクター200D以外のプロジェクター200A〜200Cが音声を出力するタイミングを、最下位に位置するプロジェクター200Dが音声を出力するタイミングに合わせることができる。
また、隣接するプロジェクター200は、投射部210により投射する画像がスクリーンSCにおいて結合するよう配置される。隣接するプロジェクター200は、プロジェクター200A及び200Bと、プロジェクター200B及び200Cと、プロジェクター200C及び200Dとである。
従って、隣接するプロジェクター200が投射する画像をスクリーンSCにおいて結合させることができる。
従って、隣接するプロジェクター200が投射する画像をスクリーンSCにおいて結合させることができる。
また、所定の接続順に従って接続される複数のプロジェクター200により投射される画像がスクリーンSCにおいて結合される。
従って、複数のプロジェクター200が投射する画像をスクリーンSCにおいて結合させることができる。
従って、複数のプロジェクター200が投射する画像をスクリーンSCにおいて結合させることができる。
[第2実施形態]
次に、添付図面を参照して本発明の第2実施形態について説明する。本実施形態は、上述した第1実施形態と同様に、4台のプロジェクター200A、200B、200C及び200Dを横一列に接続した構成である。また、各プロジェクター200の構成は、図3に示すプロジェクター200Aの構成と同一である。このため、各プロジェクター200の構成についての説明は省略する。
次に、添付図面を参照して本発明の第2実施形態について説明する。本実施形態は、上述した第1実施形態と同様に、4台のプロジェクター200A、200B、200C及び200Dを横一列に接続した構成である。また、各プロジェクター200の構成は、図3に示すプロジェクター200Aの構成と同一である。このため、各プロジェクター200の構成についての説明は省略する。
第2実施形態のプロジェクションシステム1は、図4に示すシーケンス図のステップS1〜S8までの処理を行い、ステップS9〜S16までの処理は行わない。
各プロジェクター200は、上位の装置から受信した配置情報に基づいて、プロジェクションシステム1の接続形態や、自身の接続形態での位置等を判定する。
各プロジェクター200は、上位の装置から受信した配置情報に基づいて、プロジェクションシステム1の接続形態や、自身の接続形態での位置等を判定する。
図6は、プロジェクター200の記憶部270が記憶するテーブルの構成を示す図である。
各プロジェクター200の記憶部270は、接続形態や、プロジェクター200の接続台数、画像処理モード(動作モード)、位置ごとに、遅延時間を登録したテーブルを記憶している。このテーブルに登録された遅延時間は、製品の出荷前に事前に作成したものであってもよいし、ユーザーが上述した第1実施形態の手順を行って、遅延時間をプロジェクター200に登録してもよい。
動作モードは、プロジェクター200の画像処理部260が実行する画像処理の組み合わせを動作モードとして登録したものである。例えば、形状補正処理と色調補正処理とを第1動作モードとし、解像度変換処理とデジタルズーム処理とを第2動作モードとしてもよい。これら複数の画像処理を組み合わせて実行した場合の遅延時間がテーブルに登録される。
各プロジェクター200の記憶部270は、接続形態や、プロジェクター200の接続台数、画像処理モード(動作モード)、位置ごとに、遅延時間を登録したテーブルを記憶している。このテーブルに登録された遅延時間は、製品の出荷前に事前に作成したものであってもよいし、ユーザーが上述した第1実施形態の手順を行って、遅延時間をプロジェクター200に登録してもよい。
動作モードは、プロジェクター200の画像処理部260が実行する画像処理の組み合わせを動作モードとして登録したものである。例えば、形状補正処理と色調補正処理とを第1動作モードとし、解像度変換処理とデジタルズーム処理とを第2動作モードとしてもよい。これら複数の画像処理を組み合わせて実行した場合の遅延時間がテーブルに登録される。
遅延検出部283は、プロジェクションシステム1の接続形態や、自身の接続形態での位置等を判定すると、テーブルを参照して、判定した接続形態や位置、画像処理部260の動作モードに対応した遅延時間の情報を取得する。遅延検出部283は、本発明の「制御部」に相当する。
遅延検出部283は、画像供給装置100からHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、テーブルから取得した遅延時間だけ遅延させる。
従って、接続順、及び画像処理部260の動作モードに対応した遅延時間で、スピーカー243に音声を出力させることができる。
遅延検出部283は、画像供給装置100からHDMI信号を受信すると、受信したHDMI信号から取り出した画像や音声の再生開始タイミングを、テーブルから取得した遅延時間だけ遅延させる。
従って、接続順、及び画像処理部260の動作モードに対応した遅延時間で、スピーカー243に音声を出力させることができる。
なお、上述した実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。
例えば、画像供給装置100及びプロジェクター200が備えるインターフェイスとして、ディスプレイポート規格に準拠したインターフェイスを用い、ケーブルとしてディスプレイポートケーブルを用いることもできる。また、上述の画像供給装置100及びプロジェクター200が備えるインターフェイスとして、USB−TypeC規格に準拠したインターフェイスを用い、ケーブルとしてUSB−TypeCの規格に準拠したケーブルを用いることもできる。
例えば、画像供給装置100及びプロジェクター200が備えるインターフェイスとして、ディスプレイポート規格に準拠したインターフェイスを用い、ケーブルとしてディスプレイポートケーブルを用いることもできる。また、上述の画像供給装置100及びプロジェクター200が備えるインターフェイスとして、USB−TypeC規格に準拠したインターフェイスを用い、ケーブルとしてUSB−TypeCの規格に準拠したケーブルを用いることもできる。
また、上述の実施形態では、光変調装置212Aが液晶パネル215Aを備える構成を例示した。液晶パネル215Aは、透過型の液晶パネルであってもよいし、反射型の液晶パネルであってもよい。また、光変調装置212Aは、液晶パネル215Aに代えて、デジタルミラーデバイス(DMD)を用いた構成であってもよい。また、デジタルミラーデバイスとカラーホイールを組み合わせた構成としてもよい。また、光変調装置212Aは、液晶パネル及びDMD以外に、光源が発した光を変調可能な構成を採用しても良い。
また、図3に示したプロジェクター200Aの各機能部は、機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクターの他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、図5に示すフローチャートの処理単位は、プロジェクター200Aの処理を理解容易にするために、主な処理内容に応じて分割したものである。図5のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部280Aの処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、プロジェクションシステム1において、プロジェクター200Aに対し、プロジェクター200B〜200Dは、外部プロジェクターに相当する。同様に、プロジェクター200Bに対し、プロジェクター200A、200C、200Dは、外部プロジェクターに相当する。同様に、プロジェクター200Cに対し、プロジェクター200A、200B、200Dは、外部プロジェクターに相当する。同様に、プロジェクター200Dに対し、プロジェクター200A〜200Cは、外部プロジェクターに相当する。
1…プロジェクションシステム、5…リモコン、10A〜10D…投射領域、11〜13…重畳領域、21〜25…HDMIケーブル、100…画像供給装置、110…制御部、120…再生部、130…記録媒体、140…HDMII/F部、200…プロジェクター、200A〜200D…プロジェクター、210…投射部、211A…光源部、212A…光変調装置、213A…投射光学系、215A…液晶パネル、221A…光源駆動部、222A…光変調装置駆動部、231A…操作パネル、233A…入力処理部、235A…リモコン受光部、240A〜240D…音声処理部(音声出力部)、243…スピーカー(音声出力部)、247A…無線通信部、250A〜250D…HDMII/F部、252A〜252D…HDMI受信部(入力部)、254A…HDMI受信部、256A〜256D…HDMI送信部(信号出力部)、260A〜260D…画像処理部、265A…フレームメモリー、270A〜270D…記憶部、280A〜280D…制御部、281A〜281D…投射制御部、282A〜282D…表示制御部、283A〜283D…遅延検出部(音声出力制御部)、284A〜283D…通信制御部(遅延情報出力部)、290A…内部バス、D1〜D3…遅延時間、SC…スクリーン。
Claims (14)
- 複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムであって、
前記プロジェクターは、
画像信号及び音声信号が入力される入力部と、
前記入力部に入力される画像信号に基づき画像を投射する投射部と、
前記入力部に入力される音声信号に基づき音声を出力する音声出力部と、
前記入力部に入力される前記画像信号及び前記音声信号を、接続順において下位の前記プロジェクターに出力する信号出力部と、
前記プロジェクターにおける遅延を示す遅延情報を他の前記プロジェクターに出力する遅延情報出力部と、を備え、
前記デイジーチェーンを構成するいずれかの前記プロジェクターにおける遅延に対応するタイミングで、いずれか1以上の他の前記プロジェクターが、前記音声出力部により前記音声信号に基づく音声を出力するプロジェクションシステム。 - 複数のプロジェクターをデイジーチェーン接続したプロジェクションシステムであって、
前記プロジェクターは、
画像信号及び音声信号が入力される入力部と、
前記入力部に入力される画像信号に基づき画像を投射する投射部と、
前記入力部に入力される音声信号に基づき音声を出力する音声出力部と、
前記入力部に入力される前記画像信号及び前記音声信号を、接続順において下位の前記プロジェクターに出力する信号出力部と、
前記プロジェクターにおける遅延を示す遅延情報を他の前記プロジェクターに出力する遅延情報出力部と、を備え、
各々の前記プロジェクターは、各々の前記プロジェクターに前記画像信号が入力されるタイミングと、接続順において最下位に位置する前記プロジェクターに前記画像信号が入力されるタイミングとの時間差に対応して、前記音声出力部により前記音声信号に基づく音声を出力するプロジェクションシステム。 - 前記プロジェクターは、前記入力部に入力される前記画像信号に対し画像処理を実行する画像処理部を備え、
前記遅延情報出力部は、前記入力部に入力される前記画像信号に対し前記画像処理部で実行する処理に要する時間を反映した前記遅延情報を出力する請求項1又は2記載のプロジェクションシステム。 - 前記遅延情報出力部は、前記画像信号が前記入力部に入力されてから前記信号出力部により出力されるまでの時間を示す前記遅延情報を出力する請求項1から3のいずれか1項に記載のプロジェクションシステム。
- 前記プロジェクターは、前記画像信号が前記入力部に入力されてから前記信号出力部により出力されるまでの遅延時間を検出する遅延検出部を備え、
前記遅延情報出力部は、前記遅延検出部により検出した前記遅延時間を示す前記遅延情報を出力する請求項4記載のプロジェクションシステム。 - いずれかの前記プロジェクターは、接続順において上位の前記プロジェクターが出力した前記遅延情報が示す時間に、前記画像信号が前記入力部に入力されてから前記信号出力部により出力されるまでの間の時間を加えた時間を示す前記遅延情報を、前記遅延情報出力部により出力する請求項4又は5に記載のプロジェクションシステム。
- いずれかの前記プロジェクターは、前記遅延情報出力部により、接続順において最上位の前記プロジェクターに前記遅延情報を出力する請求項6記載のプロジェクションシステム。
- いずれかの前記プロジェクターは、接続順において最上位及び最下位の前記プロジェクターを除く前記プロジェクターのそれぞれにおける前記遅延情報を、接続順において最上位の前記プロジェクターに出力する請求項7記載のプロジェクションシステム。
- 前記プロジェクターは、前記入力部に入力される前記画像信号に対し画像処理を実行する画像処理部を備え、
前記プロジェクターは、前記画像処理部における処理内容が異なる複数の動作モードを切り替えて実行可能に構成され、
前記プロジェクターは、接続順ごと、及び複数の前記動作モードごとの遅延時間を登録したテーブルを記憶した記憶部と、
前記接続順、及び前記画像処理部の動作モードに対応した遅延時間で、前記入力部に入力される音声信号に基づく音声を前記音声出力部に出力させる制御部と、
を備えることを特徴とする請求項1又は2記載のプロジェクションシステム。 - 接続順において最下位に位置する前記プロジェクターが前記音声信号に基づく音声を出力するタイミングに対応して、最下位に位置する前記プロジェクター以外の前記プロジェクターが音声を出力する請求項1から9のいずれか1項に記載のプロジェクションシステム。
- 隣接する前記プロジェクターは、前記投射部により投射する画像が投射面において結合するよう配置される請求項1から10のいずれか1項に記載のプロジェクションシステム。
- 所定の接続順に従って接続される複数の前記プロジェクターにより投射される画像が投射面において結合される請求項1から11のいずれか1項に記載のプロジェクションシステム。
- 画像を投射する投射部を備えるプロジェクターであって、
音声信号が入力される入力部と、
前記入力部に入力される音声信号に基づき音声を出力する音声出力部と、
前記入力部に入力される前記音声信号を、外部プロジェクターに出力する信号出力部と、
前記プロジェクターにおける遅延を示す遅延情報を前記外部プロジェクターに出力する遅延情報出力部と、
前記遅延情報に基づいて、前記音声出力部及び前記外部プロジェクターにより前記音声信号に基づき音声を出力するタイミングを決定する音声出力制御部と、
を備えるプロジェクター。 - それぞれ画像を投射する複数のプロジェクターをデイジーチェーン接続して構成されるプロジェクションシステムの制御方法であって、
前記デイジーチェーンを構成する前記プロジェクターのいずれかから、接続順において下位に位置する前記プロジェクターに音声信号を伝送し、
いずれかの前記プロジェクターにおける遅延を示す遅延情報を、接続順において、より下位に位置する前記プロジェクターに出力し、
いずれかの前記プロジェクターにおける遅延に対応するタイミングで、いずれか1以上の他の前記プロジェクターにより前記音声信号に基づく音声を出力するプロジェクションシステムの制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119376A JP2019004401A (ja) | 2017-06-19 | 2017-06-19 | プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法 |
US15/996,885 US20180367768A1 (en) | 2017-06-19 | 2018-06-04 | Projection system, projector, and method for controlling projection system |
CN201810629373.3A CN109151414A (zh) | 2017-06-19 | 2018-06-19 | 投影系统、投影仪以及投影系统的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119376A JP2019004401A (ja) | 2017-06-19 | 2017-06-19 | プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019004401A true JP2019004401A (ja) | 2019-01-10 |
Family
ID=64657833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017119376A Pending JP2019004401A (ja) | 2017-06-19 | 2017-06-19 | プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180367768A1 (ja) |
JP (1) | JP2019004401A (ja) |
CN (1) | CN109151414A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096344A (ja) * | 2019-12-17 | 2021-06-24 | エルジー ディスプレイ カンパニー リミテッド | 表示システム、伝送装置及び中継装置 |
WO2025121742A1 (ko) * | 2023-12-07 | 2025-06-12 | 삼성전자주식회사 | 프로젝터 및 그 제어 방법 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106999788A (zh) | 2014-11-30 | 2017-08-01 | 杜比实验室特许公司 | 社交媒体链接的大幅面剧院设计 |
US9551161B2 (en) * | 2014-11-30 | 2017-01-24 | Dolby Laboratories Licensing Corporation | Theater entrance |
EP3629340A1 (de) * | 2018-09-28 | 2020-04-01 | Siemens Healthcare GmbH | Medizinische bildgebungsvorrichtung mit einer medizinischen scannereinheit und zumindest einem display sowie ein verfahren zu einem ansteuern zumindest eines displays einer medizinischen bildgebungsvorrichtung |
JP7103387B2 (ja) | 2020-06-16 | 2022-07-20 | セイコーエプソン株式会社 | 画像投射システムの調整要否判定方法、画像投射システム、及び画像投射制御装置 |
JP7200978B2 (ja) * | 2020-06-23 | 2023-01-10 | セイコーエプソン株式会社 | 画像投射システムの調整要否判定方法、画像投射システム、及び画像投射制御装置 |
CN112261318A (zh) * | 2020-09-14 | 2021-01-22 | 西安万像电子科技有限公司 | 一种多分屏视频同步方法及装置 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282215A (ja) * | 2000-03-28 | 2001-10-12 | Nec Viewtechnology Ltd | 映像表示システムの表示制御方法及び映像表示システム |
JP2002055669A (ja) * | 2000-08-11 | 2002-02-20 | Nec Viewtechnology Ltd | 連結表示装置、及び、連結表示方法 |
JP2002290932A (ja) * | 2001-03-27 | 2002-10-04 | Toshiba Corp | デジタル放送受信装置とその制御方法 |
FR2837056B1 (fr) * | 2002-03-07 | 2004-09-17 | France Telecom | Procede et systeme d'uniformisation du rendu colorimetrique d'une juxtaposition de surfaces d'affichage |
US20030179317A1 (en) * | 2002-03-21 | 2003-09-25 | Sigworth Dwight L. | Personal audio-synchronizing device |
US7483031B2 (en) * | 2003-04-17 | 2009-01-27 | Nvidia Corporation | Method for synchronizing graphics processing units |
US9432555B2 (en) * | 2003-05-16 | 2016-08-30 | J. Carl Cooper | System and method for AV sync correction by remote sensing |
JP4427733B2 (ja) * | 2004-07-16 | 2010-03-10 | ソニー株式会社 | 映像音声処理システム、アンプ装置および音声遅延処置方法 |
EP1657929A1 (fr) * | 2004-11-16 | 2006-05-17 | Thomson Licensing | Dispositif et méthode de synchronisation de différentes parties d'un service numérique |
JP4660184B2 (ja) * | 2004-12-27 | 2011-03-30 | 株式会社東芝 | 信号中継装置及び信号中継方法 |
US20060209210A1 (en) * | 2005-03-18 | 2006-09-21 | Ati Technologies Inc. | Automatic audio and video synchronization |
JP4912296B2 (ja) * | 2005-04-28 | 2012-04-11 | パナソニック株式会社 | リップシンク補正システム、リップシンク補正装置及びリップシンク補正方法 |
US7636126B2 (en) * | 2005-06-22 | 2009-12-22 | Sony Computer Entertainment Inc. | Delay matching in audio/video systems |
US7970222B2 (en) * | 2005-10-26 | 2011-06-28 | Hewlett-Packard Development Company, L.P. | Determining a delay |
JP4575324B2 (ja) * | 2006-03-29 | 2010-11-04 | 株式会社東芝 | Av装置及びその制御方法 |
JP4544190B2 (ja) * | 2006-03-31 | 2010-09-15 | ソニー株式会社 | 映像音声処理システム、映像処理装置、音声処理装置、映像音声の出力装置および映像と音声の同期処理方法 |
JP5049652B2 (ja) * | 2006-09-07 | 2012-10-17 | キヤノン株式会社 | 通信システム、データの再生制御方法、コントローラ、コントローラの制御方法、アダプタ、アダプタの制御方法、およびプログラム |
WO2008056709A1 (en) * | 2006-11-07 | 2008-05-15 | Sony Corporation | Receiver, delayed information transmitting method for receivers, audio output device, and delay control method for audio output devices |
JP4360400B2 (ja) * | 2006-12-05 | 2009-11-11 | セイコーエプソン株式会社 | コンテンツ再生システムおよびこれに用いられる再生装置、並びにコンテンツ再生方法 |
US7953118B2 (en) * | 2006-12-08 | 2011-05-31 | Microsoft Corporation | Synchronizing media streams across multiple devices |
JP4933311B2 (ja) * | 2007-03-07 | 2012-05-16 | キヤノン株式会社 | 外部機器から入力されたストリーミングデータをofdm変調して送信する送信装置およびその制御方法 |
US8320410B2 (en) * | 2007-05-23 | 2012-11-27 | Broadcom Corporation | Synchronization of media data streams with separate sinks using a relay |
US8102836B2 (en) * | 2007-05-23 | 2012-01-24 | Broadcom Corporation | Synchronization of a split audio, video, or other data stream with separate sinks |
JP4958748B2 (ja) * | 2007-11-27 | 2012-06-20 | キヤノン株式会社 | 音声処理装置、映像処理装置及びそれらの制御方法 |
JP4516156B2 (ja) * | 2008-02-06 | 2010-08-04 | パナソニック株式会社 | 映像音声データ同期方法、映像出力機器、音声出力機器及び映像音声出力システム |
WO2010077564A1 (en) * | 2008-12-08 | 2010-07-08 | Analog Devices Inc. | Multimedia switching over wired or wireless connections in a distributed environment |
US8692937B2 (en) * | 2010-02-25 | 2014-04-08 | Silicon Image, Inc. | Video frame synchronization |
US8963802B2 (en) * | 2010-03-26 | 2015-02-24 | Seiko Epson Corporation | Projector, projector system, data output method of projector, and data output method of projector system |
US20120050456A1 (en) * | 2010-08-27 | 2012-03-01 | Cisco Technology, Inc. | System and method for producing a performance via video conferencing in a network environment |
JP2012119924A (ja) * | 2010-11-30 | 2012-06-21 | Toshiba Corp | 映像表示装置及び映像表示方法、音声再生装置及び音声再生方法、映像音声同期制御システム |
US9479866B2 (en) * | 2011-11-14 | 2016-10-25 | Analog Devices, Inc. | Microphone array with daisy-chain summation |
WO2013086027A1 (en) * | 2011-12-06 | 2013-06-13 | Doug Carson & Associates, Inc. | Audio-video frame synchronization in a multimedia stream |
EP2864866A2 (en) * | 2012-06-22 | 2015-04-29 | Universität des Saarlandes | Method and system for displaying pixels on display devices |
US9078028B2 (en) * | 2012-10-04 | 2015-07-07 | Ati Technologies Ulc | Method and device for creating and maintaining synchronization between video signals |
US9361060B2 (en) * | 2013-02-08 | 2016-06-07 | Samsung Electronics Co., Ltd. | Distributed rendering synchronization control for display clustering |
US8913189B1 (en) * | 2013-03-08 | 2014-12-16 | Amazon Technologies, Inc. | Audio and video processing associated with visual events |
US9179111B2 (en) * | 2013-04-26 | 2015-11-03 | Event Show Productions, Inc. | Portable handheld video monitors adapted for use in theatrical performances |
JP6429291B2 (ja) * | 2014-06-30 | 2018-11-28 | Necディスプレイソリューションズ株式会社 | 表示装置、表示方法、及び表示プログラム |
US10523891B2 (en) * | 2015-08-21 | 2019-12-31 | Sony Corporation | Projection system and apparatus unit to implement new use form of projector |
-
2017
- 2017-06-19 JP JP2017119376A patent/JP2019004401A/ja active Pending
-
2018
- 2018-06-04 US US15/996,885 patent/US20180367768A1/en not_active Abandoned
- 2018-06-19 CN CN201810629373.3A patent/CN109151414A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096344A (ja) * | 2019-12-17 | 2021-06-24 | エルジー ディスプレイ カンパニー リミテッド | 表示システム、伝送装置及び中継装置 |
JP7477965B2 (ja) | 2019-12-17 | 2024-05-02 | エルジー ディスプレイ カンパニー リミテッド | 表示システム、伝送装置及び中継装置 |
WO2025121742A1 (ko) * | 2023-12-07 | 2025-06-12 | 삼성전자주식회사 | 프로젝터 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN109151414A (zh) | 2019-01-04 |
US20180367768A1 (en) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019004401A (ja) | プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法 | |
CN107864367B (zh) | 投影系统和投影系统的控制方法 | |
US11093205B2 (en) | Display device included in a plurality of display devices daisy-chained via connectors, display system, and control method thereof | |
JP2011090038A (ja) | 投写型映像表示装置 | |
JP7081200B2 (ja) | 画像表示装置、及び画像表示装置の制御方法 | |
US20180018941A1 (en) | Display device, display control method, and display system | |
JP2004086277A (ja) | 情報処理装置、プロジェクタシステム及びプログラム | |
JP7331465B2 (ja) | 表示装置の制御方法、及び表示装置 | |
JP2019101080A (ja) | 表示システム、表示装置、画像処理装置、及び表示方法 | |
JP6635748B2 (ja) | 表示装置、表示装置の制御方法及びプログラム | |
JP2015053558A (ja) | 画像表示装置及びその制御方法 | |
JP3820891B2 (ja) | 画像表示装置 | |
JP7259341B2 (ja) | 投射装置、投射システム、及び投射装置の制御方法 | |
JP2018180105A (ja) | 投影装置及び画像投影方法 | |
JP2017228884A (ja) | 画像処理装置、表示装置、及び、画像処理装置の制御方法 | |
JP2020101655A (ja) | 表示システム、表示システムの制御方法及び表示装置 | |
JP7342820B2 (ja) | 表示装置の制御方法、及び、表示装置 | |
JP2017040734A (ja) | 表示装置、表示方法及び表示システム | |
JP2019129471A (ja) | 映像表示装置および表示制御方法 | |
JP2019028208A (ja) | プロジェクター、プロジェクターの制御方法および表示システム | |
JP2008170855A (ja) | プロジェクションシステム、プロジェクタ、音声再生装置、および音声再生方法 | |
JP2019012927A (ja) | 映像表示装置 | |
JP2017032879A (ja) | 液晶表示装置 | |
JP2023027872A (ja) | 画像処理方法、及び、画像処理回路 | |
JP2014130182A (ja) | 表示装置 |