JP2015166893A - 位置検出装置、及び、位置検出装置の制御方法 - Google Patents
位置検出装置、及び、位置検出装置の制御方法 Download PDFInfo
- Publication number
- JP2015166893A JP2015166893A JP2014040544A JP2014040544A JP2015166893A JP 2015166893 A JP2015166893 A JP 2015166893A JP 2014040544 A JP2014040544 A JP 2014040544A JP 2014040544 A JP2014040544 A JP 2014040544A JP 2015166893 A JP2015166893 A JP 2015166893A
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- image
- unit
- control unit
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 94
- 238000000034 method Methods 0.000 title claims description 32
- 238000003384 imaging method Methods 0.000 claims description 72
- 238000012545 processing Methods 0.000 description 43
- 230000008569 process Effects 0.000 description 22
- 230000005540 biological transmission Effects 0.000 description 19
- 239000004973 liquid crystal related substance Substances 0.000 description 16
- 238000012937 correction Methods 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008030 elimination Effects 0.000 description 4
- 238000003379 elimination reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】位置検出を行うためのキャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因の解消を支援する。【解決手段】プロジェクター10は、指示体70による操作位置を検出する位置検出部50と、位置検出部50による操作位置の検出に関するキャリブレーションを行うキャリブレーション制御部39と、を備える。キャリブレーション制御部39は、キャリブレーションの実行時または実行後に正否を判定し、キャリブレーションが正常に完了しなかった場合にキャリブレーションの実行に係る関連情報を出力する。【選択図】図2
Description
本発明は、位置検出装置、及び、位置検出装置の制御方法に関する。
従来、入力操作がされた場合に操作位置を検出する装置において、操作された位置を正確に検出するため、キャリブレーションを行うものが知られている(例えば、特許文献1参照)。特許文献1記載の装置は、操作面に表示した画像を撮影することにより、オートキャリブレーションを行う。
ところで、キャリブレーションを行う状況によって、キャリブレーションが失敗することがある。例えば、特許文献1記載の装置では、所定のパターンを投射して撮影を行い、撮影画像からパターンを検出してキャリブレーションを行う。このため、外光の影響等により撮影画像からパターンを認識できないと、キャリブレーションを正常に完了できないことがある。この場合、位置検出に利用できる完全なデータが得られないので、キャリブレーションの障害になった外光等の要因を解消して、キャリブレーションをやり直すことが望ましい。
本発明は、上述した事情に鑑みてなされたものであり、位置検出を行うためのキャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因の解消を支援することを目的とする。
本発明は、上述した事情に鑑みてなされたものであり、位置検出を行うためのキャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因の解消を支援することを目的とする。
上記目的を達成するために、本発明の位置検出装置は、指示体による操作位置を検出する検出部と、前記検出部による操作位置の検出に関するキャリブレーションを行うキャリブレーション制御部と、を備え、前記キャリブレーション制御部は、キャリブレーションの実行時または実行後に正否を判定し、キャリブレーションが正常に完了しなかった場合に前記キャリブレーションの実行に係る関連情報を出力すること、を特徴とする。
本発明によれば、キャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因を推定するために役立つ関連情報を提供し、要因の解消を促すことができる。
本発明によれば、キャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因を推定するために役立つ関連情報を提供し、要因の解消を促すことができる。
また、本発明は、上記位置検出装置において、前記指示体の操作対象領域に画像を表示する表示部を備え、前記キャリブレーション制御部は、キャリブレーションが正常に完了しなかった場合に、前記表示部により前記関連情報を表示させること、を特徴とする。
本発明によれば、キャリブレーションを阻害した要因を推定するために役立つ関連情報を、表示によってわかりやすく提供できる。
本発明によれば、キャリブレーションを阻害した要因を推定するために役立つ関連情報を、表示によってわかりやすく提供できる。
また、本発明は、上記位置検出装置において、前記操作対象領域を撮影して撮影画像を出力する撮像部を備え、前記キャリブレーション制御部は、前記表示部によりキャリブレーション用の画像を前記操作対象領域に表示させて前記撮像部に撮影させ、撮影画像に基づいてキャリブレーションを行うこと、を特徴とする。
本発明によれば、周辺環境の影響を受けやすい撮影画像に基づくキャリブレーションを行い、正常に完了しなかった場合に、関連情報を提供するので、より速やかに阻害要因を解消できる。
本発明によれば、周辺環境の影響を受けやすい撮影画像に基づくキャリブレーションを行い、正常に完了しなかった場合に、関連情報を提供するので、より速やかに阻害要因を解消できる。
また、本発明は、上記位置検出装置において、前記キャリブレーション制御部は、前記関連情報として正常に完了しなかったキャリブレーションの実行条件を、前記表示部により表示させること、を特徴とする。
本発明によれば、キャリブレーションが正常に完了しなかった場合に実行条件を表示することで、より効果的に、キャリブレーションを阻害した要因を推定し、解消を図ることができる。
本発明によれば、キャリブレーションが正常に完了しなかった場合に実行条件を表示することで、より効果的に、キャリブレーションを阻害した要因を推定し、解消を図ることができる。
また、本発明は、上記位置検出装置において、前記キャリブレーション制御部は、複数の前記関連情報をひとまとまりのコードとして前記表示部により表示させること、を特徴とする。
本発明によれば、関連情報をコードとして表示することにより、複数の項目に関する情報を速やかに提供できる。
本発明によれば、関連情報をコードとして表示することにより、複数の項目に関する情報を速やかに提供できる。
また、本発明は、上記位置検出装置において、前記表示部によって前記操作対象領域に画像を投射するプロジェクターであってもよい。
また、本発明は、上記位置検出装置において、前記キャリブレーション制御部は、実行条件が異なる複数のキャリブレーションを実行し、いずれかのキャリブレーションが正常に完了した場合には前記関連情報を出力しない構成としてもよい。
また、本発明は、上記位置検出装置において、前記キャリブレーション制御部は、実行条件が異なる複数のキャリブレーションを実行し、いずれかのキャリブレーションが正常に完了した場合には前記関連情報を出力しない構成としてもよい。
また、上記目的を達成するために、本発明は、指示体による操作位置を検出する位置検出装置の制御方法であって、前記操作位置の検出に関するキャリブレーションを行い、キャリブレーションの実行時または実行後に正否を判定し、キャリブレーションが正常に完了しなかった場合に前記キャリブレーションの実行に係る関連情報を出力すること、を特徴とする。
本発明によれば、キャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因を推定するために役立つ関連情報を提供し、要因の解消を促すことができる。
本発明によれば、キャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因を推定するために役立つ関連情報を提供し、要因の解消を促すことができる。
本発明によれば、キャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因を推定するために役立つ関連情報を提供し、要因の解消を促すことができる。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面、操作面)の前方に設置されたプロジェクター10(位置検出装置)を備え、指示体70の操作を検出する。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面、操作面)の前方に設置されたプロジェクター10(位置検出装置)を備え、指示体70の操作を検出する。
プロジェクター10はスクリーンSCの前方に設置され、スクリーンSCの前側から画像を投射する前面投射を行う。プロジェクター10が、スクリーンSCの斜め上方や斜め下方から投射を行う構成とすることも勿論可能である。
本実施形態で例示するスクリーンSCは、壁面に固定され、或いは床面に立設された、平板または幕である。本発明はこの例に限定されず、壁面をスクリーンSCとして使用することも可能であり、平面を持たない立体物に画像を投射してもよい。
本実施形態で例示するスクリーンSCは、壁面に固定され、或いは床面に立設された、平板または幕である。本発明はこの例に限定されず、壁面をスクリーンSCとして使用することも可能であり、平面を持たない立体物に画像を投射してもよい。
プロジェクター10は、PC(パーソナルコンピューター)、ビデオ再生装置、DVD再生装置等の外部の画像供給装置に接続され、この画像供給装置から供給されるアナログ画像信号またはデジタル画像データに基づき、スクリーンSCに画像を投射する。図1には、画像供給装置としてPC2が接続された構成を例示する。
また、プロジェクター10は、内蔵する記憶部110(図2)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示する構成としてもよい。
また、プロジェクター10は、内蔵する記憶部110(図2)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示する構成としてもよい。
プロジェクションシステム1は、指示体70によって指示操作が行われた場合に、指示操作された位置、すなわち操作位置をプロジェクター10によって検出する。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する光に基づき、先端部71の位置を、操作位置として検出する。指示体70が発する光は可視領域外の波長であることが好ましく、本実施形態では赤外光とする。
プロジェクター10が指示体70の操作を検出する範囲(領域)は、後述する撮像部51の撮像範囲であり、本実施形態では、スクリーンSC上でプロジェクター10が画像を投射する範囲に相当する。従って、スクリーンSCが操作面に相当し、スクリーンSCにおいてプロジェクター10が画像を投射する投射範囲10aが操作対象領域に相当する。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する光に基づき、先端部71の位置を、操作位置として検出する。指示体70が発する光は可視領域外の波長であることが好ましく、本実施形態では赤外光とする。
プロジェクター10が指示体70の操作を検出する範囲(領域)は、後述する撮像部51の撮像範囲であり、本実施形態では、スクリーンSC上でプロジェクター10が画像を投射する範囲に相当する。従って、スクリーンSCが操作面に相当し、スクリーンSCにおいてプロジェクター10が画像を投射する投射範囲10aが操作対象領域に相当する。
プロジェクションシステム1は、インタラクティブホワイトボードシステムとして機能し、ユーザーが指示体70により行った指示操作を検出して、操作位置を投射画像に反映させる。
具体的には、プロジェクションシステム1は、操作位置に図形を描画したり文字や記号を配置したりする処理、操作位置の軌跡に沿って図形を描画する処理、描画した図形や配置した文字または記号を消去する処理等を行う。また、スクリーンSCに描画された図形、配置された文字または記号を画像データとして保存することもでき、外部の装置に出力することもできる。
さらに、操作位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における操作位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
具体的には、プロジェクションシステム1は、操作位置に図形を描画したり文字や記号を配置したりする処理、操作位置の軌跡に沿って図形を描画する処理、描画した図形や配置した文字または記号を消去する処理等を行う。また、スクリーンSCに描画された図形、配置された文字または記号を画像データとして保存することもでき、外部の装置に出力することもできる。
さらに、操作位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における操作位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
図2は、プロジェクションシステム1を構成する各部の機能ブロック図である。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
I/F部11は、PC等の外部の装置との間で各種データを送受信するインターフェイスである。I/F部11は、画像の投射に関する制御データ、プロジェクター10の動作を設定する設定データ、プロジェクター10が検出した操作位置の座標データ等を入出力する。後述する制御部30は、I/F部11を介して外部の装置とデータを送受信する機能を有する。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
プロジェクター10は、光学的な画像の形成を行う投射部20を備える。投射部20は、光源部21、光変調装置22、および投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、或いはレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクターおよび補助リフレクターを備えていてもよい。さらに、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ導き、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系23は、スクリーンSCの投射画像の拡大・縮小および焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター10が短焦点型である場合、投射光学系23に、画像光をスクリーンSCに向けて反射する凹面鏡を備えていてもよい。
投射部20には、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び、制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46が接続される。光源駆動部45は、光源部21の点灯/消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。
プロジェクター10は、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター10を制御する制御部30、記憶部110、操作検出部17、画像処理部40、光源駆動部45、及び光変調装置駆動部46を含む。
また、画像処理部40にはフレームメモリー44が接続され、制御部30には位置検出部50が接続される。これらを画像処理系に含めてもよい。
また、画像処理部40にはフレームメモリー44が接続され、制御部30には位置検出部50が接続される。これらを画像処理系に含めてもよい。
制御部30は、所定の制御プログラム111を実行することにより、プロジェクター10の各部を制御する。記憶部110は、制御部30が実行する制御プログラム111、および、制御部30が処理するデータを不揮発的に記憶する。記憶部110は、プロジェクター10の動作を設定するための画面の画面データや、この画面データを利用して設定された内容を示す設定データ116を記憶する。
画像処理部40は、制御部30の制御に従って、画像I/F部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
操作検出部17は、入力デバイスとして機能するリモコン受光部18および操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチおよびインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチおよびインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
位置検出部50(検出部)は、指示体70によるスクリーンSCへの操作を検出する。位置検出部50は、撮像部51、送信部52、撮影制御部53、指示体検出部54、および座標算出部55の各部を備えて構成される。
撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。このように、撮像部51は、撮影制御部53の制御により、赤外光を撮影することも、可視光を撮影することもできる。
撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。このように、撮像部51は、撮影制御部53の制御により、赤外光を撮影することも、可視光を撮影することもできる。
撮影制御部53は、撮像部51により撮影を実行させて撮影画像データを生成する。撮像素子が可視光による撮影を行うと、スクリーンSC上に可視光で投射された画像が撮影される。例えば、後述するオートキャリブレーションでは撮像部51が可視光で撮影を行う。
また、撮影制御部53は、上記のように撮像部51により赤外光を撮影させる。この場合の撮影画像には指示体70が発する赤外光(赤外線信号)が写る。
また、撮影制御部53は、上記のように撮像部51により赤外光を撮影させる。この場合の撮影画像には指示体70が発する赤外光(赤外線信号)が写る。
指示体検出部54は、撮影制御部53の制御により撮影された撮影画像データに基づいて指示体70の操作位置を検出する。指示体検出部54は、撮影制御部53が撮像部51によって赤外光の撮影を実行させた場合の撮影画像データから、指示体70が発した赤外光の像を検出する。指示体検出部54は、後述するキャリブレーション制御部39が撮影画像データからマークを検出するための各種の動作を行う。指示体検出部54は、送信部52を制御して指示体70に信号を送信することにより、例えば、指示体70に対して発光タイミングを指示する。この場合、指示体検出部54は、指示体70に指示した発光タイミングに合わせて、撮影制御部53に撮影タイミングを指示する。また、例えば、指示体検出部54は、指示体70に対して、発光パターンを変化させる。これらの動作の詳細は後述する。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70の操作位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70の操作位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70の操作位置の座標や、画像I/F部12の入力画像データにおける指示体70の操作位置の座標を、算出してもよい。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70の操作位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70の操作位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70の操作位置の座標や、画像I/F部12の入力画像データにおける指示体70の操作位置の座標を、算出してもよい。
送信部52は、指示体検出部54の制御に従って、指示体70に対して赤外線信号を送信する。送信部52は、赤外LED等の光源を有し、この光源を指示体検出部54の制御に従って点灯及び消灯させる。
また、指示体70は、制御部73、送受信部74、操作スイッチ75、及び電源部76を備え、これらの各部は軸部72(図1)に収容される。制御部73は、送受信部74及び操作スイッチ75に接続され、操作スイッチ75のオン/オフ状態を検出する。送受信部74は、赤外LED等の光源と、赤外光を受光する受光素子とを備え、制御部73の制御に従って光源を点灯及び消灯させるとともに、受光素子の受光状態を示す信号を制御部73に出力する。
電源部76は、電源として乾電池または二次電池を有し、制御部73、送受信部74、及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
電源部76は、電源として乾電池または二次電池を有し、制御部73、送受信部74、及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
ここで、位置検出部50と指示体70との相互の通信により、撮像部51の撮影画像データから指示体70を特定する方法について説明する。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
指示体70が備える制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンにより、光源の点灯と消灯をデータのオンとオフに対応させて、特定のデータを表すことができる。このデータは指示体70に固有のデータとすることができる。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
指示体70が備える制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンにより、光源の点灯と消灯をデータのオンとオフに対応させて、特定のデータを表すことができる。このデータは指示体70に固有のデータとすることができる。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
位置検出部50の撮影制御部53は、撮像部51による撮影タイミングを、指示体70が点灯するタイミングに合わせる制御を行う。この撮影タイミングは、指示体検出部54が送信部52を点灯させるタイミングに基づいて決定される。指示体検出部54は、撮像部51の撮影画像データに指示体70の光の像が写っているか否かにより、指示体70が点灯するパターンを特定できる。このように、指示体70が所定のパターンに従って点灯し、位置検出部50の撮影タイミングと指示体70の点灯タイミングを制御することにより、指示体70の発光と、位置指示操作とは無関係の赤外光とを区別できる。このため、例えば外光に由来する赤外光やリモコン(図示略)が発する光と、指示体70の発光とを区別して、指示体70の発光のみについて位置検出を行うことができる。
また、指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、または、複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。つまり、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できるようにすることができる。
また、指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、または、複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。つまり、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できるようにすることができる。
さらに、指示体70が備える制御部73は、操作スイッチ75の操作状態に応じて、送受信部74を点灯させるパターンを切り替える。このため、指示体検出部54は、複数の撮影画像データに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
制御部30は、記憶部110に記憶された制御プログラム111を読み出して実行することにより、投射制御部31、検出制御部32、及びキャリブレーション制御部39の機能を実現し、プロジェクター10の各部を制御する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45、及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45、及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
検出制御部32は、位置検出部50を制御して、指示体70の操作位置の検出を実行させ、操作位置の座標を取得する。また、検出制御部32は、操作位置の座標とともに、検出した指示体70を識別するデータ、及び、操作スイッチ75の操作状態を示すデータを取得してもよい。この機能により、例えば、プロジェクションシステム1で複数の指示体70が使用される場合に、各々の指示体70を識別して操作位置を検出できる。これらのデータは座標算出部55から入力される。
検出制御部32は、取得した座標及びデータに基づいて、予め設定された処理を実行する。例えば、画像処理部40によって、取得した座標に基づいて図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。また、検出制御部32は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部32は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部32は、座標のデータとともに、検出した指示体70を識別するデータ、及び、操作スイッチ75の操作状態を示すデータを出力してもよい。
検出制御部32は、取得した座標及びデータに基づいて、予め設定された処理を実行する。例えば、画像処理部40によって、取得した座標に基づいて図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。また、検出制御部32は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部32は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部32は、座標のデータとともに、検出した指示体70を識別するデータ、及び、操作スイッチ75の操作状態を示すデータを出力してもよい。
キャリブレーション制御部39は、指示体70の操作位置を検出して、検出した操作位置を、画像I/F部12の入力画像における座標に変換するためのキャリブレーションを実行する。キャリブレーションは、例えば、フレームメモリー44に描画され投射部20が投射する画像における位置と、撮像部51が撮影する撮影画像データ上の位置とを対応付ける処理である。位置検出部50が撮影画像データから検出する指示体70の操作位置は、撮影画像データにおける位置であり、例えば撮影画像に設定される座標系における座標で示される。ユーザーはスクリーンSCに投射された投射画像を意識して指示体70で指示を行う。従って、プロジェクター10は、スクリーンSC上の投射画像に対する操作位置を特定する必要がある。キャリブレーションによって、撮影画像データで検出された位置の座標を投射画像データ上の座標に変換できる。この対応づけを行うデータをキャリブレーションデータとする。キャリブレーションデータは、撮影制御部53が出力する撮影画像データ上の座標と投射画像上の座標とを対応付けるデータである。具体的には、撮影画像データ上の座標と投射画像上の座標とを1対1で対応付けるテーブルであってもよいし、撮影画像データ上の座標を投射画像上の座標に変換する関数であってもよい。
キャリブレーション制御部39は、指示体70の操作位置に関するキャリブレーションとして、オートキャリブレーションとマニュアルキャリブレーションとを実行できる。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射し、スクリーンSCを撮像部51で撮影して、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能であり、ユーザーによる指示体70の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射し、スクリーンSCを撮像部51で撮影して、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能であり、ユーザーによる指示体70の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
図3は、オートキャリブレーション画像121(キャリブレーション用画像)の一例を示す。図3(A)は5×5のオートキャリブレーション画像の例であり、図3(B)は4×4のオートキャリブレーション画像の例である。
オートキャリブレーション画像121には、複数のマーク(シンボル)が所定の間隔で配置されている。キャリブレーション画像中のマークは、撮影画像データから検出可能な図形や記号であり、その形状やサイズは特に限定されない。
図3(A)に示す「5×5」のオートキャリブレーション画像121は、縦5行×横5列に配列された25個のマークが配置された画像である。図3(A)のオートキャリブレーション画像121に配置されるマークは、黒背景の上に白で表示されるチェックパターンである。オートキャリブレーション画像121のマークは、複数のドット(画素)で構成されることが好ましい。この場合、各マークを構成する複数のドットの重心の座標が、各マークの座標として処理される。
また、図5(B)に示す「4×4」のオートキャリブレーション画像121は、縦4行×横4列に配列された16個のマークが配置された画像である。図3(B)のオートキャリブレーション画像121に配置されるマークは、図3(A)と同様、黒背景の上に白で表示されるチェックパターンであり、各マークを構成する複数のドットの重心の座標が、各マークの座標として処理される。
オートキャリブレーション画像121には、複数のマーク(シンボル)が所定の間隔で配置されている。キャリブレーション画像中のマークは、撮影画像データから検出可能な図形や記号であり、その形状やサイズは特に限定されない。
図3(A)に示す「5×5」のオートキャリブレーション画像121は、縦5行×横5列に配列された25個のマークが配置された画像である。図3(A)のオートキャリブレーション画像121に配置されるマークは、黒背景の上に白で表示されるチェックパターンである。オートキャリブレーション画像121のマークは、複数のドット(画素)で構成されることが好ましい。この場合、各マークを構成する複数のドットの重心の座標が、各マークの座標として処理される。
また、図5(B)に示す「4×4」のオートキャリブレーション画像121は、縦4行×横4列に配列された16個のマークが配置された画像である。図3(B)のオートキャリブレーション画像121に配置されるマークは、図3(A)と同様、黒背景の上に白で表示されるチェックパターンであり、各マークを構成する複数のドットの重心の座標が、各マークの座標として処理される。
キャリブレーション制御部39は、投射制御部31の機能により、記憶部110に記憶されたオートキャリブレーション画像121に基づいて、画像処理部40及び投射部20を動作させて、オートキャリブレーション画像121をスクリーンSCに投射させる。キャリブレーション制御部39は、位置検出部50を制御して撮像部51に撮影を実行させ、撮影画像データを取得する。この撮影画像データは、撮影制御部53から、図示しないメモリーに一時的に記憶され、制御部30に出力される。キャリブレーション制御部39は、撮影画像データからマークを検出し、各マークの重心位置をマークの座標値として取得する。キャリブレーション制御部39は、撮影画像データから検出されたマークと、フレームメモリー44に描画された投射画像、すなわちオートキャリブレーション画像121のマークとを対応付ける。
キャリブレーション制御部39は、撮影画像におけるマークの座標値と、投射画像におけるマークの座標値とを対応付けることにより、テーブル形式または関数形式のオートキャリブレーションデータ123を作成する。オートキャリブレーション画像121のマークの投射画像における座標値は、予めオートキャリブレーション画像121とともに、或いはオートキャリブレーション画像121に含まれて記憶部110に記憶されている。キャリブレーション制御部39は、既にオートキャリブレーションデータ123が記憶されている場合、このオートキャリブレーションデータ123を更新する。
キャリブレーション制御部39は、オートキャリブレーション画像121の1つのマークについて、1つの座標を対応付ける。従って、多数のマークを含むオートキャリブレーション画像121を用いた場合、スクリーンSCの投射領域の多数の座標について、対応づけを行うことができる。
例えば、図3(A)の「5×5」のオートキャリブレーション画像121を用いる場合撮影画像データから25個のマークが検出される。オートキャリブレーションが正常に実行されれば、25の点について座標の対応付けが行われる。また、図3(B)の「4×4」のオートキャリブレーション画像121を用いる場合は、撮影画像データから16個のマークが検出される。オートキャリブレーションが正常に実行されれば、16の点について座標の対応付けが行われる。
例えば、図3(A)の「5×5」のオートキャリブレーション画像121を用いる場合撮影画像データから25個のマークが検出される。オートキャリブレーションが正常に実行されれば、25の点について座標の対応付けが行われる。また、図3(B)の「4×4」のオートキャリブレーション画像121を用いる場合は、撮影画像データから16個のマークが検出される。オートキャリブレーションが正常に実行されれば、16の点について座標の対応付けが行われる。
オートキャリブレーションでは、撮像部51が可視光を受光して撮影を行う。このため、撮影制御部53が出力する撮影画像はカラー画像データとすることも、モノクロ画像データとすることもできる。本実施形態では、キャリブレーション制御部39は、撮像部51の撮影画像データとして、モノクロ二値の画像データ、または、明度の情報を有し色情報を含まないグレースケールの画像データを処理する。ここで、撮影制御部53が、キャリブレーション制御部39の制御に従って、モノクロ二値またはグレースケールの画像データを出力してもよい。或いは、キャリブレーション制御部39の制御により、指示体検出部54が、撮影制御部53の出力画像データをモノクロ二値またはグレースケールに変換してもよい。
オートキャリブレーションでは、様々な実行条件を設定できる。使用するオートキャリブレーション画像121の種類、撮像部51の撮影条件、座標算出部55が実行する処理のパラメーター等である。ここでは、オートキャリブレーションの実行条件として、オートキャリブレーション画像121のマークの数、オートキャリブレーション画像121の解像度、オートキャリブレーション画像121の方向、撮像部51の露出値、の4つの条件を例示する。
プロジェクター10は、図3(A)、(B)に示したように、マークの数が異なる複数種類のオートキャリブレーション画像121を、記憶部110に記憶する。オートキャリブレーション画像121に含まれるマークの数が多いほど、多くの点で座標の対応付けを行うことができ、より詳細なオートキャリブレーションデータ123を生成できる。その結果、指示体70による操作位置を、より高精度で検出できる。その一方で、オートキャリブレーション画像121に含まれるマークの数が多いほど、撮影画像データから多くのマークを抽出する必要がある。撮影画像データに写っているマークの鮮明度が低い場合や、撮影画像データに無関係な物体が写り込んだ場合には、マークを検出することが難しく、マークの数が多いほど困難性が増す。キャリブレーション制御部39は、できるだけ多くのマークを有するオートキャリブレーション画像121を用い、マークの検出に失敗した場合には、より少ないマークを含むオートキャリブレーション画像121を用いる。
プロジェクター10は、図3(A)、(B)に示したように、マークの数が異なる複数種類のオートキャリブレーション画像121を、記憶部110に記憶する。オートキャリブレーション画像121に含まれるマークの数が多いほど、多くの点で座標の対応付けを行うことができ、より詳細なオートキャリブレーションデータ123を生成できる。その結果、指示体70による操作位置を、より高精度で検出できる。その一方で、オートキャリブレーション画像121に含まれるマークの数が多いほど、撮影画像データから多くのマークを抽出する必要がある。撮影画像データに写っているマークの鮮明度が低い場合や、撮影画像データに無関係な物体が写り込んだ場合には、マークを検出することが難しく、マークの数が多いほど困難性が増す。キャリブレーション制御部39は、できるだけ多くのマークを有するオートキャリブレーション画像121を用い、マークの検出に失敗した場合には、より少ないマークを含むオートキャリブレーション画像121を用いる。
また、記憶部110は、マークの数が異なるオートキャリブレーション画像121だけでなく、解像度が異なる複数種類のオートキャリブレーション画像121を記憶している。オートキャリブレーション画像121の解像度は、プロジェクター10の解像度、すなわち、光変調装置22の液晶パネルの表示解像度に合わせることが好ましい。本実施形態では、WXGA(1280ドット×800ドット)と、XGA(1024ドット×768ドット)の2種類の解像度の各々に対応するオートキャリブレーション画像121を記憶する。本実施形態では、記憶部110には、少なくとも、「4×4」であって解像度がWXGA、「4×4」であって解像度がXGA、「5×5」であって解像度がWXGAおよびXGAの4つのオートキャリブレーション画像121が記憶される。
さらに、記憶部110は、プロジェクター10の投射方向に対応する複数種類のオートキャリブレーション画像121を記憶する。キャリブレーション制御部39は、記憶部110から、投射方向に対応するオートキャリブレーション画像121を読み出して投射させる。
図4は、プロジェクター10の投射方向の例を示す図であり、図4(A)は正面に投射する例、図4(B)は右方向に投射する例、図4(C)は左方向に投射する例を示す。また、図4(D)は右方向に投射する場合の撮影画像の例を示し、図4(E)は左方向に投射する場合の撮影画像の例を示す。
プロジェクター10をスクリーンSCの正面に接地した場合、図4(A)に示すようにスクリーンSCとプロジェクター10とは、左右方向においては正対する。このため、撮像部51の撮影画像は、スクリーンSCを正面から撮影した形状となる。
プロジェクター10の設置環境によっては、プロジェクター10を、スクリーンSCの正面から外れた方向に設置することがある。図4(B)の例では、プロジェクター10からみてスクリーンSCが右方向に位置する。また、図4(C)の例では、プロジェクター10からみてスクリーンSCが左方向に位置する。
プロジェクター10をスクリーンSCの正面に接地した場合、図4(A)に示すようにスクリーンSCとプロジェクター10とは、左右方向においては正対する。このため、撮像部51の撮影画像は、スクリーンSCを正面から撮影した形状となる。
プロジェクター10の設置環境によっては、プロジェクター10を、スクリーンSCの正面から外れた方向に設置することがある。図4(B)の例では、プロジェクター10からみてスクリーンSCが右方向に位置する。また、図4(C)の例では、プロジェクター10からみてスクリーンSCが左方向に位置する。
図4(B)や図4(C)に示す態様でプロジェクター10を設置し、投射すると、撮影画像が台形に歪む現象が発生する。すなわち、図4(B)のようにスクリーンSCが右方向に位置する場合、撮影画像は図4(D)に示すように、矩形のオートキャリブレーション画像121が台形になるように歪む。これは、投射画像の右側がプロジェクター10から遠い側になるので、投射画像は右側ほど上下に拡大されることによる。また、図4(C)のようにスクリーンSCが左方向に位置する場合も同様に、撮影画像は図4(E)に示すように歪む。これは、投射画像の左側がプロジェクター10から遠い側になるので、投射画像は左側ほど上下に拡大されることによる。
これらの歪みにより、撮影画像データにおいては、オートキャリブレーション画像121のマークのサイズ及び形状がマークの位置によって変化する。このため、マークの検出が困難になり、キャリブレーション制御部39がマークを検出する処理に失敗する可能性が高まる。
これらの歪みは、歪みを補償するように予め台形に変形したオートキャリブレーション画像121を投射することで、一定の改善が見られる。例えば、プロジェクター10が右方向に投射する場合、図4(D)に示した変形とは逆に、オートキャリブレーション画像121の左側が上下に拡大した台形のオートキャリブレーション画像121を投射する。すると、スクリーンSCの左右におけるサイズの差が、もとのオートキャリブレーション画像121の形状により相殺され、撮影画像データに写る画像が、矩形に近くなる。これにより、マークの検出が容易になり、キャリブレーション制御部39がマークの検出に成功する可能性が高まる。
記憶部110には、上述したマークの数の違い、解像度の違いに加え、投射方向の違いに対応したオートキャリブレーション画像121が記憶される。本実施形態では、2種類のマーク数、2種類の解像度、3通りの投射方向に対応して、2×2×3=12種類のオートキャリブレーション画像121が記憶される。
投射方向に対応するキャリブレーション画像の選択を行う場合、台形歪み補正を実行したときのデータを利用できる。すなわち、プロジェクター10が、スクリーンSC上の投射画像の台形歪みを補正する台形歪み補正を実行すると、台形歪みを補償するように光変調装置22の表示画像を変形させるパラメーターが求められる。台形歪み補正は、撮像部51が投射画像を撮影した撮影画像データを利用して自動的に行ってもよいし、リモコンや操作パネルの操作に従って行ってもよい。台形歪み補正を実行した場合にはパラメーターが記憶部110等に記憶される。オートキャリブレーションを実行する前に,台形歪み補正処理が既に実行され、パラメーターが記憶部110等に記憶されている場合、キャリブレーション制御部39は、このパラメーターに基づいて投射方向が正面か右方向か左方向かを特定できる。そして、特定した方向に対応するオートキャリブレーション画像121を、記憶部110から読み出して使用すればよい。
これらの歪みにより、撮影画像データにおいては、オートキャリブレーション画像121のマークのサイズ及び形状がマークの位置によって変化する。このため、マークの検出が困難になり、キャリブレーション制御部39がマークを検出する処理に失敗する可能性が高まる。
これらの歪みは、歪みを補償するように予め台形に変形したオートキャリブレーション画像121を投射することで、一定の改善が見られる。例えば、プロジェクター10が右方向に投射する場合、図4(D)に示した変形とは逆に、オートキャリブレーション画像121の左側が上下に拡大した台形のオートキャリブレーション画像121を投射する。すると、スクリーンSCの左右におけるサイズの差が、もとのオートキャリブレーション画像121の形状により相殺され、撮影画像データに写る画像が、矩形に近くなる。これにより、マークの検出が容易になり、キャリブレーション制御部39がマークの検出に成功する可能性が高まる。
記憶部110には、上述したマークの数の違い、解像度の違いに加え、投射方向の違いに対応したオートキャリブレーション画像121が記憶される。本実施形態では、2種類のマーク数、2種類の解像度、3通りの投射方向に対応して、2×2×3=12種類のオートキャリブレーション画像121が記憶される。
投射方向に対応するキャリブレーション画像の選択を行う場合、台形歪み補正を実行したときのデータを利用できる。すなわち、プロジェクター10が、スクリーンSC上の投射画像の台形歪みを補正する台形歪み補正を実行すると、台形歪みを補償するように光変調装置22の表示画像を変形させるパラメーターが求められる。台形歪み補正は、撮像部51が投射画像を撮影した撮影画像データを利用して自動的に行ってもよいし、リモコンや操作パネルの操作に従って行ってもよい。台形歪み補正を実行した場合にはパラメーターが記憶部110等に記憶される。オートキャリブレーションを実行する前に,台形歪み補正処理が既に実行され、パラメーターが記憶部110等に記憶されている場合、キャリブレーション制御部39は、このパラメーターに基づいて投射方向が正面か右方向か左方向かを特定できる。そして、特定した方向に対応するオートキャリブレーション画像121を、記憶部110から読み出して使用すればよい。
なお、記憶部110に基本となる少数のオートキャリブレーション画像121を記憶し、キャリブレーション制御部39が、光変調装置22の液晶パネルの解像度や投射方向に応じて、オートキャリブレーション画像121を生成してもよい。例えば、「4×4」の基本のオートキャリブレーション画像121と、「5×5」の基本のオートキャリブレーション画像121を記憶部110に記憶する。基本のオートキャリブレーション画像121の解像度をWXGAとする。キャリブレーション制御部39は、光変調装置22の解像度がWXGAの場合は基本のオートキャリブレーション画像121を用い、解像度がXGAの場合は解像度変換処理を行って、XGAのオートキャリブレーション画像121を生成する。また、基本のオートキャリブレーション画像121は投射方向が正面の場合に対応し、投射方向が右方向または左方向の場合には、キャリブレーション制御部39が予め設定された行列に従ってオートキャリブレーション画像121を変形させる。この方法では記憶部110に記憶するオートキャリブレーション画像121の数を抑えることができる。また、多数のオートキャリブレーション画像121を記憶することで、キャリブレーション制御部39の処理負荷を軽くすることも勿論可能である。
位置検出部50では、キャリブレーション制御部39が撮影制御部53を制御することにより、撮像部51の撮影時の露出を段階的に変更できる。撮影画像データからオートキャリブレーション画像121のマークを検出する処理では、マークのコントラストが重要である。撮影時の露出はコントラストに影響するので、適切な露出値で撮像部51が撮影できるように、キャリブレーションの条件として露出値を変更可能である。
上述した各種の実行条件は、予め設定され、設定データ116として記憶部110に記憶される。キャリブレーション制御部39が自動的に実行条件を変更した場合、或いは、リモコン(図示略)の操作によって実行条件が設定された場合、キャリブレーション制御部39は、設定データ116を更新する。
上記の実行条件を踏まえてオートキャリブレーションを実行する動作については、図5及び図6を参照して後述する。
上述した各種の実行条件は、予め設定され、設定データ116として記憶部110に記憶される。キャリブレーション制御部39が自動的に実行条件を変更した場合、或いは、リモコン(図示略)の操作によって実行条件が設定された場合、キャリブレーション制御部39は、設定データ116を更新する。
上記の実行条件を踏まえてオートキャリブレーションを実行する動作については、図5及び図6を参照して後述する。
キャリブレーション制御部39が実行するマニュアルキャリブレーションは、スクリーンSCに、マニュアルキャリブレーション用の画像を投射し、投射した画像に対する指示体70の操作を検出してマニュアルキャリブレーションデータを生成する処理である。
マニュアルキャリブレーション画像122は、オートキャリブレーション画像121と同様に記憶部110に記憶される。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、操作位置を示すマークを含む。操作位置を示すマークは、記号の○や×を利用し、指示体70で指示すべき位置が容易に理解されるようになっている。
マニュアルキャリブレーション画像122には複数のマークが含まれ、これらのマークは、例えば1つずつスクリーンSCに投射される。ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、操作位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した操作位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した操作位置の座標値と、投写画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーション画像122は、オートキャリブレーション画像121と同様に記憶部110に記憶される。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、操作位置を示すマークを含む。操作位置を示すマークは、記号の○や×を利用し、指示体70で指示すべき位置が容易に理解されるようになっている。
マニュアルキャリブレーション画像122には複数のマークが含まれ、これらのマークは、例えば1つずつスクリーンSCに投射される。ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、操作位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した操作位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した操作位置の座標値と、投写画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123と同様のデータ形式とすることも可能である。この場合、オートキャリブレーションの代替としてマニュアルキャリブレーションを実行できる。キャリブレーション制御部39は、オートキャリブレーションまたはマニュアルキャリブレーションを選択して実行することができ、ユーザーが選択を行う構成としてもよい。
また、マニュアルキャリブレーションデータ124を、オートキャリブレーションデータ123を補正する補正データとしてもよい。この場合、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123に基づいて特定された操作位置の座標を、さらに正確な座標に補正するデータである。キャリブレーション制御部39は、必ずオートキャリブレーションを実行し、その後、例えばリモコン(図示略)の操作等によって指示された場合に、マニュアルキャリブレーションを実行する。
また、マニュアルキャリブレーションデータ124を、オートキャリブレーションデータ123を補正する補正データとしてもよい。この場合、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123に基づいて特定された操作位置の座標を、さらに正確な座標に補正するデータである。キャリブレーション制御部39は、必ずオートキャリブレーションを実行し、その後、例えばリモコン(図示略)の操作等によって指示された場合に、マニュアルキャリブレーションを実行する。
図5及び図6は、プロジェクター10の動作を示すフローチャートであり、特に、キャリブレーション制御部39がオートキャリブレーションを実行する場合の動作を示す。
キャリブレーション制御部39は、まず、使用するオートキャリブレーション画像121の解像度を特定する(ステップS11)。キャリブレーション制御部39は、例えば、予め設定データ116に設定された光変調装置22の液晶パネルの表示解像度に基づいて、オートキャリブレーション画像121の解像度を特定する。
キャリブレーション制御部39は、マークの数の多い「5×5」のキャリブレーションを開始する(ステップS12)。キャリブレーション制御部39は、プロジェクター10の投射方向を特定する(ステップS13)。プロジェクター10の投射方向は、上述したように台形歪み補正処理を実行したときの歪み補正パラメーターの値に基づき特定することが可能である。また、オートキャリブレーションは、台形歪み補正を行っていない状態であっても、実行できる。この場合には、プロジェクター10の投射方向を、リモコン(図示略)の操作により設定してもよい。或いは、プロジェクター10が内蔵するセンサー(図示略)により検出してもよい。設定または検出された投射方向は、設定データ116に設定される。キャリブレーション制御部39は設定データ116の設定を参照して、投射方向を特定できる。
キャリブレーション制御部39は、まず、使用するオートキャリブレーション画像121の解像度を特定する(ステップS11)。キャリブレーション制御部39は、例えば、予め設定データ116に設定された光変調装置22の液晶パネルの表示解像度に基づいて、オートキャリブレーション画像121の解像度を特定する。
キャリブレーション制御部39は、マークの数の多い「5×5」のキャリブレーションを開始する(ステップS12)。キャリブレーション制御部39は、プロジェクター10の投射方向を特定する(ステップS13)。プロジェクター10の投射方向は、上述したように台形歪み補正処理を実行したときの歪み補正パラメーターの値に基づき特定することが可能である。また、オートキャリブレーションは、台形歪み補正を行っていない状態であっても、実行できる。この場合には、プロジェクター10の投射方向を、リモコン(図示略)の操作により設定してもよい。或いは、プロジェクター10が内蔵するセンサー(図示略)により検出してもよい。設定または検出された投射方向は、設定データ116に設定される。キャリブレーション制御部39は設定データ116の設定を参照して、投射方向を特定できる。
図3(C)に示したように、投射方向が左方向である場合、キャリブレーション制御部39は、ステップS11で特定した解像度に対応し、かつ、左方向に対応する「5×5」のオートキャリブレーション画像121を選択する(ステップS14)。また、図3(A)に示したように、投射方向が正面方向である場合、キャリブレーション制御部39は、ステップS11で特定した解像度に対応し、かつ、正面に対応する「5×5」のオートキャリブレーション画像121を選択する(ステップS15)。また、図3(B)に示したように、投射方向が右方向である場合、キャリブレーション制御部39は、ステップS11で特定した解像度に対応し、かつ、右方向に対応する「5×5」のオートキャリブレーション画像121を選択する(ステップS16)。
ステップS14〜S16でオートキャリブレーション画像121を選択した後、キャリブレーション制御部39は、選択したオートキャリブレーション画像121を投射部20によってスクリーンSCに投射させる(ステップS17)。
キャリブレーション制御部39は、撮像部51の露出調整が可能な状態であるか否かを判定する(ステップS18)。露出調整については後述する。
露出調整が可能な場合(ステップS18;Yes)、キャリブレーション制御部39は、撮像部51の撮影条件としての露出値を調整する(ステップS19)。最初にステップS19の動作を行う場合、キャリブレーション制御部39は初期値として設定された露出値を撮影制御部53に指定し、露出値を調整させる。
キャリブレーション制御部39は、撮像部51の露出調整が可能な状態であるか否かを判定する(ステップS18)。露出調整については後述する。
露出調整が可能な場合(ステップS18;Yes)、キャリブレーション制御部39は、撮像部51の撮影条件としての露出値を調整する(ステップS19)。最初にステップS19の動作を行う場合、キャリブレーション制御部39は初期値として設定された露出値を撮影制御部53に指定し、露出値を調整させる。
キャリブレーション制御部39は、撮影制御部53を制御して、撮像部51による撮影を実行させ、撮影画像データを取得する(ステップS20)。続いて、キャリブレーション制御部39は、撮影画像データからマークを検出し、検出したマークの撮影画像データにおける座標に取得する処理を行う(ステップS21)。
ここで、キャリブレーション制御部39は、検出したマークの数に基づいて、キャリブレーションが成功したか否か、すなわちキャリブレーションが正常に完了したか否かを判定する(ステップS22)。キャリブレーション制御部39は、ステップS14〜S16で選択したオートキャリブレーション画像121に含まれるマークの数「25」と、検出したマークの数とを比較する。成功と判定する基準は、例えば設定データ116に設定される。本実施形態では、全てのマークが検出された場合に成功と判定する。従って、キャリブレーション制御部39は、検出したマークの数が25であった場合は成功と判定し、検出したマークの数が25でない場合は失敗と判定する。
ここで、キャリブレーション制御部39は、検出したマークの数に基づいて、キャリブレーションが成功したか否か、すなわちキャリブレーションが正常に完了したか否かを判定する(ステップS22)。キャリブレーション制御部39は、ステップS14〜S16で選択したオートキャリブレーション画像121に含まれるマークの数「25」と、検出したマークの数とを比較する。成功と判定する基準は、例えば設定データ116に設定される。本実施形態では、全てのマークが検出された場合に成功と判定する。従って、キャリブレーション制御部39は、検出したマークの数が25であった場合は成功と判定し、検出したマークの数が25でない場合は失敗と判定する。
キャリブレーションに成功した場合(ステップS22;Yes)、キャリブレーション制御部39は、検出したマークの座標と、フレームメモリー44に描画され投射部20が投射する画像における位置とを対応付ける処理を行う。キャリブレーション制御部39は、対応付けの内容をオートキャリブレーションデータ123として記憶部110に記憶させ(ステップS23)、本処理を終了する。
これに対し、キャリブレーションに失敗したと判定した場合(ステップS22;No)、キャリブレーション制御部39は、ステップS18に戻って露出値の調整が可能か否かを判定する。プロジェクター10は、撮像部51の露出を、例えば5段階に調整可能である。露出値の初期値は、例えば最も露出が低い値に設定され、この初期値でキャリブレーションに失敗した場合に、キャリブレーション制御部39が露出値を1段階ずつ高くするよう設定されている。従って、キャリブレーションに失敗したと判定した場合、キャリブレーション制御部39は、ステップS19で、露出値を現在の露出値より一段階高く設定して調整するが、既に最高値に設定されている場合は露出値を高くできない。このような場合に、キャリブレーション制御部39は露出値の調整不可能と判定する。
そして、露出値の調整が可能な場合(ステップS18;Yes)、キャリブレーション制御部39はステップS19で露出値を一段階高い値に設定し、撮影制御部53により調整させる。
一方、露出値の調整ができないと判定した場合(ステップS18;No)、キャリブレーション制御部39は、「5×5」のキャリブレーションに失敗したと判定して(ステップS24)、「4×4」のキャリブレーションを開始する(ステップS25)。
一方、露出値の調整ができないと判定した場合(ステップS18;No)、キャリブレーション制御部39は、「5×5」のキャリブレーションに失敗したと判定して(ステップS24)、「4×4」のキャリブレーションを開始する(ステップS25)。
キャリブレーション制御部39は、ステップS13で特定したプロジェクター10の投射方向を取得し(ステップS26)、投射方向に対応するオートキャリブレーション画像121を選択する。すなわち、投射方向が左方向である場合、キャリブレーション制御部39は、ステップS11で特定した解像度に対応し、かつ、左方向に対応する「4×4」のオートキャリブレーション画像121を選択する(ステップS27)。投射方向が正面方向である場合、キャリブレーション制御部39は、ステップS11で特定した解像度に対応し、かつ、正面に対応する「4×4」のオートキャリブレーション画像121を選択する(ステップS28)。投射方向が右方向である場合、キャリブレーション制御部39は、ステップS11で特定した解像度に対応し、かつ、右方向に対応する「4×4」のオートキャリブレーション画像121を選択する(ステップS29)。投射方向の特定は、ステップS13で説明した方法により実行でき、ステップS13で設定された設定データ116を参照して特定してもよい。
キャリブレーション制御部39は、ステップS27〜S29で選択したオートキャリブレーション画像121を投射部20によってスクリーンSCに投射させる(ステップS30)。
キャリブレーション制御部39は、撮像部51の露出調整が可能な状態であるか否かを判定する(ステップS31)。
露出調整が可能な場合(ステップS31)、キャリブレーション制御部39は、撮像部51の撮影条件としての露出値を調整する(ステップS32)。最初にステップS32の動作を行う場合、キャリブレーション制御部39は、撮像部51の露出値を、「5×5」のキャリブレーションで設定された露出値から初期値に変更する。
キャリブレーション制御部39は、撮像部51の露出調整が可能な状態であるか否かを判定する(ステップS31)。
露出調整が可能な場合(ステップS31)、キャリブレーション制御部39は、撮像部51の撮影条件としての露出値を調整する(ステップS32)。最初にステップS32の動作を行う場合、キャリブレーション制御部39は、撮像部51の露出値を、「5×5」のキャリブレーションで設定された露出値から初期値に変更する。
キャリブレーション制御部39は、撮影制御部53を制御して、撮像部51による撮影を実行させ、撮影画像データを取得する(ステップS33)。続いて、キャリブレーション制御部39は、撮影画像データからマークを検出し、検出したマークの撮影画像データにおける座標に取得する処理を行う(ステップS34)。
キャリブレーション制御部39は、検出したマークの数に基づいて、キャリブレーションが成功したか否かを判定する(ステップS35)。判定の処理はステップS22と同様である。キャリブレーション制御部39は、オートキャリブレーション画像121に含まれるマークの数「16」と、検出したマークの数とを比較する。キャリブレーション制御部39は、検出したマークの数が16であった場合は成功と判定し、検出したマークの数が16でない場合は失敗と判定する。
キャリブレーション制御部39は、検出したマークの数に基づいて、キャリブレーションが成功したか否かを判定する(ステップS35)。判定の処理はステップS22と同様である。キャリブレーション制御部39は、オートキャリブレーション画像121に含まれるマークの数「16」と、検出したマークの数とを比較する。キャリブレーション制御部39は、検出したマークの数が16であった場合は成功と判定し、検出したマークの数が16でない場合は失敗と判定する。
キャリブレーションに成功した場合(ステップS35;Yes)、キャリブレーション制御部39は、検出したマークの座標と、フレームメモリー44に描画され投射部20が投射する画像における位置とを対応付ける処理を行う。キャリブレーション制御部39は、対応付けの内容をオートキャリブレーションデータ123として記憶部110に記憶させ(ステップS36)、本処理を終了する。
一方、キャリブレーションに失敗したと判定した場合(ステップS35;No)、キャリブレーション制御部39は、ステップS31に戻って露出値の調整が可能か否かを判定する。露出値の調整が可能な場合(ステップS31;Yes)、キャリブレーション制御部39はステップS32で露出値を一段階高い値に設定し、撮影制御部53により調整させる。
露出値の調整ができないと判定した場合(ステップS31;No)、キャリブレーション制御部39は、「4×4」のキャリブレーションに失敗したと判定する(ステップS37)。
キャリブレーション制御部39は、失敗したキャリブレーションの実行条件を関連情報として取得する(ステップS38)。本実施形態では、オートキャリブレーション画像121の解像度、キャリブレーション画像の方向、検出したマークの数、露出値を取得する。
キャリブレーション制御部39は、失敗したキャリブレーションの関連情報に対応するコードを、投射部20によって投射させ(ステップS39)、本処理を終了する。
キャリブレーション制御部39は、失敗したキャリブレーションの実行条件を関連情報として取得する(ステップS38)。本実施形態では、オートキャリブレーション画像121の解像度、キャリブレーション画像の方向、検出したマークの数、露出値を取得する。
キャリブレーション制御部39は、失敗したキャリブレーションの関連情報に対応するコードを、投射部20によって投射させ(ステップS39)、本処理を終了する。
ステップS39で表示されるコードの表示態様について説明する。
本実施形態のキャリブレーション制御部39は、「5×5」と「4×4」の両方のキャリブレーションに失敗した場合にコードを表示する。このため、キャリブレーション制御部39は、「5×5」と「4×4」の両方のキャリブレーションに対応するコードを表示する。
本実施形態のキャリブレーション制御部39は、「5×5」と「4×4」の両方のキャリブレーションに失敗した場合にコードを表示する。このため、キャリブレーション制御部39は、「5×5」と「4×4」の両方のキャリブレーションに対応するコードを表示する。
また、本実施形態のキャリブレーション制御部39は、5段階の露出値を設定して撮影とマークの検出を実行し、全ての露出値でキャリブレーションに失敗した場合にコードを表示する。このため、キャリブレーション制御部39は、5段階の露出値に対応するコードを表示する。
コードの表示態様は、例えば、次の(1)〜(5)のコードをつなげた7桁の数値コードである。
(1)「5×5」か「4×4」かを示すコード(2桁)。
(2)オートキャリブレーション画像121の解像度を示すコード(1桁)。
(3)オートキャリブレーション画像121の方向を示すコード(1桁)。
(4)キャリブレーション制御部39が検出したマークの数を示すコード(2桁)。
(5)露出値を示すコード(1桁)。
(1)「5×5」か「4×4」かを示すコード(2桁)。
(2)オートキャリブレーション画像121の解像度を示すコード(1桁)。
(3)オートキャリブレーション画像121の方向を示すコード(1桁)。
(4)キャリブレーション制御部39が検出したマークの数を示すコード(2桁)。
(5)露出値を示すコード(1桁)。
(1)「5×5」か「4×4」かを示すコードは、表1に示すように決定される。
(2)オートキャリブレーション画像121の解像度を示すコードは、表2に示すように決定される。
(3)オートキャリブレーション画像121の方向を示すコードは、表3に示すように決定される。
(4)キャリブレーション制御部39が検出したマークの数を示すコードは、表4に示すように、マークの数そのものを示す2桁の数値である。なお、検出されたマークが0個〜9個の場合は1桁のコードとしてもよい。
(5)露出値を示すコードは、表5に示すように、5段階の露出値に対応する1桁の数で表される。
キャリブレーション制御部39は、ステップS22、S35で失敗と判定した全てのケースについて、7桁のコードを表示する。本実施形態では「5×5」と「4×4」の両方で、5段階の全ての露出値でキャリブレーションに失敗した場合にコードを表示するので、10個のコード(7桁)が並べて表示される。
このコードの表示により、ユーザーに対し、オートキャリブレーションの失敗に関する関連情報が提供される。このため、ユーザーは、オートキャリブレーションが失敗した要因を推定し、外的な要因により失敗した場合は、この要因を排除、解消して、キャリブレーションを正常に実行できる。
このコードの表示により、ユーザーに対し、オートキャリブレーションの失敗に関する関連情報が提供される。このため、ユーザーは、オートキャリブレーションが失敗した要因を推定し、外的な要因により失敗した場合は、この要因を排除、解消して、キャリブレーションを正常に実行できる。
オートキャリブレーションの関連情報を示すコードは、全てのキャリブレーションに失敗した場合に限らず、表示することができる。例えば、オートキャリブレーションに成功した場合に、オートキャリブレーションが完了した旨を示すメッセージとともに、失敗したキャリブレーションのコードを表示してもよい。また、リモコン(図示略)の操作に応じて、最後に実行したオートキャリブレーションで、失敗したケースのコードを表示してもよい。これらの場合には、失敗したケースについてのみコードを表示すればよいので、表示されるコードの数は10個とは限らない。
以上説明したように、本発明を適用した実施形態に係るプロジェクター10は、指示体70による操作位置を検出する位置検出部50と、位置検出部50による操作位置の検出に関するキャリブレーションを行うキャリブレーション制御部39と、を備える。キャリブレーション制御部39は、キャリブレーションの実行時または実行後に正否を判定し、キャリブレーションが正常に完了しなかった場合にキャリブレーションの実行に係る関連情報を出力する。このため、キャリブレーションが正常に完了しなかった場合に、キャリブレーションを阻害した要因を推定するために役立つ関連情報を提供し、要因の解消を促すことができる。
また、プロジェクター10は、指示体70の操作対象領域に画像を投射する投射部20を備える。キャリブレーション制御部39は、キャリブレーションが正常に完了しなかった場合に、投射部20により関連情報のコードを投射させる。このため、キャリブレーションを阻害した要因を推定するために役立つ関連情報を、表示によってわかりやすく提供できる。
また、プロジェクター10は、操作対象領域を撮影して撮影画像を出力する撮像部51を備える。キャリブレーション制御部39は、投射部20によりキャリブレーション用の画像を操作対象領域に表示させて撮像部51に撮影させ、撮影画像に基づいてキャリブレーションを行う。従って、周辺環境の影響を受けやすい撮影画像に基づくキャリブレーションを行い、正常に完了しなかった場合に、関連情報を提供するので、より速やかに阻害要因を解消できる。
また、プロジェクター10は、操作対象領域を撮影して撮影画像を出力する撮像部51を備える。キャリブレーション制御部39は、投射部20によりキャリブレーション用の画像を操作対象領域に表示させて撮像部51に撮影させ、撮影画像に基づいてキャリブレーションを行う。従って、周辺環境の影響を受けやすい撮影画像に基づくキャリブレーションを行い、正常に完了しなかった場合に、関連情報を提供するので、より速やかに阻害要因を解消できる。
また、キャリブレーション制御部39は、関連情報として正常に完了しなかったキャリブレーションの実行条件を、投射部20により表示させる。従って、より効果的に、キャリブレーションが失敗したケースについて、阻害要因を推定し、解消を図ることができる。また、キャリブレーション制御部39は、複数の関連情報をひとまとまりのコードとして投射部20により表示させるので、複数の項目に関する情報を速やかに提供できる。
なお、上述した実施形態及び変形例は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。上記実施形態では、キャリブレーション制御部39が、「5×5」と「4×4」のキャリブレーションを、露出値を変更して実行し、全てのケースで失敗した場合にコードを表示する構成とした。本発明はこれに限定されず、例えば、ステップS22、S35で、実行中のケースについてキャリブレーションに失敗したと判定した場合に、このケースに関する関連情報をコードで表示してもよい。このとき、露出値を変更してキャリブレーションを続けて試行するか否かの指示入力を要求してもよく、リモコン等により指示入力がされた場合に、ステップS18、S31に移行してもよい。また、キャリブレーションの実行中にコードを表示してもよい。この場合、ステップS17、S30でオートキャリブレーション画像121の表示を開始したとき、及び/または、ステップS19、S32で露出値を調整した場合に、その時点で実行中のケースの関連情報をコードで表示してもよい。
また、上記実施形態では、スクリーンSCの前方から投射するフロントプロジェクション型のプロジェクター10によって、画像が投射(表示)されるスクリーンSCに対し、ユーザーが指示体70による指示操作を行う態様について説明した。本発明はこれに限定されず、プロジェクター10以外の表示装置が表示する表示画面に対して、指示体70等により指示操作を行う態様であってもよい。プロジェクター10以外の表示装置としては、スクリーンSCの背面側から投射するリアプロジェクション(背面投射)型のプロジェクターが挙げられる。また、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を表示装置として用いることができる。
また、指示体は、ペン型の指示体70に限定されず、レーザーポインターや指示棒等を用いてもよく、その形状やサイズは限定されない。また、指示体による操作位置を検出する方法は上記実施形態の例に限定されず、可視光線、紫外線等の光線を利用してもよいし、超音波や電波等を利用してもよい。
また、上記実施形態では、位置検出部50は、撮像部51によりスクリーンSCを撮影して指示体70の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮像部51は、プロジェクター10の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮像部51をプロジェクター10本体とは別体として配置してもよいし、撮像部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。さらに、複数の撮像部51を配置し、これら複数の撮像部51の撮影画像データに基づいて、検出制御部32が指示体70の位置を検出してもよい。
また、上記実施形態では、位置検出部50は、撮像部51によりスクリーンSCを撮影して指示体70の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮像部51は、プロジェクター10の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮像部51をプロジェクター10本体とは別体として配置してもよいし、撮像部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。さらに、複数の撮像部51を配置し、これら複数の撮像部51の撮影画像データに基づいて、検出制御部32が指示体70の位置を検出してもよい。
また、上記実施形態では、光源が発した光を変調する光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。或いは、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1…プロジェクションシステム、10…プロジェクター(位置検出装置)、20…投射部(表示部)、30…制御部、31…投射制御部、32…検出制御部、39…キャリブレーション制御部、40…画像処理部、50…位置検出部(検出部)、70…指示体、110…記憶部、116…設定データ、121…オートキャリブレーション画像(キャリブレーション用の画像)、123…オートキャリブレーションデータ、SC…スクリーン。
Claims (8)
- 指示体による操作位置を検出する検出部と、
前記検出部による操作位置の検出に関するキャリブレーションを行うキャリブレーション制御部と、を備え、
前記キャリブレーション制御部は、キャリブレーションの実行時または実行後に正否を判定し、キャリブレーションが正常に完了しなかった場合に前記キャリブレーションの実行に係る関連情報を出力すること、
を特徴とする位置検出装置。 - 前記指示体の操作対象領域に画像を表示する表示部を備え、
前記キャリブレーション制御部は、キャリブレーションが正常に完了しなかった場合に、前記表示部により前記関連情報を表示させること、
を特徴とする請求項1記載の位置検出装置。 - 前記操作対象領域を撮影して撮影画像を出力する撮像部を備え、
前記キャリブレーション制御部は、前記表示部によりキャリブレーション用の画像を前記操作対象領域に表示させて前記撮像部に撮影させ、撮影画像に基づいてキャリブレーションを行うこと、を特徴とする請求項2記載の位置検出装置。 - 前記キャリブレーション制御部は、前記関連情報として正常に完了しなかったキャリブレーションの実行条件を、前記表示部により表示させること、を特徴とする請求項2または3記載の位置検出装置。
- 前記キャリブレーション制御部は、複数の前記関連情報をひとまとまりのコードとして前記表示部により表示させること、を特徴とする請求項2から4のいずれかに記載の位置検出装置。
- 前記表示部によって前記操作対象領域に画像を投射するプロジェクターであること、を特徴とする請求項2から5のいずれかに記載の位置検出装置。
- 前記キャリブレーション制御部は、実行条件が異なる複数のキャリブレーションを実行し、いずれかのキャリブレーションが正常に完了した場合には前記関連情報を出力しないこと、を特徴とする請求項1から6のいずれかに記載の位置検出装置。
- 指示体による操作位置を検出する位置検出装置の制御方法であって、
前記操作位置の検出に関するキャリブレーションを行い、
キャリブレーションの実行時または実行後に正否を判定し、キャリブレーションが正常に完了しなかった場合に前記キャリブレーションの実行に係る関連情報を出力すること、
を特徴とする位置検出装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014040544A JP2015166893A (ja) | 2014-03-03 | 2014-03-03 | 位置検出装置、及び、位置検出装置の制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014040544A JP2015166893A (ja) | 2014-03-03 | 2014-03-03 | 位置検出装置、及び、位置検出装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015166893A true JP2015166893A (ja) | 2015-09-24 |
Family
ID=54257746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014040544A Pending JP2015166893A (ja) | 2014-03-03 | 2014-03-03 | 位置検出装置、及び、位置検出装置の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015166893A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017138872A (ja) * | 2016-02-05 | 2017-08-10 | セイコーエプソン株式会社 | 位置検出システム、自発光指示体、および固有情報取得方法 |
JP2017138776A (ja) * | 2016-02-03 | 2017-08-10 | セイコーエプソン株式会社 | インタラクティブプロジェクター、及び、そのオートキャリブレーション実行方法 |
JP2018148261A (ja) * | 2017-03-01 | 2018-09-20 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
WO2018216500A1 (ja) * | 2017-05-26 | 2018-11-29 | ソニー株式会社 | 画像処理装置および方法 |
JP2019176356A (ja) * | 2018-03-29 | 2019-10-10 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
US10812764B2 (en) | 2018-09-05 | 2020-10-20 | Seiko Epson Corporation | Display apparatus, display system, and method for controlling display apparatus |
EP4210326A3 (en) * | 2022-01-10 | 2023-08-23 | Coretronic Corporation | Projection position guiding method |
WO2024185421A1 (ja) * | 2023-03-03 | 2024-09-12 | 富士フイルム株式会社 | 制御装置、制御方法、及び制御プログラム |
US12167181B2 (en) | 2020-10-23 | 2024-12-10 | Seiko Epson Corporation | Specifying method, specifying system which accurately specifies the correspondence relation between the projector coordinate system and the camera coordinate system |
-
2014
- 2014-03-03 JP JP2014040544A patent/JP2015166893A/ja active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017138776A (ja) * | 2016-02-03 | 2017-08-10 | セイコーエプソン株式会社 | インタラクティブプロジェクター、及び、そのオートキャリブレーション実行方法 |
JP2017138872A (ja) * | 2016-02-05 | 2017-08-10 | セイコーエプソン株式会社 | 位置検出システム、自発光指示体、および固有情報取得方法 |
JP2018148261A (ja) * | 2017-03-01 | 2018-09-20 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
CN110663249B (zh) * | 2017-05-26 | 2022-04-15 | 索尼公司 | 用于图像处理的装置和方法 |
JP7243623B2 (ja) | 2017-05-26 | 2023-03-22 | ソニーグループ株式会社 | 画像処理装置および方法 |
CN110663249A (zh) * | 2017-05-26 | 2020-01-07 | 索尼公司 | 用于图像处理的装置和方法 |
JPWO2018216500A1 (ja) * | 2017-05-26 | 2020-03-26 | ソニー株式会社 | 画像処理装置および方法 |
US11202044B2 (en) | 2017-05-26 | 2021-12-14 | Sony Corporation | Image processing apparatus and method |
WO2018216500A1 (ja) * | 2017-05-26 | 2018-11-29 | ソニー株式会社 | 画像処理装置および方法 |
US10742943B2 (en) | 2018-03-29 | 2020-08-11 | Seiko Epson Corporation | Projector and method for controlling projector |
JP2019176356A (ja) * | 2018-03-29 | 2019-10-10 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP7151126B2 (ja) | 2018-03-29 | 2022-10-12 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
US10812764B2 (en) | 2018-09-05 | 2020-10-20 | Seiko Epson Corporation | Display apparatus, display system, and method for controlling display apparatus |
US12167181B2 (en) | 2020-10-23 | 2024-12-10 | Seiko Epson Corporation | Specifying method, specifying system which accurately specifies the correspondence relation between the projector coordinate system and the camera coordinate system |
EP4210326A3 (en) * | 2022-01-10 | 2023-08-23 | Coretronic Corporation | Projection position guiding method |
EP4451666A2 (en) | 2022-01-10 | 2024-10-23 | Coretronic Corporation | Projection position guiding method |
EP4456528A2 (en) | 2022-01-10 | 2024-10-30 | Coretronic Corporation | Projection position guiding method |
EP4451666A3 (en) * | 2022-01-10 | 2024-12-25 | Coretronic Corporation | Projection position guiding method |
EP4456528A3 (en) * | 2022-01-10 | 2025-01-01 | Coretronic Corporation | Projection position guiding method |
US12238462B2 (en) | 2022-01-10 | 2025-02-25 | Coretronic Corporation | Projection position guiding method |
WO2024185421A1 (ja) * | 2023-03-03 | 2024-09-12 | 富士フイルム株式会社 | 制御装置、制御方法、及び制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6398248B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP6417690B2 (ja) | プロジェクター、表示装置、及び、プロジェクターの制御方法 | |
JP6326895B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP2015166893A (ja) | 位置検出装置、及び、位置検出装置の制御方法 | |
US8794768B2 (en) | Projection display device and method of controlling the same | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
CN107018389B (zh) | 图像投射系统、投影机及图像投射系统的控制方法 | |
JP6387644B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
JP6375660B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
CN104898894B (zh) | 位置检测装置以及位置检测方法 | |
JP6098153B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6287432B2 (ja) | 操作デバイス、位置検出システム、及び、操作デバイスの制御方法 | |
JP6340860B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6291912B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6337558B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP2015184972A (ja) | 動き検出装置、画像表示装置、及び、動き検出方法 | |
JP2020034935A (ja) | 画像投射システム、及び画像投射システムの制御方法 | |
JP2016177745A (ja) | 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法 | |
JP2016146021A (ja) | 表示システム、表示装置、及び、位置検出装置 |