JP2011203830A - 投写システム及びその制御方法 - Google Patents
投写システム及びその制御方法 Download PDFInfo
- Publication number
- JP2011203830A JP2011203830A JP2010068358A JP2010068358A JP2011203830A JP 2011203830 A JP2011203830 A JP 2011203830A JP 2010068358 A JP2010068358 A JP 2010068358A JP 2010068358 A JP2010068358 A JP 2010068358A JP 2011203830 A JP2011203830 A JP 2011203830A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- projected
- input
- operation mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Drawing Aids And Blackboards (AREA)
Abstract
【課題】設定されている操作モードを確認し易く、かつ確認する際に手書き入力の操作性を低下させることのない投写システム及びその制御方法を提供する。
【解決手段】手入力が行なわれる投写面50に対して投写画像を投写する投写光学系313を備えたプロジェクター30と、手入力を行なう際の操作モードの設定状態を管理する状態管理部105と、投写面50に対して手入力が行われている入力操作位置を検出する操作位置検出部104と、設定されている操作モードに応じた画像が入力操作位置に投写されるように投写画像を変更する画像処理部107とを備えたPC10と、を有する。
【選択図】図12
【解決手段】手入力が行なわれる投写面50に対して投写画像を投写する投写光学系313を備えたプロジェクター30と、手入力を行なう際の操作モードの設定状態を管理する状態管理部105と、投写面50に対して手入力が行われている入力操作位置を検出する操作位置検出部104と、設定されている操作モードに応じた画像が入力操作位置に投写されるように投写画像を変更する画像処理部107とを備えたPC10と、を有する。
【選択図】図12
Description
本発明は、手書きされた内容を電子的な情報に変換することができる電子黒板に利用される投写システム及びその制御方法に関する。
表示面上に手書きされた内容を電子的な情報に変換することができる電子黒板がある。また、電子的に変換した情報をコンピューターへ入力させる機能を備えたインタラクティブタイプの電子黒板も提案されている。インタラクティブタイプの電子黒板は、電子黒板用のアプリケーション機能を利用することで、従来のホワイトボードとほぼ同等の操作で、手で書いた情報をコンピューターへ取り込むことができる。このため、効率に優れた、視認性の高い、会議や授業を行うことができるようになっている。
電子黒板では、指で画面や投写面に直接触れて操作することができるタッチパネルのようなインターフェイスでは、手により画面にタッチする行為が、書く、消す、指定する等の複数種類の入力指示を与えることができる。どの入力指示を受け付ける状態にあるかはそのとき設定されている操作モードにより異なる。また、専用の電子ペンにより入力指示を与えるインターフェイスにおいても、設定されている操作モードにより電子ペンによる入力指示の種類が異なる場合がある。
このように、そのときに設定されている操作モードによって入力指示が変化することがあるので、ユーザーは現在の操作モードが何であるかを認識している必要がある。ところが、操作途中において現在の操作モードが何であったのかを忘れてしまったり、間違えて認識していたりすることがある。このため、消すつもりが書いてしまったり、書くつもりで指定操作をしてしまったりと、誤操作を起こし易い。
このため、現在の操作モードを表示する各種方法が提案されている。表示面上の決められた領域に現在の操作モードや状態を示すアイコンなどを表示する方法や、使用中の電子ペンに現在どの操作モードが設定されているかを表示する機能をつける方法等がある。また、特許文献1には、操作モード切替スイッチを設けた電子ペンが記載されており、操作モード切替スイッチの状態を確認することで状態を知ることができるよう構成されている。
上述した方法では表示面上の決められた領域を確認することで、現在の操作モードを知ることができるが、作業する手元と離れた場所を確認する必要があり、注目点が散漫になり作業の効率が悪く、また確認し難いため誤操作が起こりやすい。また、電子ペンに表示される操作モードは小さく作業を行いながら確認することは難しい。
本発明は、上記課題を解決するためになされたものであって、設定されている操作モードを確認し易く、かつ確認する際に手書き入力の操作性を低下させることのない投写システム及びその制御方法を提供することを目的とする。
上記課題を解決することのできる本発明の投写システムは、手入力が行なわれる操作面に対して投写画像を投写する投写部と、前記手入力を行なう際の操作モードの設定状態を管理する状態管理部と、前記操作面に対して前記手入力が行われている入力操作位置を検出する検出部と、設定されている前記操作モードに応じた画像が前記入力操作位置に投写されるように前記投写画像を変更する投写画像変更部と、を有することを特徴とする。
上記構成によれば、操作モードに応じた画像が入力操作位置に投写されるので、ユーザーは手入力を行いながら操作モードに応じた画像を確認することができる。このため、入力操作位置から離れた場所を確認する必要がなく、操作モードの確認の手間がより少なくなるため、誤操作を起こりにくくすることができる。
上記構成によれば、操作モードに応じた画像が入力操作位置に投写されるので、ユーザーは手入力を行いながら操作モードに応じた画像を確認することができる。このため、入力操作位置から離れた場所を確認する必要がなく、操作モードの確認の手間がより少なくなるため、誤操作を起こりにくくすることができる。
また、本発明の投写システムにおいて、前記投写画像変更部は、前記操作モードにおける入力操作の動きに応じた画像が前記入力操作位置に投写されるように前記投写画像を変更することを特徴とする。
上記構成によれば、入力操作の動きに応じた画像が入力操作位置に投写されるので、例えばマウスのクリック操作やドラッグ操作等の操作モードの判別を容易に行うことができる。
上記構成によれば、入力操作の動きに応じた画像が入力操作位置に投写されるので、例えばマウスのクリック操作やドラッグ操作等の操作モードの判別を容易に行うことができる。
また、本発明の投写システムにおいて、前記投写画像変更部は、前記入力操作位置の移動に追従して前記画像が移動するように前記投写画像を変更することを特徴とする。
上記構成によれば、入力操作位置が移動すると画像も追従して移動するので、ユーザーは手書きする位置を移動しても、操作モードを確認するために視線を移動させる必要がなく、誤操作を起こりにくくすることができる。
上記構成によれば、入力操作位置が移動すると画像も追従して移動するので、ユーザーは手書きする位置を移動しても、操作モードを確認するために視線を移動させる必要がなく、誤操作を起こりにくくすることができる。
また、本発明の投写システムにおいて、前記投写画像変更部は、前記画像がユーザーの手に投写されるように前記投写画像を変更することを特徴とする。
上記構成によれば、ユーザーの手に投写されるので、指で文字を入力したりペンデバイスを利用して文字を入力する場合であれば、手入力を行いながら自らの手に投写された操作モードを確認することができる。従来のように、操作モードが電子ペンに表示される場合と比較して、操作モードの確認がし易い。
上記構成によれば、ユーザーの手に投写されるので、指で文字を入力したりペンデバイスを利用して文字を入力する場合であれば、手入力を行いながら自らの手に投写された操作モードを確認することができる。従来のように、操作モードが電子ペンに表示される場合と比較して、操作モードの確認がし易い。
また、本発明の投写システムにおいて、前記投写画像は、前記操作モードを設定するための操作ボタンを備えたツールバー画像を含み、前記投写画像変更部は、前記手入力によって操作された前記操作ボタンの表示と同じ種類のアイコンを、前記画像として前記ユーザーの手に投写されるように前記投写画像を変更することを特徴とする。
上記構成によれば、操作された操作ボタンの表示と同じ種類のアイコンがユーザーの手に投写されるので、ユーザーは自らの手を見るだけで、視線を操作位置から大きく変えることなく、感覚的に操作モードの機能を認識することができる。
上記構成によれば、操作された操作ボタンの表示と同じ種類のアイコンがユーザーの手に投写されるので、ユーザーは自らの手を見るだけで、視線を操作位置から大きく変えることなく、感覚的に操作モードの機能を認識することができる。
また、上記課題を解決することのできる本発明の投写システムの制御方法は、手入力が行なわれる操作面に対して投写画像を投写するステップと、前記操作面に対して前記手入力が行われている入力操作位置を検出するステップと、手入力を行なう際に設定されている操作モードに応じた画像が、前記入力操作位置に投写されるように前記投写画像を変更するステップと、を有することを特徴とする。
上記構成によれば、操作位置から離れた場所を確認する必要がなく、操作モードの確認の手間がより少なくなるため、誤操作を起こりにくくすることができる。
上記構成によれば、操作位置から離れた場所を確認する必要がなく、操作モードの確認の手間がより少なくなるため、誤操作を起こりにくくすることができる。
以下、本発明に係る投写システム及びその制御方法の好適な実施形態について、図面を参照して詳細に説明する。
<投写システムの概略構成について>
本実施形態の投写システムの構成について図1を参照して説明する。
本実施形態の投写システム1は、パーソナルコンピューター10(以下、「PC」と呼ぶ。)、プロジェクター30及び投写面50を備える。
本実施形態の投写システムの構成について図1を参照して説明する。
本実施形態の投写システム1は、パーソナルコンピューター10(以下、「PC」と呼ぶ。)、プロジェクター30及び投写面50を備える。
まず、本実施形態の投写システム1における動作の概略を説明する。図1は、プロジェクター30が投写面50に投写した電子黒板アプリケーション画面70に、ユーザーAが自らの手やペンデバイス、指示棒等を使って文字や図形を記入しながら、プレゼンテーションなどを行なう場面である。投写面50上に位置するユーザーの手やペンデバイス等の動きをプロジェクター30に内蔵されているカメラが撮像する。撮像データがPC10へ転送され、PC10が入力操作位置を取得する。そして、PC10は、現在設定されている操作モードに対応する画像を入力操作位置に合成し、プロジェクター30によって投写面50に投写するシステムである。
PC10は、演算処理の中枢をなす不図示のCPUを備えており、このCPUはシステムバスを介してROMやRAMにアクセス可能となっている。また、システムバスには外部記憶装置としてのハードディスクドライブとフロッピー(登録商標)ディスクドライブやCD−ROMドライブなどが接続されており、ハードディスクドライブに記憶されたOS(Operating System)やアプリケーションなどがRAMに転送され、CPUはROMとRAMに適宜アクセスしてソフトウェアを実行する。
本実施形態では、ハードディスクドライブに電子黒板アプリケーション、操作位置検出プログラム等が記憶されている。CPUがOSやこれらのプログラムを実行することによって、指やペンデバイスによって投写面50上に手書きされた描画情報をデジタルデータに変換してPC10へ取り込む、いわゆる、インタラクティブ型の電子黒板としての環境を実現している。
PC10のCPUが電子黒板アプリケーション及び操作位置検出プログラムを実行することによって、図2に示すように、PC10には、インターフェイス部101、制御部102、操作モード画像記憶部106及び画像処理部107(投写画像変更部)が構成される。
インターフェイス部101は、プロジェクター30の後述するインターフェイス部と接続し、PC10から出力される画像データに、予め設定された出力インターフェイス処理を実施してプロジェクター30へ出力する。本実施形態では、USB(Universal Serial Bus)ケーブルを採用し、PC10及びプロジェクター30を、USBインターフェイスを用いて情報の送受信が可能な状態に接続している。PC10は、パーソナルコンピューターとして一般的な構成を有するものを採用することができる。
制御部102には、投写面50を電子黒板として使用するための各種制御を行なうために、描画データ記憶部103、操作位置検出部104及び状態管理部105が構成される。描画データ記憶部103は、プロジェクター30からインターフェイス部101を介して受信した指やペンデバイスの軌跡を描画データとして一時的に記憶するメモリーである。
入力操作位置を検出する検出部としての操作位置検出部104は、プロジェクター30から受信した撮像データに基づいて、ユーザーAが投写面50に文字等を書き込む際の手の位置、すなわち入力操作位置を検出する。検出方法の詳細については後述する。
状態管理部105は、電子黒板アプリケーションの操作モードの状態を監視する。操作モードの例としては、指やペンデバイスでユーザーが文字等を描画するための描画モード、描画した文字を消すための消去モード、マウスモード、ホバー状態、エラー状態等がある。さらに、描画モードでは、フォントの色指定、マーカーの色指定等を設定することができる。また、マウスモードでは、クリック状態やドラッグ状態等を指定することもできる。状態管理部105は、操作モードの状態が今現在どの状態にあるのかを監視しており、各状態を画像処理部107へ通知する。
例えば、電子黒板のアプリケーションで使用可能な機能を簡易化して表示したツールバーのようなGUI(Graphical User Interface)を利用して、ユーザーが操作モードを選択する場合、状態管理部105は、指やペンデバイスによってツールバーの中の何れの機能が選択されたか(設定されたか)を判定し、現在選択されている機能を記憶する。
操作モード画像記憶部106は、ハードディスクドライブに予め設けられた記憶領域であり、上述した各操作モードに対応するアイコンが記憶されている。アイコンは、各操作モードを、記号化された図形によってわかりやすく表現したものである。アイコンの具体例としては、描画モードを示す鉛筆アイコン、消去モードを示す消しゴムアイコン、マウスモードを示すマウスアイコン等がある。
画像処理部107は、ハードディスクドライブ等の各種ドライブに保存されている電子黒板アプリケーションやコンテンツファイルに基づいて画像データを取得し、ディスプレイ12に表示させたり、プロジェクター30に投写させる画像データの処理を行う。また、画像処理部107は入力された文字をフォントデータに変換して画像データに合成し反映する。また、本実施形態では、状態管理部105が監視している現在の操作モードを感覚的に分かり易く表示するアイコンを、操作モード画像記憶部106から読み出して、画像データの入力操作位置に合成する。また、ツールバー上の何れかの機能が選択されると、選択された機能を示す画像を他の機能の画像よりも大きく表示したり、色を変えて表示したり、反転表示する。
<プロジェクターの内部構成について>
本実施形態の投写システムにおけるプロジェクターの内部構成について図3を参照して説明する。
図3に示すように、プロジェクター30は、ランプ311と、光変調手段である液晶ライトバルブ312R,G,Bと、投写光学系313と、液晶ライトバルブ駆動部314と、制御部320と、映像音声処理部332と、フレームメモリー333と、映像処理部334と、音声処理部335と、スピーカー336と、OSD(On Screen Display)処理部338と、ランプ駆動部340と、操作信号処理部343と、インターフェイス部345と、情報検出部であるカメラ350と、カメラの動作を制御する撮像制御部352と、を備えている。
本実施形態の投写システムにおけるプロジェクターの内部構成について図3を参照して説明する。
図3に示すように、プロジェクター30は、ランプ311と、光変調手段である液晶ライトバルブ312R,G,Bと、投写光学系313と、液晶ライトバルブ駆動部314と、制御部320と、映像音声処理部332と、フレームメモリー333と、映像処理部334と、音声処理部335と、スピーカー336と、OSD(On Screen Display)処理部338と、ランプ駆動部340と、操作信号処理部343と、インターフェイス部345と、情報検出部であるカメラ350と、カメラの動作を制御する撮像制御部352と、を備えている。
ランプ311はランプハウジング310に収納され、ランプユニットとして単体でプロジェクター30から分離可能である。ランプ311には寿命があるため、消耗した場合はランプユニットごと新しいものと交換することができる。
投写光学系313は投写レンズ313aを有している。プロジェクター30は、インターフェイス部345を介して供給される映像信号に応じた光学像を投写し、投写レンズ313aを介して、投写面50に拡大して投写する。
制御部320は、映像信号処理部332、OSD処理部338、ランプ駆動部340、インターフェイス部345及び撮像制御部352と接続されている。この制御部320は、マイクロプロセッサーと、不揮発性の記憶部と、マイクロプロセッサーが直接アクセスすることができる主記憶部と、を備えている。不揮発性の記憶部には、プロジェクター30の各種動作を制御するための制御プログラム、台形歪補正量の表示などのOSD映像を生成するためのOSD情報を記憶するとともに、プロジェクター30の各種設定値等が記憶されている。
マイクロプロセッサーは、不揮発性の記憶部に記憶された制御プログラム等を実行して、プロジェクター30の動作を統括制御し、制御部320に接続された各部から入力される各種データを演算するとともに、演算結果を各部に出力する。
映像音声処理部32は、インターフェイス部345から受信した画像データをデコードして圧縮符号化前の映像データに変換し、これらをたとえばRGB信号に変換して順次映像処理部334に出力する。また、音声信号についても同様にデコードを行い、D/A変換により音声データに変換し、順次音声処理部335に出力する。映像音声処理部332にはフレームメモリー333が接続されており、映像データを1フレーム毎にフレームメモリー333に記憶させるとともに、フレームメモリー333に記憶された映像データを読み出す。
映像処理部334は、映像音声処理部332より受信したRGB信号に対してγ補正処理、台形補正処理、解像度変換処理などを行い、液晶ライトバルブ駆動部314に出力する。
液晶ライトバルブ駆動部314は、入力されたRGB信号に応じて、液晶ライトバルブ312R,G,Bを駆動する。各液晶ライトバルブ312R,G,Bは、マトリクス状の複数の画素を備えている。液晶ライトバルブ駆動部314により各画素の透過率が調整されることにより、ランプ311から射出され、色光分離光学系によって各色光に分離された、R(赤)、G(緑),B(青)の各色光を対応する液晶ライトバルブ312R,G,Bによって変調して光学像を射出する。液晶ライトバルブ312R,G,Bから射出される光学像は、クロスダイクロイックプリズムなどの合成光学系により合成され、投写光学系313の投写レンズ313aによって投写面50上に拡大投写される。
音声処理部335は、映像音声処理部332より受信した音声データをスピーカー336に出力する。なお、音声処理部335は、音量増幅部を有しており、音量の増幅を行ってスピーカー336に出力する。これにより、スピーカー336は、増幅されて入力するアナログ音声信号を出力する。
OSD処理部338は、メニュー映像や映像入力端子を検出する際の映像等のOSD情報を制御部320から受信して、OSD映像を生成する。また、生成したOSD映像と映像処理部334から受信した映像データを合成し、液晶ライトバルブ駆動部314へ送信する。
ランプ駆動部340は、制御部320からの指示に従って、ランプ311を点灯又は消灯させる点灯手段であり、例えばランプ311が高圧放電灯の場合には、始動電圧を印加する点灯回路や、適正なランプ電流を供給する安定器などにより構成される。
インターフェイス部345は、外部からの操作信号を受信し、これを制御部20に出力する。また、有線あるいは無線によってPC10と接続し、PC10から出力された画像データに予め設定された入力インターフェイス処理を実施して映像音声処理部323へ出力する。さらに、撮像制御部352が取得した撮像データを、予め設定された出力インターフェイス処理を実施してPC10へ送信する。
なお、上述したように、PC10及びプロジェクター30はUSBインターフェイスを利用して情報の送受信が可能な状態に接続されていたが、これに限らず、USBインターフェイス以外の他のインターフェイスを利用した構成を採用してもよい。また、PC10及びプロジェクター30は、例えば、ネットワーク等を利用して情報の送受信が可能な状態に接続する構成を採用しても良い。ここで、ネットワークとしては、例えば、TCP/IP等の汎用のプロトコルに基づくインターネット、イントラネット、LAN(Local Area Network)、無線通信回線等が例示できる。
撮像制御部352は、カメラ350による撮像動作を制御する。本実施形態では、カメラ350が投写面50上に描かれた指やペンデバイスの軌跡を常時撮像し、インターフェイス部345を介して撮像データをPC10へ送信する。
<投写システムの制御方法について>
次に、上記説明した投写システムの制御方法について図4〜図12を参照して説明する。本実施形態は、電子黒板アプリケーションに設定されている現在の操作モードが何れの操作モードであるかを示すアイコンをユーザーAの手元に投写することによって、操作モードの確認を容易することを可能にするものである。
次に、上記説明した投写システムの制御方法について図4〜図12を参照して説明する。本実施形態は、電子黒板アプリケーションに設定されている現在の操作モードが何れの操作モードであるかを示すアイコンをユーザーAの手元に投写することによって、操作モードの確認を容易することを可能にするものである。
ユーザーAは、プレゼンテーションを開始するにあたってプロジェクター30の電源をONすると、ランプ駆動部340はランプ311を点灯させる(図4:ステップS11)。
一方、PC10のCPUはハードディスクドライブに記憶されている電子黒板アプリケーションを実行し起動する(図5:ステップS31)。画像処理部107は、電子黒板アプリケーション画面を生成し、インターフェイス部101を介してディスプレイ12にアプリケーション画面が表示される。また、インターフェイス部101を介してプロジェクター30に電子黒板アプリケーション画面の画像データが送信される(図5:ステップS33)。また、画像処理部107は、コンテンツファイルを実行してコンテンツ画像を生成し、電子黒板アプリケーション画面にコンテンツ画像を合成する。PC10のモニターにコンテンツ画像が合成された電子黒板アプリケーション画面が表示される。また、インターフェイス部101を介してコンテンツ画像が合成された画像データをプロジェクター30へ送信する(図5:ステップS35)。
プロジェクター30は、インターフェイス部345を介して電子黒板アプリケーション画面の画像データを受信すると(図4:ステップS13:Yes)、各機能部が画像データを処理して投写光学系313の投写レンズ313aから図6に示す電子黒板アプリケーション画面70を投写する(図4:ステップS15)。また、電子黒板アプリケーション画面70にコンテンツ画像が合成された画像データを受信すると、図7に示すコンテンツ画像が合成された画面71を投写する(図4:ステップS17)。
図6に示すように、電子黒板アプリケーション画面70の左上部にはツールバー701(ツールバー画像)が形成されている。ツールバー701には、操作ボタンとして、描画モードボタン703、描画モードにおいて描画する線を青色あるいは赤色に設定する色指定ボタン705,707、消去ボタン709、人間の手をマウスのように機能させるためのマウスボタン711、現在投写されているコンテンツファイルを閉じるための終了ボタン713が含まれている。ユーザーAは、指やペンデバイスで何れかのボタンを指定することによって操作モードを実行し、または実行していた操作モードを変更する。なお、ツールバー701は、上述した操作ボタンのほか、線種モード(点線、実線等)、図形モード、編集モード等のモードボタンを備えていてもよい。ツールバー701は、使用頻度等に応じてユーザーが適宜編集することができるよう構成してもよい。
例えば、ユーザーAが指先A1で描画モードボタン703を指定し、さらに図8に示すように色指定ボタン705を指定すると、青色で描画する描画モードが設定される。すると、投写面50上を指先A1でなぞると青色の文字や線を描くことができる。ここで、投写面50上に投写されたツールバーのうち何れのボタンが指定されたのかを判定する方法としては、次のような方法がある。
撮像制御部352は、カメラ350が撮像した撮像データと、画像処理部107が生成したコンテンツ画像が合成された画像データと、を比較し、その2つの差分データを抽出する。その差分データの画面上の座標とツールバー701の画面上の座標と一致するところがある場合は、その位置に投写されているボタンが指定されたと判定する。例えば、撮像制御部352が取得した撮像データが図8に示すデータであり、画像処理部107が生成したコンテンツ画像が合成された画像データが図7に示すデータである場合、図7と図8の差分データは図9に示すデータとなる。
この差分データの特徴量を計算し、予め登録された人差し指を指した状態の手の特徴量と比較するとことで手であるか否かを判定する。特徴量が一致する場合は、その差分データが手であると判定し、この差分データ715の指先の位置が、ツールバー701の青色の色指定ボタン705が投写されている座標と一致していれば、色指定ボタン705が指定されたと判定することができる。このとき、状態管理部105は、操作モードを「描画モード−青色」と記憶する。
撮像制御部352は、常時、手の指示する軌跡を撮像し(図4:ステップS19)、PC10へ送信する(図4:ステップS21)。PC10は撮像データを受信すると(図5:ステップS37:Yes)、操作位置検出部104は電子黒板アプリケーション画面と、撮像データと、の差分データを検出する。さらに、その差分データが手であるか否かを判定し、差分データが手の形状をしていることがわかると、手の位置を取得する(図5:ステップS39)。画像処理部107は、設定されている現在の操作モードを感覚的に認識させるためのアイコン画像を、操作モード画像記憶部106から読み出し生成する(図5:ステップS41)。そして、画像処理部107は、その差分データが位置する座標に画像を合成した画像データを生成し、プロジェクター30へ送信する(図5:ステップS43)。つまり、PC10は、描画モードを示す鉛筆マークを青色で示した画像717を合成した画像データをプロジェクター10へ送信する。
プロジェクター30は、画像717が合成された画像データを受信すると、図10に示すように、投写光学系313の投写レンズ313aから電子黒板のアプリケーション画面に操作モードを示す画像717が合成された画面77を投写する(図4:ステップS23)。画像717がユーザーAの手に投写されるので、ユーザーAは視線を手元からずらすことなく、鉛筆アイコンを見れば、現在の操作モードが描画モードであることを認識することができる。また、鉛筆アイコンが青色にスポットされていることで、青色の描画モードであることを容易に認識することが可能である。
また、図11に示すように投写面50上でユーザーAの手の位置が移動すると、画像717もそれに追従して移動する。すなわち、撮像制御部352は常時投写面50上を撮像しているので、PC10は撮像データを受信し、操作位置検出部104が撮像データと投写中の電子黒板アプリケーション画面との差分データ(ユーザーが投写面50上を操作している手の部分)を取得することができる。差分データを取得できれば、画像処理部107が差分データの位置に画像717を合成し、プロジェクター30へ送信すればよい。
また、図12に示すように投写面50上でユーザーAの指先がコンテンツ画面の特定箇所を囲む動作をすると、画像717もそれに追従して移動するとともに、青色の曲線719で「3、項目3」の部分を囲う線が投写される。すなわち、撮像制御部352は常時投写面50上を撮像しているので、指先A1の動作の軌跡を取得することもできる。PC10は撮像データを受信し、操作位置検出部104が撮像データに基づいて、指先の軌跡を座標に変換する。画像処理部107は、状態管理部105が記憶している描画モードに対応した青色の曲線719を合成し、プロジェクター30へ送信すればよい。
また、ユーザーAは指先A1で消去ボタン709を指定すれば、消去モードへ移行することができる。消去モードは、描画モードにおいて描いた文字や線の上をなぞることによって、描いた情報を消去することができる。消去ボタン709が指定されると、上述したように状態管理部105が現在の操作モードを「消去モード」として記憶する。画像処理部107は、図13に示すように撮像データに基づいて検出したユーザーAの手の位置に、状態管理部105が記憶している消去モードを示す消しゴムアイコン721を合成した画像データを生成し、プロジェクター30へ送信すればよい。つまり、ユーザーAの手入力によって操作されたツールバー709の消去ボタン709の表示と同じ種類の消しゴムアイコン721が、ユーザーAの手に投写される。
また、図14に示すようにユーザーAは指先A1でマウスボタン711を指定すれば、マウスモードへ移行することができる。マウスモードは、例えば指先A1で投写面上を1回タッチする動作を行なうことでクリックと同じ機能を実行し、さらに、クリックした状態で指先A1を移動させると、ドラッグ動作を行なうことができる。クリック状態と、ドラッグ状態も対応するアイコンをユーザーの手元に投写することができる。マウスボタン711が指定されると、上述したように状態管理部105が現在の操作モードを「マウスモード」として記憶する。画像処理部107は、撮像データに基づいて検出したユーザーAの手の位置に、状態管理部105が記憶しているマウスモードを示す矢印アイコン723を合成した画像データを生成し、プロジェクター30へ送信すればよい。
なお、描画モードにおける色指定のように、クリックの場合は青い矢印アイコン、ドラッグ状態の場合は赤い矢印マークなどに分類してもよい。
なお、描画モードにおける色指定のように、クリックの場合は青い矢印アイコン、ドラッグ状態の場合は赤い矢印マークなどに分類してもよい。
また、エラー状態が発生している場合は、ユーザーAの手に赤いスポットを点滅させてもよい。
なお、上記実施形態では、プロジェクター30に内蔵されたカメラ350で投写面50を撮像し、撮像データに基づいて入力操作位置である手の位置を検出して、操作モードに対応する画像を合成した。しかし、入力操作位置を検出する方法に他の方法を採用してもよい。以下に入力操作位置を検出する他の方法について説明する。
<2つのカメラによる撮像データの視差を利用する方法>
図15に示すように、投写面50を異なる方向から撮像する2つのカメラ51,53を備え、各カメラ51,53からの撮像データに基づいてユーザーAの手の奥行き方向の情報を取得する方法である。
まず、2つのカメラ51,53の撮像データ(図16(a)及び図16(b)参照)の視差から、投写面50とプロジェクター30の間の3次元距離を計算する。投写面50の手前にある対象物を3次元距離の情報から特定する。対象物の特徴量を計算し予め登録されている手の特徴量と比較し、手であるかどうかを認識する。手であることが認識された場合は、その位置に操作モードに対応する画像を投写する。この方法によれば、投写面50と手との距離を算出できるため、ある一定の距離lより近くに手が接近した場合は投写面50にタッチした状態であると認識することができる。
図15に示すように、投写面50を異なる方向から撮像する2つのカメラ51,53を備え、各カメラ51,53からの撮像データに基づいてユーザーAの手の奥行き方向の情報を取得する方法である。
まず、2つのカメラ51,53の撮像データ(図16(a)及び図16(b)参照)の視差から、投写面50とプロジェクター30の間の3次元距離を計算する。投写面50の手前にある対象物を3次元距離の情報から特定する。対象物の特徴量を計算し予め登録されている手の特徴量と比較し、手であるかどうかを認識する。手であることが認識された場合は、その位置に操作モードに対応する画像を投写する。この方法によれば、投写面50と手との距離を算出できるため、ある一定の距離lより近くに手が接近した場合は投写面50にタッチした状態であると認識することができる。
<赤外線カメラを利用する方法>
また、ユーザーが手首に赤外線LEDが付いたリストバンドを装着し、投写面50を赤外線カメラで撮像し、赤外線カメラで取得した撮像データから、リストバンドの赤外線LEDの位置を検出する。リストバンドの位置から手の位置を推定し、その位置に操作モードに対応する画像を投写することができる。また、先端に赤外線LEDがついたペンデバイスを利用した場合は、赤外線カメラで撮像した撮像でデータから、ペンの先端の位置を検出する。ペンの先端の位置から手の位置を推定し、その位置に操作モードに対応する画像を投写することができる。また、ペン先に投写面50との接触を検出する接触センサーを設け、接触センサーの出力状態に応じてLEDの点灯パターンを変えることができる。点灯パターンから、ペンデバイスが投写面50上をタッチした状態やホバー状態を判別することができる。
また、ユーザーが手首に赤外線LEDが付いたリストバンドを装着し、投写面50を赤外線カメラで撮像し、赤外線カメラで取得した撮像データから、リストバンドの赤外線LEDの位置を検出する。リストバンドの位置から手の位置を推定し、その位置に操作モードに対応する画像を投写することができる。また、先端に赤外線LEDがついたペンデバイスを利用した場合は、赤外線カメラで撮像した撮像でデータから、ペンの先端の位置を検出する。ペンの先端の位置から手の位置を推定し、その位置に操作モードに対応する画像を投写することができる。また、ペン先に投写面50との接触を検出する接触センサーを設け、接触センサーの出力状態に応じてLEDの点灯パターンを変えることができる。点灯パターンから、ペンデバイスが投写面50上をタッチした状態やホバー状態を判別することができる。
また、上記実施形態では、入力操作位置としてユーザーAの手に操作モードを示す画像を投写した。しかし、入力操作位置は、投写面上のユーザーAの手の位置に限定されるわけではない。すなわち、ペンの先端が指示しているポイント近傍を入力操作位置として、操作モードを示す画像をペンの先端の軌跡に追従するよう投写してもよい。また、指示棒やレーザーポインターなどを使って投写面より離れた位置からユーザーが操作を行なう場合も、指示棒及びレーザーポインターが指し示す投写面上のポイント近傍を入力操作位置として操作モードを示す画像を投写してもよい。さらに、ユーザーの指や腕を入力操作位置として投写してもよい。
なお、上記実施形態では、指先やペンデバイスの軌跡をプロジェクター30に内蔵されたカメラ350を用いて、カメラ350が撮像した撮像データに基づき入力操作位置を検出したが、その他の構成を採用してもよい。例えば以下のものが挙げられる。
(デジタル感圧型)
2枚の電気伝導性のシートの間に微妙な空隙があり、これに触れると表面のシートが接触し、その部分で通電する。シートの電気抵抗値によって接触した座標を取得する構成である。
(電磁気型)
ボード表面の直下にX軸方向とY軸方向のワイヤーが埋め込まれていて、コイルを埋め込んだペンデバイスとの電磁誘導で接触位置を取得する構成である。
(レーザー型)
ボードの上辺の両端に赤外線レーザーが設置されており、レーザー光線が投写面の表面を監視しており、ペンデバイスについている反射板がレーザー光線を反射することで、その位置を検出する構成である。
(赤外線、超音波型)
上下左右に赤外線発光素子を置き、縦横斜めに赤外線を走らせ、遮られた位置を検出することにより、座標を取得する構成である。
(光学、赤外線型)
投写面の表面を指やマーカーで押すとボード上の表面を監視している赤外線発光装置と受光装置によって三角法的に位置を取得する構成である。
(デジタル感圧型)
2枚の電気伝導性のシートの間に微妙な空隙があり、これに触れると表面のシートが接触し、その部分で通電する。シートの電気抵抗値によって接触した座標を取得する構成である。
(電磁気型)
ボード表面の直下にX軸方向とY軸方向のワイヤーが埋め込まれていて、コイルを埋め込んだペンデバイスとの電磁誘導で接触位置を取得する構成である。
(レーザー型)
ボードの上辺の両端に赤外線レーザーが設置されており、レーザー光線が投写面の表面を監視しており、ペンデバイスについている反射板がレーザー光線を反射することで、その位置を検出する構成である。
(赤外線、超音波型)
上下左右に赤外線発光素子を置き、縦横斜めに赤外線を走らせ、遮られた位置を検出することにより、座標を取得する構成である。
(光学、赤外線型)
投写面の表面を指やマーカーで押すとボード上の表面を監視している赤外線発光装置と受光装置によって三角法的に位置を取得する構成である。
また、上記実施形態では、カメラ350はプロジェクター30に内蔵されていたが、外付けのものであってもよい。さらに、必ずしもプロジェクター30と接続されている必要はなく、PC10と接続されていてもよい。
また、上記実施形態では、PC10の画像処理部107が、操作モードに応じたアイコンを元の画像データに合成して、合成後の画像データをプロジェクター30が受信して投写処理を行っていた。しかし、画像処理部107は、アイコンの画像と、アイコンを合成する位置情報とをプロジェクター33へ送信し、プロジェクター30の映像音声処理部332が位置情報に基づいてアイコンの画像を元の画像データに合成してもよい。この場合は、映像音声処理部332が投写画像変更部として機能する。
また、上記実施形態では、描画データ記憶部103、操作位置検出部104、状態管理部105、操作モード画像記憶部106及び画像処理部107の各機能をPC10側に搭載したが、プロジェクター30側に全て搭載してもよい。この場合は、プロジェクター30単体で本発明の投写システム及び投写システムの制御方法を実現することができる。また、一部の機能のみをプロジェクター30側に搭載してもよい。
また、上記実施形態では、光源からの光を光変調部である液晶ライトバルブ312R,G,Bによって変調し投写する液晶ライトバルブ方式のプロジェクターを例示したが、本発明はその他の方式を採用するプロジェクターにも適用することもできる。具体的には、DMD(Digital Micro mirror Device)を用いた投写方式、所謂、DLP(Digital Light Processing)(登録商標)方式である。すなわち、DLP方式は白色に光るランプの光をレンズで集光してDMDに当て、DMDの個々のミラーがオン状態に傾いているときの光を他のレンズで拡大し、スクリーンに投影する方式であり、本発明はこのような方式のプロジェクターにも適用することができる。
また、本実施形態では、光源としてランプ311を用いて投写するプロジェクター30を含む投写システム1を例示したが、光源としてLED光源やレーザー光源などの固体光源を用いてもよく、これらを組み合わせた光源により投写するプロジェクターを用いてもよい。
1:投写システム、10:PC、12:ディスプレイ、30:プロジェクター、50:投写面、102:制御部、103:描画データ記憶部、104:操作位置検出部(入力操作位置を検出する検出部)、105:状態管理部、106:操作モード画像記憶部、107:画像処理部(投写画像変更部)、311:ランプ、312R,G,B:液晶ライトバルブ、313:投写光学系、314:液晶ライトバルブ駆動部、320:制御部、332:映像音声処理部、333:フレームメモリー、334:映像処理部、340:ランプ駆動部、701:ツールバー、703:描画モードボタン、705,707:色指定ボタン、709:消去モードボタン、711:マウスモードボタン、713:終了ボタン。
Claims (6)
- 手入力が行なわれる操作面に対して投写画像を投写する投写部と、
前記手入力を行なう際の操作モードの設定状態を管理する状態管理部と、
前記操作面に対して前記手入力が行われている入力操作位置を検出する検出部と、
設定されている前記操作モードに応じた画像が前記入力操作位置に投写されるように前記投写画像を変更する投写画像変更部と、
を有することを特徴とする投写システム。 - 請求項1に記載の投写システムであって、
前記投写画像変更部は、前記操作モードにおける入力操作の動きに応じた画像が前記入力操作位置に投写されるように前記投写画像を変更することを特徴とする投写システム。 - 請求項1又は2に記載の投写システムであって、
前記投写画像変更部は、前記入力操作位置の移動に追従して前記画像が移動するように前記投写画像を変更することを特徴とする投写システム。 - 請求項1〜3の何れかに記載の投写システムであって、
前記投写画像変更部は、前記画像がユーザーの手に投写されるように前記投写画像を変更することを特徴とする投写システム。 - 請求項1〜4の何れかに記載の投写システムであって、
前記投写画像は、前記操作モードを設定するための操作ボタンを備えたツールバー画像を含み、
前記投写画像変更部は、前記手入力によって操作された前記操作ボタンの表示と同じ種類のアイコンを、前記画像として前記ユーザーの手に投写されるように前記投写画像を変更することを特徴とする投写システム。 - 手入力が行なわれる操作面に対して投写画像を投写するステップと、
前記操作面に対して前記手入力が行われている入力操作位置を検出するステップと、
手入力を行なう際に設定されている操作モードに応じた画像が、前記入力操作位置に投写されるように前記投写画像を変更するステップと、
を有することを特徴とする投写システムの制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010068358A JP2011203830A (ja) | 2010-03-24 | 2010-03-24 | 投写システム及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010068358A JP2011203830A (ja) | 2010-03-24 | 2010-03-24 | 投写システム及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011203830A true JP2011203830A (ja) | 2011-10-13 |
Family
ID=44880443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010068358A Pending JP2011203830A (ja) | 2010-03-24 | 2010-03-24 | 投写システム及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011203830A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194850A (ja) * | 2011-03-17 | 2012-10-11 | Seiko Epson Corp | 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム |
JP2013235318A (ja) * | 2012-05-07 | 2013-11-21 | Seiko Epson Corp | 投写型表示装置 |
JP2014035573A (ja) * | 2012-08-07 | 2014-02-24 | Ricoh Co Ltd | 情報処理装置及びプログラム |
JP2014170319A (ja) * | 2013-03-01 | 2014-09-18 | Ricoh Co Ltd | システム、画像投影装置、制御方法およびプログラム |
JP2014220792A (ja) * | 2013-04-08 | 2014-11-20 | セイコーエプソン株式会社 | プロジェクター、表示装置、およびプロジェクターの制御方法 |
JP2015041185A (ja) * | 2013-08-21 | 2015-03-02 | 株式会社リコー | 座標検知装置、及び座標検知方法、及び電子情報ボードシステム |
CN104516184A (zh) * | 2013-10-02 | 2015-04-15 | 胜华科技股份有限公司 | 触控投影系统及其方法 |
JP2015096963A (ja) * | 2014-12-24 | 2015-05-21 | セイコーエプソン株式会社 | インタラクティブシステム、プロジェクター、およびプロジェクターの制御方法 |
JP2015106864A (ja) * | 2013-12-02 | 2015-06-08 | セイコーエプソン株式会社 | 画像表示装置、プロジェクター、および画像表示装置の制御方法 |
JP2015115682A (ja) * | 2013-12-10 | 2015-06-22 | セイコーエプソン株式会社 | 画像表示装置、プロジェクター、および画像表示装置の制御方法 |
JP2015176461A (ja) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | 映像信号出力装置、映像信号出力方法、プログラム及び表示システム |
WO2015193995A1 (ja) * | 2014-06-18 | 2015-12-23 | 日立マクセル株式会社 | 投写型映像表示装置、映像表示方法及び操作検出装置 |
CN105313547A (zh) * | 2014-07-07 | 2016-02-10 | 中国人民解放军军械工程学院 | 变轨循环背投黑板 |
US9639264B2 (en) | 2012-05-07 | 2017-05-02 | Seiko Epson Corporation | Image projector device |
US10331274B2 (en) | 2014-09-18 | 2019-06-25 | Nec Display Solutions, Ltd. | Light source device, electronic blackboard system, and method of controlling light source device |
JP2020095344A (ja) * | 2018-12-10 | 2020-06-18 | セイコーエプソン株式会社 | 表示装置の制御方法および表示装置 |
JP2020173494A (ja) * | 2019-04-08 | 2020-10-22 | 三菱電機株式会社 | 手書き文字認識装置および手書き文字認識方法 |
-
2010
- 2010-03-24 JP JP2010068358A patent/JP2011203830A/ja active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194850A (ja) * | 2011-03-17 | 2012-10-11 | Seiko Epson Corp | 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム |
US9639264B2 (en) | 2012-05-07 | 2017-05-02 | Seiko Epson Corporation | Image projector device |
JP2013235318A (ja) * | 2012-05-07 | 2013-11-21 | Seiko Epson Corp | 投写型表示装置 |
US10241592B2 (en) | 2012-05-07 | 2019-03-26 | Seiko Epson Corporation | Image projector device |
JP2014035573A (ja) * | 2012-08-07 | 2014-02-24 | Ricoh Co Ltd | 情報処理装置及びプログラム |
JP2014170319A (ja) * | 2013-03-01 | 2014-09-18 | Ricoh Co Ltd | システム、画像投影装置、制御方法およびプログラム |
JP2014220792A (ja) * | 2013-04-08 | 2014-11-20 | セイコーエプソン株式会社 | プロジェクター、表示装置、およびプロジェクターの制御方法 |
JP2015041185A (ja) * | 2013-08-21 | 2015-03-02 | 株式会社リコー | 座標検知装置、及び座標検知方法、及び電子情報ボードシステム |
CN104516184A (zh) * | 2013-10-02 | 2015-04-15 | 胜华科技股份有限公司 | 触控投影系统及其方法 |
JP2015106864A (ja) * | 2013-12-02 | 2015-06-08 | セイコーエプソン株式会社 | 画像表示装置、プロジェクター、および画像表示装置の制御方法 |
JP2015115682A (ja) * | 2013-12-10 | 2015-06-22 | セイコーエプソン株式会社 | 画像表示装置、プロジェクター、および画像表示装置の制御方法 |
JP2015176461A (ja) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | 映像信号出力装置、映像信号出力方法、プログラム及び表示システム |
WO2015193995A1 (ja) * | 2014-06-18 | 2015-12-23 | 日立マクセル株式会社 | 投写型映像表示装置、映像表示方法及び操作検出装置 |
CN105313547A (zh) * | 2014-07-07 | 2016-02-10 | 中国人民解放军军械工程学院 | 变轨循环背投黑板 |
US10331274B2 (en) | 2014-09-18 | 2019-06-25 | Nec Display Solutions, Ltd. | Light source device, electronic blackboard system, and method of controlling light source device |
JP2015096963A (ja) * | 2014-12-24 | 2015-05-21 | セイコーエプソン株式会社 | インタラクティブシステム、プロジェクター、およびプロジェクターの制御方法 |
JP2020095344A (ja) * | 2018-12-10 | 2020-06-18 | セイコーエプソン株式会社 | 表示装置の制御方法および表示装置 |
JP2020173494A (ja) * | 2019-04-08 | 2020-10-22 | 三菱電機株式会社 | 手書き文字認識装置および手書き文字認識方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011203830A (ja) | 投写システム及びその制御方法 | |
JP6141596B2 (ja) | 表示装置、表示システム及び表示装置のデータ供給方法 | |
JP5874401B2 (ja) | 表示装置、プロジェクター、表示システム及びデバイスの切替方法 | |
CN102194136B (zh) | 信息识别系统及其控制方法 | |
CN103870233B (zh) | 显示装置及其控制方法 | |
JP6064319B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US10276133B2 (en) | Projector and display control method for displaying split images | |
US9898996B2 (en) | Display apparatus and display control method | |
JP2013064917A (ja) | 表示装置、プロジェクター、及び、表示方法 | |
US20150261385A1 (en) | Picture signal output apparatus, picture signal output method, program, and display system | |
CN105468210A (zh) | 位置检测装置、投影仪以及位置检测方法 | |
CN107239178A (zh) | 显示系统、信息处理装置、投影仪及信息处理方法 | |
TW201621618A (zh) | 顯示裝置、投影機及顯示控制方法 | |
JP6117470B2 (ja) | 表示装置、プロジェクター、画像表示方法及び表示システム | |
CN104683717A (zh) | 双向显示方法以及双向显示装置 | |
JP6269801B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
CN104978079A (zh) | 双向显示方法以及双向显示装置 | |
US20200081553A1 (en) | Display device, electronic blackboard system, and user interface setting method | |
TWI518553B (zh) | 具多模式之互動投影系統及其指示裝置與控制方法 | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
KR101909105B1 (ko) | 쌍방향 표시 방법 및 쌍방향 표시 장치 | |
JP5899993B2 (ja) | 画像表示装置、画像表示システム、および画像表示装置の制御方法 | |
TWI408488B (zh) | 互動式投影系統及其系統控制方法 | |
JP6682768B2 (ja) | 表示システム、表示装置、情報処理装置及び制御方法 | |
JP6056447B2 (ja) | 表示装置、及び、表示装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120817 |