JP2015111772A - 投影装置 - Google Patents
投影装置 Download PDFInfo
- Publication number
- JP2015111772A JP2015111772A JP2013253340A JP2013253340A JP2015111772A JP 2015111772 A JP2015111772 A JP 2015111772A JP 2013253340 A JP2013253340 A JP 2013253340A JP 2013253340 A JP2013253340 A JP 2013253340A JP 2015111772 A JP2015111772 A JP 2015111772A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- unit
- clock
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Transforming Electric Information Into Light Information (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザの体の特定部位が検出されたときに特定の対象物に画像を投影する投影部の存在をユーザが自然に認識可能な投影装置を提供する。
【解決手段】投影装置(1)は、可視レーザ光を出射して、第1の対象物に画像を投影する投影部(30,30a,31)と、投影部による画像の投影位置を変更可能に投影部を搭載する可動支持部(12,13)と、投影部により画像を投影可能な空間内において、空間内の物体までの距離を示す深度データを取得する深度センサ(20,25)と、深度データに基づき空間内でユーザの体の特定部位が検出されたときに、可動支持部を制御して、投影部による画像の投影位置を第1の対象物から第2の対象物に変更させる制御部(50)とを有する。
【選択図】図1
【解決手段】投影装置(1)は、可視レーザ光を出射して、第1の対象物に画像を投影する投影部(30,30a,31)と、投影部による画像の投影位置を変更可能に投影部を搭載する可動支持部(12,13)と、投影部により画像を投影可能な空間内において、空間内の物体までの距離を示す深度データを取得する深度センサ(20,25)と、深度データに基づき空間内でユーザの体の特定部位が検出されたときに、可動支持部を制御して、投影部による画像の投影位置を第1の対象物から第2の対象物に変更させる制御部(50)とを有する。
【選択図】図1
Description
本発明は、可視レーザ光により画像を投影する投影装置に関する。
例えば、テレビ、ビデオ等を操作するための情報入力を行うために、リモコン等の情報入力装置を利用することが一般的に行われている。しかしながら、いざ利用しようとすると、リモコン等の置き場所が不明であったりして、利用したいときに利用できないといった不具合がある。
そこで、こうした問題を解消するために、リモコン等の機器を用いず情報入力を行うことができる装置が提案されている。例えば、特許文献1には、可視レーザ光によりテーブルやユーザの体の一部などに情報入力用画像を投影し、その画像に対するユーザの操作を検出して情報入力を行う情報入力装置が記載されている。
特許文献1の装置は、画像を投影可能な空間内で例えばユーザが手のひらを差し出せば、その手のひらを検出して手のひら上に情報入力用画像を投影するため、小型のレーザプロジェクタによる投影画像で情報入力を行うことができる。しかしながら、そうした情報入力装置が小型の投影装置で構成されていると、ユーザは、通常その存在に気付かず、手のひらを差し出す等の画像投影のきっかけとなる動作を行わないため、投影装置を用いた情報入力機能を有効利用できないおそれがある。このため、そうした投影装置があることをユーザが自然に認識できるような何らかの手段が必要である。
そこで、本発明では、ユーザの体の特定部位が検出されたときに特定の対象物に画像を投影する投影部の存在をユーザが自然に認識可能な投影装置を提供することを目的とする。
本発明の投影装置は、可視レーザ光を出射して、第1の対象物に画像を投影する投影部と、投影部による画像の投影位置を変更可能に投影部を搭載する可動支持部と、投影部により画像を投影可能な空間内において、空間内の物体までの距離を示す深度データを取得する深度センサと、深度データに基づき空間内でユーザの体の特定部位が検出されたときに、可動支持部を制御して、投影部による画像の投影位置を第1の対象物から第2の対象物に変更させる制御部とを有することを特徴とする。
本発明の投影装置では、制御部は、特定部位が検出されていないときは第1の対象物に画像が投影されるように、可動支持部と投影部を制御することが好ましい。
本発明の投影装置では、制御部は、深度データに基づき第1の対象物の表面形状を認識し、投影部が投影する画像の形状を表面形状に応じて補正することが好ましい。
本発明の投影装置では、深度センサは、空間全体の赤外線画像を撮像して深度データを取得する第1の検知部と、可動支持部に搭載され、投影部による画像の投影位置で赤外線ビームを2次元状に走査して、赤外線ビームの反射光から深度データを取得する第2の検知部とを有し、制御部は、第1の検知部が取得した深度データから特定部位を検出し、第2の検知部が取得した深度データから第1の対象物の形状を認識することが好ましい。
本発明の投影装置では、制御部は時計機能を有し、投影部は、時計機能により求められる時刻を示す時計画像を第1の対象物に投影することが好ましい。
本発明の投影装置では、投影部は、第2の対象物に情報入力用画像を投影し、制御部は、深度データに基づき情報入力用画像に対するユーザの入力操作を検出することが好ましい。
本発明の投影装置では、制御部は、情報入力用画像に対するユーザの入力操作に応じて、時計画像の表示状態の設定、時計画像が示す時刻の設定、又は時計機能に付随するアラームの設定を行うことが好ましい。
本発明の投影装置では、制御部はカレンダの情報を保持し、投影部は、第1の対象物にカレンダの画像を投影することが好ましい。
本発明の投影装置によれば、ユーザの体の特定部位が検出されたときに特定の対象物に画像を投影する投影部の存在を、ユーザは自然に認識することができる。
以下、図面を参照し、投影装置について説明する。ただし、本発明が、図面又は以下に記載される実施形態に限定されるものではないことを理解されたい。なお、図面の説明において、同一の構成要素には同一の符号を付し、重複する説明は省略する。また、説明のため、部材の縮尺は適宜変更している。
この投影装置は、通常は、第1の対象物(例えば、壁等)に、その対象物に応じた形状の画像を投影する。この画像は、例えば仮想的な時計(バーチャルクロック)として機能する時計画像であり、実際の時計と同様に現在の時刻を表示する。そして、投影装置が設置された空間内で例えばユーザが手のひらを差し出す等の動作を行うと、この投影装置は、深度センサにより取得された深度データに基づいて、その動作を検出する。このとき、ユーザの手のひらなどの特定部位が検出されると、この投影装置は、第1の対象物から第2の対象物(例えば、検出された手のひら等)に画像の投影位置を変更し、第2の対象物に情報入力用画像を投影する。
ユーザは、その情報入力用画像に対して入力操作を行うことにより、投影された時計や、他の被操作装置を操作することができる。このように、例えば時計画像が投影されていると、ユーザは、自分がいる空間に投影装置が設置されていることがわかる。そこで、この投影装置は、ユーザに入力操作を行うきっかけを与えるものとして、例えば壁等に時計画像を固定表示する。なお、以下では時計画像を固定表示する例を説明するが、固定表示されるものは例えばカレンダ等、時計以外の画像でもよく、表示内容は特定のものには限定されない。
図1は、投影装置1の全体構成を示す外観斜視図である。図2は、投影装置1の概略構成図である。
投影装置1は、パンティルト架台10、第1の検知部20、第2の検知部25、レーザプロジェクタ30、制御部50等を有する。投影装置1は、少なくとも床41、天井42及び壁43を有する空間40に配置されている。空間40は、完全に閉じられた空間であっても、開放的な空間であってもよい。パンティルト架台10は可動支持部の一例であり、第1の検知部20と第2の検知部25は深度センサの一例であり、レーザプロジェクタ30は投影部の一例である。なお、図1では、レーザプロジェクタ30についてはその出射部30aのみを示している。
パンティルト架台10は、基部11、第1の回転部12、第2の回転部13等を有する。基部11は天井42に固定されている。第1の回転部12は第1のモータ15によってθ方向に回転し、第2の回転部13は第2のモータ16によってφ方向に回転する。なお、第1の回転部12がθ方向に回転すると、レーザプロジェクタ30による投影画像は矢印Aの方向に移動する。また、第2の回転部13がφ方向に回転すると、投影画像は矢印Bの方向に移動する。
レーザプロジェクタ30は、例えば、RGB各色レーザ光源、RGBレーザ光用ファイバ、ファイバピグテイルモジュール、RGBファイバコンバイナ、可視シングルモードファイバ、出射部(プロジェクションヘッド)30a等を有する超小型プロジェクタである。レーザプロジェクタ30は、可視レーザ光によって画像を投影するため、被投影面と出射部30aとの間の距離に拘わらず、常に良好な画像を被投影面上に形成することができるというフォーカスフリー特性を有する。
RGB各色レーザ光源は、それぞれ半導体レーザ(レーザダイオード)で構成され、対応する色の可視レーザ光を発光する。ファイバピグテイルモジュールは、各色レーザ光源が発光するRGB各色のレーザ光をそれぞれRGBレーザ光用ファイバへ導入する。RGBファイバコンバイナは、RGBレーザ光用ファイバからの光を合波する。そして、可視シングルモードファイバは、合波された光を出射部30aへ導く。
出射部30aは、パンティルト架台10の第2の回転部13に取り付けられており、可視シングルモードファイバによって導かれた可視レーザ光により、空間40内の対象物に画像を投影する。出射部30aは、第1の回転部12と第2の回転部13の回転によってその向きを任意に変えられるので、画像の投影位置を任意に変更することができる。このように、投影装置1は、大型のプロジェクタで空間40の全体に対して投影を行うのではなく、第1の回転部12と第2の回転部13により出射部30aを移動させてアダプティブに投影位置を制御し、最小の出力で明るい画像を投影する。
出射部30aには、SLM(Spatial Light Modulator:空間光位相変調器)として、例えばLCOS(Liquid Crystal on Silicon)が用いられる。なお、MEMS(Micro Electro Mechanical System)ミラーを用いたスポット走査型の出射部、又はファイバ走査型の出射部を用いて、出射部30aを一層小型化してもよい。
また、レーザプロジェクタ30の可視シングルモードファイバと出射部30a以外の部分は、制御部50と共にパンティルト架台10の基部11内に収納してもよいし、天井42に別途制御ボックスを取り付けて、その中に収納してもよい。あるいは、レーザプロジェクタ30の全体を、パンティルト架台10の第2の回転部13に取り付けてもよい。また、投影する画像によっては、レーザプロジェクタ30は、単色やRGB以外の波長の可視レーザ光源等を用いたものでもよい。
第1の検知部20は、パンティルト架台10の基部11に固定されており、第1の赤外線発光部21、赤外線カメラ22等を有する。第1の赤外線発光部21は、レーザプロジェクタ30により画像を投影可能な空間40全体に赤外線を照射する。赤外線カメラ22は、空間40内に存在する物体からの赤外線の反射光を受光して撮像し、赤外線画像の画素毎の位置座標データ(x,y)と、各画素に対応する撮像された物体までの距離を示す深度データ(r)とを、制御部50に出力する。
なお、第1の赤外線発光部21は、赤外線を発光する半導体レーザ(レーザダイオード)である。第1の赤外線発光部21には、網膜まで到達せず目に損傷を与えにくい1400nm〜2600nmの波長領域のレーザ(アイセーフレーザ)を使用することが好ましい。しかしながら、この波長領域では例えばInGaAs系の赤外線カメラを用いる必要があり高価なため、実際には、赤外線カメラ22として低コストのSi系のCMOS又はCCDカメラを使うこともある。この場合、第1の赤外線発光部21としては、Si系のCMOSやCCDカメラで感度のある800nm〜1100nmの波長領域の半導体レーザを使用するとよい。
図2に示すように、第1の赤外線発光部21の前面には、偏光板23が配置される。偏光板23は、第1の赤外線発光部21が発光した赤外線のレーザ光のうち、偏光方向が一定方向の直線偏光(例えばP偏光)の赤外線のみを出射する。また、赤外線カメラ22の前面にも、偏光板24が配置される。これにより、赤外線カメラ22は、物体からの反射光のうち偏光方向が出射光と同じ一定方向の直線偏光(例えばP偏光)の赤外線のみを受光して撮像する。
第2の検知部25は、パンティルト架台10の第2の回転部13にレーザプロジェクタ30の出射部30aと共に搭載されており、第2の赤外線発光部26、赤外線検知部27等を有する。第2の赤外線発光部26は、赤外線を発光する半導体レーザ(レーザダイオード)であり、レーザプロジェクタ30による画像の投影位置を含む所定領域に赤外線を照射する。赤外線検知部27は、受光素子としてフォトダイオードを有し、その領域内にある物体からの反射光を受光して検知する。また、赤外線検知部27は演算部を有し、その演算部により、フォトダイオードの検知信号や、その検知信号と赤外線レーザの出射光との強度比、赤外線レーザの照射角度等から物体の位置座標データを算出し、例えばTOF(Time of Flight)法を用いて検知物体までの距離を示す深度データを算出する。そして、赤外線検知部27は、算出した物体の位置座標データ(x,y)と深度データ(r)を、制御部50に出力する。なお、赤外線検知部27の演算部の機能は、制御部50に含めてもよい。
第2の赤外線発光部26にも、第1の赤外線発光部21と同様に、アイセーフレーザを発光するものを使用することが好ましい。しかしながら、1400nmより長い波長領域では例えばInGaAs系の赤外線センサを用いる必要があり高価なため、実際には、赤外線検知部27として低コストのSi系のフォトダイオードを使うこともある。この場合、第2の赤外線発光部26としては、Si系のフォトダイオードで感度のある800nm〜1100nmの波長領域の半導体レーザを使用するとよい。
図2に示すように、第2の赤外線発光部26の前面には、偏光板28が配置される。偏光板28は、第2の赤外線発光部26が発光した赤外線のレーザ光のうち、偏光方向が、第1の検知部20で使用される赤外線の直線偏光方向と直交する一定方向の直線偏光(例えばS偏光)の赤外線のみを出射する。また、赤外線検知部27の前面にも、偏光板29が配置される。これにより、赤外線検知部27は、物体からの反射光のうち偏光方向が出射光と同じ一定方向の直線偏光(例えばS偏光)の赤外線のみを受光して検知する。
このように、第1の検知部20と第2の検知部25は、直線偏光方向が互いに直交する赤外線を使用することにより、赤外線カメラ22が受光する赤外線と赤外線検知部27が受光する赤外線との相互混信を低減させて、SN比を向上させる。しかしながら、このような偏光多重方式では偏光解消物体に赤外線を照射したときに混信が発生するため、第1の検知部20と第2の検知部25は、互いに異なる波長の赤外線を照射しフィルタを介してそれぞれの赤外線を受光する波長多重方式を使用してもよい。あるいは、第1の検知部20と第2の検知部25は、混信を防ぐために、異なる発光タイミングで赤外線を照射する時間多重方式を使用してもよい。
第1の検知部20は、赤外線カメラ22のリフレッシュレートが1秒間に30フレーム程度であるため、これより速い物体の移動に追従できないが、第2の検知部25は、第2の赤外線発光部26により赤外線が照射される投影空間内にある物体を、TOF法によってより高速に検知することができる。さらに、第2の検知部25は、出射部30aと共に第2の回転部13に一体的に搭載されているので、出射部30aによる投影画像が移動しても、投影空間内をより高速にスキャンすることができる。このため、第2の検知部25を利用すれば、例えば投影空間内に顔や目が進入するのを迅速に検知して、可視レーザ光が人の顔や目に照射されるのを防ぐことも可能になる。
図3は、第2の検知部25の構成例を示す図である。図3に示す第2の検知部25では、第2の赤外線発光部26と赤外線検知部27は、下部に透明窓253を設けた筐体252内に、赤外線の出射光軸と受光光軸が互いに直交するように配置されている。そして、第2の赤外線発光部26の赤外線の出射光軸に沿って、偏光板28とビームスプリッタ250と走査部であるMEMSミラー251とが順次配置されている。ビームスプリッタ250とMEMSミラー251は、ビームスプリッタ250の半反射面とMEMSミラー251の中立時におけるミラー面が赤外線の出射光軸に対して略5°から45°の角度をなすように設置される。赤外線検知部27とビームスプリッタ250との間には、偏光板29が配置されている。
MEMSミラー251は、そのミラー面(図示せず)が矢印a方向と矢印b方向の二軸方向に回動可能に構成されており、ミラー面を各方向に回動させることによって、一点鎖線で示す赤外線ビームを、矢印c方向とそれに直交する(紙面に垂直な)方向に2次元状に走査させる。これにより、第2の検知部25は、出射部30aによる画像の投影位置を含むそれよりやや広い領域に対して、微小スポットの赤外線ビームにより高速のラスタスキャン又はリサジュースキャンを行う。
なお、二軸方向に回動するMEMSミラー251に代えて、一軸方向に回動するMEMSミラー等の振動ミラーを2枚組み合わせたものを、走査部として使用してもよい。また、ビームスプリッタ250を偏光ビームスプリッタにすれば、偏光板28,29を省略することも可能である。
制御部50は、CPU50a、RAM50b、ROM50c、I/O50d、通信I/F50e等を有するマイクロコンピュータ及びその周辺回路で構成される。CPU50aは、各種演算及び処理を行う中央処理部である。RAM50bは、入力データやCPU50aが処理するデータを一時的に記憶するランダムアクセスメモリである。ROM50cは、CPU50aが実行する動作プログラム及び固定データを格納するリードオンリメモリである。I/O50dは、パンティルト架台10、第1の検知部20、第2の検知部25、レーザプロジェクタ30との間でデータの送受信を行うための入出力ポートである。通信I/F50eは、インターネット等の外部から、投影装置1の動作に必要なデータを受信するための通信インタフェースである。制御部50は、さらに、不揮発性RAM(NVRAM)やハードディスク装置(HDD)等を備えてもよい。
制御部50は、ROM50cに予め記憶されたプログラムをCPU50aが実行することにより、パンティルト架台10、第1の検知部20、第2の検知部25及びレーザプロジェクタ30の動作を制御する。特に、制御部50は、レーザプロジェクタ30に画像データを出力して、空間40内で予め定められた第1の対象物に時計画像60を投影させるか、又は空間40内で予め定められた第2の対象物に情報入力用画像70を投影させる。すなわち、制御部50は、パンティルト架台10を制御して第1の回転部12と第2の回転部13を動かすことにより、第1の対象物と第2の対象物の間で画像の投影位置を切り替えて、レーザプロジェクタ30に時計画像60と情報入力用画像70の何れかを投影させる。以下では、時計画像60が投影されているとき投影装置1は「時計モード」にあるといい、情報入力用画像70が投影されているとき投影装置1は「入力モード」にあるという。
図1の例では、第1の対象物の一例である窓44に時計画像60が投影されており、矢印Cで示すように画像の投影位置が切り替えられたときは、第2の対象物の一例であるユーザの左手80の手のひらに情報入力用画像70が投影される。なお、第1の対象物と第2の対象物は、ある程度平坦であってユーザが認識可能な広さの面を有するものであれば、例えば、床、壁、ボード、テーブル、あるいはユーザの腕、足等の他の物体でもよく、図1に示したものには限定されない。
図4(A)〜図4(C)は、時計画像60の例を示す図である。制御部50は、パンティルト架台10及びレーザプロジェクタ30を制御して、通常は、第1の対象物に時計画像60を投影させる。その際、制御部50は、単なるプロジェクションマッピングにより第1の対象物の表面にテクスチャを貼り付けるのではなく、例えば第2の検知部25により第1の対象物の表面形状を計測し、表面形状に合った時計画像をアダプティブに選択して投影させる。そのために、制御部50は、丸い時計、四角い時計等の様々な意匠のアナログ時計又はデジタル時計を予めROM50c等に記憶しておく。
図4(A)は、四角い窓44に投影された四角いアナログ時計画像60aである。図4(A)の例では、第1の対象物として窓44が指定されており、その四角い形状に合わせて四角い時計画像が投影される。
図4(B)は、丸いテーブル45に投影された丸いアナログ時計60bである。図4(B)の例では、第1の対象物としてテーブル45が指定されており、その丸い形状に合わせて丸い時計画像が投影される。
図4(C)は、戸棚46の面に投影されたデジタル時計60cである。図4(C)の例では、第1の対象物として戸棚46が指定されており、その四角い形状に合わせて四角い時計画像が投影される。なお、アナログ時計とデジタル時計のどちらが投影されるかは、ユーザが選択できるようにしてもよい。また、図4(C)の例のように、ユーザは、対象物の表面の一部を時計画像60の投影位置として選択できるようにしてもよい。
時計画像60は、現在の時刻を表示する仮想的な時計であり、アナログ時計であれば時計の針が動くように表示が変化し、デジタル時計であれば数字の表示が変化する。投影装置1は時計画像60を常時表示してもよいし、例えば第1の検知部20によりユーザの存在が検知されたときだけ時計画像60を表示してもよい。また、第1の対象物は1つの物体に限らず、複数の物体の間で一定時間毎に時計画像60の投影位置が切り替わってもよい。
図5は、情報入力用画像70の例を示す図である。ユーザが空間40内で手のひらを差し出す等の予め定められた動作を行うと、制御部50は、例えば第1の検知部20により取得された深度データに基づいてその手のひらを検出する。このとき、投影装置1は時計モードから入力モードに移行し、例えば検出された手のひら(第2の対象物)に情報入力用画像70を投影する。複数のユーザが検出可能範囲に入っている場合には、先に検出された手のひらの優先度を高くし、その上に情報入力用画像70を投影する。
情報入力用画像70は、時計画像60の表示設定を入力するための画像であり、例えば、図5に示すように、時刻設定ボタン72、アラーム設定ボタン73、スキン設定ボタン74及び投影位置設定ボタン75を有する。この他にも、例えば、情報入力用画像70に投影のオンオフの選択ボタンを設けて、ユーザの操作により時計画像60を消去又は再表示できるようにしてもよい。
時刻設定ボタン72は、時計画像60が表示する時刻を設定するための入力画像を表示させるボタンである。また、アラーム設定ボタン73は、時計画像60を仮想的なアラーム時計として動作させるためのボタンである。アラーム設定ボタン73が選択されると、アラームのオンオフ及びアラームの起動時刻を設定するための入力画像が表示される。投影装置1はアラーム用の音声を出力可能なスピーカ等を有し、制御部50は、設定されたアラーム起動時刻になるとアラームを起動して、例えば音声と光によりユーザに時刻を知らせる。
スキン設定ボタン74は、時計画像60の外観表示を変更するためのボタンである。スキン設定ボタン74が選択されると、ROM50c等に記憶されている時計のデザインの何れかを選択するための入力画像が表示される。これにより、ユーザは、投影される時計画像60を異なる外観のものに変更することができる。
投影位置設定ボタン75は、時計画像60の投影位置である第1の対象物を設定するモードに投影装置1を移行させるためのボタンである。以下では、このモードのことを「投影位置設定モード」という。投影位置設定ボタン75が選択されると、制御部50は、例えば、時計画像60の投影先とする第1の対象物をユーザが指さす動作を検出し、以後、選択された第1の対象物に時計画像60を投影させる。
後述するように、図5に示す破線で囲まれた何れかの領域内に指先位置がある場合、各ボタンに対応する情報入力がなされたと判断される。情報入力用画像70が投影された手のひらと同じ手の指又は他方の手の指で何れかのボタンを選択することにより、ユーザは制御部50に対して情報を入力することができる。これにより、ユーザは、時計の設置場所まで移動したりリモコン等の機器を利用したりすることなく、手元でバーチャルクロックの各種設定を行うことが可能になる。
例えば、ユーザが何れかの設定ボタンを選択して必要な情報入力を終えるか、情報入力用画像70に設けられた図示しないリターンボタンをユーザが選択するか、又はユーザが所定の時間何も入力動作をしないことで、投影装置1は、入力モード又は投影位置設定モードから時計モードに移行する。これにより、投影装置1は、第1の対象物への時計画像60の投影を開始又は再開する。
なお、情報入力用画像70は、時計画像60の表示設定に限らず、他の装置への情報入力を行うためのものであってもよい。例えば、エアコン、ネットワークへのアクセス装置、パーソナルコンピュータ、テレビ、ラジオ、又はCD、DVD若しくはVTR等の各種記録媒体の記録再生装置等を被操作装置として、情報入力用画像70によりこれらの装置への情報入力ができるようにしてもよい。ユーザは、空間40内に投影装置1が設置されていることを時計画像60により認識できるので、情報入力用画像70を投影させる動作を必要に応じて行うことができる。
図6は、制御部50の機能ブロック図である。投影装置1の上記の機能を実現するために、制御部50は、機能モジュールとして、初期設定処理部51と、投影位置制御部52と、物体検出部53と、入力検出部54と、投影位置設定部55と、画像調整部56と、時計設定部57と、時計機能部58とを有する。これらの各部は、ROM50cに予め記憶されたプログラムに従って、CPU50aにより実現される。
初期設定処理部51は、パンティルト架台10へ出力する制御データと、レーザプロジェクタ30により投影される画像の位置座標データとを対応付けたデータテーブルを作成する初期設定処理を行う。初期設定処理の詳細は、図7を用いて後述する。
投影位置制御部52は、物体検出部53がユーザの体の特定部位(例えば手のひら)を検出していないときには、ユーザにより予め指定された第1の対象物に時計画像60が投影されるように、パンティルト架台10とレーザプロジェクタ30を制御する。なお、このとき、投影装置1は時計モードの状態にある。
また、投影位置制御部52は、物体検出部53がユーザの体の特定部位を検出したときに、パンティルト架台10を制御して、レーザプロジェクタ30による画像の投影位置を第1の対象物から第2の対象物(例えば手のひら)に変更させる。なお、第2の対象物と特定部位は、同じ物体でもよい。
特定部位が検出されると、投影装置1は入力モードに移行する。このとき、投影位置制御部52は、第1の検知部20又は第2の検知部25により取得された第2の対象物の位置座標データ(x,y)と深度データ(r)から、第2の対象物の空間座標(x,y,z)を算出する。そして、投影位置制御部52は、初期設定処理部51が作成したデータテーブルに基づき、適当な制御データによってパンティルト架台10の第1のモータ15及び第2のモータ16を駆動制御することで、第1の回転部12と第2の回転部13を回転させる。これにより、投影位置制御部52は、出射部30aの向きを変更させて、情報入力用画像70を第2の対象物に投影させる。すなわち、投影位置制御部52は、投影装置1が時計モードにあるときと入力モードにあるときで、画像の投影位置を切り替える。
また、ユーザが情報入力用画像70に対する入力操作又は第1の対象物を指定する操作を終えて、投影装置1が入力モード又は投影位置設定モードから時計モードに移行するときに、投影位置制御部52は、上記と同様に第1の回転部12と第2の回転部13を回転させて、レーザプロジェクタ30により第1の対象物に時計画像60を投影させる。
また、例えば特定部位と第2の対象物が同じ手のひらであるときは、投影位置制御部52は、ユーザが手のひらを動かした場合でもその手のひらを追尾して、常に手のひら上に情報入力用画像70を投影させることが好ましい。そのためには、投影位置制御部52は、第2の検知部25により取得される手のひらの深度データに基づいてパンティルト架台10を制御することにより、手のひらの移動に合わせて出射部30aの向きを変化させる。
物体検出部53は、投影装置1に情報入力用画像70を投影させるための、ユーザの予め定められた動作を検出する。そのために、物体検出部53は、例えば第1の検知部20が取得した深度データに基づいて、空間40内におけるユーザの体の特定部位を検出する。例えば、予め定められた動作が手のひらを差し出す動作である場合には、物体検出部53は、後述する図9の手のひら検出処理により、ユーザの体の特定部位として、ユーザの手のひらを検出する。
あるいは、情報入力用画像70を投影させるための予め定められた動作は、情報入力用画像70の被投影面となる第2の対象物をユーザが指さす等の他の動作でもよい。この場合、物体検出部53は、手のひら検出処理と同様に、例えば第1の検知部20が取得した深度データに基づいて、ユーザの体の特定部位としてユーザの指を検出する。
なお、ユーザの手のひら等の体の一部に情報入力用画像70を投影して情報入力を行う場合には、出射部30aと情報入力用画像70との間の投影空間にユーザの顔又は目等の特異物体が進入し易くなる。このため、第1の検知部20によりその投影空間内にユーザの顔又は目等の特異物体の可能性がある物体を検出したときには、物体検出部53は、第2の検知部25から取得した位置座標データ及び深度データに基づいて、その物体が特異物体であるか否かを判断してもよい。この場合、物体検出部53は、例えば、それらのデータからその物体の輪郭パターンを特定し、予めROM50c等に記憶されている、人の目、鼻、耳、口、顔の輪郭又は顔等の特徴的な形状を示すパターンと比較することにより、特異物体か否かを判断する。そして、物体検出部53は、検出された物体が特異物体であると判断したときには、レーザプロジェクタ30に制御信号を出力して、出射部30aからのRGBの可視レーザ光の照射を停止させる。
入力検出部54は、第1の検知部20又は第2の検知部25から取得した深度データに基づいて、後述する図11の情報入力検出処理により、情報入力用画像70に対するユーザの入力操作を検出する。例えば、入力検出部54は、投影された情報入力用画像70の上にユーザの指先が進入したか否かを判断し、その指先位置を特定する。
また、入力検出部54は、レーザプロジェクタ30へ出力する画像データに基づいて、情報入力用画像70に含まれる入力ボタンの種類及び配置位置を判断する。さらに、入力検出部54は、パンティルト架台10へ出力した制御データ及び初期設定処理部51が作成したデータテーブルに基づいて、空間40内における情報入力用画像70の位置を特定する。これにより、入力検出部54は、レーザプロジェクタ30へ出力する画像データ及びパンティルト架台10へ出力した制御データに基づいて、各入力ボタンの空間40内の位置を特定する。
これにより、入力検出部54は、情報入力用画像70の被投影面とユーザの指先位置との深度差から、ユーザが情報入力用画像70上の何れかの入力ボタンにタッチしたか否かを判断する。また、入力検出部54は、ユーザの指先位置と、各入力ボタンの位置とに基づいて、ユーザが入力した内容を特定する。例えば、ユーザの指先位置が時刻設定ボタン72、アラーム設定ボタン73、スキン設定ボタン74又は投影位置設定ボタン75の範囲内にある場合には、入力検出部54は、それぞれ、情報入力内容が「時刻設定」、「アラーム設定」、「スキン設定」又は「投影位置設定」であると特定する。
そして、入力検出部54は、特定した情報入力内容に対応する信号を出力する。例えば、特定された情報入力の内容が「時刻設定」、「アラーム設定」又は「スキン設定」である場合には、入力検出部54は、対応する制御信号を時計設定部57に出力する。また、特定された情報入力の内容が「投影位置設定」である場合には、入力検出部54は、対応する制御信号を投影位置設定部55に出力する。
投影位置設定部55は、「時刻設定」に対応する制御信号を入力検出部54から取得すると、後述する図13の投影位置設定処理により、時計画像60が投影される第1の対象物をユーザの入力操作に応じて設定する。
投影位置設定部55は、「時刻設定」に対応する制御信号を入力検出部54から取得すると、出射部30aからの投影画像を、情報入力用画像70から例えば「○」、「□」又は「⇒」等の位置指定用パターンに変更する。また、投影位置設定部55は、第1の検知部20が取得した深度データに基づき、ユーザが空間40内で時計画像60を投影させたい物体を指さす方向を検出する。そして、投影位置設定部55は、初期設定処理部51が作成したデータテーブルを利用してパンティルト架台10を制御し、検出されたユーザが指さす方向に沿って位置指定用パターンの投影位置を移動させる。
このとき、投影位置設定部55は、位置指定用パターンが投影されている物体の位置座標データ及び深度データを第2の検知部25から取得し、それらのデータに基づき、位置指定用パターンの投影位置が人の顔等の特異物体であるか否かを判断してもよい。この場合、投影位置設定部55は、例えば、それらのデータからその物体の輪郭パターンを特定し、予めROM50c等に記憶されている、人の目、鼻、耳、口、顔の輪郭又は顔等の特徴的な形状を示すパターンと比較することにより、特異物体か否かを判断する。そして、投影位置設定部55は、位置指定用パターンの投影位置が特異物体であると判断したときには、レーザプロジェクタ30に制御信号を出力して、出射部30aからのRGBの可視レーザ光の照射を停止させる。
投影位置設定部55は、第2の検知部25からの深度データに基づき、例えばユーザの指の動作が止まって、位置指定用パターンが一定時間以上同じ物体に投影されたと判断すると、第1の検知部20又は第2の検知部25による深度データからその物体の形状を認識し、認識された物体を、時計画像60が投影される第1の対象物として決定する。あるいは、第1の対象物の候補となる物体を予めRAM50b等に登録しておき、その登録された候補の中で、ユーザが位置指定用パターンにより投影対象物を選択できるようにしてもよい。また、投影位置設定部55は、第2の検知部25から取得した位置座標データ及び深度データに基づき、第2の検知部25(又は出射部30a)からの距離、大きさ又は形状等が予め定められた範囲内にある物体のみを、ユーザが第1の対象物として選択できるようにしてもよい。
そして、投影位置設定部55は、例えば第1の対象物の全体を時計画像60の投影位置として決定する。あるいは、投影位置設定部55は、例えば第2の検知部25により取得された深度データが同程度の範囲を時計画像60の投影位置としてもよい。ただし、第1の対象物が壁等であると時計画像60の投影位置として大きすぎる場合もあるため、投影位置設定部55は、上記と同様にユーザの指さし動作に応じて位置指定用パターンの投影位置を制御することにより、ユーザが第1の対象物上で位置指定用パターンを移動させて指定した範囲を、時計画像60の投影位置として決定してもよい。あるいは、投影位置設定部55は、第1の対象物の中央、上側、下側、左側、右側等を示す枠画像を第1の対象物に投影させ、ユーザに位置指定用パターンでそれらの何れかを選択させることにより、時計画像60の投影位置を決定してもよい。あるいは、表示する時計画像60の大きさは、予め定められていてもよい。
画像調整部56は、投影位置設定部55が決定した第1の対象物の表面形状に合った時計画像の画像データを作成し、投影位置制御部52に出力する。
このために、画像調整部56は、投影位置設定部55が決定した第1の対象物について、第1の検知部20又は第2の検知部25が取得した位置座標データ及び深度データに基づき、第1の対象物の形状を認識する。そして、画像調整部56は、予めROM50c等に記憶されている、丸い時計、四角い時計等の様々なアナログ時計又はデジタル時計の画像データの中から、第1の対象物の形状に合うものを選択する。例えば、第1の対象物の形状が円形又は四角形の場合には、画像調整部56は、それぞれ円形又は四角形のアナログの時計画像を選択する。また、第1の対象物の形状が棒状の場合には、画像調整部56は、例えばデジタルの時計画像を選択する。第1の対象物が他の形状を有する場合には、画像調整部56は、第1の対象物の幅、高さ等に基づき、その形状に近いアナログ又はデジタルの時計画像を選択する。
また、画像調整部56は、第1の対象物の面積に応じて、投影される時計画像60を拡大又は縮小する。なお、画像調整部56は、情報入力用画像70についても、第2の対象物の深度データに基づき投影画像を拡大又は縮小して、情報入力用画像70が丁度第2の対象物上に収まるように制御する。
さらに、画像調整部56は、第1の対象物に歪みのない画像が投影されるように、レーザプロジェクタ30が投影する画像の画像データを、第1の対象物の表面形状に応じて補正する。例えば、第1の対象物の表面が曲面の場合には、画像調整部56は、その曲率に合わせて投影画像の形状を補正する。また、例えば、第1の対象物の表面が出射部30aからの投影方向に対して垂直でない場合には、画像調整部56は、その表面に対する投影角度に応じて投影画像の形状を補正する。
なお、画像調整部56は、第1の対象物の色の濃淡、表面粗さ、反射率等の表面状態に合わせて、投影される時計画像を調整してもよい。例えば、第1の対象物が濃い色の表面である場合には、画像調整部56は、時計画像の画像データを淡い色又は明るい色のものに調整してもよい。また、第1の対象物が粗い表面である場合には、滑らかな表面に投影する場合よりも、時計画像に含まれる文字を大きなものに調整してもよい。このようにすれば、画像調整部56は、時計画像を明りょうに表示させることができる。なお、上記のような色の調整を行う場合には、第1の検知部20又は第2の検知部25にカラーカメラを設けて、画像調整部56は、そのカラーカメラにより撮像されるカラー画像を利用するとよい。
時計設定部57は、情報入力用画像70に対するユーザの入力操作に応じて、時計画像60が示す時刻の設定、時計画像60に付随するアラームの設定、又は時計画像60の表示状態の設定を行う。
ユーザの入力操作に応じて「時刻設定」に対応する制御信号を入力検出部54から取得すると、時計設定部57は、現在時刻を設定するための入力画像が表示されるように、適当なアイコン又は文字等のパターンの画像データをレーザプロジェクタ30に出力する。そして、その入力画像に対するユーザの入力操作を入力検出部54が検出すると、時計設定部57は、ユーザからの指示に従って、時計機能部58が示す現在時刻を設定する。
また、「アラーム設定」に対応する制御信号を入力検出部54から取得すると、時計設定部57は、アラームのオンオフ又は起動時刻の設定のための入力画像に対応する画像データをレーザプロジェクタ30に出力する。そして、その入力画像に対するユーザの入力操作を入力検出部54が検出すると、時計設定部57は、ユーザからの指示に従って時計機能部58によるアラーム時計の機能をオンオフするか、又はユーザが指示したアラーム起動時刻を時計機能部58に出力する。
また、「スキン設定」に対応する制御信号を入力検出部54から取得すると、時計設定部57は、時計画像60のデザイン変更のための入力画像に対応する画像データをレーザプロジェクタ30に出力する。そして、その入力画像に対するユーザの入力操作を入力検出部54が検出すると、時計設定部57は、ROM50c等に記憶されている時計のデザインの中から、ユーザにより指定されたものに対応する時計画像の画像データをレーザプロジェクタ30に出力する。これにより、時計設定部57は、投影される時計画像60を異なる外観のものに変更させる。
時計機能部58は、リアルタイムクロック機能を有し、現在時刻を刻む。時計機能部58は、投影装置1が時計モードにあるときに、時計画像60が常時現在時刻を表示するように、例えば秒単位で画像データを生成し、その画像データをレーザプロジェクタ30に出力する。また、時計機能部58は、アラーム時計の機能を有し、設定されたアラーム起動時刻になるとアラームを起動して、例えば投影装置1に備え付けられたスピーカから音声を出力させ、あるいはさらにレーザプロジェクタ30を発光させて、ユーザに時刻を知らせる。なお、時計機能部58は、通信I/F50eを介して、例えばインターネットに接続するか、又はGPS信号、標準電波若しくはラジオ時報波を受信することにより、現在時刻を自動的に修正してもよい。
図7は、初期設定処理の一例を示すフローチャートである。図8は、第1の検知部20の赤外線カメラ22による撮像データに基づく画像の一例を示す図である。以下で説明するフローチャートでは、ステップを「S」と略記する。
まず、初期設定処理部51は、レーザプロジェクタ30により画像を投影可能な空間40全体の深度データを第1の検知部20から取得する(S10)。そして、初期設定処理部51は、第1の検知部20の赤外線カメラ22により撮像された画像の画素毎に、位置座標データと深度データをRAM50bに記憶する(S11)。例えば、第1の検知部20の直下にある床41上の点と第1の検知部20から離れた位置にある床41上の点とでは、同じ床41上でありながら第1の検知部20及び第2の検知部25からの深度データに差が出てしまう。このため、初期設定処理部51は、空間40内の全ての画素について、位置座標データと深度データを予め取得して記録する。
次に、初期設定処理部51は、レーザプロジェクタ30に画像データを出力して図8の基準投影画像71を投影させ、パンティルト架台10に制御データを出力して第1の回転部12と第2の回転部13を回転させることにより、基準投影画像71を移動させる(S12)。例えば、最初は、符号71−1で示す中心位置に、基準投影画像71を移動させる。基準投影画像71は、例えば図8に示すように、円形の枠内に配置された5つの点で構成される。なお、基準投影画像71として他の画像を使用してもよい。
次に、初期設定処理部51は、第1の検知部20及び第2の検知部25から位置座標データを取得する(S13)。そして、初期設定処理部51は、基準投影画像71の5つの点を利用して基準投影画像71の位置を特定し(S14)、パンティルト架台10へ出力した制御データと特定された基準投影画像71の位置座標データとの対応関係を、RAM50b上のデータテーブルに記憶する(S15)。
その後、初期設定処理部51は、基準投影画像71が空間40の全てを覆うように移動したか否かを判断する(S16)。まだ移動していない領域がある場合(S16でNo)には、処理はS12に戻る。こうして、初期設定処理部51は、例えば図8に符号71−2〜71−10で示すように基準投影画像71を順次移動させながらS12〜S15の処理を繰り返すことにより、空間40の全体について、投影画像の位置座標データと制御データとの対応関係を表すデータテーブルを完成させる。なお、図8の基準投影画像71−2〜71−10は一例であって、位置を特定するために基準投影画像71を移動させる1回の移動量等は適宜定めることができる。
そして、空間40の全ての領域を移動したと初期設定処理部51が判断する(S16でYes)と、図7の初期設定処理は終了する。
図9は、手のひら検出処理の一例を示すフローチャートである。図10(A)及び図10(B)は、検出された手のひら領域100と、その上に情報入力用画像70が投影された状態を示す図である。なお、図10(A)及び図10(B)では、ユーザの左手80の手のひら領域100が検出された場合の例を示しているが、右手の手のひらを検出する場合も同様である。
まず、物体検出部53は、第1の検知部20から位置座標データ及び深度データを取得する(S20)。次に、物体検出部53は、S20で取得した位置座標データに基づいて、物体の輪郭が存在する領域を特定する(S21)。そして、物体検出部53は、S20で取得した深度データに基づいて、輪郭が存在する領域のうち、略同じ深度データを有する領域をグルーピングする(S22)。
次に、物体検出部53は、S22でグルーピングした物体の輪郭領域が対象部位である手首より先の部分か否かを、予めROM50c等に記憶されているパターンと比較することによって判断する(S23)。第1の検知部20で撮像される赤外線画像に例えばユーザの足、顔、肩等や他の物体が写ることにより、輪郭領域のグループが複数識別される可能性がある。このような場合であっても、物体検出部53は、パターン認識を行うことによって、手首より先の部分だけを識別する。
輪郭領域が対象部位でないと判断された場合(S23でNo)には、物体検出部53は、そのまま手のひら検出処理を終了する。
一方、輪郭領域が対象部位であると判断された場合(S23でYes)には、物体検出部53は、図10(A)に破線の円で示す手のひら領域100を検出する(S24)。例えば、物体検出部53は、識別された左手80の輪郭(外形)から指の先端位置N1と手首位置N2,N3を特定する。そして、物体検出部53は、指の先端位置N1と手首位置N2及びN3の中点N5とを結ぶ直線N4を引き、直線N4上で指の先端位置N1と中点N5との間の距離の1/4だけ中点N5から離れた中心点N6を中心とし、中心点N6と中点N5との間の距離を半径とする円形領域を手のひら領域100とする。なお、手のひら領域100を決定する方法は、これに限定されず、他の方法を採用してもよい。
手のひら領域100が検出されると、物体検出部53は、例えば第1の検知部20から、その手のひら領域100の深度データを取得して(S25)、RAM50b等に記憶する。そして物体検出部53は、手のひら領域100の中心点N6の位置座標データ(x,y)と深度データ(r)から、中心点N6の空間座標(x,y,z)を割り出す(S26)。これにより、図9の手のひら検出処理は終了する。
なお、物体検出部53は、手首より先の部分を認識するまで、所定の時間(例えば1秒)間隔で図9の処理フローを実行する。そして、手のひらを特定部位及び第2の対象物とする場合には、手のひらが検出されると、初期設定処理部51が作成したデータテーブルを利用して投影位置制御部52がパンティルト架台10を制御することにより、図10(B)のように、手のひら領域100内の位置に情報入力用画像70が投影される。
図11は、情報入力検出処理の一例を示すフローチャートである。図12は、左手80の手のひら領域100に投影された情報入力用画像70に対して右手90により情報入力が行われる場合の例を説明するための図である。ここでは、手のひらに情報入力用画像70が投影された場合の情報入力検出処理を説明するが、他の物体への投影画像に対する情報入力を検出する場合も同様である。
まず、入力検出部54は、例えば手のひら検出処理により対象部位である手のひら領域100が検出されているか否かを判断し(S30)、対象部位が検出されている場合にのみ、以下のステップに進む。対象部位が検出されている場合には、入力検出部54は、レーザプロジェクタ30へ出力した画像データ及びパンティルト架台10へ出力した制御データを取得する(S31)。次に、入力検出部54は、主に第2の検知部25から位置座標データ及び深度データを取得する(S32)。なお、S31とS32の順番は逆でもよい。
次に、入力検出部54は、S32で取得した位置座標データに基づいて、物体の輪郭が存在する領域を特定する(S33)。そして、入力検出部54は、S32で取得した深度データに基づいて、深度データが略同じ輪郭領域をグルーピングする(S34)。なお、S34でグルーピングされた輪郭領域が複数存在する可能性もあるが、入力検出部54は、手のひら領域100の範囲内の位置座標(x,y)を有するもののみを進入物体として認識する。
さらに、入力検出部54は、そのグルーピングした輪郭領域に基づいて、手のひら領域100への進入物体の進入位置及び指先位置を特定する(S35)。例えば、入力検出部54は、手のひら領域100への進入物体である右手90の進入位置01,02を特定する。そして、入力検出部54は、進入位置01及び02の中点03から伸ばした垂線04上において、中点03から最も離れた位置で右手90の輪郭と重なる点05を指先位置として特定する。なお、入力検出部54は、進入位置01及び02の中点03から最も離れた位置に存在する右手90に含まれる輪郭領域を指先位置と特定してもよい。これらの指先位置の特定方法は一例であって、他の方法を採用してもよい。
次に、入力検出部54は、進入物体である右手90が情報入力操作を行っているか否かを判断する(S36)。例えば、入力検出部54は、指先位置の点05が手のひら領域100上にある場合に、右手90の指先が情報入力操作を行っていると判断する。入力検出部54は、指先位置の点05が手のひら領域100上にあるか否かを、手のひら領域100の深度データと指先位置の点05の深度データとの差が所定閾値以内(例えば10mm以内)であるか否かに基づいて判断する。なお、チャタリング等によって指先位置の点05の深度データが短い期間で変動することがあるため、入力検出部54は、所定時間(例えば1秒)以上連続して上記の深度差が所定閾値以内である場合に、情報入力があったと判断してもよい。
入力検出部54は、指先位置が情報入力操作を意図したものではないと判断した場合(S36でNo)には、そのまま情報入力検出処理を終了する。一方、入力検出部54は、指先位置が情報入力操作を意図したものであると判断した場合(S36でYes)には、レーザプロジェクタ30へ出力した画像データ及びパンティルト架台10へ出力した制御データに基づいて、情報入力用画像70に含まれる各入力ボタンの手のひら領域100上における位置を特定する(S37)。
次に、入力検出部54は、S35で特定した指先位置の点05と、S37で特定した各入力ボタンの手のひら領域100内での位置とに基づいて、情報入力内容を特定する(S38)。指先位置の点05と一致する入力ボタンが存在しない場合には、情報入力内容が存在しないと特定してもよい。その後、入力検出部54は、S38で特定した情報入力内容に対応する信号を出力する(S39)。これにより、図11の情報入力検出処理は終了する。
図13は、投影位置設定処理の一例を示すフローチャートである。ユーザが情報入力用画像70の投影位置設定ボタン75を選択すると、投影装置1は投影位置設定モードに移行する。このとき、投影位置設定部55は、時計画像60が投影される第1の対象物を、以下の処理により設定する。
まず、投影位置設定部55は、レーザプロジェクタ30に画像データを出力して、出射部30aからの投影画像を、例えば「○」、「□」又は「⇒」等の位置指定用パターンに変更する(S40)。これにより、投影装置1が投影位置設定モードに移行したことがユーザにわかるようにする。ユーザは、例えば指先を仮想マウスとして、空間40内で時計画像60を投影させたい物体を指さすことにより、位置指定用パターンを移動させる。
そして、投影位置設定部55は、第1の検知部20が取得した深度データに基づき、ユーザが指さす方向を検出する(S41)。そのために、投影位置設定部55は、例えば、図9の手のひら検出と同様にしてユーザの指を検出し、検出された指先と指の付け根の2点の位置座標データ及びその深度データから、指先と指の付け根を通る直線を求める。そして、投影位置設定部55は、初期設定処理部51が作成したデータテーブルを利用してパンティルト架台10を制御し、S41で検出されたユーザが指さす方向に沿って位置指定用パターンの投影位置を移動させる(S42)。
このとき、投影位置設定部55は、第2の検知部25からの深度データに基づき、位置指定用パターンの投影位置が人の顔等の特異物体であるか否かを常時判断する(S43)。そのために、投影位置設定部55は、位置指定用パターンが投影されている物体の位置座標データ及び深度データを第2の検知部25から取得する。そして、投影位置設定部55は、位置座標データに基づいてその物体の輪郭領域を特定し、深度データに基づいて深度データが略同じである輪郭領域をグルーピングする。得られた輪郭パターンが予めROM50c等に記憶されている特異物体のパターンと類似する場合には、投影位置設定部55は、投影位置が特異物体であると判断する。
投影位置設定部55は、投影位置が特異物体であると判断したとき(S43でYes)には、レーザプロジェクタ30に制御信号を出力して、出射部30aからのRGBの可視レーザ光の照射を停止させ(S48)、投影位置設定処理を終了する。
一方、特異物体が検出されていないとき(S43でNo)は、投影位置設定部55は、第2の検知部25からの深度データに基づき、例えば、ユーザの指の動作が止まって、位置指定用パターンが一定時間以上、同じ物体に投影されたか否かを判断する(S44)。投影位置設定部55は、位置指定用パターンが一定時間以上同じ物体に投影されたとS44で判断するまで、上記のS41〜S44の処理を繰り返す。
投影位置設定部55は、位置指定用パターンが一定時間以上同じ物体に投影されたと判断する(S44でYes)と、その物体を、時計画像60が投影される第1の対象物として決定する(S45)。なお、この決定方法は一例であり、投影位置設定部55は他の方法で第1の対象物を決定してもよい。
そして、投影位置設定部55は、S45で決定された第1の対象物の位置座標データ及び深度データから、第1の対象物の形状を認識する(S46)。さらに、投影位置設定部55は、第1の対象物上における時計画像60の投影位置を決定する(S47)。その際は、例えば第1の対象物の全体を時計画像60の投影位置としてもよい。あるいは、S41及びS42と同様にユーザの指さし動作に応じて位置指定用パターンの投影位置を制御することにより、ユーザが第1の対象物上で位置指定用パターンを移動させて指定した範囲を、時計画像60の投影位置としてもよい。なお、上記の投影位置の決定方法は一例であり、投影位置設定部55は他の方法を採用してもよい。これにより、図13の投影位置設定処理は終了する。
図14は、レーザプロジェクタ30の他の例を示す概略構成図である。図14に示すように、第2の検知部25の第2の赤外線発光部26をレーザプロジェクタ30と共用することも可能である。この場合のレーザプロジェクタは、走査方式の出射部31、シングルモードファイバ32、広帯域のファイバコンバイナ33、及びファイバピクテイルモジュール34等によって構成される。この構成において、可視光のR、G、B各色用のレーザ光源と赤外線(IR)用のレーザ光源が発光する各レーザ光は、ファイバピクテイルモジュール34によってそれぞれ各光ファイバに導入される。そして、広帯域のファイバコンバイナ33は、各光ファイバによって導かれたR、G、B、IRの各レーザ光を合波する。シングルモードファイバ32は、その合波光を走査方式の出射部31へ導く。
出射部31では、シングルモードファイバ32から出射されるレーザ光が、照射光学系31aによってMEMSミラー31bに向けて照射され、MEMSミラー31bによる反射光が、投射光学系31cを通して上述した被投影面に投影される。そのMEMSミラー31bを直交する2軸に関して振動させることによって、投影するレーザ光を高速で2次元走査することができる。これにより、第2の赤外線発光部26をレーザプロジェクタ30と共用することが可能になる。さらに、図14における照射光学系31aとMEMSミラー31bの間にビームスプリッタを配置して、赤外線が照射された物体からの反射光を分離し、赤外線バンドパスフィルタを通してフォトダイオード等の赤外線検知部で受光して検知することもできる。
以上説明したように、投影装置1は、時計モードにあるときは、第1の対象物にその対象物に応じた形状の時計画像60を投影し、例えばユーザが手のひらを差し出す等の動作を行うと入力モードに移行して、第1の対象物から第2の対象物に投影位置を変更し、第2の対象物に情報入力用画像70を投影する。このように、投影装置1は、ユーザに情報入力用画像70で入力操作を行うきっかけを与えるものとして、時計画像60を固定表示する。この時計画像60により、ユーザは、自分がいる空間に投影装置1が設置されていることを認識するので、その情報入力用画像70に対して入力操作を行うことにより、投影された時計や、他の被操作装置を操作することができる。
なお、上記では、第2の対象物が手のひらである場合を主に説明したが、第2の対象物はユーザの腕や足先等でもよい。投影装置1は、例えば、腕の場合には腕時計型リモコンを投影し、足先の場合にはフットスイッチ型リモコンを投影する等、第2の対象物の形状に合わせて、情報入力用画像を異なる形態のリモコン表示としてもよい。
また、壁等の第1の対象物に時計画像を投影することに代えて、投影装置1は、例えば、ユーザが腕を差し出すとその腕に腕時計画像を投影させたり、ユーザが手のひらを差し出すとその手のひらに時計画像を投影させたりしてもよい。
また、投影装置1は、時計画像に代えて、例えばカレンダやユーザの好みのポスター画像等を第1の対象物に固定表示してもよい。あるいは、例えば投影装置1を飲食店等で使用する場合には、第1の対象物をテーブルとして、その上にメニュー画像を固定表示してもよい。
1 投影装置
10 パンティルト架台
20 第1の検知部
25 第2の検知部
30 レーザプロジェクタ
50 制御部
51 初期設定処理部
52 投影位置制御部
53 物体検出部
54 入力検出部
55 投影位置設定部
56 画像調整部
57 時計設定部
58 時計機能部
60 時計画像
70 情報入力用画像
10 パンティルト架台
20 第1の検知部
25 第2の検知部
30 レーザプロジェクタ
50 制御部
51 初期設定処理部
52 投影位置制御部
53 物体検出部
54 入力検出部
55 投影位置設定部
56 画像調整部
57 時計設定部
58 時計機能部
60 時計画像
70 情報入力用画像
Claims (8)
- 可視レーザ光を出射して、第1の対象物に画像を投影する投影部と、
前記投影部による画像の投影位置を変更可能に前記投影部を搭載する可動支持部と、
前記投影部により画像を投影可能な空間内において、当該空間内の物体までの距離を示す深度データを取得する深度センサと、
前記深度データに基づき前記空間内でユーザの体の特定部位が検出されたときに、前記可動支持部を制御して、前記投影部による画像の投影位置を前記第1の対象物から第2の対象物に変更させる制御部と、
を有することを特徴とする投影装置。 - 前記制御部は、前記特定部位が検出されていないときは前記第1の対象物に画像が投影されるように、前記可動支持部と前記投影部を制御する、請求項1に記載の投影装置。
- 前記制御部は、前記深度データに基づき前記第1の対象物の表面形状を認識し、前記投影部が投影する画像の形状を当該表面形状に応じて補正する、請求項1又は2に記載の投影装置。
- 前記深度センサは、前記空間全体の赤外線画像を撮像して前記深度データを取得する第1の検知部と、前記可動支持部に搭載され、前記投影部による画像の投影位置で赤外線ビームを2次元状に走査して、当該赤外線ビームの反射光から前記深度データを取得する第2の検知部とを有し、
前記制御部は、前記第1の検知部が取得した深度データから前記特定部位を検出し、前記第2の検知部が取得した深度データから前記第1の対象物の形状を認識する、請求項3に記載の投影装置。 - 前記制御部は時計機能を有し、
前記投影部は、前記時計機能により求められる時刻を示す時計画像を前記第1の対象物に投影する、請求項1〜4の何れか一項に記載の投影装置。 - 前記投影部は、前記第2の対象物に情報入力用画像を投影し、
前記制御部は、前記深度データに基づき前記情報入力用画像に対するユーザの入力操作を検出する、請求項5に記載の投影装置。 - 前記制御部は、前記情報入力用画像に対するユーザの入力操作に応じて、前記時計画像の表示状態の設定、当該時計画像が示す時刻の設定、又は前記時計機能に付随するアラームの設定を行う、請求項6に記載の投影装置。
- 前記制御部はカレンダの情報を保持し、
前記投影部は、前記第1の対象物にカレンダの画像を投影する、請求項1〜4の何れか一項に記載の投影装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013253340A JP2015111772A (ja) | 2013-12-06 | 2013-12-06 | 投影装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013253340A JP2015111772A (ja) | 2013-12-06 | 2013-12-06 | 投影装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015111772A true JP2015111772A (ja) | 2015-06-18 |
Family
ID=53526337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013253340A Pending JP2015111772A (ja) | 2013-12-06 | 2013-12-06 | 投影装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015111772A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017058898A (ja) * | 2015-09-16 | 2017-03-23 | カシオ計算機株式会社 | 位置検出装置およびプロジェクタ |
WO2017056775A1 (ja) * | 2015-09-28 | 2017-04-06 | 富士フイルム株式会社 | プロジェクションマッピング装置 |
WO2017073111A1 (ja) * | 2015-10-30 | 2017-05-04 | 株式会社Jvcケンウッド | 光照射装置および光照射方法 |
WO2017141744A1 (ja) * | 2016-02-19 | 2017-08-24 | ソニー株式会社 | 表示装置 |
CN108168070A (zh) * | 2017-12-26 | 2018-06-15 | 珠海格力电器股份有限公司 | 设备安装方法及装置 |
WO2019058722A1 (ja) * | 2017-09-25 | 2019-03-28 | ソニー株式会社 | 表示処理装置、表示処理方法及びプログラム |
WO2020180017A1 (ko) * | 2019-03-05 | 2020-09-10 | 엘지전자 주식회사 | 영상 투사 장치 |
US10955971B2 (en) | 2016-10-27 | 2021-03-23 | Nec Corporation | Information input device and information input method |
JP2021099721A (ja) * | 2019-12-23 | 2021-07-01 | トヨタ紡織株式会社 | 車両用入力装置 |
CN113574860A (zh) * | 2019-03-13 | 2021-10-29 | 莱雅公司 | 用于将数字内容投影到用户面部表面的系统、设备和方法 |
CN113709434A (zh) * | 2021-08-31 | 2021-11-26 | 维沃移动通信有限公司 | 投影手环及其投影控制方法和装置 |
JP2023519403A (ja) * | 2020-04-03 | 2023-05-10 | 維沃移動通信有限公司 | 電子機器、インタラクション方法、インタラクション装置、および記憶媒体 |
-
2013
- 2013-12-06 JP JP2013253340A patent/JP2015111772A/ja active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017058898A (ja) * | 2015-09-16 | 2017-03-23 | カシオ計算機株式会社 | 位置検出装置およびプロジェクタ |
JP2019042519A (ja) * | 2015-09-28 | 2019-03-22 | 富士フイルム株式会社 | プロジェクションマッピング装置 |
CN108024832A (zh) * | 2015-09-28 | 2018-05-11 | 富士胶片株式会社 | 投影映射装置 |
US11026763B2 (en) | 2015-09-28 | 2021-06-08 | Fujifilm Corporation | Projection mapping apparatus |
JPWO2017056775A1 (ja) * | 2015-09-28 | 2018-09-06 | 富士フイルム株式会社 | プロジェクションマッピング装置 |
WO2017056775A1 (ja) * | 2015-09-28 | 2017-04-06 | 富士フイルム株式会社 | プロジェクションマッピング装置 |
WO2017073111A1 (ja) * | 2015-10-30 | 2017-05-04 | 株式会社Jvcケンウッド | 光照射装置および光照射方法 |
WO2017141744A1 (ja) * | 2016-02-19 | 2017-08-24 | ソニー株式会社 | 表示装置 |
JPWO2017141744A1 (ja) * | 2016-02-19 | 2018-12-13 | ソニー株式会社 | 表示装置 |
US10955971B2 (en) | 2016-10-27 | 2021-03-23 | Nec Corporation | Information input device and information input method |
WO2019058722A1 (ja) * | 2017-09-25 | 2019-03-28 | ソニー株式会社 | 表示処理装置、表示処理方法及びプログラム |
CN108168070A (zh) * | 2017-12-26 | 2018-06-15 | 珠海格力电器股份有限公司 | 设备安装方法及装置 |
CN108168070B (zh) * | 2017-12-26 | 2023-12-05 | 珠海格力电器股份有限公司 | 设备安装方法及装置 |
WO2020180017A1 (ko) * | 2019-03-05 | 2020-09-10 | 엘지전자 주식회사 | 영상 투사 장치 |
CN113574860A (zh) * | 2019-03-13 | 2021-10-29 | 莱雅公司 | 用于将数字内容投影到用户面部表面的系统、设备和方法 |
JP2021099721A (ja) * | 2019-12-23 | 2021-07-01 | トヨタ紡織株式会社 | 車両用入力装置 |
JP2023519403A (ja) * | 2020-04-03 | 2023-05-10 | 維沃移動通信有限公司 | 電子機器、インタラクション方法、インタラクション装置、および記憶媒体 |
JP7508577B2 (ja) | 2020-04-03 | 2024-07-01 | 維沃移動通信有限公司 | 電子機器、インタラクション方法、インタラクション装置、および記憶媒体 |
CN113709434A (zh) * | 2021-08-31 | 2021-11-26 | 维沃移动通信有限公司 | 投影手环及其投影控制方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015111772A (ja) | 投影装置 | |
US9229584B2 (en) | Information input apparatus | |
JP6542946B2 (ja) | 表示システムおよび方法 | |
US9772720B2 (en) | Flexible room controls | |
RU2455676C2 (ru) | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления | |
WO2014034527A1 (ja) | 情報入力装置 | |
US7176881B2 (en) | Presentation system, material presenting device, and photographing device for presentation | |
EP3091387A1 (en) | Autofocus head mounted display device | |
US10614734B2 (en) | Display apparatus and method of displaying using controllable scanning mirror | |
JP6231541B2 (ja) | 画像投影装置 | |
JPH1124839A (ja) | 情報入力装置 | |
WO2010107072A1 (ja) | ヘッドマウントディスプレイ | |
US11526072B2 (en) | Information processing apparatus and method, and projection imaging apparatus and information processing method | |
US10634904B2 (en) | Image projection device | |
US9927878B2 (en) | Display device and projection device | |
JP2015114818A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014174401A (ja) | 画像表示システム及び頭部装着型表示装置 | |
US20150054792A1 (en) | Projector | |
JP6102751B2 (ja) | インターフェース装置およびインターフェース装置の駆動方法 | |
WO2016208266A1 (ja) | 画像投影装置 | |
JP6394165B2 (ja) | 虚像表示装置及び方法 | |
JP2007200353A (ja) | 情報処理装置及び情報処理方法 | |
WO2018056196A1 (ja) | 表示システム | |
JP5526838B2 (ja) | プロジェクタ | |
JP2010033604A (ja) | 情報入力装置及び情報入力方法 |