JP2021128657A - 位置検出方法、位置検出装置及び位置検出システム - Google Patents
位置検出方法、位置検出装置及び位置検出システム Download PDFInfo
- Publication number
- JP2021128657A JP2021128657A JP2020024056A JP2020024056A JP2021128657A JP 2021128657 A JP2021128657 A JP 2021128657A JP 2020024056 A JP2020024056 A JP 2020024056A JP 2020024056 A JP2020024056 A JP 2020024056A JP 2021128657 A JP2021128657 A JP 2021128657A
- Authority
- JP
- Japan
- Prior art keywords
- image
- indicator
- unit
- region
- operation surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 259
- 238000003384 imaging method Methods 0.000 claims abstract description 43
- 239000000284 extract Substances 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 52
- 230000008569 process Effects 0.000 claims description 47
- 238000013528 artificial neural network Methods 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 12
- 230000001678 irradiating effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 60
- 238000010586 diagram Methods 0.000 abstract description 22
- 238000012545 processing Methods 0.000 description 46
- 238000006243 chemical reaction Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000002955 isolation Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000006740 morphological transformation Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】ステレオカメラを用いて、指示体による操作の検出精度を向上させる位置検出方法を実現する。
【解決手段】位置検出装置200は、操作面13に赤外光を照射させる検出光照射部130と、撮像視点が異なる第1カメラ121及び第2カメラ123により操作面13を撮像し、操作面13にキャリブレーションされた左撮像画像及び右撮像画像を取得すると、左撮像画像と右撮像画像との差分画像240を生成し、差分画像240の視差量が、予め設定された範囲内の領域を、指示体80の画像が含まれる変化領域250として抽出し、抽出された変化領域250から指示体80の先端に対応する領域を、指示体の形状に基づいて検出する先端検出部165と、先端検出部165の検出結果に基づき、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とを出力する判定部167とを備える。
【選択図】図3
【解決手段】位置検出装置200は、操作面13に赤外光を照射させる検出光照射部130と、撮像視点が異なる第1カメラ121及び第2カメラ123により操作面13を撮像し、操作面13にキャリブレーションされた左撮像画像及び右撮像画像を取得すると、左撮像画像と右撮像画像との差分画像240を生成し、差分画像240の視差量が、予め設定された範囲内の領域を、指示体80の画像が含まれる変化領域250として抽出し、抽出された変化領域250から指示体80の先端に対応する領域を、指示体の形状に基づいて検出する先端検出部165と、先端検出部165の検出結果に基づき、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とを出力する判定部167とを備える。
【選択図】図3
Description
本発明は、位置検出方法、位置検出装置及び位置検出システムに関する。
従来、指示体により指示された操作面の位置を検出する装置が知られている。例えば、特許文献1に記載の装置は、表示面に表示された画像に向けてパターン光を投射する光投射部と、画像が撮像範囲に入る撮像部と、入力操作を検出する処理部と、を備える。処理部は、パターン光が投射された表示面を撮像部が撮像した撮像画像と、パターン光が投射された表示面であって、指示入力操作の入力操作が行われた表示面を撮像部が撮像した撮像画像とに基づいて入力操作を検出する。
しかしながら、1つの撮像部で指示体を検出する場合、指示体と操作面との距離の認識が難しく、操作面に対する操作であったか否かの判定が難しい。このため、ステレオカメラを用いて、指示体による操作の検出精度を向上可能な方法の実現が望まれていた。
上記課題を解決する一態様は、指示体により指示される操作面の位置を検出する位置検出方法であって、前記操作面に対応する方向に赤外光を照射させる照射ステップと、撮像視点が異なり、前記赤外光による画像を撮像する第1撮像部及び第2撮像部により前記操作面を撮像し、前記操作面にキャリブレーションされた第1撮像画像と第2撮像画像とを取得する取得ステップと、前記第1撮像画像と前記第2撮像画像との差分画像を生成する生成ステップと、前記差分画像のうち、前記第1撮像画像と前記第2撮像画像との視差量が、予め設定された範囲内の領域を、前記指示体の画像が含まれる候補領域として抽出する抽出ステップと、抽出された前記候補領域から前記指示体の先端に対応する領域を、前記指示体の形状に基づいて検出する検出ステップと、前記検出ステップの検出結果に基づき、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを出力する出力ステップと、を有する位置検出方法である。
上記位置検出方法において、前記出力ステップは、候補領域に対応する前記第1撮像画像の第1領域画像と、前記候補領域に対応する前記第2撮像画像の第2領域画像とを学習済みニューラルネットワークに入力して、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを検出するステップである構成であってもよい。
上記位置検出方法において、前記出力ステップは、前記第1領域画像から求められる前記指示体の位置を示すデータと、前記第2領域画像から求められる前記指示体の位置を示すデータとを、指示位置座標検出用の前記学習済みニューラルネットワークに入力して指示位置の座標を求める処理、及び、前記第1領域画像から求められる前記指示体の位置を示すデータと、前記第2領域画像から求められる前記指示体の位置を示すデータとを、接触判定用の前記学習済みニューラルネットワークに入力して前記指示体が前記操作面に接触したか否かを判定する処理を含む構成であってもよい。
上記位置検出方法において、前記赤外光の照射方向が異なる複数の前記第1撮像画像及び前記第2撮像画像をニューラルネットワークに入力して学習させ、前記学習済みニューラルネットワークを生成する学習ステップを有する構成であってもよい。
上記位置検出方法において、前記検出ステップは、前記差分画像よりも解像度が小さい第1差分画像と、前記第1差分画像よりも解像度が小さい第2差分画像とを生成し、予め設定されたサイズの図形を前記第2差分画像の前記候補領域に重畳させ、前記図形が領域内に収まる前記候補領域の前記差分画像を除去し、前記第2差分画像で画像を除去した領域に対応する前記第1差分画像の領域の画像を除去し、前記図形を前記第1差分画像の前記候補領域に重畳させ、前記図形が領域内に収まる前記候補領域の前記差分画像を除去し、前記差分画像が残った領域に基づいて前記指示体の先端を検出する構成であってもよい。
上記課題を解決する別の一態様は、指示体により指示される操作面の位置を検出する位置検出装置であって、前記操作面に対応する方向に赤外光を照射させる照射制御部と、撮像視点が異なり、前記赤外光による画像を撮像する第1撮像部及び第2撮像部により前記操作面を撮像し、前記操作面にキャリブレーションされた第1撮像画像と第2撮像画像とを取得する取得部と、前記第1撮像画像と前記第2撮像画像との差分画像を生成する生成部と、前記差分画像のうち、前記第1撮像画像と前記第2撮像画像との視差量が、予め設定された範囲内の領域を、前記指示体の画像が含まれる候補領域として抽出する抽出部と、抽出された前記候補領域から前記指示体の先端に対応する領域を、前記指示体の形状に基づいて検出する検出部と、前記検出部の検出結果に基づき、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを出力する出力部と、を有する位置検出装置である。
上記課題を解決する別の一態様は、撮像視点が異なり、赤外光による画像を取得する第1撮像部及び第2撮像部を備える撮像装置と、操作面に対応する方向に前記赤外光を照射する検出光照射装置と、前記第1撮像部及び前記第2撮像部により前記操作面を撮像した画像であって、前記操作面にキャリブレーションされた第1撮像画像と第2撮像画像とを取得する取得部と、前記第1撮像画像と前記第2撮像画像との差分画像を生成する生成部と、前記差分画像のうち、前記第1撮像画像と前記第2撮像画像との視差量が、予め設定された範囲内の領域を、前記操作面に対する操作を行う指示体の画像が含まれる候補領域として抽出する抽出部と、抽出された前記候補領域から前記指示体の先端に対応する領域を、前記指示体の形状に基づいて検出する検出部と、前記検出部の検出結果に基づき、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを出力する出力部と、を備える位置検出装置と、を有する位置検出システムである。
以下、本発明の実施形態について図面を参照しながら説明する。
A−1.位置検出システムの構成
図1は、位置検出システムの一例であるインタラクティブプロジェクションシステム1の斜視図である。
インタラクティブプロジェクションシステム1は、プロジェクター100と、プロジェクター100が画像を投射する投射面10とを備える。以下では、投射面10の法線方向であって投射面10の前方をZ軸方向、投射面10に沿う鉛直上方向をY軸方向、Z軸方向とY軸方向に垂直な方向をX軸方向と仮定して説明する。投射面10は、Z=0のXY面に対応する。投射面10は、プロジェクター100により投射される画像光30が表示される表示面であり、プロジェクター100は、表示装置の一例である。
図1は、位置検出システムの一例であるインタラクティブプロジェクションシステム1の斜視図である。
インタラクティブプロジェクションシステム1は、プロジェクター100と、プロジェクター100が画像を投射する投射面10とを備える。以下では、投射面10の法線方向であって投射面10の前方をZ軸方向、投射面10に沿う鉛直上方向をY軸方向、Z軸方向とY軸方向に垂直な方向をX軸方向と仮定して説明する。投射面10は、Z=0のXY面に対応する。投射面10は、プロジェクター100により投射される画像光30が表示される表示面であり、プロジェクター100は、表示装置の一例である。
プロジェクター100は、画像データに対応した画像光30を生成し、生成した画像光30を投射面10に投射する。また、プロジェクター100は、インタラクティブ機能を備える。インタラクティブ機能とは、投射面10に対する指示体80の操作位置を検出し、検出した操作位置に基づいて、指示体80の位置や軌跡に対応した画像を表示させたり、表示させた画像に変更を加えたりする機能である。
プロジェクター100は、画像光30を投射口から投射する投射部110と、投射面10を撮像する第1カメラ121及び第2カメラ123と、指示体80の検出に用いる検出光20を照射する検出光照射部130とを備える。第1カメラ121は、本発明の第1撮像部に対応し、第2カメラ123は、本発明の第2撮像部に対応する。
本実施形態では、プロジェクター100が画像光30を投射する投射面10が、平面で構成されるスクリーンである場合について説明するが、投射面10は壁面等に固定された平面を利用してもよい。また、投射面10は、吊り上げ式や立ち上げ式等の幕状のスクリーンであってもよい。また、室内の壁面や、ホワイトボード、黒板等を投射面10として利用することも可能である。また、投射面10の前面は、指示体80を用いた操作の入力に使用される操作面13として利用される。
図2は、インタラクティブプロジェクションシステム1の側面図である。
本実施形態のプロジェクター100は、壁面に固定されて投射面10の前方かつ上方に設置され、斜め下方の投射面10に向けて画像光30を投射する。プロジェクター100によって画像光30が投射される投射面10の領域を投射領域15という。また、プロジェクター100は、検出光20を、操作面13に対応する方向に照射する。検出光20は、指示体80の検出に用いられる光であり、本実施形態では赤外光が用いられる。赤外光を用いることにより、可視光を主とする画像光30の影響を受けずに指示体80を検出でき、また、画像光30による表示にも影響を与えない。検出光20は、投射面10の少なくとも一部を含む範囲に照射される。本実施形態では、投射面10の全体をカバーする範囲に投射される。操作面13に対応する方向とは、指示体80の操作を撮像部120により検出可能な方向である。より具体的には、操作面13から所定距離以内に近づいた指示体80で反射した反射光を、撮像部120が撮像可能な方向である。
本実施形態のプロジェクター100は、壁面に固定されて投射面10の前方かつ上方に設置され、斜め下方の投射面10に向けて画像光30を投射する。プロジェクター100によって画像光30が投射される投射面10の領域を投射領域15という。また、プロジェクター100は、検出光20を、操作面13に対応する方向に照射する。検出光20は、指示体80の検出に用いられる光であり、本実施形態では赤外光が用いられる。赤外光を用いることにより、可視光を主とする画像光30の影響を受けずに指示体80を検出でき、また、画像光30による表示にも影響を与えない。検出光20は、投射面10の少なくとも一部を含む範囲に照射される。本実施形態では、投射面10の全体をカバーする範囲に投射される。操作面13に対応する方向とは、指示体80の操作を撮像部120により検出可能な方向である。より具体的には、操作面13から所定距離以内に近づいた指示体80で反射した反射光を、撮像部120が撮像可能な方向である。
第1カメラ121及び第2カメラ123は、プロジェクター100の異なる位置に配置される。第1カメラ121及び第2カメラ123は、異なる撮像視点から投射面10を撮像することによりステレオカメラとして機能する。本実施形態では、第1カメラ121は、投射面10に対応してプロジェクター100の投射部110の左側に配置され、第2カメラ123は、投射面10に対応してプロジェクター100の投射部110の右側に配置される。第1カメラ121は、左カメラであり、第1カメラ121の撮像画像を左撮像画像と称する。また、第2カメラ123は、右カメラであり、第2カメラ123の撮像画像を、右撮像画像と称する。
プロジェクター100は、第1カメラ121及び第2カメラ123により投射面10を撮像して、検出光20が指示体80で反射した反射光を検出する。インタラクティブプロジェクションシステム1では、1つ又は複数の非発光の指示体80を利用可能である。指示体80には、指やペンなどの非発光の物体を使用可能である。非発光の指示体80は、赤外光を反射するものであれば特に制限されず、本実施形態では使用者の手指を指示体80として用いる例について説明する。
第1カメラ121及び第2カメラ123は、それぞれ投射面10の全体を撮影可能に設定され、投射面10を背景とした指示体80の画像をそれぞれ撮影する機能を有する。すなわち、第1カメラ121と第2カメラ123は、検出光照射部130から照射された検出光20のうち、投射面10と指示体80で反射された光を受光することによって指示体80を含む画像を作成する。第1カメラ121と第2カメラ123で撮影された2つの画像を用いると、三角測量等によって指示体80の3次元位置を求めることが可能である。なお、カメラの台数は3以上でもよい。
A−2.プロジェクターの構成
図3は、プロジェクター100の構成を示すブロック図である。
プロジェクター100は、投射部110、撮像部120、検出光照射部130、操作受付部135、入力インターフェース141、画像処理部143、フレームメモリー145、位置検出部150及び制御部170を備える。位置検出部150及び制御部170は、位置検出装置200として動作する。投射部110は、表示部の一例である。
図3は、プロジェクター100の構成を示すブロック図である。
プロジェクター100は、投射部110、撮像部120、検出光照射部130、操作受付部135、入力インターフェース141、画像処理部143、フレームメモリー145、位置検出部150及び制御部170を備える。位置検出部150及び制御部170は、位置検出装置200として動作する。投射部110は、表示部の一例である。
投射部110は、光源111、光変調装置113及び光学ユニット115を備える。
光源111には、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ光源が使用される。また、光源111として、LED(Light Emitting Diode)やレーザー光源等の固体光源を用いてもよい。
光変調装置113は、光源111が発する光を変調して画像光30を生成する光変調素子を備える。光変調素子には、例えば、透過型の液晶ライトバルブや、反射型の液晶ライトバルブ、デジタルミラーデバイス等を用いることができる。
光学ユニット115は、レンズやミラー等の光学素子を備え、光変調装置113により生成された画像光30を拡大して投射面10に投射する。画像光30が投射面10で結像した画像が使用者に視認される。
撮像部120は、第1カメラ121及び第2カメラ123を備える。
第1カメラ121及び第2カメラ123は、レンズ等の光学系にて集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備える。第1カメラ121及び第2カメラ123は、検出光20が指示体80で反射した反射光を撮像可能に配置される。また、第1カメラ121及び第2カメラ123には、検出光20の反射光を受光するための赤外線フィルターが取り付けられる。
第1カメラ121及び第2カメラ123は、レンズ等の光学系にて集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備える。第1カメラ121及び第2カメラ123は、検出光20が指示体80で反射した反射光を撮像可能に配置される。また、第1カメラ121及び第2カメラ123には、検出光20の反射光を受光するための赤外線フィルターが取り付けられる。
第1カメラ121及び第2カメラ123は、操作面13を含む範囲を撮像する。第1カメラ121及び第2カメラ123は、所定のフレームレートで操作面13を含む範囲を撮像し、生成した撮像画像を位置検出部150に出力する。使用者が指示体80を投射面10に近づけると、撮像部120の撮像画像には、検出光照射部130が照射する検出光20が指示体80で反射した反射光が撮像される。
検出光照射部130は、赤外光を発する光源として、LD(Laser Diode)又はLEDを有する。また、検出光照射部130は、光源が発する赤外光を投射面10に向けて拡散させる光学部品を備えてもよい。検出光照射部130は、検出光20を出射する1つの出射口を設けて、この出射口を第1カメラ121と第2カメラ123の間の位置に設置してもよい。また、検出光照射部130は、2つ以上の出射口を設けて、第1カメラ121と第2カメラ123のそれぞれに対応した位置に設置してもよい。例えば、第1カメラ121と第2カメラ123のそれぞれに隣接して出射口を設け、発光と撮影のタイミングを調整することにより、撮影画像におけるコントラストを向上できる。
操作受付部135は、不図示のリモコンにより送信される赤外線信号を受光する。操作受付部135は、リモコンから受光した赤外線信号に対応した操作信号を制御部170に出力する。操作信号は、操作されたリモコンのスイッチに対応した信号である。
入力インターフェース141は、外部装置との接続インターフェースである。入力インターフェース141は、ケーブルを接続するコネクター、及び信号処理を行うインターフェース回路を備える。入力インターフェース141は、接続された外部装置から供給された画像データを受信する。入力インターフェース141は、受信した画像データを画像処理部143に出力する。
画像処理部143は、入力された画像データをフレームメモリー145に展開する。フレームメモリー145は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)により構成される。
画像処理部143は、フレームメモリー145に展開した画像データに対して画像処理を行う。画像処理部143が行う画像処理には、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等が含まれる。画像処理部143は、制御部170により指定された処理を実行し、必要に応じて、制御部170から入力されるパラメーターを使用して処理を行う。また、画像処理部143は、上記のうち複数の画像処理を組み合わせて実行することも勿論可能である。画像処理部143は、フレームメモリー145から画像データを読み出し、読み出した画像データを投射部110に出力する。
画像処理部143及びフレームメモリー145は、例えば、集積回路により構成される。集積回路には、LSI、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が含まれていてもよく、制御部170と集積回路とが組み合わされた構成であってもよい。
位置検出部150は、第1記憶部151と、画像処理プロセッサー160とを備える。
第1記憶部151は、例えば、揮発性、不揮発性、又は揮発性及び不揮発性の半導体記憶装置により構成される。第1記憶部151は、画像処理プロセッサー160が実行する制御プログラム155を記憶する。また、第1記憶部151は、後述するキャリブレーション画像201やキャリブレーションデータを記憶する。
第1記憶部151は、例えば、揮発性、不揮発性、又は揮発性及び不揮発性の半導体記憶装置により構成される。第1記憶部151は、画像処理プロセッサー160が実行する制御プログラム155を記憶する。また、第1記憶部151は、後述するキャリブレーション画像201やキャリブレーションデータを記憶する。
画像処理プロセッサー160は、例えば、GPU(Graphics Processing Unit)等のリアルタイムなデジタル画像処理に用いられる専用のプロセッサーにより構成される。また、画像処理プロセッサー160は、例えば、DSP(Digital Signal Processor)や、集積回路、その他のデジタル回路により構成してもよい。集積回路には、例えば、LSI、ASIC、PLD、FPGA、SoC等が含まれる。
位置検出部150は、機能ブロックとして、キャリブレーションデータ生成部161、先端検出部165及び判定部167を備える。これらの機能ブロックは、画像処理プロセッサー160が制御プログラムに記述された命令セットを実行して、データの演算や制御を行うことにより実現される機能をブロックにより便宜的に示したものである。
位置検出部150には、第1カメラ121によって撮像された左撮像画像と、第2カメラ123によって撮像された右撮像画像とが入力される。図4に、左撮像画像及び右撮像画像の一例を示す。図4に示す左撮像画像及び右撮像画像は、指示体80である使用者の指を撮像した画像である。より詳細には、図4は、第1カメラ121及び第2カメラ123が、同じタイミングで、操作面13を背景として、指、手及び腕を含む範囲をそれぞれ撮像した画像である。図4には、左カメラである第1カメラ121の左撮像画像に対応した左矩形画像235と、右カメラである第2カメラ123の右撮像画像に対応した右矩形画像237とを示されている。左矩形画像235は、左撮像画像を、キャリブレーションデータ生成部161が生成したキャリブレーションデータを用いて変形した画像である。右矩形画像237は、右撮像画像を、キャリブレーションデータを用いて変形した画像である。左矩形画像235及び右矩形画像237の詳細については後述する。
キャリブレーションデータ生成部161は、キャリブレーションデータを生成する。キャリブレーションデータには、第1範囲情報、第2範囲情報、第1画像変換係数及び第2画像変換係数が含まれる。
第1範囲情報は、左撮像画像における投射領域15の範囲を示す情報である。第2範囲情報は、右撮像画像における投射領域15の範囲を示す情報である。第1画像変換係数は、第1範囲情報に基づいて左撮像画像から抽出した画像の形状を矩形に変換する係数である。第2画像変換係数は、第2範囲情報に基づいて右撮像画像から抽出した画像の形状を矩形に変換する係数である。キャリブレーションデータの生成方法の詳細については、後述する。
先端検出部165は、本発明の取得部、抽出部及び出力部に対応し、本発明の取得ステップ、生成ステップ、抽出ステップ及び検出ステップに対応した処理を実行する。取得ステップは、後述の図5のステップS4、S5、及びステップS6の一部を含んだ処理に対応する。生成ステップは、図5のステップS6、特に図8のステップS602に対応する処理を含む。抽出ステップは、図5のステップS6、特に図8のステップS603及びS604に対応する処理を含む。検出ステップは、図5のステップS7に対応する処理を含む。
先端検出部165が実行する取得ステップに対応した処理は、操作面13にキャリブレーションされた撮像画像である図4の左矩形画像235及び右矩形画像237を取得する処理である。操作面13にキャリブレーションされた撮像画像とは、操作面13における視差が0となるように調整された画像を意味する。先端検出部165は、第1範囲情報を用いて、左撮像画像から投射領域15に対応する画像を切り出し、切り出した画像を、第1画像変換係数を用いて左矩形画像235に変換する。また、先端検出部165は、第2範囲情報を用いて、右撮像画像から投射領域15に対応する画像を切り出し、切り出した画像を、第2画像変換係数を用いて右矩形画像237に変換する。左矩形画像235と右矩形画像237とは、矩形の画像であって、操作面13の位置であるZ=0の位置で視差が0となるように調整された画像である。また、左矩形画像235と右矩形画像237とにおける視差は、操作面13の前方、すなわちZ軸の正方向に離れた物体ほど、視差が大きくなる。左矩形画像235と右矩形画像237との操作面13での視差が0に調整される理由については後述する。
先端検出部165が実行する生成ステップに対応した処理は、左矩形画像235と、右矩形画像237とに基づいて、図9に示す差分画像240を生成する処理である。本実施形態の先端検出部165は、左矩形画像235から右矩形画像237を減算することで差分画像240を生成するが、右矩形画像237から左矩形画像235を減算して差分画像240を生成してもよい。減算は、例えば、一方の画像の画素の画素値から他方の画像の対応する画素の画素値を減ずる処理である。
先端検出部165が実行する抽出ステップに対応した処理は、左撮像画像と右撮像画像との視差量が、予め設定された範囲内の領域を図9に示す変化領域250として抽出する処理である。前述したように左矩形画像235及び右矩形画像237は操作面13での視差が0になるように調整された画像であって、差分画像240は、左矩形画像235から右矩形画像237を減算して生成される。このため、視差が0となる操作面13に接している物体の接触点及びその近辺は、差分画像240には検出されない。差分画像240において、接触点及びその近辺の画像は、背景である操作面13の画像と区別がつかなくなる。例えば、指示体80の先端が操作面13に接触している場合、この指示体80の先端は差分画像240には検出されない。また、差分画像240には、左矩形画像235と右矩形画像237での視差が0ではなく、操作面13の近くに位置する指示体80等の像が検出される。
さらに、先端検出部165は、抽出ステップに対応した処理として、変化領域250から指先が撮像された領域である図16に示す指先領域270を抽出する。ここでは、先端検出部165は、変化領域250から腕等の画像を除去して指先に対応する領域である指先領域270を抽出する。
先端検出部165が実行する検出ステップに対応した処理は、指示体80の形状に基づいて、指示体80である指の先端位置を検出する処理である。生成ステップ、抽出ステップ及び検出ステップの詳細については、図9〜図22を参照しながら後述する。
判定部167は、本発明の出力ステップを含んだ処理を実行する。判定部167は、先端検出部165が検出した指先領域270に基づいて、指示体80が操作面13に接触したか否かを判定する。判定部167は、学習済みのニューラルネットワークを備え、このニューラルネットワークに基づいて、指先の位置や、指先が操作面13に接触しているか否かを判定する。判定部167が実行する処理は、図5のステップS8及びステップS9に対応する処理を含む。
制御部170は、第2記憶部175及びプロセッサー180を備えるコンピューター装置である。第2記憶部175は、RAM(Random access memory)等の揮発性の記憶装置と、ROM(Read Only Memory)やフラッシュメモリー等の不揮発性の記憶装置とを備える。第2記憶部175は、プロセッサー180が実行する制御プログラムを記憶する。制御プログラムには、例えば、ファームウェアが含まれる。
プロセッサー180は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)により構成される演算処理装置である。プロセッサー180は、制御プログラムを実行してプロジェクター100の各部を制御する。プロセッサー180は、単一のプロセッサーにより構成してもよいし、複数のプロセッサーにより構成することも可能である。また、プロセッサー180は、第2記憶部175の一部又は全部や、その他の回路と統合されたSoCにより構成してもよい。また、プロセッサー180は、プログラムを実行するCPUと、所定の演算処理を実行するDSPとの組合せにより構成してもよい。さらに、プロセッサー180の機能の全てをハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。
制御部170は、機能ブロックとして撮像制御部181及び操作実行部183を備える。これらの機能ブロックは、プロセッサー180が制御プログラムに記述された命令セットを実行して、データの演算や制御を行うことにより実現される機能をブロックにより便宜的に示したものである。
撮像制御部181は、検出光照射部130に検出光を照射させて、撮像部120に撮像を実行させる。撮像部120は、予め設定されたフレームレートで投射面10を含む範囲を撮像して撮像画像を生成する。撮像部120が生成した撮像画像は、位置検出部150に入力される。撮像制御部181は、本発明の照射制御部に対応する。照射制御部が実行する処理は、図5のステップS4に対応する。
操作実行部183には、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とが位置検出部150から入力される。操作実行部183は、位置検出部150から入力される情報に基づいて、操作を検出し、検出した操作に対応した処理を実行する。例えば、操作実行部183は、操作面13に接触させた指示体80を、操作面13上で移動させる操作が検出された場合、移動する指示体80の軌跡に対応した画像を投射領域15に描画する。操作実行部183が実行する処理は、図5のステップS10に対応する。
A−3.全体処理フロー
図5は、プロジェクター100の動作を示すフローチャートである。
図5を参照しながらプロジェクター100の動作について説明する。
まず、制御部170は、プロジェクター100の設置時、又はプロジェクター100の起動時であるか否かを判定する(ステップS1)。例えば、操作受付部135がリモコンに設けられた所定ボタンに対応した信号を受信した場合に、制御部170は、プロジェクター100の設置時であると判定してもよい。また、プロジェクター100の工場出荷後、プロジェクター100の電源が最初にオンされた場合に、制御部170は、プロジェクター100の設置時であると判定してもよい。制御部170は、設置時又は起動時ではない場合(ステップS1/NO)、ステップS4の処理に移行する。
図5は、プロジェクター100の動作を示すフローチャートである。
図5を参照しながらプロジェクター100の動作について説明する。
まず、制御部170は、プロジェクター100の設置時、又はプロジェクター100の起動時であるか否かを判定する(ステップS1)。例えば、操作受付部135がリモコンに設けられた所定ボタンに対応した信号を受信した場合に、制御部170は、プロジェクター100の設置時であると判定してもよい。また、プロジェクター100の工場出荷後、プロジェクター100の電源が最初にオンされた場合に、制御部170は、プロジェクター100の設置時であると判定してもよい。制御部170は、設置時又は起動時ではない場合(ステップS1/NO)、ステップS4の処理に移行する。
また、制御部170は、設置時又は起動時である場合(ステップS1/YES)、位置検出部150にキャリブレーションを実行させる(ステップS2)。制御部170は、キャリブレーション画像201を投射部110に投射させ、撮像部120に撮像を実行させる。位置検出部150は、撮像部120によって撮像された左撮像画像及び右撮像画像に基づいてキャリブレーションデータを生成する(ステップS3)。生成したキャリブレーションデータは、第1記憶部151に記憶される。
キャリブレーションデータの生成が終了し、操作受付部135により操作を受け付けると、制御部170は、検出光照射部130に検出光の照射を開始させ、撮像部120に撮像を開始させる(ステップS4)。ステップS4は、本発明の照射ステップに相当する。
位置検出部150は、第1カメラ121から左撮像画像が入力され、第2カメラ123から右撮像画像が入力されたか否かを判定する(ステップS5)。位置検出部150は、撮像画像の入力がない場合(ステップS5/NO)、左撮像画像及び右撮像画像の入力があるまで処理の開始を待機する。
位置検出部150は、左撮像画像及び右撮像画像が入力されると(ステップS5/YES)、左撮像画像及び右撮像画像を処理して差分画像240を生成する。また、位置検出部150は、生成した差分画像240から指示体80に対応する変化領域250を抽出して指先領域270を検出する(ステップS6)。次に、位置検出部150は、検出した指先領域270から指示体80である指の先端位置255を特定する(ステップS7)。
位置検出部150は、指示体80の先端位置255を特定すると、特定した先端位置255に基づいて指示体80と操作面13との接触・非接触を判定する(ステップS8)。さらに、位置検出部150は、先端位置255の操作面13における座標を判定する(ステップS9)。位置検出部150は、接触・非接触の判定結果と、先端位置255の操作面13における座標とを制御部170に出力する。
制御部170は、位置検出部150から入力された接触・非接触の判定結果と、操作面13における座標とに基づき、処理を実行する(ステップS10)。
例えば、制御部170は、位置検出部150から接触を示す情報が連続して入力された場合、操作面13の座標に基づいて指示体80の移動の軌跡を示す軌跡データを生成し、生成した軌跡データに対応した図形等の画像を投射領域15に投射して表示させる。また、制御部170は、接触を示す情報が入力された場合、入力された操作面13の座標にアイコンを表示しているか否かを判定する。制御部170は、入力された操作面13の座標にアイコンが表示されている場合、このアイコンに対応づけられた操作を、指示体80の操作に対応づける。例えば、アイコンがペンの場合、制御部170は、指示体80の先端が操作面13に接触した位置の軌跡を示す軌跡データを生成し、生成した軌跡データに対応した図形等の画像を投射領域15に投射して表示させる。また、アイコンが消しゴムであれば、入力された操作面13の座標に対応する操作面13の位置に表示させた図形等の画像の表示を消去する。
例えば、制御部170は、位置検出部150から接触を示す情報が連続して入力された場合、操作面13の座標に基づいて指示体80の移動の軌跡を示す軌跡データを生成し、生成した軌跡データに対応した図形等の画像を投射領域15に投射して表示させる。また、制御部170は、接触を示す情報が入力された場合、入力された操作面13の座標にアイコンを表示しているか否かを判定する。制御部170は、入力された操作面13の座標にアイコンが表示されている場合、このアイコンに対応づけられた操作を、指示体80の操作に対応づける。例えば、アイコンがペンの場合、制御部170は、指示体80の先端が操作面13に接触した位置の軌跡を示す軌跡データを生成し、生成した軌跡データに対応した図形等の画像を投射領域15に投射して表示させる。また、アイコンが消しゴムであれば、入力された操作面13の座標に対応する操作面13の位置に表示させた図形等の画像の表示を消去する。
A−4.ステレオキャリブレーション
次に、図6及び図7を参照しながらキャリブレーションについて説明する。
図6は、キャリブレーション画像201の一例を示す図である。
まず、制御部170の制御により、図7に示すキャリブレーション画像201を投射部110に投射させ、キャリブレーション画像201が投射された投射面10を第1カメラ121及び第2カメラ123に撮像させる。
次に、図6及び図7を参照しながらキャリブレーションについて説明する。
図6は、キャリブレーション画像201の一例を示す図である。
まず、制御部170の制御により、図7に示すキャリブレーション画像201を投射部110に投射させ、キャリブレーション画像201が投射された投射面10を第1カメラ121及び第2カメラ123に撮像させる。
図6に示すようにキャリブレーション画像201は、予め設定された形状のマーク205が、キャリブレーション画像201の縦方向及び横方向に等間隔で配置された画像である。本実施形態では、キャリブレーション画像201として、黒色の背景に、マーク205としての白色のドットをキャリブレーション画像201の縦方向及び横方向に等間隔で配置した画像を用いる。
キャリブレーションデータ生成部161は、キャリブレーション画像201が投射された投射面10を第1カメラ121で撮像した左撮像画像と、投射面10を第2カメラ123で撮像した右撮像画像とを取得する。
キャリブレーションデータ生成部161は、第1範囲情報を参照して、投射領域15に対応する左撮像画像の領域を抽出する。同様に、キャリブレーションデータ生成部161は、第2範囲情報を参照して、投射領域15に対応する右撮像画像の領域を抽出する。抽出された投射領域15に対応する左撮像画像の領域を左抽出画像231といい、抽出された投射領域15に対応する右撮像画像の領域を右抽出画像233という。
キャリブレーションデータ生成部161は、第1範囲情報を参照して、投射領域15に対応する左撮像画像の領域を抽出する。同様に、キャリブレーションデータ生成部161は、第2範囲情報を参照して、投射領域15に対応する右撮像画像の領域を抽出する。抽出された投射領域15に対応する左撮像画像の領域を左抽出画像231といい、抽出された投射領域15に対応する右撮像画像の領域を右抽出画像233という。
図7は、左抽出画像231及び右抽出画像233の形状を矩形に変形する変形方法を示す図である。
図7の上段に、左抽出画像231及び右抽出画像233を示す。第1カメラ121と投射面10との関係、及び第2カメラ123と投射面10との関係により、左撮像画像及び右撮像画像は、矩形画像となる。また、左抽出画像231と右抽出画像233は、第1カメラ121と第2カメラ123との関係において、マーク205がずれた画像となる。
キャリブレーションデータ生成部161は、第1記憶部151が記憶するキャリブレーション画像201と、左抽出画像231及び右抽出画像233とを比較して第1画像変換係数及び第2画像変換係数を決定する。具体的には、左抽出画像231及び右抽出画像233の変形方法は同一であるため、以下では、左抽出画像231の変形方法について説明する。
図7の上段に、左抽出画像231及び右抽出画像233を示す。第1カメラ121と投射面10との関係、及び第2カメラ123と投射面10との関係により、左撮像画像及び右撮像画像は、矩形画像となる。また、左抽出画像231と右抽出画像233は、第1カメラ121と第2カメラ123との関係において、マーク205がずれた画像となる。
キャリブレーションデータ生成部161は、第1記憶部151が記憶するキャリブレーション画像201と、左抽出画像231及び右抽出画像233とを比較して第1画像変換係数及び第2画像変換係数を決定する。具体的には、左抽出画像231及び右抽出画像233の変形方法は同一であるため、以下では、左抽出画像231の変形方法について説明する。
キャリブレーションデータ生成部161は、キャリブレーション画像201のマーク205の位置と、左抽出画像231のマークの位置とを比較し、キャリブレーション画像201の頂点と、左抽出画像231の頂点とを比較する。キャリブレーションデータ生成部161は、これらの比較結果に基づき、左抽出画像231をキャリブレーション画像201と同一の矩形に変形するための変形量である、引き延ばし方向及び引き延ばし量を第1画像変換係数として決定する。同様に、キャリブレーションデータ生成部161は、キャリブレーション画像201のマーク205の位置と、右抽出画像233のマークの位置とを比較し、キャリブレーション画像201の頂点と、右抽出画像233の頂点とを比較する。キャリブレーションデータ生成部161は、これらの比較結果に基づき、右抽出画像233をキャリブレーション画像201と同一の矩形に変形するための変形量である、引き延ばし方向及び引き延ばし量を第2画像変換係数として決定する。
第1画像変換係数は、左抽出画像231の各マーク205の位置が、キャリブレーション画像201に形成されたマーク205の位置に一致するように左抽出画像231の形状を変換する係数である。また、第2画像変換係数は、右抽出画像233の各マーク205の位置が、キャリブレーション画像201に形成されたマーク205の位置に一致するように右抽出画像233の形状を変換する係数である。このため、第1画像変換係数により変換された左抽出画像231と、第2画像変換係数により変換された右抽出画像233とは、キャリブレーション画像201に一致するように変換される。このため、投射面10での視差が0となるように左抽出画像231及び右抽出画像233が変換される。投射面10での視差が0となるように変換された左抽出画像231及び右抽出画像233は、本発明の操作面にキャリブレーションされた第1撮像画像と第2撮像画像に相当する。また、キャリブレーションは、第1カメラ121の座標系と第2カメラ123の座標系とを、投射面10の座標系に対応させるステレオキャリブレーションとも言える。
A−5.指先領域の検出
図8は、図5のステップS6の指先領域の検出処理を示すフローチャートである。
指先領域の検出は、操作面13の全体の撮像画像から、操作面13に接触又は接近した指示体80の先端を含む領域である図16の指先領域270を検出する処理である。
図8に示すフローチャートを参照しながら、指先領域270の検出処理の詳細について説明する。まず、位置検出部150は、第1カメラ121の左撮像画像を取得すると、キャリブレーションデータを用いて、左撮像画像から左抽出画像231を抽出し、抽出した左抽出画像231の形状を矩形に変形して左矩形画像235を生成する(ステップS601)。同様に、位置検出部150は、第2カメラ123の右撮像画像を取得すると、キャリブレーションデータを用いて、右撮像画像から右抽出画像233を抽出し、右抽出画像233の形状を矩形に変形して右矩形画像237を生成する(ステップS601)。
図8は、図5のステップS6の指先領域の検出処理を示すフローチャートである。
指先領域の検出は、操作面13の全体の撮像画像から、操作面13に接触又は接近した指示体80の先端を含む領域である図16の指先領域270を検出する処理である。
図8に示すフローチャートを参照しながら、指先領域270の検出処理の詳細について説明する。まず、位置検出部150は、第1カメラ121の左撮像画像を取得すると、キャリブレーションデータを用いて、左撮像画像から左抽出画像231を抽出し、抽出した左抽出画像231の形状を矩形に変形して左矩形画像235を生成する(ステップS601)。同様に、位置検出部150は、第2カメラ123の右撮像画像を取得すると、キャリブレーションデータを用いて、右撮像画像から右抽出画像233を抽出し、右抽出画像233の形状を矩形に変形して右矩形画像237を生成する(ステップS601)。
次に、位置検出部150は、差分画像240を生成する(ステップS602)。位置検出部150は、左矩形画像235から右矩形画像237を減算して差分画像240を生成する。
図9は、差分画像240を示す図である。
差分画像240には、変化領域250が含まれる。変化領域250は、左矩形画像235と右矩形画像237との視差量が、予め設定された範囲内となる領域である。差分画像240は、左矩形画像235から右矩形画像237を減算した画像である。このため、投射面10の位置であるZ=0の位置にあり、視差が0となる物体は、差分画像240には表示されない。また、投射面10から離れた位置に存在する物体ほど、視差が大きくなり、左矩形画像235における物体の位置と、右矩形画像237における物体の位置との差が大きくなる。図9では、変化領域250は、指示体80である指と、手、腕等が撮像された領域に対応する。また、図9の差分画像240には、投射面10等の状態による投射面10の反射光のノイズや、外光等の映り込みのノイズとして、正領域245及び負領域247の孤立領域が検出される。
差分画像240には、変化領域250が含まれる。変化領域250は、左矩形画像235と右矩形画像237との視差量が、予め設定された範囲内となる領域である。差分画像240は、左矩形画像235から右矩形画像237を減算した画像である。このため、投射面10の位置であるZ=0の位置にあり、視差が0となる物体は、差分画像240には表示されない。また、投射面10から離れた位置に存在する物体ほど、視差が大きくなり、左矩形画像235における物体の位置と、右矩形画像237における物体の位置との差が大きくなる。図9では、変化領域250は、指示体80である指と、手、腕等が撮像された領域に対応する。また、図9の差分画像240には、投射面10等の状態による投射面10の反射光のノイズや、外光等の映り込みのノイズとして、正領域245及び負領域247の孤立領域が検出される。
図10は、差分画像240に含まれる正領域245及び負領域247を除去した状態を示す図である。
位置検出部150は、生成した差分画像240に含まれる正領域245及び負領域247の孤立領域を除去する(ステップS603)。位置検出部150は、差分画像240において、正領域245だけが孤立して存在する画像の領域と、負領域247だけが孤立して存在する画像の領域とを除去する。差分画像240は、左矩形画像235から右矩形画像237を減算して生成した画像である。例えば、左矩形画像235の画素値が右矩形画像237の画素値よりも大きい場合、差分画像240には正領域245が生じる。また、対応する画像において、右矩形画像237の画素値が左矩形画像235の画素値よりも大きい場合、差分画像240には負領域247が生じる。
位置検出部150は、生成した差分画像240に含まれる正領域245及び負領域247の孤立領域を除去する(ステップS603)。位置検出部150は、差分画像240において、正領域245だけが孤立して存在する画像の領域と、負領域247だけが孤立して存在する画像の領域とを除去する。差分画像240は、左矩形画像235から右矩形画像237を減算して生成した画像である。例えば、左矩形画像235の画素値が右矩形画像237の画素値よりも大きい場合、差分画像240には正領域245が生じる。また、対応する画像において、右矩形画像237の画素値が左矩形画像235の画素値よりも大きい場合、差分画像240には負領域247が生じる。
孤立して存在する正領域245及び負領域247を除去することで、差分画像240には、正領域245と負領域247とが予め設定された距離以下で近接して存在する領域だけが残る。この正領域245と負領域247とが近接して存在する領域が変化領域250となる。変化領域250は、左矩形画像235と右矩形画像237との視差量が、予め設定された範囲内の領域であり、投射面10の近くに存在する物体が撮像された領域である。
図11は、モルフォロジー変換後の差分画像240を示す図である。
位置検出部150は、差分画像240の変化領域250に膨張収縮のモルフォロジー変換を行って、孤立点を除去し、穴が空いた領域の穴埋めを行う(ステップS604)。図11には、モルフォロジー変換において、孤立点を除去し、穴が空いた領域を穴埋めした後の差分画像240が示されている。差分画像240に、モルフォロジー変換や穴埋め等の処理を行って生成された変化領域250が、本発明の候補領域に対応する。候補領域は、変化領域250において、操作面13に接触又は接近した指示体80の先端を含む領域である。
位置検出部150は、差分画像240の変化領域250に膨張収縮のモルフォロジー変換を行って、孤立点を除去し、穴が空いた領域の穴埋めを行う(ステップS604)。図11には、モルフォロジー変換において、孤立点を除去し、穴が空いた領域を穴埋めした後の差分画像240が示されている。差分画像240に、モルフォロジー変換や穴埋め等の処理を行って生成された変化領域250が、本発明の候補領域に対応する。候補領域は、変化領域250において、操作面13に接触又は接近した指示体80の先端を含む領域である。
次に、位置検出部150は、モルフォロジー変換後の差分画像240の解像度を変換して、1/2解像度、1/4解像度、及び1/8解像度の差分画像240をそれぞれ生成する(ステップS605)。1/2解像度の差分画像240を第1差分画像240Aとし、この第1差分画像240Aに検出される変化領域250を第1変化領域250Aとする。また、1/4解像度の差分画像240を第2差分画像240Bとし、この第2差分画像240Bに検出される変化領域250を第2変化領域250Bとする。また、1/8解像度の差分画像240を第3差分画像240Cとし、この第3差分画像240Cに検出される変化領域250を第3変化領域250Cとする。
図12は、図11のモルフォジー変換された差分画像240が1/8の解像度に変換された第3差分画像240Cを示す図である。また、図12は、第3変化領域250Cに図形300を重畳した状態を示す図である。
位置検出部150は、切り出し処理を実行する(ステップS606)。位置検出部150は、予め設定された大きさの図形300を、1/8解像度の第3差分画像240C上で移動させながら、図形300が内部に完全に収まる第3変化領域250Cを検出する。先端検出部165は、図形300が収まる第3変化領域250Cを検出すると、この図形300が重なった第3変化領域250Cの画像を削除する。図12は、図形300に重なる第3変化領域250Cの画像を削除した状態を示す。位置検出部150は、この処理を図形300が収まる第3変化領域250Cがなくなるまで繰り返す。次に、位置検出部150は、第3変化領域250Cのうち、第3差分画像240Cの外周に接する領域を除去する。図13は、第3差分画像240Cの外周に接する第3変化領域250Cの画像を除去した状態を示す図である。
位置検出部150は、切り出し処理を実行する(ステップS606)。位置検出部150は、予め設定された大きさの図形300を、1/8解像度の第3差分画像240C上で移動させながら、図形300が内部に完全に収まる第3変化領域250Cを検出する。先端検出部165は、図形300が収まる第3変化領域250Cを検出すると、この図形300が重なった第3変化領域250Cの画像を削除する。図12は、図形300に重なる第3変化領域250Cの画像を削除した状態を示す。位置検出部150は、この処理を図形300が収まる第3変化領域250Cがなくなるまで繰り返す。次に、位置検出部150は、第3変化領域250Cのうち、第3差分画像240Cの外周に接する領域を除去する。図13は、第3差分画像240Cの外周に接する第3変化領域250Cの画像を除去した状態を示す図である。
位置検出部150は、1/8解像度の第3差分画像240Cの解像度を1/4に変換する(ステップS607)。その後、位置検出部150は、1/4解像度に変換した第3差分画像240Cと、1/4解像度の第2差分画像240Bとの論理積を計算する(ステップS608)。これにより、1/4解像度の第2差分画像240Bであって、1/8解像度の第3変化領域250Cにおいて除去した画像が除去された第2差分画像240Bが生成される。
図14は、第2差分画像240Bを示す図であり、第2変化領域250Bに図形300を重畳した状態が示されている。
位置検出部150は、切り出し処理を実行する(ステップS609)。位置検出部150は、図形300を、1/4解像度の第2差分画像240B上で移動させながら、図形300が内部に完全に収まる第2変化領域250Bを検出する。図形300の大きさは、1/8解像度の第3差分画像240Cにおいて画像の除去に使用した図形300の大きさと同一である。先端検出部165は、図形300が収まる第2変化領域250Bを検出すると、この図形300が重なった第2変化領域250Bの画像を削除する。位置検出部150は、この処理を図形300が収まる第2変化領域250Bがなくなるまで繰り返す。次に、位置検出部150は、第2変化領域250Bのうち、第2差分画像240Bの外周に接する領域を除去する。図15に、第2差分画像240Bの外周に接する第2変化領域250Bの画像を除去した状態を示す。
位置検出部150は、切り出し処理を実行する(ステップS609)。位置検出部150は、図形300を、1/4解像度の第2差分画像240B上で移動させながら、図形300が内部に完全に収まる第2変化領域250Bを検出する。図形300の大きさは、1/8解像度の第3差分画像240Cにおいて画像の除去に使用した図形300の大きさと同一である。先端検出部165は、図形300が収まる第2変化領域250Bを検出すると、この図形300が重なった第2変化領域250Bの画像を削除する。位置検出部150は、この処理を図形300が収まる第2変化領域250Bがなくなるまで繰り返す。次に、位置検出部150は、第2変化領域250Bのうち、第2差分画像240Bの外周に接する領域を除去する。図15に、第2差分画像240Bの外周に接する第2変化領域250Bの画像を除去した状態を示す。
次に、位置検出部150は、1/4解像度の第2差分画像240Bの解像度を1/2に変換する(ステップS610)。その後、位置検出部150は、1/2解像度に変換した第2差分画像240Bと、1/2解像度の第1差分画像240Aとの論理積を計算する(ステップS611)。これにより、1/2解像度の第1差分画像240Aであって、1/8解像度の第3変化領域250C、及び1/4解像度の第2変化領域250Bにおいて除去した画像が除去された第1差分画像240Aが生成される。
図16は、第1差分画像240Aを示す図である。
位置検出部150は、切り出し処理を実行する(ステップS612)。位置検出部150は、予め設定された大きさの図形300を、1/2解像度の第1差分画像240A上で移動させながら、図形300が内部に完全に収まる第1変化領域250Aを検出する。図形300の大きさは、1/8解像度の第3差分画像240C、及び1/4解像度の第2差分画像240Bにおいて画像の除去に使用した図形300の大きさと同一である。位置検出部150は、図形300が収まる第1変化領域250Aを検出すると、この図形300が重なった第1変化領域250Aの画像を削除する。位置検出部150は、この処理を図形300が収まる第1変化領域250Aがなくなるまで繰り返す。位置検出部150は、除去されずに残った第1変化領域250Aを指先領域270として検出する(ステップS613)。図17は、差分画像240から、指先領域270を中心に特定の領域を切り出した図である。これにより、ノイズ等の影響により誤検出することなく、操作面13の全体の撮像画像から、操作面13に接触又は接近した指示体80の先端を含む領域である指先領域270を検出することができる。
位置検出部150は、切り出し処理を実行する(ステップS612)。位置検出部150は、予め設定された大きさの図形300を、1/2解像度の第1差分画像240A上で移動させながら、図形300が内部に完全に収まる第1変化領域250Aを検出する。図形300の大きさは、1/8解像度の第3差分画像240C、及び1/4解像度の第2差分画像240Bにおいて画像の除去に使用した図形300の大きさと同一である。位置検出部150は、図形300が収まる第1変化領域250Aを検出すると、この図形300が重なった第1変化領域250Aの画像を削除する。位置検出部150は、この処理を図形300が収まる第1変化領域250Aがなくなるまで繰り返す。位置検出部150は、除去されずに残った第1変化領域250Aを指先領域270として検出する(ステップS613)。図17は、差分画像240から、指先領域270を中心に特定の領域を切り出した図である。これにより、ノイズ等の影響により誤検出することなく、操作面13の全体の撮像画像から、操作面13に接触又は接近した指示体80の先端を含む領域である指先領域270を検出することができる。
A−6.先端位置の特定
図18は、図6のステップS7の指の先端位置を特定する処理の詳細を示すフローチャートである。指の先端位置を特定は、ステップS6で検出された指先領域270をもとに、図21に示される指先領域270の先端位置255を算出し、左撮像画像と右撮像画像とのそれぞれから先端位置255に対応する領域を切り出す処理である。
図18に示すフローチャートを参照しながら指の先端位置を特定する処理について説明する。図19は、図17に対応した指先領域270を示し、放射状の線分280を描画した図である。
まず、位置検出部150は、検出した指先領域270の重心座標を計算する(ステップS701)。位置検出部150は、指先領域270の重心座標を計算すると、計算した指先領域270の重心座標を始点とし、重心座標を中心に放射状に複数の線分280を第1差分画像240Aに描画する(ステップS702)。このとき、位置検出部150は、図18に示すように、隣接する線分280同士のなす角度θ1が一定となるように複数の線分280を描画する。
図18は、図6のステップS7の指の先端位置を特定する処理の詳細を示すフローチャートである。指の先端位置を特定は、ステップS6で検出された指先領域270をもとに、図21に示される指先領域270の先端位置255を算出し、左撮像画像と右撮像画像とのそれぞれから先端位置255に対応する領域を切り出す処理である。
図18に示すフローチャートを参照しながら指の先端位置を特定する処理について説明する。図19は、図17に対応した指先領域270を示し、放射状の線分280を描画した図である。
まず、位置検出部150は、検出した指先領域270の重心座標を計算する(ステップS701)。位置検出部150は、指先領域270の重心座標を計算すると、計算した指先領域270の重心座標を始点とし、重心座標を中心に放射状に複数の線分280を第1差分画像240Aに描画する(ステップS702)。このとき、位置検出部150は、図18に示すように、隣接する線分280同士のなす角度θ1が一定となるように複数の線分280を描画する。
図20は、輪郭線の長さが最小の区間Sと、検出範囲Dとを示す図である。
位置検出部150は、隣接する2本の線分280によって区切られた指先領域270の輪郭線の長さをそれぞれ算出し、算出した輪郭線の長さが最小の区間を特定する(ステップS703)。図20に示す区間Sを輪郭線の長さが最小の区間と仮定する。
位置検出部150は、隣接する2本の線分280によって区切られた指先領域270の輪郭線の長さをそれぞれ算出し、算出した輪郭線の長さが最小の区間を特定する(ステップS703)。図20に示す区間Sを輪郭線の長さが最小の区間と仮定する。
次に、位置検出部150は、特定した区間Sに基づいて検出範囲Dを設定する(ステップS704)。例えば、図20に示す角度θ2に対応した輪郭線の範囲が、検出範囲Dに対応する。検出範囲Dは、区間Sを含み、区間Sで区切られた輪郭線の両側を含む範囲である。
次に、位置検出部150は、設定した検出範囲D内で、指先領域270の曲率が最も大きい位置を検出する(ステップS705)。位置検出部150は、検出した曲率が最も大きい位置を先端位置255とする。図21は、指先領域270の先端位置255を示す図である。位置検出部150は、先端位置255の検出に対応した差分画像240の元となる左矩形画像235から、この先端位置255を中心にして所定範囲の画像を切り出す。また、位置検出部150は、先端位置255の検出に対応した差分画像240の元となる右矩形画像237から、この先端位置255を中心にして所定範囲の画像を切り出す。左矩形画像235から切り出された画像を左切出画像241といい、右矩形画像237から切り出された画像を右切出画像243という。所定範囲は、指示体80のサイズや形状によって設定される。
図22は、左切出画像241及び右切出画像243を示す図である。左切出画像241は、本発明の第1領域画像に対応し、右切出画像243は、本発明の第2領域画像に対応する。これにより、操作面13の全体の撮像した左撮像画像及び右撮像画像から、操作面13に接触又は接近した指示体80の先端を含む所定範囲の画像である第1領域画像及び第2領域画像をそれぞれ切り出すことができる。
図22は、左切出画像241及び右切出画像243を示す図である。左切出画像241は、本発明の第1領域画像に対応し、右切出画像243は、本発明の第2領域画像に対応する。これにより、操作面13の全体の撮像した左撮像画像及び右撮像画像から、操作面13に接触又は接近した指示体80の先端を含む所定範囲の画像である第1領域画像及び第2領域画像をそれぞれ切り出すことができる。
A−7.接触・非接触及び先端位置の座標の判定
次に、ステップS7で切り出された第1領域画像及び第2領域画像を入力として処理を行うことにより、指示体80の操作面13への接触又は非接触を高精度で判定し、指示体80先端位置の座標の検出をする。
図23は、判定部167の詳細な構成を示す図である。
判定部167は、図5のステップS8及びステップS9に対応する処理を実行する。判定部167は、第1位置検出ネットワーク311と、第2位置検出ネットワーク313と、タッチ判定ネットワーク315と、XY座標検出ネットワーク317とを備える。
次に、ステップS7で切り出された第1領域画像及び第2領域画像を入力として処理を行うことにより、指示体80の操作面13への接触又は非接触を高精度で判定し、指示体80先端位置の座標の検出をする。
図23は、判定部167の詳細な構成を示す図である。
判定部167は、図5のステップS8及びステップS9に対応する処理を実行する。判定部167は、第1位置検出ネットワーク311と、第2位置検出ネットワーク313と、タッチ判定ネットワーク315と、XY座標検出ネットワーク317とを備える。
第1位置検出ネットワーク311は、AI(Artificial Intelligence)であり、学習済みのニューラルネットワークを構成するソフトウェア、又はソフトウェア及びハードウェアにより構成される。本実施形態の第1位置検出ネットワーク311は、学習済みのニューラルネットワークとして畳み込みニューラルネットワークを備える。第1位置検出ネットワーク311には、先端検出部165から左切出画像241が入力される。第1位置検出ネットワーク311は、左切出画像241をニューラルネットワークに入力して、左切出画像241における指先の位置を示す情報、すなわち、指先の位置を示す左切出画像241の座標を出力する。
第2位置検出ネットワーク313は、AIであり、学習済みのニューラルネットワークを構成するソフトウェア、又はソフトウェア及びハードウェアで構成される。本実施形態の第2位置検出ネットワーク313は、学習済みのニューラルネットワークとして畳み込みニューラルネットワークを備える。第2位置検出ネットワーク313には、先端検出部165から右切出画像243が入力される。第2位置検出ネットワーク313は、右切出画像243をニューラルネットワークに入力して、右切出画像243における指先の位置を示す情報、すなわち、指先の位置を示す右切出画像243の座標を出力する。
タッチ判定ネットワーク315は、AIであり、学習済みのニューラルネットワークを構成するソフトウェア、又はソフトウェア及びハードウェアで構成される。本実施形態のタッチ判定ネットワーク315は、学習済みのニューラルネットワークとして畳み込みニューラルネットワークを備える。タッチ判定ネットワーク315には、第1位置検出ネットワーク311及び第2位置検出ネットワーク313から指先の位置を示す情報が入力される。タッチ判定ネットワーク315は、指先の位置を示す情報をニューラルネットワークに入力して、指先が操作面13に接触しているか否かを判定した判定結果を出力する。タッチ判定ネットワーク315は、指先が操作面13に接触していると判定した場合には、接触を示す情報を出力し、指先が操作面13に接触していないと判定した場合には、非接触を示す情報を出力する。タッチ判定ネットワーク315は、接触又は非接触を示す情報を制御部170に出力する。これにより、指示体80の操作面13への接触が、高速かつ高精度に検出される。
XY座標検出ネットワーク317は、AIであり、学習済みのニューラルネットワークを構成するソフトウェア、又はソフトウェア及びハードウェアで構成される。本実施形態のXY座標検出ネットワーク317は、学習済みのニューラルネットワークとして畳み込みニューラルネットワークを備える。XY座標検出ネットワーク317は、第1位置検出ネットワーク311及び第2位置検出ネットワーク313から指先の位置を示す情報が入力される。XY座標検出ネットワーク317は、指先の位置を示す情報をニューラルネットワークに入力して、指先の操作面13での位置を示す座標情報を出力する。すなわち、XY座標検出ネットワーク317は、左切出画像241及び右切出画像243の座標に基づき、操作面13に予め設定された座標を示す座標値を出力する。XY座標検出ネットワーク317は、操作面13の座標を示す座標値を制御部170に出力する。これにより、指示体80による操作面13への指示位置が、高速かつ高精度に検出される。
そして、制御部170には、位置検出部150から接触又は非接触を示す情報と、操作面13の座標を示す座標値とが入力される。制御部170は、図5のステップS10に対応する処理を実行する。
B−1.変形例1
使用者が、使用者の指を指示体80として操作を行う場合、指示体80の先端ではなく、指の腹を操作面13に接触させて操作を行う場合も多い。このため、位置検出部150は、使用者の指を指示体80として操作を行う場合、指の腹の位置を特定し、特定した腹の位置を指示体80の操作位置295として検出してもよい。この処理について図24に示すフローチャートを参照しながら説明する。
使用者が、使用者の指を指示体80として操作を行う場合、指示体80の先端ではなく、指の腹を操作面13に接触させて操作を行う場合も多い。このため、位置検出部150は、使用者の指を指示体80として操作を行う場合、指の腹の位置を特定し、特定した腹の位置を指示体80の操作位置295として検出してもよい。この処理について図24に示すフローチャートを参照しながら説明する。
図24は、指の腹の位置を検出する位置検出部150の動作を示すフローチャートである。
まず、位置検出部150は、1/2解像度の第1差分画像240Aにおいて、画像が除去されずに残った第1変化領域250Aを指先領域270と判定する。次に。位置検出部150は、指先領域270を構成する輪郭線のうち、曲率がしきい値以上の区間を検出する(ステップS711)。
まず、位置検出部150は、1/2解像度の第1差分画像240Aにおいて、画像が除去されずに残った第1変化領域250Aを指先領域270と判定する。次に。位置検出部150は、指先領域270を構成する輪郭線のうち、曲率がしきい値以上の区間を検出する(ステップS711)。
図25は、曲率がしきい値以上の区間290を示す図である。位置検出部150は、曲率がしきい値以上の区間290を検出すると、検出した区間290に含まれる輪郭線に直交する複数の法線を第1差分画像240Aに描画する(ステップS712)。
図26は、輪郭線に直交する複数の法線を描画した状態を示す図である。位置検出部150は、輪郭線に直交する複数の法線を描画すると、法線同士が交差し、密集度が最も高い位置を、指示体80の操作位置295として特定する(ステップS713)。
B−2.変形例2
上述した位置検出部150が備える第1位置検出ネットワーク311、第2位置検出ネットワーク313、タッチ判定ネットワーク315、及び、XY座標検出ネットワーク317に、学習ステップを実行してもよい。学習ステップでは、検出光照射部130とは異なる方向から赤外光を照射した状態で、第1カメラ121、第2カメラ123により撮像した撮像画像を、学習用データセットとして各ニューラルネットワークに入力して、学習を実行させる。学習用データセットは、赤外光の異なる複数の第1撮像画像及び第2撮像画像を含む。例えば、検出光照射部130とは異なる、移動可能な赤外線光源を用い、検出光照射部130とは異なる第1の方向から赤外光を投射面10に投射して第1カメラ121及び第2カメラ123に撮像を実行させ、撮像画像を取得する。この処理を、赤外線光源の位置を変えながら複数回実行し、それぞれ異なる第2の方向、第3の方向、第4の方向、・・・、から赤外光を投射面10に投射した撮像画像を取得する。これらの複数の撮像画像を含む学習用データセットをニューラルネットワークに入力することにより、学習を実行させればよい。また、学習用データセットには、指示体80である指又は指先の位置、座標、接触しているか否かの判定結果をラベルとして付加しておき、ニューラルネットワークに教師あり学習を実行させる。
上述した位置検出部150が備える第1位置検出ネットワーク311、第2位置検出ネットワーク313、タッチ判定ネットワーク315、及び、XY座標検出ネットワーク317に、学習ステップを実行してもよい。学習ステップでは、検出光照射部130とは異なる方向から赤外光を照射した状態で、第1カメラ121、第2カメラ123により撮像した撮像画像を、学習用データセットとして各ニューラルネットワークに入力して、学習を実行させる。学習用データセットは、赤外光の異なる複数の第1撮像画像及び第2撮像画像を含む。例えば、検出光照射部130とは異なる、移動可能な赤外線光源を用い、検出光照射部130とは異なる第1の方向から赤外光を投射面10に投射して第1カメラ121及び第2カメラ123に撮像を実行させ、撮像画像を取得する。この処理を、赤外線光源の位置を変えながら複数回実行し、それぞれ異なる第2の方向、第3の方向、第4の方向、・・・、から赤外光を投射面10に投射した撮像画像を取得する。これらの複数の撮像画像を含む学習用データセットをニューラルネットワークに入力することにより、学習を実行させればよい。また、学習用データセットには、指示体80である指又は指先の位置、座標、接触しているか否かの判定結果をラベルとして付加しておき、ニューラルネットワークに教師あり学習を実行させる。
位置検出部150が学習ステップを実行することで、赤外光の照射方向が変更されても、指示体80の指示位置と、指示体80が操作面13に接触したか否かの判定精度を維持できる。
この学習ステップは、上述した図5のフローチャートにおいて、ステップS1の前に実行してもよいが、位置検出部150に学習済みニューラルネットワークを実装する前に実行してもよい。また、プロジェクター100とは異なる装置において学習ステップを実行し、学習済みニューラルネットワークを生成し、この学習済みニューラルネットワークをプロジェクター100にインストールしてもよい。
この学習ステップは、上述した図5のフローチャートにおいて、ステップS1の前に実行してもよいが、位置検出部150に学習済みニューラルネットワークを実装する前に実行してもよい。また、プロジェクター100とは異なる装置において学習ステップを実行し、学習済みニューラルネットワークを生成し、この学習済みニューラルネットワークをプロジェクター100にインストールしてもよい。
以上説明したように本実施形態の位置検出装置200は、制御部170と、位置検出部150とを備える。制御部170は、赤外光を操作面13に対応する方向に照射させる。位置検出部150は、先端検出部165と、判定部167とを備える。
先端検出部165は、撮像部120が撮像した左撮像画像及び右撮像画像を取得する。
左撮像画像及び右撮像画像は、撮像視点が異なる第1カメラ121及び第2カメラ123により操作面13を撮像した撮像画像であり、赤外光により撮像した画像である。
左撮像画像及び右撮像画像は、撮像視点が異なる第1カメラ121及び第2カメラ123により操作面13を撮像した撮像画像であり、赤外光により撮像した画像である。
先端検出部165は、取得した左撮像画像及び右撮像画像に基づいて、操作面13にキャリブレーションされた左矩形画像235及び右矩形画像237を生成する。
詳細には、先端検出部165は、左撮像画像から右撮像画像を減算して生成した差分画像240のうち、左矩形画像235と右矩形画像237との視差量が、予め設定された範囲内の領域を、指示体80の画像が含まれる変化領域250として抽出する。また、先端検出部165は、抽出した変化領域250から指示体80の先端に対応する領域を、指示体80の形状に基づいて検出する。
判定部167は、先端検出部165の検出結果に基づき、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とを出力する。
従って、ステレオカメラで操作面13を撮像した撮像画像に基づいて、指示体80の先端を検出し、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とを出力することができる。また、第1カメラ121及び第2カメラ123により赤外光による画像を撮像することで、操作面13に表示された画像光や、照明、外光等の影響を低減して、操作面13に接触した指示体80を誤検出することなく特定できる。特定された指示体80の先端に対応した領域を、第1カメラ121及び第2カメラ123のそれぞれの撮像画像から抽出し、指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報を出力することができる。これにより、指示体80の操作面13への接触、及び指示体80による操作面13の指示位置が、高速かつ高精度に検出される。
詳細には、先端検出部165は、左撮像画像から右撮像画像を減算して生成した差分画像240のうち、左矩形画像235と右矩形画像237との視差量が、予め設定された範囲内の領域を、指示体80の画像が含まれる変化領域250として抽出する。また、先端検出部165は、抽出した変化領域250から指示体80の先端に対応する領域を、指示体80の形状に基づいて検出する。
判定部167は、先端検出部165の検出結果に基づき、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とを出力する。
従って、ステレオカメラで操作面13を撮像した撮像画像に基づいて、指示体80の先端を検出し、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とを出力することができる。また、第1カメラ121及び第2カメラ123により赤外光による画像を撮像することで、操作面13に表示された画像光や、照明、外光等の影響を低減して、操作面13に接触した指示体80を誤検出することなく特定できる。特定された指示体80の先端に対応した領域を、第1カメラ121及び第2カメラ123のそれぞれの撮像画像から抽出し、指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報を出力することができる。これにより、指示体80の操作面13への接触、及び指示体80による操作面13の指示位置が、高速かつ高精度に検出される。
また、先端検出部165は、差分画像240よりも解像度が小さい第1差分画像240Aと、第1差分画像240Aよりも解像度が小さい第2差分画像240Bとを生成する。
先端検出部165は、予め設定されたサイズの図形300を第2差分画像240Bの第2変化領域250Bに重畳させ、図形300が領域内に収まる第2変化領域250Bの第2差分画像240Bを除去する。
また、先端検出部165は、第2差分画像240Bで画像を除去した領域に対応する第1差分画像240Aの領域の画像を除去する。
先端検出部165は、図形300を第1差分画像240Aの第1変化領域250Aに重畳させ、図形300が領域内に収まる第1変化領域250Aの差分画像を除去し、差分画像が残った領域に基づいて指示体80の先端を検出する。
従って、指示体80の先端の検出精度を高めることができる。
先端検出部165は、予め設定されたサイズの図形300を第2差分画像240Bの第2変化領域250Bに重畳させ、図形300が領域内に収まる第2変化領域250Bの第2差分画像240Bを除去する。
また、先端検出部165は、第2差分画像240Bで画像を除去した領域に対応する第1差分画像240Aの領域の画像を除去する。
先端検出部165は、図形300を第1差分画像240Aの第1変化領域250Aに重畳させ、図形300が領域内に収まる第1変化領域250Aの差分画像を除去し、差分画像が残った領域に基づいて指示体80の先端を検出する。
従って、指示体80の先端の検出精度を高めることができる。
また、判定部167は、変化領域250に対応する左切出画像241と、変化領域250に対応する右切出画像243とを学習済みニューラルネットワークに入力して、操作面13における指示体80の指示位置と、指示体80が操作面13に接触したか否かを示す情報とを検出する。
従って、指示体80の指示位置と、指示体80が操作面13に接触したか否かの判定精度を高めることができる。
従って、指示体80の指示位置と、指示体80が操作面13に接触したか否かの判定精度を高めることができる。
また、判定部167は、指示位置座標検出用の学習済みニューラルネットワークであるXY座標検出ネットワーク317を含む。判定部167は、左切出画像241から求められる指示体80の位置を示すデータと、右切出画像243から求められる指示体80の位置を示すデータとをXY座標検出ネットワーク317に入力して指示位置の座標を求める処理を実行する。
また、判定部167は、接触判定用の学習済みニューラルネットワークであるタッチ判定ネットワーク315を含む。判定部167は、左切出画像241から求められる指示体80の位置を示すデータと、右切出画像243から求められる指示体80の位置を示すデータとを、タッチ判定ネットワーク315に入力して指示体80が操作面13に接触したか否かを判定する処理を実行する。
従って、指示位置座標検出用と、接触判定用とに用意された別々の学習済みニューラルネットワークに基づき、指示体80の指示位置と、指示体80が操作面13に接触したか否かの判定とを行う。このため、指示体80の指示位置と、指示体80が操作面13に接触したか否かの判定精度をさらに高めることができる。
また、判定部167は、接触判定用の学習済みニューラルネットワークであるタッチ判定ネットワーク315を含む。判定部167は、左切出画像241から求められる指示体80の位置を示すデータと、右切出画像243から求められる指示体80の位置を示すデータとを、タッチ判定ネットワーク315に入力して指示体80が操作面13に接触したか否かを判定する処理を実行する。
従って、指示位置座標検出用と、接触判定用とに用意された別々の学習済みニューラルネットワークに基づき、指示体80の指示位置と、指示体80が操作面13に接触したか否かの判定とを行う。このため、指示体80の指示位置と、指示体80が操作面13に接触したか否かの判定精度をさらに高めることができる。
上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形が可能である。
例えば、上述した実施形態では、位置検出部150と、制御部170とを備える位置検出装置200の構成について説明したが、位置検出部150単独で、位置検出装置200として動作させることも可能である。
また、上述した実施形態では、プロジェクター100が撮像部120を備える構成を説明したが、プロジェクター100とは別体で撮像部120を設けてもよい。また、上述した実施形態では、プロジェクター100が検出光照射部130を備える構成を説明したが、プロジェクター100とは別体で検出光照射部130を設けてもよい。例えば、撮像部120を単独で動作する撮像装置として構成し、撮像装置とプロジェクター100とを有線又は無線で接続してもよい。また、検出光照射部130を単独で動作する検出光照射装置として構成し、検出光照射装置とプロジェクター100とを有線又は無線で接続してもよい。この場合、撮像装置、検出光照射装置及び位置検出装置200は、本発明の位置検出システムを構成する装置として機能する。
また、上述した実施形態では、プロジェクター100が表示装置である構成の位置検出装置システムを説明したが、表示装置をフラットパネルディスプレイ(FPD)としてもよい。この場合、PFDの表示部を操作面13とし、PFDの表示部に対応して位置検出装置200を設け、位置検出システム又は表示システムを構成してもよい。
例えば、上述した実施形態では、位置検出部150と、制御部170とを備える位置検出装置200の構成について説明したが、位置検出部150単独で、位置検出装置200として動作させることも可能である。
また、上述した実施形態では、プロジェクター100が撮像部120を備える構成を説明したが、プロジェクター100とは別体で撮像部120を設けてもよい。また、上述した実施形態では、プロジェクター100が検出光照射部130を備える構成を説明したが、プロジェクター100とは別体で検出光照射部130を設けてもよい。例えば、撮像部120を単独で動作する撮像装置として構成し、撮像装置とプロジェクター100とを有線又は無線で接続してもよい。また、検出光照射部130を単独で動作する検出光照射装置として構成し、検出光照射装置とプロジェクター100とを有線又は無線で接続してもよい。この場合、撮像装置、検出光照射装置及び位置検出装置200は、本発明の位置検出システムを構成する装置として機能する。
また、上述した実施形態では、プロジェクター100が表示装置である構成の位置検出装置システムを説明したが、表示装置をフラットパネルディスプレイ(FPD)としてもよい。この場合、PFDの表示部を操作面13とし、PFDの表示部に対応して位置検出装置200を設け、位置検出システム又は表示システムを構成してもよい。
また、図3に示すプロジェクター100の各機能部は、機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクターの他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、図5、図8、図18及び図24に示すフローチャートの処理単位は、プロジェクター100の処理を理解容易にするために、主な処理内容に応じて分割したものである。図5、図8、図18及び図24のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部170や位置検出部150の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、位置検出方法を、プロジェクター100が備えるコンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体、又はこのプログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD−ROM、DVD、Blu−ray Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。Blu−rayは、登録商標である。
1…インタラクティブプロジェクションシステム、10…投射面、13…操作面、15…投射領域、20…検出光、30…画像光、80…指示体、100…プロジェクター、110…投射部、111…光源、113…光変調装置、115…光学ユニット、120…撮像部、121…第1カメラ、123…第2カメラ、130…検出光照射部、135…操受付部、141…入力インターフェース、143…画像処理部、145…フレームメモリー、150…位置検出部、151…第1記憶部、160…画像処理プロセッサー、161…キャリブレーションデータ生成部、165…先端検出部、167…判定部、170…制御部、175…第2記憶部、180…プロセッサー、181…撮像制御部、183…操作実行部、200…位置検出装置、201…キャリブレーション画像、205…マーク、231…左抽出画像、233…右抽出画像、235…左矩形画像、237…右矩形画像、240…差分画像、240A…第1差分画像、240B…第2差分画像、240C…第3差分画像、240…変化領域、250A…第1変化領域、250B…第2変化領域、250C…第3変化領域、245…正領域、247…負領域、261…左切出画像、263…右切出画像、270…指先領域、275…先端位置、280…線分、290…区間、295…操作位置、311…第1位置検出ネットワーク、313…第2位置検出ネットワーク、315…タッチ判定ネットワーク、317…XY座標検出ネットワーク。
Claims (7)
- 指示体により指示される操作面の位置を検出する位置検出方法であって、
前記操作面に対応する方向に赤外光を照射させる照射ステップと、
撮像視点が異なり、前記赤外光による画像を撮像する第1撮像部及び第2撮像部により前記操作面を撮像し、前記操作面にキャリブレーションされた第1撮像画像と第2撮像画像とを取得する取得ステップと、
前記第1撮像画像と前記第2撮像画像との差分画像を生成する生成ステップと、
前記差分画像のうち、前記第1撮像画像と前記第2撮像画像との視差量が、予め設定された範囲内の領域を、前記指示体の画像が含まれる候補領域として抽出する抽出ステップと、
抽出された前記候補領域から前記指示体の先端に対応する領域を、前記指示体の形状に基づいて検出する検出ステップと、
前記検出ステップの検出結果に基づき、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを出力する出力ステップと、
を有する位置検出方法。 - 前記出力ステップは、候補領域に対応する前記第1撮像画像の第1領域画像と、前記候補領域に対応する前記第2撮像画像の第2領域画像とを学習済みニューラルネットワークに入力して、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを検出するステップである、請求項1記載の位置検出方法。
- 前記出力ステップは、前記第1領域画像から求められる前記指示体の位置を示すデータと、前記第2領域画像から求められる前記指示体の位置を示すデータとを、指示位置座標検出用の前記学習済みニューラルネットワークに入力して指示位置の座標を求める処理、及び、前記第1領域画像から求められる前記指示体の位置を示すデータと、前記第2領域画像から求められる前記指示体の位置を示すデータとを、接触判定用の前記学習済みニューラルネットワークに入力して前記指示体が前記操作面に接触したか否かを判定する処理を含む、請求項2記載の位置検出方法。
- 前記赤外光の照射方向が異なる複数の前記第1撮像画像及び前記第2撮像画像をニューラルネットワークに入力して学習させ、前記学習済みニューラルネットワークを生成する学習ステップを有する、請求項2又は3記載の位置検出方法。
- 前記検出ステップは、前記差分画像よりも解像度が小さい第1差分画像と、前記第1差分画像よりも解像度が小さい第2差分画像とを生成し、
予め設定されたサイズの図形を前記第2差分画像の前記候補領域に重畳させ、前記図形が領域内に収まる前記候補領域の前記差分画像を除去し、
前記第2差分画像で画像を除去した領域に対応する前記第1差分画像の領域の画像を除去し、
前記図形を前記第1差分画像の前記候補領域に重畳させ、前記図形が領域内に収まる前記候補領域の前記差分画像を除去し、前記差分画像が残った領域に基づいて前記指示体の先端を検出する、請求項1から4のいずれか1項に記載の位置検出方法。 - 指示体により指示される操作面の位置を検出する位置検出装置であって、
前記操作面に対応する方向に赤外光を照射させる照射制御部と、
撮像視点が異なり、前記赤外光による画像を撮像する第1撮像部及び第2撮像部により前記操作面を撮像し、前記操作面にキャリブレーションされた第1撮像画像と第2撮像画像とを取得する取得部と、
前記第1撮像画像と前記第2撮像画像との差分画像を生成する生成部と、
前記差分画像のうち、前記第1撮像画像と前記第2撮像画像との視差量が、予め設定された範囲内の領域を、前記指示体の画像が含まれる候補領域として抽出する抽出部と、
抽出された前記候補領域から前記指示体の先端に対応する領域を、前記指示体の形状に基づいて検出する検出部と、
前記検出部の検出結果に基づき、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを出力する出力部と、
を有する位置検出装置。 - 撮像視点が異なり、赤外光による画像を取得する第1撮像部及び第2撮像部を備える撮像装置と、
操作面に対応する方向に前記赤外光を照射する検出光照射装置と、
前記第1撮像部及び前記第2撮像部により前記操作面を撮像した画像であって、前記操作面にキャリブレーションされた第1撮像画像と第2撮像画像とを取得する取得部と、
前記第1撮像画像と前記第2撮像画像との差分画像を生成する生成部と、
前記差分画像のうち、前記第1撮像画像と前記第2撮像画像との視差量が、予め設定された範囲内の領域を、前記操作面に対する操作を行う指示体の画像が含まれる候補領域として抽出する抽出部と、
抽出された前記候補領域から前記指示体の先端に対応する領域を、前記指示体の形状に基づいて検出する検出部と、
前記検出部の検出結果に基づき、前記操作面における前記指示体の指示位置と、前記指示体が前記操作面に接触したか否かを示す情報とを出力する出力部と、を備える位置検出装置と、
を有する位置検出システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024056A JP2021128657A (ja) | 2020-02-17 | 2020-02-17 | 位置検出方法、位置検出装置及び位置検出システム |
CN202110182881.3A CN113268170B (zh) | 2020-02-17 | 2021-02-10 | 位置检测方法、位置检测装置以及位置检测系统 |
US17/177,279 US11385742B2 (en) | 2020-02-17 | 2021-02-17 | Position detection method, position detection device, and position detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024056A JP2021128657A (ja) | 2020-02-17 | 2020-02-17 | 位置検出方法、位置検出装置及び位置検出システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021128657A true JP2021128657A (ja) | 2021-09-02 |
Family
ID=77228112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020024056A Pending JP2021128657A (ja) | 2020-02-17 | 2020-02-17 | 位置検出方法、位置検出装置及び位置検出システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11385742B2 (ja) |
JP (1) | JP2021128657A (ja) |
CN (1) | CN113268170B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022136178A (ja) * | 2021-03-03 | 2022-09-15 | 株式会社三洋物産 | 遊技機 |
JP2022141901A (ja) * | 2021-02-22 | 2022-09-29 | 株式会社三洋物産 | 遊技機 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021056588A (ja) * | 2019-09-27 | 2021-04-08 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、及び位置検出方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
JP2001222375A (ja) | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
JP2003296026A (ja) | 2002-04-02 | 2003-10-17 | Sanee Denki Kk | タッチパネルへのマウス機能割り当て方法及び装置 |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
JP2010072977A (ja) * | 2008-09-19 | 2010-04-02 | Sony Corp | 画像表示装置および位置検出方法 |
TWI423096B (zh) * | 2010-04-01 | 2014-01-11 | Compal Communication Inc | 具可觸控投影畫面之投影系統 |
JP2012048393A (ja) | 2010-08-25 | 2012-03-08 | Canon Inc | 情報処理装置およびその動作方法 |
KR20120055102A (ko) * | 2010-11-23 | 2012-05-31 | 삼성전자주식회사 | 영상처리장치 및 영상처리방법 |
US20120249422A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Interactive input system and method |
US9030445B2 (en) * | 2011-10-07 | 2015-05-12 | Qualcomm Incorporated | Vision-based interactive projection system |
US9134814B2 (en) | 2012-04-05 | 2015-09-15 | Seiko Epson Corporation | Input device, display system and input method |
JP6273671B2 (ja) | 2013-01-22 | 2018-02-07 | セイコーエプソン株式会社 | プロジェクター、表示システム、及びプロジェクターの制御方法 |
JP6060581B2 (ja) * | 2012-09-18 | 2017-01-18 | セイコーエプソン株式会社 | インタラクティブシステム、インタラクティブシステムの制御方法、およびプロジェクター |
JP5950845B2 (ja) | 2013-02-07 | 2016-07-13 | 三菱電機株式会社 | 入力装置、情報処理方法、及び情報処理プログラム |
JP6037900B2 (ja) * | 2013-03-11 | 2016-12-07 | 日立マクセル株式会社 | 操作検出装置及び操作検出方法 |
JP6201379B2 (ja) * | 2013-04-02 | 2017-09-27 | 富士通株式会社 | 位置算出システム、位置算出プログラム、および、位置算出方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6487642B2 (ja) | 2014-07-01 | 2019-03-20 | 国立大学法人 筑波大学 | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 |
CN107003716B (zh) * | 2014-12-08 | 2019-08-23 | 麦克赛尔株式会社 | 投射型影像显示装置以及影像显示方法 |
JP6528964B2 (ja) | 2015-05-25 | 2019-06-12 | 株式会社リコー | 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法 |
JP6631280B2 (ja) * | 2016-02-03 | 2020-01-15 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
JP2017138774A (ja) * | 2016-02-03 | 2017-08-10 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
JP2017219942A (ja) | 2016-06-06 | 2017-12-14 | 株式会社リコー | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。 |
JP6729297B2 (ja) * | 2016-10-27 | 2020-07-22 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム及び検出光照射装置 |
JP6911439B2 (ja) * | 2017-03-24 | 2021-07-28 | セイコーエプソン株式会社 | プロジェクター |
-
2020
- 2020-02-17 JP JP2020024056A patent/JP2021128657A/ja active Pending
-
2021
- 2021-02-10 CN CN202110182881.3A patent/CN113268170B/zh active Active
- 2021-02-17 US US17/177,279 patent/US11385742B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022141901A (ja) * | 2021-02-22 | 2022-09-29 | 株式会社三洋物産 | 遊技機 |
JP2022136178A (ja) * | 2021-03-03 | 2022-09-15 | 株式会社三洋物産 | 遊技機 |
Also Published As
Publication number | Publication date |
---|---|
US20210255718A1 (en) | 2021-08-19 |
CN113268170A (zh) | 2021-08-17 |
US11385742B2 (en) | 2022-07-12 |
CN113268170B (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021128658A (ja) | 位置検出方法、位置検出装置及び位置検出システム | |
JP6037901B2 (ja) | 操作検出装置、操作検出方法及び表示制御データ生成方法 | |
JP6075122B2 (ja) | システム、画像投影装置、情報処理装置、情報処理方法およびプログラム | |
CN113268170B (zh) | 位置检测方法、位置检测装置以及位置检测系统 | |
WO2012124730A1 (ja) | 検出装置、入力装置、プロジェクタ、及び電子機器 | |
US20150098636A1 (en) | Integrated tracking with fiducial-based modeling | |
JP2013192189A (ja) | 画像処理装置、投影システム、プログラム及び画像処理方法 | |
TW201324258A (zh) | 輸入體之動作檢測方法及使用其之輸入裝置 | |
JP2012066564A (ja) | 電子黒板システム及びプログラム | |
US11700365B2 (en) | Position detection method, position detection device, and display device | |
JP2021128660A (ja) | 操作検出方法、操作検出装置及び表示システム | |
US20150097935A1 (en) | Integrated tracking with world modeling | |
US20160051134A1 (en) | Guidance of three-dimensional scanning device | |
JP2020150400A (ja) | ウェアラブルデバイスおよび制御方法 | |
JP2021128661A (ja) | 操作検出方法、操作検出装置及び表示システム | |
JP6314688B2 (ja) | 入力装置 | |
JP2016218893A (ja) | 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法 | |
JP2020160808A (ja) | 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター | |
US20190302598A1 (en) | Projection device, projection method, and projection control program | |
US10943109B2 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
JP2011112379A (ja) | 画像処理装置および画像処理プログラム | |
KR20170012549A (ko) | 몸짓 인식을 위한 이미지 매트릭스를 생성하기 위한 모듈, 시스템 및 방법 | |
JP6740614B2 (ja) | 物体検出装置、及び物体検出装置を備えた画像表示装置 | |
US9551922B1 (en) | Foreground analysis on parametric background surfaces | |
JP2022070079A (ja) | 制御装置、ロボット、制御方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20200811 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210915 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211101 |