JP4513830B2 - 描画装置、及び描画方法 - Google Patents
描画装置、及び描画方法 Download PDFInfo
- Publication number
- JP4513830B2 JP4513830B2 JP2007166923A JP2007166923A JP4513830B2 JP 4513830 B2 JP4513830 B2 JP 4513830B2 JP 2007166923 A JP2007166923 A JP 2007166923A JP 2007166923 A JP2007166923 A JP 2007166923A JP 4513830 B2 JP4513830 B2 JP 4513830B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- operating body
- shape
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 94
- 238000012545 processing Methods 0.000 claims description 88
- 230000008569 process Effects 0.000 claims description 68
- 230000033001 locomotion Effects 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 10
- 210000003811 finger Anatomy 0.000 description 53
- 210000004247 hand Anatomy 0.000 description 17
- 230000009467 reduction Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000002452 interceptive effect Effects 0.000 description 12
- 210000003813 thumb Anatomy 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 6
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
タッチパネルやタブレットを例に採った場合、ポインティングの操作は概して指又は専用のペン等に限定される。また、タッチパネルやタブレットの面上の空間での操作は行えず、操作面に対して指やペンなどの物理的な操作体をパネル面上に接触させる必要がある。更に、タッチパネルやタブレットは、その構造上比較的高価なので大型の操作パネルとしては好適でない。また、タッチパネルやタブレットに対する操作により得られる描画画像は、通常、タッチパネルやタブレット本体とは別体とされるモニタ装置などに対して表示されるので、その描画操作が間接的になる。
また、コンピュータ化されたホワイトボードとして機能するプロジェクションディスプレイの場合、操作画面の大型化は容易に実現可能なのであるが、例えば上記したように赤外線発光ペンなどの特殊なポインティングデバイスが必要となる点では、上記したタブレットと同様となる。
また、上記表示手段は、楕円形の形状を有する画像を表示し、上記制御手段は、上記検出手段により検出された2点の投影画像の位置情報を楕円形の長径又は短径の両端として設定すると共に、このときに上記2点の投影画像の位置情報にそれぞれ対応して検出された上記操作体の投影画像の形状に基づいて楕円形の曲率を設定し、上記楕円形の長径又は短径の両端とされる2点の投影画像の位置情報と、上記曲率の設定情報とに基づいて楕円形を描画する処理を制御する。
また、上記表示手段は、曲線又は直線を有する画像を表示し、上記制御手段は、上記検出手段により検出された投影画像の位置情報を曲線又は直線としての描画画像上における位置指定情報として認識すると共に、このときに上記位置情報に対応して検出された上記操作体の投影画像の形状に基づいて方向情報を設定し、上記位置指定情報の移動位置及び上記方向情報の変化に基づいて、上記曲線又は直線について変形を行う描画処理を制御する。
<1.描画装置の構成及び操作情報の検出動作>
<2.基本的な多角形の描画操作>
<3.四角形に関する描画>
<4.三角形に関する描画>
<5.楕円形に関する描画>
<6.線の変形>
<7.図形の移動操作例>
<8.図形の拡大/縮小操作例>
<9.ホワイトボード機能>
<10.他の実施の形態としての描画装置の構成>
先ず、図1〜図6を参照して、本発明の実施の形態としての描画装置の構成例及び基本的な操作情報の検出動作について説明する。
図1は、本実施の形態としての描画装置の構成例を概念的に示している。この図に示す描画装置1は、半透明面2、赤外線発光ダイオード素子(LED:Light Emitted Diode )パネル3、CCD(Charge Coupled Device) カメラ4、プロジェクタ5、及び制御装置6を備えて構成される。赤外線LEDパネル3、CCDカメラ4、及びプロジェクタ5は半透明面2の背面側に対して設けられる。
赤外線LEDパネル3は、例えばパネル面に対して多数の赤外線LEDが集合的に配列されることによって構成され、上記赤外線LEDから発光出力される赤外線光が半透明面の背面全体に対して照射されるように設けられる。上記赤外線LEDは制御装置6によって定常的に赤外線を発光するように駆動される。
なお、赤外線LEDパネル3としては、発光出力される赤外線光が半透明面2全体に対して照射されるのに充分な数の赤外線LEDが設けられればよい。また、後述するように、初期の赤外線画像に対する現在の赤外線画像の差分に基づいて半透明面2側から反射してくる画像情報を得るようにされることから、半透明面2全体に対して照射される赤外線光量が一律であるべき必要もない。従って赤外線LEDパネル3のサイズは、半透明面2よりもはるかに小さいもので済ませることができる。
なお、上記赤外線LEDパネル3、CCDカメラ4及びプロジェクタ5の配置位置は、それぞれが果たすべき役割が充分機能することを考慮して設定されればよい。
また、制御装置6と接続されるプリンタ20は、後述するようにして半透明面2に対して表示される描画画像などを印刷出力するために設けられる。
本実施の形態では、後述する各種描画動作を実現するための描画プログラムがデータベースメモリ14に格納されることになる。
画像合成部17においては、必要があれば上記画像生成部16から供給された映像信号データに対して、入力画像処理部12から供給された映像信号データを合成してRGB信号生成部18に対して出力する。
RGB信号生成部18では、上記画像合成部17から供給された映像信号データについて、例えばアナログによるRGB信号に変換してプロジェクタ5に対して出力する。これにより、プロジェクタ5からは、半透明面2に対して行われる操作に応答した映像による画像光が半透明面2に対して照射出力されることになる。
前述のように、図1に示す半透明面2全体に対しては、その背面から赤外線LEDパネル3により赤外線光が照射されるのであるが、この赤外線光は半透明面2が半透明であることから、全ての赤外線光が半透明面2を通過するのではなく、幾分かの赤外線光が半透明面2の作用によって反射されることになる。
そして、本実施の形態においては半透明面2に対して何も操作が行われていないとされる状態のもとで、半透明面2にて反射される赤外線光をCCDカメラ4により撮像し、これにより得られる映像信号データの初期レベルを「基準入力画像レベル」として記憶する。この基準入力画像レベルは、入力された映像信号データに基づいて例えば1フレームにおける画素ごとの信号レベルを検出することにより行うようにすればよい。この検出処理は、入力画像処理部12により行われるものとされる。このようにして検出された基準入力画像レベルの情報はしきい値検出部13に伝送され、ここで保持されることになる。
入力画像処理部12は、続くステップS102において、上記基準入力画像レベルLintをしきい値制御部13に伝送して記憶させるように処理を実行する。
図4は、操作情報のもととなる画像情報(以下、この「画像情報」については特に「検出画像情報」という)を得るための入力画像処理部12の処理動作を示すフローチャートである。この場合、入力画像処理部12は、先ずステップS201において現在の入力画像レベルLprsを検出する処理を実行する。ここでいう入力画像レベルLprsは、現在においてCCDカメラ4により撮像された、赤外線光に基づく半透明面2の画像についてのフレーム単位のデータであり、このフレーム単位の画像データにおける画素ごとの信号レベルを検出して得られる情報である。
続いて、入力画像処理部12はステップS202において、基準入力画像レベルLintと上記現在の入力画像レベルLprsの差分を演算する(L=Lprs−Lint)ことによって差分入力画像レベルLを算出する。具体的には、基準入力画像レベルLintと上記入力画像レベルLprsとして得られたデータ値を、同一位置の画素ごとに差分を求めることによって差分入力画像レベルLを得るようにされる。従って、差分入力画像レベルLとしては、常に基準入力画像レベルLintに対する現在の入力画像レベルLprsとの信号レベル差が画素ごとに得られることになる。そして、入力画像処理部12は、ステップS203に進み、上記差分入力画像レベルLに基づいて、現在の検出画像情報(フレーム単位で画素ごとのレベル情報を有する形式の映像データ)を生成するようにされる。
ここで、例えば図1に示すように半透明面2の前面側においてユーザが半透明面2から遠く離れた距離にいるときには、例えば半透明面2を通過してユーザの身体に反射するとされる赤外線光量は少ないことから、そのほとんどが半透明面2の前面から背面を通過して戻ることはない。このとき、上述した基準入力画像レベルLintと上記現在の入力画像レベルLprsとは同等であり、入力画像処理部12では、差分入力画像レベルLとしてほぼ0であると検出することになる。つまり、差分入力画像レベルLに基づいて生成される検出画像情報としては、初期状態と同様の変化の無いとされる状態が得られることになる。
そして、半透明面2に対して例えばユーザの体が非常に接近した状態(しきい値の設定にもよるが例えば半透明面2から30cm以内)では、その人体に反射した赤外線光がほとんど半透明面2を通過して背面側に到達することになるので、その身体形状がより鮮明な状態の検出画像情報が生成されることになる。
この場合、半透明面2に近接するユーザの指は他の身体部分よりも多くの赤外線光を反射するため、入力画像処理部12において得られる画像情報としては、ユーザの指にあたるに位置の画像領域のレベルが強く、その背景となる部分においてユーザの身体部分にあたる位置の画像領域のレベルは半透明面2からの距離に応じて弱くなることになる。そして、例えばこの状態のもとで、しきい値制御部13にて設定された所定のしきい値と検出画像情報とを比較すれば、容易にユーザの指にあたる部分のみの画像を背景から分離させることが可能であり、同様にしきい値の設定によっては、半透明面2から離れた距離にあるユーザの身体部分のみを抽出した画像情報を得ることも可能である。このようなしきい値は、前述のように実際に必要とされる条件に応じた値がしきい値制御部13において設定されるものである。
先ず、本実施の形態では半透明面2側からの赤外線の反射光量によって得られる画像に基づいて操作情報を得ることになるので、操作を行うための操作体としては、特に特殊なポインティングデバイスを必要とせず、赤外線を反射する物体であればその種類は問わないことになる。つまり、操作体としては、上述のように人体全体もしくはその一部や、その他の何らかの物体を問題なく使用することができる。
そして、半透明面2側からの赤外線の反射光により得られる画像に基づいて操作情報を得ることで、画像認識さえ可能であれば複数の操作体を同時に認識して所要の制御を実行させることが可能である。つまり、複数の異なる操作対象に対する同時操作が可能となるものであり、特に半透明面2が大画面として構成される場合には半透明面2上のいろいろな領域を利用して異なる種類の操作を同時に行うことができることにもなるので非常に有効となる。
このように、本実施の形態としてのインタラクティブ表示システムでは、その操作情報を入力するのに多くの可能性が得られるために、これまでには無かったようなインタラクティブな入出力環境を容易に構築することができる。
図5には、本実施の形態の描画装置1によりメニュー操作を行う場合が示されており、ここでは半透明面2を前面側からみた状態が示されている。
例えばこの図に示すように、ユーザが半透明面2の前面に近づいたとすると、先ず、描画装置1の制御装置6では、このときに得られる検出画像情報に基づいてユーザが近づいた半透明面2上の位置を認識する。そして、半透明面2上においてユーザが近づいたと認識された位置に対して、図のようにメニュー画面Mを表示するように表示制御を行う。このメニュー画面Mは当然のこととしてプロジェクタ5から半透明面2に対して投影された画像である。
そして、ユーザ自身が位置している付近の半透明面2上にメニュー画面Mが表示された状態のもとで、例えばユーザは自身の指を用いて、メニュー画面Mにおいて操作項目が表示されている任意の領域を指さすように指定したとする。このとき、ユーザの指先は、半透明面2上から3cm〜30cm程度の範囲内の距離にあるようにされる。
ここでは、上記のようにして指示表示が開始された状態から所定時間(例えば数秒程度)経過したときにエンター操作が行われたとみなすこととする。そして、ユーザがエンター操作を行った、つまり、特定の操作項目が強調表示された状態を所定時間以上維持させたとすると、指定された操作項目に従った所要の制御動作を実行することになる。例えば、指定された操作項目に従って、他の階層のメニュー画面を表示させたり、当該描画装置1に対して所望の動作を実行させたりすることになる。あるいは、当該描画装置1が何らかの外部機器を制御可能に構成されており、メニュー画面がその外部機器の動作についての操作制御を行うためのものであるとすれば、指定された操作項目に従って外部機器の動作を制御することになる。
なお、ユーザが半透明面2の前面から離れていき、ユーザと半透明面2との間にある程度以上の距離があいた場合には、それまで表示されていたメニュー画面Mは自動的に消去されるものとされる。
この「接近体」の検出は、例えば入力画像処理部12が検出画像情報と接近体の検出用に設定されたしきい値(しきい値制御部13により設定される)を比較して、例えば検出画像情報のある領域においてこのしきい値以上の値が得られた場合には「接近体有り」と検出し、しきい値以上の値が得られる領域がない場合には、「接近体無し」と検出することになる。上記接近体検出用のしきい値は、例えば通常、人体(ユーザ)が半透明面2にある程度(例えば数十cm)近づいたときに検出画像情報として得られる人体部分の画像レベルに基づいて設定されればよい。
この際、データベース駆動部14は、ステップS302にて検出された接近体の位置に対応する表示領域に対して、例えばメニュー画面の画像データをマッピングするようにして、表示用画像データを作成する。この結果、最終的にプロジェクタ5から投影される画像としては、半透明面2におけるユーザが近づいた位置に対してメニュー画面Mが表示されたものとなる。
そして、この「操作体」の検出処理は、先ず、操作体検出用としてしきい値制御部13において設定されたしきい値と、検出画像情報の画像レベルとを比較することにより、操作体の有無を検出することが行われる。このとき設定されるしきい値としては、半透明面2の前面において至近距離にある物体を背景から分離して検出する必要上、前述した接近体検出用のしきい値よりも大きい値が設定される。
そして、例えばしきい値と比較した結果、操作体が検出されたとすれば、その操作体が検出された検出画像情報上の座標位置を検出し、この検出位置とメニュー画面Mが表示されているとされる画像情報上の位置が一致しているか否かを判別することで、現在表示中のメニュー画面の表示領域内における操作体の有無を検出することになる。
そして、例えば現在の検出画像情報上から操作体が検出されなくなったり、あるいは現在の検出画像情報上における操作体の検出位置が、ステップS304にて検出されたメニュー画面Mの操作項目とされる表示領域内から外れたことが検出されたような場合には、ステップS306からステップS301以降の処理に戻ることになる。(この処理により、例えばユーザがこれまでとは異なるメニュー画面M上の操作項目を指し示すように、その指定位置を変更した場合には、新たに指定されたメニュー画面M上の操作項目に対して指示表示が行われたりすることになる。)
ステップS307においては、メニュー画面M上において操作体が検出された位置の操作項目に応じた所要の制御処理が実行される。この処理は、データベース駆動部14がデータベースメモリ15に格納されたプログラムに従って実行することになる。
図7に、本実施の形態の描画装置1による基本的な多角形の描画方法例を示す。
例えば、ユーザが半透明面2の前面においてある任意の位置を指さすようにして指定することにより、ここでは、図7(a)に示すように半透明面2のユーザに近い位置に対して描画用メニュー画面Mが表示されるものとする。なお、描画用メニュー画面Mは、先に図5により説明したようにしてユーザが半透明面2に接近したときに表示するようにしても構わないが、ここでは、描画作業時の利便性などを考慮して、ユーザが半透明面2に近接させた指などで位置指定を行うことで描画用メニュー画面Mが表示されるように規定している。従って、この指定操作は、例えばユーザの指先が図6において説明した「操作体」として認識されるように半透明面2に対して操作を行うようにすればよい。
この場合、図7(a)に示す描画用メニュー画面Mとしては、所定種類の図形(例えば線(直線又は曲線)、三角形、四角形、五角形・・・)を選択するための複数の項目が提示されているものとする。
例えばユーザは、半透明面上に対して例えば自身の指などによって半透明面2上の任意の位置に対して、自分が描画したい形状の六角形の6つの頂点(ここでは「端点Pe」ということにする)を指定する。この際、端点Peの指定は1つずつ順に指定するようにしても構わないが、本実施の形態では前述のように同時に複数の操作情報を認識可能なので、例えば両手の指を利用して同時に2つの端点Peを指定することも可能である。また、端点の確定操作は例えば図5にて説明したエンター操作に準ずればよい。なお、端点Peの指定が確定されるごとにその指定位置に対して端点Peであることを示す何らかの指示表示が行われるようにすることが好ましい。
上記のようにして例えば6つの端点Peが指定されると、これらの端点Peを結ぶようにして直線が表示され、この結果、例えば図7(b)に示すようにして六角形の描画が半透明面2に対して行われることになる。
ステップS404において、図形種類選択のための項目に対する選択操作が検出されなかった場合にはステップS402に戻ることになるが、何らかの1つの項目が選択された場合にはステップS405に進み、選択された項目に対応する多角形(n角形)についての描画モードを設定する。
ステップS407において端点確定操作があったと判別された場合には、ステップS408に進んで、確定された端点Peの位置(座標)情報を保持してステップS409に進む。なお、ステップS408において、例えば確定された端点Peが対応する半透明面2上の位置に対して端点Peが指定されたことを示す投影表示がプロジェクタ5により行われるための処理を実行させることも考えられる。
ステップS409においては、これまで確定された端点Peの数がn個に達したか否かが判別され、未だ確定された端点Peの数がn個に満たないと判別された場合にはステップS406の処理に戻るが、確定された端点Peの数がn個に達したと判別された場合には、ステップS410に進む。
この描画動作の実現のための処理動作に関する詳しい説明は省略するが、制御部6のデータベース駆動部14において、操作情報として逐次検出される指先の位置(座標)情報に基づいて、線状の描画図形DRを形成するための処理を行うと共に、この線状の描画図形DRが、ユーザの指先の移動位置に追随して描画されるように表示させるための表示制御を実行することで実現される。
次に、本実施の形態の描画装置を利用して実現することのできる、四角形に関する描画動作について説明する。
図10は、四角形の描画操作を示している。例えばユーザは、図10に示すように両手の親指と人差し指とを開いて任意の指開き角度Afin1(右手),Afin2(左手)を形成して、半透明面2の前面の近接した位置に対してあてがうようにして配置する。このとき、描画装置1側においては、両手それぞれの親指と人差し指の付け根あたりの位置を描画すべき四角形の対角点Poa1,Poa2として認識する。また、両手の各上記指開き角度Afinは、上記対角点Poa1,Poa2を含む頂角の内角の大きさとして認識される。
例えば、この状態でユーザが一定時間以上、上記した両手の状態を維持したとすると、これがエンター(確定)操作として認識され、半透明面2に対して上記対角点Poa1,Poa2と、指開き角度Afin1,Afin2に基づいてその形状及びサイズが決定される四角形の描画図形DRが描画されることになる。このとき、半透明面2に対してユーザが指定したとされる対角点Poa1,Poa2の位置と、実際に半透明面2に表示される四角形の描画図形DRの対角点が一致するようにされる。
図11(a)には既に長方形の描画図形DRが半透明面2に対して表示されている状態が示されている。ここで、例えば所定のメニュー画面などに対する指定操作によってユーザが描画図形の移動モードを選択したとする。この移動モードのもとで、例えば図11(a)に示すように描画図形DRの対角点Poa1,Poa2をつかむようなイメージでユーザが半透明面2に近接した位置で両手を配置したとする。そして、ほぼこの両手の位置関係を保ったまま、任意の方向に移動するように操作すると、図11(b)に示すように両手の動きに対角点Poa1,Poa2の位置が追従するようにして長方形の描画図形DRが移動することになる。つまり、ユーザは半透明面2に表示された長方形の描画図形DRをあたかも実際に掴むかのようなイメージで、図形の移動を行うことができる。
また、例えば拡大/縮小モードにおいては、長方形の描画図形DRの対角点Poa1,Poa2をつかむようにして、その対角線方向に両手の距離を延ばしたり縮めるようにして操作を行うことで、図11(d)に示すように長方形の描画図形DRの拡大/縮小が行えるように構成される。
例えば、四角形描画モードとされると、先ずステップS501において対角点Poa1,Poa2の指定操作を待機する。このためには、例えば、描画プログラムとして図10に示すような親指と人差し指を開いたような手の形状を記憶させておき、検出画像情報において、このような手の形状とされる画像が2ヶ所検出され、例えばこの画像状態が所定時間以上保たれたときに、この手の形状における親指と人差し指の根本とされる位置(座標)を対角点Poa1,Poa2として検出するように構成すればよい、
ステップS501において対角点Poa1,Poa2が検出されると、ステップS502に進み、上記手の形状における親指と人差し指の開き具合から指開き角度Afin1,Afin2を検出する。これは、例えば画像情報として得られた親指と人差し指の延びた各方向に沿って2本の直線を仮想し、この2つの仮想直線により形成される角度を求めることにより指開き角度Afin1,Afin2の各々の検出が可能となる。
ここで、ユーザによる対角点Poa1,2の指定操作があったことが判別されると、以降の対角点Poa1,2の移動状態を監視し、ステップS602→S603の処理として、逐次、対角点Poa1,2の移動に応じて、その移動方向情報Dmvと、移動量情報Qmvを検出する。そして、この移動方向情報Dmvと、移動量情報Qmvとに基づいて四角形の描画図形DRについて移動が行われるように画像生成部16において移動された図形の画像を生成すると共に、この画像が半透明面2に対して投影表示されるように制御を実行する。
四角形の描画画像DRについての回転モード時においては、ステップS701において対角点Poa1,2の指定操作を待機し、ここで、対角点Poa1,2の指定操作があったことが判別されると、次のステップS702において、指定された対角点Poa1,2の移動に応じて描画図形の回転角情報Aturを設定する。そして、続くステップS703において、上記ステップSS702により求められた回転角情報Aturだけ回転された四角形の描画図形DRの描画処理と、この回転された四角形の描画図形DRをプロジェクタ5により半透明面2に対して投影表示するための制御を実行する。
この場合も、先ずステップS801において対角点Poa1,2の指定操作を待機しており、対角点Poa1,2の指定操作があったことが判別されると、ステップS802に進んで対角点Poa1,2の移動に応じて拡大/縮小率Rtを設定する。そして、続くステップS803において、上記拡大/縮小率Rtに基づいて拡大又は縮小した四角形の描画画像DRを描画する処理と、この拡大又は縮小された描画画像を半透明面2に対して投影表示するための制御を行うようにされる。
次に、本実施の形態の描画装置を利用して実現することのできる、三角形に関する描画動作について説明する。
図16(a)には、本実施の形態としての三角形の描画操作例が示されている。
例えば、所定の操作によって三角形の描画モードとしたうえで、ユーザは、四角形の描画の場合と同様に、両手の親指と人差し指の間に所望の角度(指開き角度Afin1,Afin2)を与えると共に、この場合には、両手の親指と人差し指の付け根の位置が、例えば描画すべき三角形の底辺の両端(端点Pe1,Pe2)となるようにして、その両手を半透明面2上に配置する。
これにより、半透明面2上には図16(a)に示すように、ユーザが指定した三角形の底辺の両端の位置と、ユーザが与えた指開き角度Afin1,Afin2により決定された三角形の底辺の両端の角度に従って得られる形状及びサイズによる三角形の描画画像DRが描画されるようにして表示されることになる。
図17(a)には、本実施の形態における楕円形についての描画動作例が示されている。
楕円形を描画するのに当たっては、これまでの多角形の描画操作と同様に、両手の親指と人差し指の間に所望の指開き角度Afin1,Afin2を与えながら半透明面2上に配置するようにされるが、この場合には、両手の親指と人差し指の付け根の位置(端点Pe1,Pe2)は描画すべき楕円形の長径又は短径のの両端として認識されるものとする。また、上記指開き角度Afin1,Afin2は、描画すべき楕円形の曲率の情報として扱われるように処理が行われる。なお、上記端点Pe1,Pe2が、楕円形の長径又は短径の両端の何れとして設定されるのかについては、上記指開き角度Afin1,Afin2の角度に依るものとする。
そして、描画された楕円形の描画画像DRを移動、回転、又は拡大/縮小するようなときは、これまでの多角形の場合と同様に、移動モード、回転モード、及び拡大/縮小モードのうちから所望のモードを選択し、図17(b)に示すようにして、楕円形の描画図形DRの長径の端部とされる位置を端点Pe1,Pe2としてここを掴むようなイメージで両手を半透明面2上で移動させるような操作を行うようにされる。
なお、上記楕円形に関する描画、移動、回転、拡大/縮小モード時の処理も、図12〜図15に示した四角形の描画画像DRについての処理に準ずることにより実現可能であり、この場合には、端点Pe1,Pe2を楕円形の長径の端部として扱うと共に、指開き角度Afin1,Afin2に基づいて設定した曲率に従って楕円形を描画することになる。
これまでは、四角形、三角形などの多角形に関する描画処理及び曲線に関する描画処理を行う場合について説明したが、次に、本実施の形態の描画装置により曲線を変形する場合について説明する。
図18には、曲線を変形させるための操作例が示されている。例えば図18(a)に示すように曲線の描画図形DRが表示されている状態で、所定の操作によって変形モードを設定したとする。そして、ユーザはこの図に示すように、例えば自身の手のひらを開くと共に指を閉じた状態で、曲線(描画図形DR)上の任意の位置に対応させて配置する。図18(a)においては、両手のひらがほぼ曲線の描画図形DRの両端に配置された状態が示されているが、この状態では、手のひらのほぼ中心位置が、端点Peとして認識されることになる。曲線の変形処理の場合、この端点Peは、曲線を変形させる際に基準となる移動位置を指定するポイントであり、変形後の曲線は必ず移動操作後の端点Peの位置を通過するものとされる。また、このときには、手の指が延びた方向に沿って仮想的に基準接線Lが設定される。
このとき、ユーザにとっては、半透明面2上に表示されている曲線(描画図形DR)の両端を掴んだようなイメージを持つことになる。
このようにして操作が行われると、半透明面2に対して表示される曲線は、ユーザの手の動きに追従するようにして撓むようにして変形されていくものとされる。
曲線の変形処理モードにおいては、先ずステップS901において、操作体が検出されることを待機している。この場合の操作体の検出とは、例えば図18に示すような指を閉じながら延ばした状態の手のひらの形状が検出画像情報として認識されることをいう。なお、たとえ上記のような状態の手のひらの形状が検出されたとしても、その検出位置が描画表示された曲線上にないような場合には、操作体としては認識しないものとする。また、手のひら形状であることの識別は、例えばデータベースメモリ15に格納された手のひら形状を示すデータと、検出画像情報として得られた画像の形状との一致状態を識別するようにすればよい。
そして、ステップS901において操作体が検出された場合にはステップS902に進み、端点Peの位置Posを検出すると共に、検出された手のひら形状の指に沿った方向を識別することにより基準接線Lの傾きGrdを算出する。
そして、ステップS904において、上記ステップS903により得られた演算結果に基づいて曲線を変形するための描画処理を実行すると共に、変形された曲線を図18(b)に示すようにして表示させるための制御を実行することになる。なお、この図には示さないが、例えば途中で所定のメニュー操作等を行えば曲線の変形処理モードを抜けることができるようにされている。
また、本実施の形態の描画装置としては、次のようにして半透明面2に対して表示された画像や図形を移動させることも可能である。
図20(a)には、一例として飛行機を描いた描画画像DRが表示されている。なお、ここでの描画画像は特にユーザの操作により描画されたものに限定されず、例えば単にデータベースメモリ15に格納されているサンプルのような画像データに基づいて表示されるものであっても構わない。
ここで、所定の操作によって表示画像の移動モードが設定されている状態で、例えば図20(a)に示すように、半透明面2において描画画像DRが表示されているほぼ正面位置にユーザ自身が近づき、ここから、図20(b)に示すように、ユーザ自身が半透明面2の前で移動したとする。この場合には、このユーザ自身の身体の画像を移動のための位置指定情報として扱うことにより、ユーザの半透明面2の前面での左右方向への動きに追従するようにして、描画画像DRが移動するように表示されるものである。
また、本実施の形態においては、図21(a)(b)に示すような操作によっても図形の拡大/縮小を行わせることが可能である。
例えば図21(a)には、ユーザが半透明面2の前で両腕を広げたり閉じたりする動作を行うことで、これに応答して半透明面2に対して表示された描画画像DRが拡大又は縮小されるという操作形態が示されている。図21(b)には、ユーザが半透明面2に近づくと描画図形DRが拡大表示され、遠ざかると描画図形DRが逆に縮小されるという操作形態が示されている。
ここでは、フローチャートなどによる詳しい処理動作の説明は省略するが、図21(a)の場合には、制御装置6において検出画像情報に基づいて人体の腕の開閉状態が認識可能なように構成し、この腕の開き方の度合いを拡大/縮小率に変換して画像処理を行うようにすればよい。また、図21(b)の場合であれば、前述のように半透明面2からの距離に応じて検出画像情報として得られる検出対象(ここでは人体とされる)の部分の画像レベルが変化することを利用して、この画像レベルの変化を拡大/縮小率に変換してやればよいことになる。
なお、図21(a)(b)において表示される画像も特にユーザが描画したものには限定されることなく、予め用意された画像データを利用して表示されたものであっても構わない。また、実際の利用形態としては、例えば地図などを表示させ、所定の操作によって拡大/縮小中心位置を決定した上で、上記図21(a)(b)の何れかに示すような操作を行うことにより、地図上における任意の領域を拡大/縮小表示させることなどが考えられる。
また、これまで説明してきた本実施の形態の描画装置を、例えば会議や教育などの現場や掲示板等として用いられるホワイトボードとして利用することが考えられるが、この場合には、次のような機能を与えることが考えられる。
図22は、ホワイトボードの文字書き込み面として機能する半透明面2が示されている。なお、この図には示さないが、例えば半透明面2の背面側では図1に示した各装置が配置されているものとする。
図1に示した本実施の形態の描画装置の構成では、例えばデータベースメモリに格納されている画像データを利用して半透明面2に対する投影表示を行わせることが可能とされるが、図22にはこのような機能を応用した利用例が示されている。
例えば、図22(a)には、ユーザが半透明面に対して、例えば指や何らかのペン形状の物理対象等を用いてフリーハンドにより描画図形DRを描いた状態が示されている。ここでは、フリーハンドではあるが描画図形DRとして四角形が描かれたものとする。なお、フリーハンドでなくとも、先に図7や図10に示した操作方法によって四角形を描画しても構わない。
この場合、制御装置6においてホワイトボードである半透明面2に対して四角形が描画されると認識した場合、半透明面2に対して所定の操作内容に従ったメニュー画面を表示するようにされている。これにより、四角形が描画された場合には、図22(b)に示すように所定内容のメニュー画面Mが表示されることになる。なお、このときには、例えばユーザ四角形の描画図形DRを描画した位置に対応してメニュー画面Mが表示されるようにすることができる。また、メニュー画面Mが表示された段階では図22(a)に示す描画図形DRは消去されればよい。
このルーチンにおいては、先ずステップS1001において何らかの描画図形が描画されるのを待機しており、描画が行われたと判別されると、ステップS1002において描画された図形の形状を識別することが行われる。そして続くステップS1003において、識別された描画図形の形状がメニュー画面表示を呼び出すのに適合する四角形であるか否かが判別される。
なお、ここでは描画図形の四角形であるか否かを判別する単なる形状判別に加えて、例えばメニュー画面表示を呼び出すのには所定以上の面積を有する四角形が要求されるものと規定されているような場合には、描画図形が四角形であることとその面積が所定以上であることの2つの要件を満たした場合に肯定結果が得られるように構成されることになる。また、描画画像がフリーハンドにより描かれたものである場合には、厳密には四角形とはいえない場合のことのほうが多いが、ある程度の曲率による曲線や直線の屈曲率は直線として見なすように処理を実行することで、四角形として認識できるようにすればよい。
そして、ステップS1003において肯定結果が得られたのであればステップS1004に進み、所定のメニュー画面を表示させるための処理を実行する。この際、例えば表示制御として四角形の描画画像DRが描かれた位置にほぼ対応するようにしてメニュー画面Mを表示させたり、更には、ある程度の所定範囲内であれば、四角形の描画画像DRが描かれたサイズにほぼ対応するサイズによりメニュー画面を表示させるように構成することも可能である。
なお、本実施の形態においては、赤外線を反射可能な物理対象であれば操作体の種類は問わないので、上記描画用ペンPenとしては単にペン形状を有するような個体であればよいことになる。従って、上記しきい値さえ満足すれば当然のこととして描画用ペンPenの代わりにユーザの指等を用いることも可能である。
そして、例えばユーザが消去板Erを用いて、半透明面2上をなぞるように動かしたとすると、消去板Erの軌跡となる領域においては、これまで描かれた文字や絵が消去され、所定の初期画像が表示されることになる。例えば、初期画像として非表示の状態が設定されていたのであれば、消去板Erでなぞられた半透明面2上の部分は非表示となる。また、例えば初期画像として地図などが表示され、その地図上に対してユーザにより描かれた文字や絵が表示されているような状態では、消去板Erでなぞった文字や絵が消去されて元の地図の画像が表示されることになる。
ステップS1104において肯定結果が得られた場合には、検出画像情報内において操作体が検出された領域については初期画像を表示するように制御を行う。つまり、見かけ上は消去用ポインタがなぞった半透明面2の部分において描画画像が表示されていれば、これが消去される代わりに初期画像が表示されることになる。
ところで、本実施の形態の描画装置としては、図1に示す構成から赤外線LEDパネル3を省略することも可能である。
たとえば、本発明に基づく描画装置を屋外などの外光の強い環境で使用する場合、たとえば日中の自然光に含まれる赤外線が強いために、図1に示すような赤外線LEDパネル3から照射される赤外線光を操作情報検出用の光源とする構成では、赤外線LEDパネル3から照射される赤外線光の強度が自然光に含まれる赤外線に対して相対的に弱まるので、場合によっては適切な操作情報の検出が行われない(つまり操作情報を認識可能な適正な検出画像情報が得られない)可能性がある。
そこで、このような場合には、赤外線LEDパネル3を省略し、その代わりに自然光に含まれる赤外線光を操作情報検出用の光源として利用することができる。
この場合、検出画像情報を得るために必要な基準入力画像レベルLintは、例えば接近体及び操作体等の検出対象が無い(半透明面2に対して何の操作も行われていない)とされる状態のもとで、その前面側から半透明面2を透過してCCDカメラ4において撮像される撮像信号から得た画像情報に基づいて検出するようにされる。
この場合、図2に示す制御装置6においては、LED駆動部10(図1参照)の代わりに、マイクロ波発生器を駆動するためのマイクロ波駆動回路が備えられる。また、マイクロ波受信器から供給される受信マイクロ波を入力して例えば所定形式のデータに変換して出力する画像信号入力回路と、この画像信号入力回路から供給されるマイクロ波の受信データを入力して所要の処理を行うことにより、例えば検出画像情報を得ると共にこの検出画像情報に基づいて操作情報を得る入力データ処理回路が設けられる必要がある。画像信号入力回路及び入力データ処理回路は、それぞれ図2に示す画像入力部11及び入力画像処理部12に代わる機能回路部である。また、操作情報検出用の媒体としてマイクロ波を利用するため、CCDカメラ4に備えられた赤外線透過フィルタ4aや、プロジェクタ5に備えられた赤外線遮断フィルタ5aは不要となる。
Claims (5)
- 光を透過する平面を有する描画装置であって、
上記平面に画像情報を表示させる表示手段と、
上記平面における操作体の反射光によって得られる複数の投影画像の位置、および上記操作体の反射光によって得られる投影画像の上記平面上における動き、および上記操作体の反射光によって得られる投影画像の形状、を検出するための検出手段と、
上記操作体の形状の情報を記憶する記憶手段と、
上記検出手段により検出された上記操作体の投影画像の位置と投影画像の動きと投影画像の形状に基づいて、上記表示手段に表示させる画像情報を制御するとともに、上記操作体により2点が同時に指定されているとき、検出された上記操作体の投影画像の形状と上記記憶手段の情報を比較することによって上記操作体の投影画像の形状を特定して上記2点の位置を特定する制御手段と、
を有し、
上記表示手段は、四角形の形状を有する画像を表示し、
上記制御手段は、上記操作体による2点の投影画像の位置情報を1対の対角点の位置として認識し、上記1対の対角点のそれぞれに対応して検出された上記操作体の投影画像の形状に基づいて角度情報を認識し、この角度情報に基づいて対角を設定して四角形を描画する処理を制御する
描画装置。 - 光を透過する平面を有する描画装置であって、
上記平面に画像情報を表示させる表示手段と、
上記平面における操作体の反射光によって得られる複数の投影画像の位置、および上記操作体の反射光によって得られる投影画像の上記平面上における動き、および上記操作体の反射光によって得られる投影画像の形状、を検出するための検出手段と、
上記操作体の形状の情報を記憶する記憶手段と
上記検出手段により検出された上記操作体の投影画像の位置と投影画像の動きと投影画像の形状に基づいて、上記表示手段に表示させる画像情報を制御するとともに、上記操作体により2点が同時に指定されているとき、検出された上記操作体の投影画像の形状と上記記憶手段の情報を比較することによって上記操作体の投影画像の形状を特定して上記2点の位置を特定する制御手段と、
を有し、
上記表示手段は、三角形の形状を有する画像を表示し、
上記制御手段は、上記検出手段により検出された2点の投影画像の位置情報を三角形の一辺の両端の2点として認識すると共に、このときに上記三角形の一辺の両端の2点の投影画像の位置情報にそれぞれ対応して検出された上記操作体の形状に基づいて角度情報を認識し、上記三角形の一辺の両端の2点とされる投影画像の位置情報と、上記角度情報とに基づいて設定した一辺の両端の角度とに基づいて三角形を描画する処理を制御する
描画装置。 - 光を透過する平面を有する描画装置であって、
上記平面に画像情報を表示させる表示手段と、
上記平面における操作体の反射光によって得られる複数の投影画像の位置、および上記操作体の反射光によって得られる投影画像の上記平面上における動き、および上記操作体の反射光によって得られる投影画像の形状、を検出するための検出手段と、
上記操作体の形状の情報を記憶する記憶手段と
上記検出手段により検出された上記操作体の投影画像の位置と投影画像の動きと投影画像の形状に基づいて、上記表示手段に表示させる画像情報を制御するとともに、上記操作体により2点が同時に指定されているとき、検出された上記操作体の投影画像の形状と上記記憶手段の情報を比較することによって上記操作体の投影画像の形状を特定して上記2点の位置を特定する制御手段と、
を有し、
上記表示手段は、楕円形の形状を有する画像を表示し、
上記制御手段は、上記検出手段により検出された2点の投影画像の位置情報を楕円形の長径又は短径の両端として設定すると共に、このときに上記2点の投影画像の位置情報にそれぞれ対応して検出された上記操作体の投影画像の形状に基づいて楕円形の曲率を設定し、上記楕円形の長径又は短径の両端とされる2点の投影画像の位置情報と、上記曲率の設定情報とに基づいて楕円形を描画する処理を制御する
描画装置。 - 光を透過する平面を有する描画装置であって、
上記平面に画像情報を表示させる表示手段と、
上記平面における操作体の反射光によって得られる複数の投影画像の位置、および上記操作体の反射光によって得られる投影画像の上記平面上における動き、および上記操作体の反射光によって得られる投影画像の形状、を検出するための検出手段と、
上記操作体の形状の情報を記憶する記憶手段と
上記検出手段により検出された上記操作体の投影画像の位置と投影画像の動きと投影画像の形状に基づいて、上記表示手段に表示させる画像情報を制御するとともに、上記操作体により2点が同時に指定されているとき、検出された上記操作体の投影画像の形状と上記記憶手段の情報を比較することによって上記操作体の投影画像の形状を特定して上記2点の位置を特定する制御手段と、
を有し、
上記表示手段は、曲線又は直線を有する画像を表示し、
上記制御手段は、上記検出手段により検出された投影画像の位置情報を曲線又は直線としての描画画像上における位置指定情報として認識すると共に、このときに上記位置情報に対応して検出された上記操作体の投影画像の形状に基づいて方向情報を設定し、上記位置指定情報の移動位置及び上記方向情報の変化に基づいて、上記曲線又は直線について変形を行う描画処理を制御する
描画装置。 - 光を透過する平面を有する描画装置における描画方法であって、
上記平面に画像情報を表示する表示手順と、
上記平面における操作体の反射光によって得られる複数の投影画像の位置、および上記操作体の反射光によって得られる投影画像の上記平面上における動き、および上記操作体の反射光によって得られる投影画像の形状、を検出する検出手順と、
上記検出された上記操作体の投影画像の位置と動きに基づいて、上記表示手段に表示させる画像情報を制御する表示制御手順と、
上記操作体の形状の情報を記憶し、
上記検出された上記操作体の投影画像の位置と投影画像の動きと投影画像の形状に基づいて、表示させる画像情報を制御するとともに、上記操作体により2点が同時に指定されているとき、検出された上記操作体の投影画像の形状と記憶手段に記憶された操作体の形状の情報を比較することによって上記操作体の投影画像の形状を特定して上記2点の位置を特定する制御手順と
を実行し、
上記表示手順は、四角形の形状を有する画像を表示し、
上記制御手順は、上記操作体による2点の投影画像の位置情報を1対の対角点の位置として認識し、上記1対の対角点のそれぞれに対応して検出された上記操作体の投影画像の形状に基づいて角度情報を認識し、この角度情報に基づいて対角を設定して四角形を描画する処理を制御する
描画方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007166923A JP4513830B2 (ja) | 2007-06-25 | 2007-06-25 | 描画装置、及び描画方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007166923A JP4513830B2 (ja) | 2007-06-25 | 2007-06-25 | 描画装置、及び描画方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18999097A Division JP3997566B2 (ja) | 1997-07-15 | 1997-07-15 | 描画装置、及び描画方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007323660A JP2007323660A (ja) | 2007-12-13 |
JP4513830B2 true JP4513830B2 (ja) | 2010-07-28 |
Family
ID=38856362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007166923A Expired - Fee Related JP4513830B2 (ja) | 2007-06-25 | 2007-06-25 | 描画装置、及び描画方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4513830B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146333A (ja) * | 2007-12-18 | 2009-07-02 | Panasonic Corp | 空間入力動作表示装置 |
JP5201096B2 (ja) * | 2009-07-17 | 2013-06-05 | 大日本印刷株式会社 | 対話操作装置 |
JP5017466B1 (ja) | 2011-02-28 | 2012-09-05 | 株式会社東芝 | 情報処理装置およびプログラム |
JP2012185630A (ja) * | 2011-03-04 | 2012-09-27 | Nikon Corp | 投影装置 |
CN103430092A (zh) * | 2011-03-04 | 2013-12-04 | 株式会社尼康 | 投影装置 |
JP5304849B2 (ja) * | 2011-06-07 | 2013-10-02 | カシオ計算機株式会社 | 電子機器およびプログラム |
JP6064319B2 (ja) * | 2011-12-27 | 2017-01-25 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP6359862B2 (ja) | 2014-04-17 | 2018-07-18 | シャープ株式会社 | タッチ操作入力装置、タッチ操作入力方法及びプログラム |
JP6543960B2 (ja) * | 2015-02-27 | 2019-07-17 | セイコーエプソン株式会社 | 表示装置、表示制御方法およびプログラム |
JP6475883B2 (ja) * | 2018-06-21 | 2019-02-27 | シャープ株式会社 | タッチ入力表示装置、表示制御方法及びプログラム |
CN108882025B (zh) * | 2018-08-07 | 2019-12-10 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
CN112527179B (zh) * | 2020-12-03 | 2023-01-31 | 深圳市优必选科技股份有限公司 | 涂鸦图像识别方法、装置及终端设备 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60230228A (ja) * | 1984-04-28 | 1985-11-15 | Mitsubishi Electric Corp | 投射型画像再生装置の画面位置指定方式 |
JPS6330928A (ja) * | 1986-07-25 | 1988-02-09 | Hitachi Ltd | 入出力装置 |
JPH01150192A (ja) * | 1987-12-07 | 1989-06-13 | Nec Corp | タッチ入力装置 |
JPH02132510A (ja) * | 1988-11-12 | 1990-05-22 | Sony Corp | 入力装置 |
US5045843A (en) * | 1988-12-06 | 1991-09-03 | Selectech, Ltd. | Optical pointing device |
JPH03219324A (ja) * | 1990-01-25 | 1991-09-26 | Hitachi Ltd | 座標入力方法及びデータ処理装置 |
US5115230A (en) * | 1989-07-19 | 1992-05-19 | Bell Communications Research, Inc. | Light-pen system for projected images |
JPH04271423A (ja) * | 1991-02-27 | 1992-09-28 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法 |
JPH0519957A (ja) * | 1991-07-15 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報の入力方法 |
JPH06332612A (ja) * | 1993-05-20 | 1994-12-02 | Hitachi Ltd | ポインティング位置検出方法 |
JPH07141101A (ja) * | 1993-11-19 | 1995-06-02 | Hitachi Ltd | 画像を用いた入力システム |
JPH07334299A (ja) * | 1994-04-13 | 1995-12-22 | Toshiba Corp | 情報入力装置 |
JPH0895707A (ja) * | 1994-09-27 | 1996-04-12 | Sony Corp | コンピュータディスプレイシステム |
JPH0980372A (ja) * | 1995-09-07 | 1997-03-28 | Toshiba Corp | 投写型表示装置 |
JPH0991079A (ja) * | 1995-09-28 | 1997-04-04 | Toshiba Corp | 情報入力装置および画像処理方法 |
JPH0991092A (ja) * | 1995-09-21 | 1997-04-04 | Sony Corp | 入力装置 |
JPH09128141A (ja) * | 1995-11-07 | 1997-05-16 | Sony Corp | 制御装置および制御方法 |
WO1997030416A1 (en) * | 1996-02-16 | 1997-08-21 | Thomson Training & Simulation Ltd. | A method and system for determining the point of contact of an object with a screen |
JPH1138949A (ja) * | 1997-07-15 | 1999-02-12 | Sony Corp | 描画装置、描画方法及び記録媒体 |
-
2007
- 2007-06-25 JP JP2007166923A patent/JP4513830B2/ja not_active Expired - Fee Related
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60230228A (ja) * | 1984-04-28 | 1985-11-15 | Mitsubishi Electric Corp | 投射型画像再生装置の画面位置指定方式 |
JPS6330928A (ja) * | 1986-07-25 | 1988-02-09 | Hitachi Ltd | 入出力装置 |
JPH01150192A (ja) * | 1987-12-07 | 1989-06-13 | Nec Corp | タッチ入力装置 |
JPH02132510A (ja) * | 1988-11-12 | 1990-05-22 | Sony Corp | 入力装置 |
US5045843B1 (en) * | 1988-12-06 | 1996-07-16 | Selectech Ltd | Optical pointing device |
US5045843A (en) * | 1988-12-06 | 1991-09-03 | Selectech, Ltd. | Optical pointing device |
US5115230A (en) * | 1989-07-19 | 1992-05-19 | Bell Communications Research, Inc. | Light-pen system for projected images |
JPH03219324A (ja) * | 1990-01-25 | 1991-09-26 | Hitachi Ltd | 座標入力方法及びデータ処理装置 |
JPH04271423A (ja) * | 1991-02-27 | 1992-09-28 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法 |
JPH0519957A (ja) * | 1991-07-15 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報の入力方法 |
JPH06332612A (ja) * | 1993-05-20 | 1994-12-02 | Hitachi Ltd | ポインティング位置検出方法 |
JPH07141101A (ja) * | 1993-11-19 | 1995-06-02 | Hitachi Ltd | 画像を用いた入力システム |
JPH07334299A (ja) * | 1994-04-13 | 1995-12-22 | Toshiba Corp | 情報入力装置 |
JPH0895707A (ja) * | 1994-09-27 | 1996-04-12 | Sony Corp | コンピュータディスプレイシステム |
JPH0980372A (ja) * | 1995-09-07 | 1997-03-28 | Toshiba Corp | 投写型表示装置 |
JPH0991092A (ja) * | 1995-09-21 | 1997-04-04 | Sony Corp | 入力装置 |
JPH0991079A (ja) * | 1995-09-28 | 1997-04-04 | Toshiba Corp | 情報入力装置および画像処理方法 |
JPH09128141A (ja) * | 1995-11-07 | 1997-05-16 | Sony Corp | 制御装置および制御方法 |
WO1997030416A1 (en) * | 1996-02-16 | 1997-08-21 | Thomson Training & Simulation Ltd. | A method and system for determining the point of contact of an object with a screen |
JP2000506643A (ja) * | 1996-02-16 | 2000-05-30 | トムソン・トレイニング・アンド・シミュレイション・リミテッド | スクリーンと物体の接触点を決定する方法及びそのシステム |
JPH1138949A (ja) * | 1997-07-15 | 1999-02-12 | Sony Corp | 描画装置、描画方法及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2007323660A (ja) | 2007-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3997566B2 (ja) | 描画装置、及び描画方法 | |
JP4513830B2 (ja) | 描画装置、及び描画方法 | |
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
US20220164032A1 (en) | Enhanced Virtual Touchpad | |
US11048333B2 (en) | System and method for close-range movement tracking | |
JP6074170B2 (ja) | 近距離動作のトラッキングのシステムおよび方法 | |
CN115167676A (zh) | 用于在三维环境中显示应用程序的设备和方法 | |
JP6539816B2 (ja) | 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 | |
US8854433B1 (en) | Method and system enabling natural user interface gestures with an electronic system | |
JP2022540315A (ja) | 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース | |
US20140123077A1 (en) | System and method for user interaction and control of electronic devices | |
CN102460373A (zh) | 表面计算机用户交互 | |
JP2013037675A5 (ja) | ||
CN110489027B (zh) | 手持输入设备及其指示图标的显示位置控制方法和装置 | |
JP4608326B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
US20090251492A1 (en) | Storage medium storing image conversion program and image conversion apparatus | |
CN115328304A (zh) | 一种2d-3d融合的虚拟现实交互方法及设备 | |
CN201369027Y (zh) | 一种红外激光笔遥指虚拟触摸系统 | |
CN103309466A (zh) | 指向性影像操控装置及其方法 | |
US20240319867A1 (en) | Systems, methods and user interfaces for object tracing | |
JP4266076B2 (ja) | 電子黒板システム | |
CN109144235A (zh) | 基于头手协同动作的人机交互方法与系统 | |
JP2017049662A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
WO2022034745A1 (ja) | 書き込み画面画像を重畳する情報処理装置 | |
JP2007272927A (ja) | 情報入出力装置、及び情報入出力方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100420 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100503 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |