JP2004185495A - Coordinate input device, display device and method and program for inputting coordinate - Google Patents
Coordinate input device, display device and method and program for inputting coordinate Download PDFInfo
- Publication number
- JP2004185495A JP2004185495A JP2002354009A JP2002354009A JP2004185495A JP 2004185495 A JP2004185495 A JP 2004185495A JP 2002354009 A JP2002354009 A JP 2002354009A JP 2002354009 A JP2002354009 A JP 2002354009A JP 2004185495 A JP2004185495 A JP 2004185495A
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- coordinate
- display screen
- hand
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000001514 detection method Methods 0.000 claims description 18
- 230000003287 optical effect Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、表示画面上のタッチされた点の座標を入力する座標入力装置、ディスプレイ装置、座標入力方法およびプログラムに関する。
【0002】
【従来の技術】
従来より、PDP(Plasma Display Panel)や液晶リアプロジェクタなどの表示装置と座標入力装置とが一体化されたタッチパネル付きディスプレイ装置が用いられている。このようなタッチパネル付きディスプレイ装置に搭載される座標入力装置としては、表示画面に向けて複数の異なる位置に設けられた光源から光を照射し、その照射光を再帰的に反射する反射部材からの反射光を受光する。そして、この受光結果から、遮蔽物の有無を検出するとともに、その遮蔽物の座標を取得するというものがある(例えば、特許文献1参照)。
【0003】
上記のような座標入力装置を有するタッチパネル付きディスプレイ装置には、ユーザがその表示画面上を指やペンマウスなどで指し示すことによって装置側に何らかの指令を入力することができるものや、また指し示す位置を移動させることで表示画面上にその移動奇跡に応じた文字や図形などを描画することができるものなどがある。
【0004】
【特許文献1】
特開2001−14091号公報
【0005】
【発明が解決しようとする課題】
しかし、上記のように指し示す位置の移動軌跡に応じた描画を行う機能を有するタッチパネル付きディスプレイ装置においては、ユーザが表示画面上にペンマウスや指で筆記する作業を行った場合に手の甲が表示画面に接する等すると、座標入力装置によって指先やペンマウスのタッチ点のみならず、手の甲の接触点も検出される。すなわち、同時に複数箇所の座標が検出されることがある。
【0006】
かかる場合、従来の座標入力装置においては、複数検出された座標のうち、どの座標が指先やペンマウスによってタッチされた点についてのものであるかを判別することができず、この結果ユーザが操作した指等の移動奇跡とは異なる図形等が描画されたり、まったく描画がなされなくなるといった不都合が生じていた。
【0007】
この発明は上記に鑑みてなされたもので、複数箇所の座標が検出された場合であっても、ユーザが意図したタッチ点の座標をより正確に取得することができる座標入力装置、ディスプレイ装置、座標入力方法およびプログラムを得ることを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するため、請求項1にかかる発明は、物体によってタッチされた表示画面上の座標を検出する座標検出手段と、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段とを備えたことを特徴とする座標入力装置である。
【0009】
請求項1にかかる発明によれば、座標検出手段によって表示画面上のタッチ点が複数検出された場合、選択手段によってユーザの利用する手が左手であるか右手であるかに基づいて座標が選択される。ユーザが表示画面上をタッチする際、ユーザが意図したタッチ点のほかにタッチのために利用する手の甲などの他の部位が表示画面にタッチして座標が検出されてしまうことがあり、かかる場合一般的には利用する手によって意図するタッチ点と他の部位のタッチ点との位置関係が異なる傾向がある。この発明では、利用する手によって変動する複数のタッチ点の位置関係に着目し、利用する手が右手であるか左手であるかによって1の座標を選択することで、ユーザの意図したタッチ点の座標をより正確に取得することができる。
【0010】
また、請求項2にかかる発明は、請求項1にかかる発明の構成において、前記左右判別手段が、ユーザのタッチ内容に基づいてユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する。
【0011】
請求項2にかかる発明によれば、ユーザからのタッチ内容に基づいて左右判別手段がユーザが利用する手を判別しているので、利用する手の判別が正確であり、この結果、より正確にユーザが意図したタッチ位置の座標を選択することができる。
【0012】
また、請求項3にかかる発明は、請求項1または2にかかる発明の構成において、前記選択手段が、前記左右判別手段による判別結果が右手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、前記左右判別手段による判別結果が左手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する。
【0013】
ユーザがペンマウス等を所持して操作する場合、右手を利用する場合には表示画面にタッチするペンマウスの先端が表示画面にタッチする手の甲などの部位よりも表示画面と対向する側から見て左側に位置し、左手を利用する場合にはペンマウスの先端が右側に位置するのが一般的である。このような傾向を鑑み請求項3にかかる発明によれば、選択手段が、利用する手が右手である場合に最も左側の座標を選択し、利用する手が左手である場合に最も右側の座標を選択することで、より正確にユーザが意図したタッチ点の座標を選択することができる。
【0014】
また、請求項4にかかる発明は、表示画面を有する表示装置と、座標入力装置とを備えたディスプレイ装置であって、前記座標入力装置は、物体によってタッチされた表示画面上の座標を検出する座標検出手段と、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段とを備えることを特徴とする。
【0015】
請求項4にかかる発明は、請求項1にかかる発明と同様の構成を有しているので、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができる。
【0016】
また、請求項5にかかる発明は、物体によってタッチされた表示画面上の複数点の座標を検出する座標検出ステップと、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別ステップと、前記座標検出手段によって複数の座標が検出された場合、前記左右判別ステップの判別結果に基づいて、前記座標検出ステップによって検出された複数の座標の中から一の座標を選択する選択ステップとを具備することを特徴とする。
【0017】
請求項5にかかる発明によれば、表示画面上のタッチ点が複数検出された場合、選択手段によってユーザの利用する手が左手であるか右手であるかに基づいて座標が選択される。そして、この発明では、ユーザがタッチに利用する手によって変動する位置関係に着目し、利用する手が右手であるか左手であるかによって1の座標を選択することで、ユーザの意図したタッチ点の座標をより正確に取得することができる。
【0018】
また、請求項6にかかる発明は、コンピュータを、物体によってタッチされた表示画面上の座標を検出する座標検出手段、ユーザが表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段、物体によって指示された前記表示画面上の座標が複数ある場合、前記左右判別手段の判別結果に基づいて、前記複数の座標の中から一の座標を選択する選択手段として機能させる。
【0019】
請求項6にかかる発明によれば、コンピュータを請求項1にかかる発明と同様の構成を有する装置として機能させることができ、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができる。
【0020】
また、請求項7にかかる発明は、請求項6にかかる発明の構成において、前記選択手段は、前記左右判別手段による判別結果が右手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、前記左右判別手段による判別結果が左手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する。
【0021】
請求項7にかかる発明によれば、コンピュータを請求項3にかかる発明と同様の構成を有する装置として機能させることができ、より正確にユーザが意図したタッチ点の座標を選択することができる。
【0022】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる座標入力装置、ディスプレイ装置、座標入力方法およびプログラムの好適な実施の形態を詳細に説明する。
【0023】
A.実施形態の構成
図1は、本発明の一実施形態にかかる座標入力装置を備えたタッチパネル機能付きディスプレイ装置の構成を示すブロック図である。同図に示すように、このディスプレイ装置1は、表示装置10と、座標入力装置20とを備えており、表示装置10および座標入力装置20の各々はPC(Personal Computer)30と接続されている。
【0024】
表示装置10は、PDP、LCD(Liquid Crystal Display)、CRT(Cathode−Ray Tube)等である表示画面101を有しており、PC30から供給される画像データに対応した画像を表示画面101に表示する。
【0025】
座標入力装置20は、光学ユニット102A、102Bと、反射部材103A,103B,103Cと、演算部104と、インターフェース部105とを備えている。
【0026】
3つの反射部材103A,103B,103Cは、入射してくる光を180度の角度で反射する光再帰性の反射部材であり、矩形状の表示画面101の三方を覆うように配置されている。より具体的には、反射部材103A、103Cは表示画面の縦方向の長さとほぼ同じ長さを有する部材であり、それぞれその長手方向が表示画面101の図の左端部および右端部に沿うように配置されている。反射部材103Bは、表示画面101の横方向とほぼ同じ長さを有する部材であり、その長手方向が表示画面の上端部に沿うように配置されている。このように各反射部材が配置されることによって、表示画面101の上方および左右側の三方が覆われるようになっている。
【0027】
光学ユニット102A、102Bは、それぞれ表示画面101の下端部の左右両端側、つまり反射部材103A、103Cの下端側に配置されている。光学ユニット102A,102Bは、反射部材103A,103B,103Cに覆われていない表示画面101の下方側から当該表示画面側に向けて扇状の光を照射し、これにより照射光が表示画面101の全領域上を照射されるようになっている。また、光学ユニット102A、102Bは、照射した光の反射部材103A,103B,103Cからの反射光を受光し、受光結果を演算部104に出力する。
【0028】
ここで、図2は光学ユニット102Aを表示画面101と対向する側から見た図であり、図3は光学ユニット102Aを表示画面101に沿った方向から見た図である。図2および図3に示すように、光学ユニット102Aは、光源201と、レンズ202と、レンズ203と、受光部204と、ハーフミラー205とを備えている。
【0029】
光源201は、半導体レーザを有しており、レーザ光(図中一点鎖線で示す)を照射する。レンズ202は、光源201から照射されたレーザ光を拡散するレンズであり、かかるレンズ202を通過したレーザ光は表示画面101と対向する側から見て扇状に拡散される(図2参照)。
【0030】
ハーフミラー205は、上記のようにレンズ202によって拡散された光を図の上方側である表示画面101側(図1参照)に通過させる一方で、その光の反射部材103A,103B,103Cからの反射光を受光部204側(図3の右側)に反射させる。この反射光がレンズ203を通過して受光部204によって受光される。
【0031】
受光部204は、CCD(Charge Coupled Device)等を有しており、反射部材103A,103B,103Cからの反射光を受光し、受光データを図1に示す演算部104に出力する。
【0032】
以上が光学ユニット102Aの構成であり、このような光源201と受光部204とを一体化したユニットを用いることで、各構成部品の位置関係(距離や中心位置合わせなど)の調整等をユニット毎に行うことができ、調整作業が容易となる。なお、光学ユニット102Bの構成は光学ユニット102Aと同一であるためのその構成の詳細な説明は割愛する。
【0033】
演算部104は、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリを有しており、メモリに格納されたプログラムにしたがって座標検出、座標選択などの処理を行う。演算部104によって行われる座標検出処理は、光学ユニット102A,102Bから供給される受光データに基づいて、ユーザの指やペンマウス等の物体が表示画面上のタッチ点の座標を検出する処理である。このような演算部104による座標検出について図4を参照しながら説明する。
【0034】
同図に示すように、光学ユニット102Aおよび光学ユニット102Bからは表示画面101の全域に光が照射され、その光が反射部材103A,103B,103Cによって反射され、反射光が光学ユニット102A、102Bによって受光される。したがって、図示のように、ある点がユーザの指等によってタッチされるとその部分を通過する光が遮られ、光学ユニット102A、102Bによって受光されなくなる。一方、表示画面101上に指などの物体が存在しない場合には、上記のように光が遮られることがなく、光学ユニット102A,102Bはすべての反射光を受光することになる。演算部104には、このような受光データが供給され、この受光データに基づいて次のようにしてタッチ点301の座標を求める。
【0035】
まず、演算部104は、扇状に照射された光のうち、光学ユニット102A,102Bの受光部204が光を受光しなかった位置で本来受光されるはずの光の光軸から光学ユニット102A,102Bの受光点を通る直線と各受光点とタッチ点301とを通る直線の角度(光遮蔽角度)θL、θRを求める。そして、演算部104は、タッチ点301の座標(x、y)を角度θL、θRを用いて以下のように求める。
x=W×tanθR/(tanθL+tanθR)
y=W×tanθL×tanθR/(tanθL+tanθR)
【0036】
演算部104は、以上のようにして求めた座標を含む座標データをインターフェース部105を介してPC30に出力する。なお、本実施形態では、光学ユニット102A、102Bの受光データに基づいて表示画面101上へのタッチの有無を検出する構成であるため、実際には表示画面101に指等が接触していない場合であっても、表示画面101に近接する位置(光学ユニット102A、102Bの照射光を遮る位置)に達するとタッチありとして検出されるが、本実施形態においてタッチとはこのような現実には非接触な状態を含むものをいう。
【0037】
また、本実施形態にかかる座標入力装置20では、表示画面101上の複数箇所が同時にタッチされた場合にも、各々のタッチ点の座標を検出することができるよう構成されている。このように同時にタッチされた複数箇所の座標の検出について図5〜図7を参照しながら説明する。
【0038】
図5に示すように、同時に複数点(図示の例は2点)がタッチされた場合、2箇所で反射光が遮られるため、各光学ユニットの受光部204には2箇所の受光量の小さい領域(暗領域)が存在することになる。かかる場合において、上記の式により座標を求めると、本来のタッチ点は2箇所であるにもかかわらず、座標A、A’、B、B’が導出されてしまい、これらのうちのどれとどれがタッチ点の座標であるかが不明となる。
【0039】
そこで、演算部104は、特開2001−318759号公報に開示された技術を用い、以下のようにして4つの座標の中から現実のタッチ点に対応する2つの座標を抽出している。
【0040】
まず、演算部104は、上記のように求められる4つの座標と、各光学ユニット102A、102Bの受光部204における受光量の小さいピーク点(暗点)と受光部204における所定の受光点(例えば、受光素子の中心画素)との距離aと、受光部204における結像サイズbとから、4つの各座標点における光遮蔽物の径サイズDを算出する。
【0041】
演算部104は、図6に示される受光部204の受光波形のうち、最も電圧値が小さい点をピーク点とし、かかるピーク点Xと所定の受光点である受光素子の中心画素からの距離aを取得するとともに、所定の閾値よりも電圧値が小さい領域の結像サイズbを取得する。同時に2点がタッチされた場合には、各受光部204について暗点が2箇所存在するはずであるから、各々について距離aと、結像サイズbを取得する。
【0042】
そして、取得した距離aと、結像サイズbとから各暗点に対応する遮蔽物の径サイズDを以下のようにして算出する。
【0043】
図7に示すように、ピーク点Xと中心画素までの距離aは、受光部204の中心からの垂線と、遮蔽物の中心点Cとピーク点Xとを結ぶ線とで形成される角度αに依存しており、角度αを以下の式により算出する。
α=tan−1(a/f)
ここで、fはレンズ203の焦点距離である。
【0044】
次に、遮蔽物の中心点Cとレンズ203に至る距離Lを座標から求める。
そして、受光部204が受光する遮蔽物の被写体像の像倍率は距離Lに依存しており、以下の関係が成立する。
L:l=D:b
ここで、lはレンズ203からピーク点Xまでの距離である。この関係から、遮蔽物の径サイズDは以下の式により算出することができる。
D=(b/l)・L
=(b/(a/sinα))・L
=(b/(a/sin(tan−1(a/f)))・L
演算部104は、上記式に取得した距離a、結像サイズbを代入することで遮蔽物の径サイズDを導出することができる。
【0045】
以上のようにして演算部104は、各受光部204の受光結果毎に4つの座標における遮蔽物の径サイズDを求め、座標毎に光学ユニット102Aの受光部204の受光結果から求められた径サイズDと、光学ユニット102Bの受光部204の受光結果から求められた径サイズDとを比較する。そして、演算部104は、4つの座標の中から、比較した径サイズDが近似する2つの座標をタッチ点の座標として検出する。
【0046】
なお、2点が同時にタッチされた際に、各々のタッチ座標を検出する構成としては、上記手法を用いる構成に限らず、例えば3つの光学ユニットを設け、各光学ユニットの受光結果から各点の座標を検出する構成を採用してもよい。
【0047】
以上のように本実施形態にかかる座標入力装置20は、同時に複数箇所がタッチされた場合に各タッチ点の座標を検出することができる構成であるため、ユーザがペンマウス等を所持してタッチした際に、ペンマウスによるタッチのみならず、手の甲などのタッチが検出され、それぞれのタッチ点の座標が求められることになる。このように複数の座標が同時に検出された場合、演算部104は、ユーザの利用する手が右手であるか左手であるかを判別するとともに、当該判別結果から複数の座標の中から一の座標を選択する座標選択処理を行う。そして、選択した座標を含む座標データをインターフェース部105を介してPC30に出力する。したがって、本実施形態において、図8に示すように演算部104は、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段800と、複数の座標が検出された場合に左右判別手段800の判別結果に基づいて複数の検出座標の中から一の座標を選択する選択手段801とを備えた要素である。なお、演算部104によって行われる座標選択処理についての詳細は後述する。
【0048】
PC30は、演算部104からインターフェース部105を介して供給された座標データに基づいて、予め当該座標データに示される座標に設定されている機能などを実行する。ここでいう機能とは、例えば、ドラッグの軌跡を特定の色や太さの線で描画する文字描画、図形描画、罫線描画をいう。このような機能の実行によって作成された画像データは、R,G,Bで表される形式でRAMに展開されてPC30から表示装置10に出力される。表示装置10は、当該画像データに対応する画像を表示画面101に表示する。
【0049】
B.実施形態の動作
次に、上記構成の座標入力装置20の動作について説明する。
【0050】
図9に示すように、当該座標入力装置20を備えたタッチパネル付きディスプレイ装置1に電源が投入されると、演算部104は利用手ステータスを右手にセットする(ステップSa1)。ここで、利用手ステータスとは、ユーザが当該ディスプレイ装置1でタッチパネル機能を利用する際に、いずれの手で表示画面のタッチをするかが設定されたものであり、本実施形態では電源投入後にはデフォルト状態として右手が設定されるようになっている。なお、デフォルト状態として左手を設定するようにしてもよいし、電源オフ直前に設定されている内容をEEPROM(Electrically Erasable Programmable)等に記憶しておき、電源投入後にEEPROMに記憶されている手(左または右)を利用ステータスとして設定するようにしてもよい。
【0051】
利用手ステータスを設定すると、演算部104は表示画面101に利用する手をいずれに設定するかの入力をユーザに促す画像を表示させるべく画像データを表示装置10に出力する(ステップSa2)。これにより、表示画面101には図10に示すような利用する手を選択設定するための設定用画像が表示される。同図に示すように、この設定用画像は、表示画面101の右上側の端部に表示され、左手の領域702および右手の領域701が表示されている。そして、現在設定されている手がいずれであるかがユーザにわかるように左手領域および右手領域の表示方法が異なるようになっている。電源投入後は、上記のように利用手ステータスが右手に設定されており、本実施形態では図示のように選択されている手(右手)の領域が網掛け表示されるようになっている。
【0052】
次に演算部104は、光学ユニット102A,102Bから供給される受光データに基づいて座標を検出する処理を行う(ステップSa3)。この後、演算部104は、検出された座標が複数であるか否かを判別し(ステップSa4)、複数である場合には座標選択処理を行う(ステップSa5)。
【0053】
図11に示すように、座標選択処理では、演算部104は利用手ステータスが右手に設定されているか否かを判別する(ステップSb1)。そして、利用手ステータスが右手に設定されている場合には(判別Yes)、複数検出された座標の中から、表示画面101に対向する側から見て最も左側(図1の左側)に位置するx座標を有する座標を選択する(ステップSb2)。一方、利用手ステータスが左手に設定されている場合には(判別No)、複数検出された座標の中から、表示画面101に対向する側から見て最も右側(図1の右側)に位置するx座標を有する座標を選択する(ステップSb3)。
【0054】
図9に戻り、ステップSa4の判別において、検出された座標1つである場合には、座標選択処理は行われずステップSa6に進む。
【0055】
次に演算部104は、検出された座標、または座標選択処理によって選択された座標が利用手ステータスの左手への変更をタッチする領域内のものであるか否かを判別する(ステップSa6)。すなわち、ユーザが指やペンマウス等でタッチした点が図10に示す左手の領域702であるか否かを判別し、かかる領域内である場合には利用手ステータスを左手に設定した後(ステップSa7)、次の受光データに基づく座標検出を行う(ステップSa3)。
【0056】
一方、座標が左手への変更をタッチする領域内のものではない場合(ステップSa6の判別No)、その座標が利用手ステータスの右手への変更をタッチする領域701内のものであるか否かを判別し(ステップSa8)、かかる領域内である場合には利用手ステータスを右手に設定した後(ステップSa9)、次の受光データに基づく座標検出を行う(ステップSa3)。
【0057】
また、座標が右手への変更をタッチする領域内のものではない場合(ステップSa8の判別No)、この座標は、右手および左手への変更をタッチする領域内のものでなく当該座標入力装置20内で利用するものではないため、当該座標を含む座標データをインターフェース部105を介してPC30に出力する(ステップSa10)。このようにしてPC30に出力された座標データが、PC30において描画処理等に利用される。
【0058】
以上が座標入力装置20の演算部104によって行われる処理動作の詳細であり、本実施形態では、ユーザが表示画面101上をペンマウス等でタッチすることで、当該タッチ位置に応じた処理、例えばタッチ位置の移動奇跡に応じた描画処理等がなされる。
【0059】
このようにユーザがタッチした位置の移動軌跡に応じて描画処理等を行う際には、通常ユーザは利き腕にペンマウス等を鉛筆等と同様に所持し、鉛筆等で紙に絵や文字を描く際と同じようにペンマウスを操作することになる。この操作をユーザが行っている際、ペンマウスの先端部分が表示画面101にタッチするだけでなく、利用する手の甲が表示画面101にタッチしてしまうことがある。かかる場合において従来の座標入力装置では、このように同時に2箇所以上のタッチがなされた場合、いずれのタッチ点座標データを描画処理等のPC30による処理に用いるべきかを判別できず、ユーザが意図した操作に応じた処理、つまりペンマウスのタッチ位置に応じた処理ができなかった。
【0060】
これに対し、本実施形態にかかる座標入力装置20は、同時に複数箇所のタッチが検出された際にも、ユーザが利用している手が右手であるか左手であるかを判別し、右手である場合には表示画面101と対向する側から見て最も左側の座標を有する座標データを選択し、左手である場合には最も右側の座標を有する座標データを選択しPC30に出力し、描画処理等に用いられるようになっている。このようにすることで、上記のような手の甲がタッチしたために同時に複数箇所のタッチが検出された場合であっても、以下のような理由でユーザの意図したタッチ位置に応じた座標データを取得することができる。
【0061】
図12左側に示すように、利き腕が右のユーザが右手でペンマウス80を所持して文字や絵を表示画面101上に描く場合、同図右側に示すようにペンマウス80の先端部81の表示画面101上へのタッチ(タッチ部分401)が検出されるだけではなく、ユーザの右手の甲の表示画面101上へのタッチ(タッチ部分402)が検出されてしまうことがある。一方、図13右側に示すように、ユーザが左手でペンマウス80を所持して文字や絵を描く場合にも、同図左側に示すようにペンマウス80の先端部81のタッチ(タッチ部分501)が検出されるのみならず、左手の甲もタッチ(タッチ部分502)も検出されてしまうことがある。
【0062】
図12に示すように、利用する手が右手の場合、ペンマウス80の先端部81がタッチする部分401と、利用する手の甲がタッチする部分402との位置関係は、表示画面101と対向する側から見てタッチ部分401がタッチ部分402よりも左側に位置しているという関係である。一方、利用する手が左手の場合、図13に示すように、タッチ部分501がタッチ部分502よりも右側に位置しているという関係である。
【0063】
また、ペンマウス80を所持する際の角度等は人によって異なるが、図14に示すようにペンマウス80を比較的水平に近い状態で所持するユーザであっても、右手を利用する場合にはタッチ部分401はタッチ部分402よりも左側に位置する。さらに、図15に示すようにペンマウス80を比較的垂直方向に沿った状態で所持するユーザであっても、右手で利用する場合にはタッチ部分401よりもタッチ部分402よりも左側に位置することになる。
【0064】
このようにペンマウス80の所持の仕方が一般的なものである場合には、右手を利用した場合タッチ部分401がタッチ部分402よりも左側に位置し、左手を利用した場合、タッチ部分501がタッチ部分502よりも右側に位置することになる。本実施形態にかかる座標入力装置20は、かかるペンマウス80の先端部81のタッチ部分(401,501)と、手の甲のタッチ部分(402,502)との位置関係に着目し、図16に示すように利用する手が右手である場合には最も左側に位置するタッチ部分401の座標データを選択し、利用する手が左手である場合には最も右側に位置するタッチ部分501の座標データを選択することで、ペンマウス80の先端部81のタッチ点の座標データをより正確にPC30に出力することができるのである。そして、このように正確に選択されたペンマウス80の先端部81のタッチ点の座標データを用いてPC30が描画処理等を行うことで、ユーザが意図した操作が描画処理等に反映されるのである。
【0065】
C.変形例
なお、本発明は、上述した実施形態に限定されるものではなく、以下に例示するような種々の変形が可能である。
【0066】
(変形例1)
上述した実施形態では、表示画面101の右上側に表示された設定用画面(図10参照)を参照し、ユーザが右手領域701、左手領域702のいずれかをタッチするといったタッチ内容に基づき、ユーザが利用する手が右手であるか左手であるかが座標入力装置20(利用手ステータス)に設定され、かかる設定にしたがって座標選択を行うようにしていたが、これ以外の手法によってユーザのタッチ内容に基づいて利用する手が右手であるか、左手であるかを判別し、座標選択を行うようにしてもよい。
【0067】
例えば、タッチパネル付きのディスプレイ装置1では、表示画面101上をタッチするための専用のペンマウス等が用いられていることが多い。当該タッチパネル付きディスプレイ装置1に用のペンマウス等が用意されている場合には、そのペンマウスに利用する手が右手であるか左手であるかをユーザが入力するためのスイッチ等を設けるようにしてもよい。そして、このスイッチ操作状態をペンマウスから有線または無線通信を利用して座標入力装置20に供給することで、上記実施形態と同様、座標入力装置20においてユーザが利用する手が右手であるか左手であるかを判別することができ、その判別結果に基づく座標選択を行うことができる。
【0068】
(変形例2)
また、上述した実施形態では、ユーザが利用する手を設定するための設定用画面(図10参照)に、右手領域701と左手領域702の両者が表示され、現在の設定を網掛け表示するようにしていたが、現在設定されていない方の手の領域のみを表示し(利用手ステータスが右手の場合は、左手領域のみを表示する)、かかる表示領域内の点がタッチされた際に現在の設定と異なる手に利用手ステータスを切り替えるような構成としてもよい。
【0069】
(変形例3)
また、上述した実施形態では、ユーザが利用する手が「右手」であるか、「左手」であるかのタッチを行い、当該タッチに基づいて利用する手を判別するようになっていたが、他の情報に基づいて座標入力装置20が利用する手が左手であるか右手であるかを判別するようにしてもよい。
【0070】
例えば、ユーザがユーザ名を座標入力装置20に入力することで、座標入力装置20が入力されたユーザ名に基づいて利用手ステータスを右手または左手に自動的に設定するような構成としてもよい。かかる場合においては、座標入力装置20にユーザ名情報と利用する手の情報を対応つけて記憶した図17に示すような内容の変換テーブルを設けておき、ユーザ名が入力された場合に当該変換テーブルを参照することで、利用する手が左手であるか右手であるかを判別することができる。
【0071】
また、座標入力装置20が利用する手を判別する他の方法としては、ユーザのバイオメトリクス情報を取得し、取得したバイオメトリクス情報に基づいて利用する手を判別するようにしてもよい。
【0072】
(変形例4)
また、上述した実施形態では、光学ユニット102A、102B等を備えた光学式の座標検出機能を備えた座標入力装置20に本発明を適用した場合について説明したが、本発明は光学式の座標検出機能を備えたものに限らず、同時に表示画面101上の複数箇所がタッチされた場合にその複数箇所のタッチ座標を検出することができる他の方式の座標検出機能を備えた座標入力装置に適用することもできる。
【0073】
(変形例5)
また、上述した実施形態では、演算部104が内蔵するメモリに格納されたプログラムにしたがって動作することにより、上述した座標検出および座標選択とった処理(図9、図11参照)が実行されるようになっていたが、演算部104に代えて上記のような処理を行う専用ハードウェア回路を構築し、当該ハードウェア回路が上記処理を実行するようにしてもよい。
【0074】
また、コンピュータに上記処理を実行させるためのプログラムをインターネット等の通信回線を介してユーザに提供するようにしてもよいし、当該プログラムをCD−ROM(Compact Disc)などのコンピュータ読み取り可能な記録媒体に記録してユーザに提供するようにしてもよい。
【0075】
【発明の効果】
以上説明したように、請求項1にかかる発明によれば、複数箇所の座標が検出された場合であっても、ユーザが意図したタッチ点の座標をより正確に取得することができるという効果を奏する。
【0076】
また、請求項2にかかる発明によれば、利用する手の判別が正確であり、この結果、より正確にユーザが意図したタッチ位置の座標を選択することができるという効果を奏する。
【0077】
また、請求項3にかかる発明によれば、ペンマウス等を所持してタッチに利用するユーザが意図したタッチ点の座標をより正確に選択することができるという効果を奏する。
【0078】
また、請求項4にかかる発明によれば、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができるという効果を奏する。
【0079】
また、請求項5にかかる発明によれば、ユーザの意図したタッチ点の座標をより正確に取得することができるという効果を奏する。
【0080】
また、請求項6にかかる発明によれば、コンピュータを請求項1にかかる発明と同様の構成を有する装置として機能させることができ、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができるという効果を奏する。
【0081】
また、請求項7にかかる発明によれば、コンピュータを請求項3にかかる発明と同様の構成を有する装置として機能させることができ、より正確にユーザが意図したタッチ点の座標を選択することができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施形態にかかる座標入力装置を備えたディスプレイ装置の構成を示すブロック図である。
【図2】前記座標入力装置の構成要素である光学ユニットの構成を示す図である。
【図3】前記座標入力装置の構成要素である光学ユニットの構成を示す図である。
【図4】前記座標入力装置による表示画面上のタッチ点座標を検出する手法を説明するための図である。
【図5】前記座標入力装置による、複数のタッチ点座標を検出する手法を説明するための図である。
【図6】前記光学ユニットの受光部から出力される受光波形の一例を示す図である。
【図7】前記座標入力装置による、複数のタッチ点座標を検出する手法を説明するための図である。
【図8】前記座標入力装置の演算部の機能構成を示すブロック図である。
【図9】前記座標入力装置によって実行される処理の手順を示すフローチャートである。
【図10】前記座標入力装置の処理により、前記ディスプレイ装置の表示画面に表示される設定用画面を示す図である。
【図11】前記座標入力装置によって実行される座標選択処理の手順を示すフローチャートである。
【図12】右手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分を説明するための図である。
【図13】左手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分を説明するための図である。
【図14】右手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分の他の例を説明するための図である。
【図15】右手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分のその他の例を説明するための図である。
【図16】右手でペンマウスを操作した場合、および左手でペンマウスを操作した場合に、前記座標入力装置によって選択される座標を説明するための図である。
【図17】前記座標入力装置の変形例において、ユーザが利用する手が右手であるか左手であるかを判別するために用いられる変換テーブルの内容を示す図である。
【符号の説明】
1 ディスプレイ装置
10 表示装置
20 座標入力装置
30 PC
80 ペンマウス
81 先端部
101 表示画面
102A,102B 光学ユニット
103A,103B,103C 反射部材
104 演算部
105 インターフェース部
201 光源
202 レンズ
203 レンズ
204 受光部
205 ハーフミラー[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a coordinate input device for inputting coordinates of a touched point on a display screen, a display device, a coordinate input method, and a program.
[0002]
[Prior art]
Conventionally, a display device with a touch panel in which a display device such as a PDP (Plasma Display Panel) or a liquid crystal rear projector and a coordinate input device are integrated has been used. As a coordinate input device mounted on such a display device with a touch panel, light is emitted from light sources provided at a plurality of different positions toward a display screen, and a reflection member that reflects the irradiated light recursively. Receives reflected light. Then, there is a method in which the presence or absence of a shielding object is detected from the result of the light reception, and the coordinates of the shielding object are acquired (for example, see Patent Document 1).
[0003]
Display device with a touch panel having a coordinate input device as described above, a user can input any command to the device side by pointing on the display screen with a finger or a pen mouse, etc. There is an example in which a character or a figure corresponding to the moving miracle can be drawn on a display screen by being moved.
[0004]
[Patent Document 1]
JP 2001-14091 A
[0005]
[Problems to be solved by the invention]
However, in a display device with a touch panel having a function of performing drawing according to the movement locus of the position pointed as described above, when the user performs a work of writing with a pen mouse or a finger on the display screen, the back of the hand is displayed on the display screen. When it touches, the coordinate input device detects not only the touch point of the fingertip and the pen mouse but also the contact point of the back of the hand. That is, coordinates of a plurality of places may be detected at the same time.
[0006]
In such a case, the conventional coordinate input device cannot determine which of the plurality of detected coordinates is the one touched by the fingertip or the point touched by the pen mouse, and as a result, There has been a problem that a figure or the like different from a moving miracle of a finger or the like is drawn or drawing is not performed at all.
[0007]
The present invention has been made in view of the above, even when the coordinates of a plurality of locations are detected, a coordinate input device, a display device, a coordinate input device that can more accurately obtain the coordinates of the touch point intended by the user, It is an object to obtain a coordinate input method and a program.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 is a coordinate detecting means for detecting coordinates on a display screen touched by an object, and a hand used by a user to touch the display screen is a right hand. Left and right discriminating means for discriminating whether the hand is a left hand, and when a plurality of coordinates are detected by the coordinate detecting means, based on the discrimination result of the left and right discriminating means, a plurality of coordinates detected by the coordinate detecting means And a selecting means for selecting one of the coordinates.
[0009]
According to the first aspect of the present invention, when a plurality of touch points on the display screen are detected by the coordinate detecting means, the coordinates are selected by the selecting means based on whether the hand used by the user is the left hand or the right hand. Is done. When the user touches the display screen, coordinates other than the touch point intended by the user may be detected by touching the display screen with another part such as the back of the hand used for the touch. Generally, there is a tendency that the positional relationship between the intended touch point and the touch point of another part differs depending on the hand to be used. In the present invention, attention is paid to the positional relationship between a plurality of touch points that fluctuate depending on the hand to be used, and one coordinate is selected depending on whether the hand to be used is the right hand or the left hand. The coordinates can be obtained more accurately.
[0010]
According to a second aspect of the present invention, in the configuration of the first aspect of the present invention, the right / left hand used by the left / right discriminating means for the user to touch the display screen based on the touch content of the user is the right hand. Or left hand.
[0011]
According to the second aspect of the present invention, since the left / right discriminating means discriminates the hand used by the user based on the content of the touch from the user, the discrimination of the hand used is accurate, and as a result, more accurate The coordinates of the touch position intended by the user can be selected.
[0012]
According to a third aspect of the present invention, in the configuration of the first or second aspect, when the determination result by the left / right determination means is a right hand, the selection means detects the right hand. From among a plurality of coordinates, when the display screen is viewed from the position facing the display screen, the leftmost coordinate is selected, and when the result of determination by the left / right determination means is a left hand, the coordinates are selected. When the display screen is viewed from a position facing the display screen, the rightmost coordinate is selected from the plurality of coordinates detected by the detection means.
[0013]
When the user has a pen mouse or the like to operate, when using the right hand, touches the display screen. The tip of the pen mouse touches the display screen. It is generally located on the left side, and when using the left hand, the tip of the pen mouse is generally located on the right side. In view of such a tendency, according to the invention according to claim 3, the selecting means selects the leftmost coordinate when the hand to be used is the right hand, and selects the rightmost coordinate when the hand to be used is the left hand. Is selected, the coordinates of the touch point intended by the user can be selected more accurately.
[0014]
The invention according to claim 4 is a display device including a display device having a display screen and a coordinate input device, wherein the coordinate input device detects coordinates on the display screen touched by an object. Coordinate detection means, left and right determination means for determining whether the hand used by the user to touch the display screen is right hand or left hand, and when a plurality of coordinates are detected by the coordinate detection means, Selecting means for selecting one coordinate from a plurality of coordinates detected by the coordinate detecting means based on a result of the determination by the left / right determining means.
[0015]
Since the invention according to claim 4 has the same configuration as the invention according to claim 1, even if there are a plurality of detected coordinates, the coordinates of the touch point intended by the user can be selected more accurately. can do.
[0016]
According to a fifth aspect of the present invention, there is provided a coordinate detecting step for detecting coordinates of a plurality of points on a display screen touched by an object, wherein a hand used by the user to touch the display screen is a right hand or a left hand. A left / right determination step of determining whether or not a plurality of coordinates are detected by the coordinate detection means, based on a determination result of the left / right determination step, from among the plurality of coordinates detected by the coordinate detection step. And a selecting step of selecting one coordinate.
[0017]
According to the invention according to claim 5, when a plurality of touch points on the display screen are detected, the coordinates are selected by the selecting means based on whether the user's hand is the left hand or the right hand. Then, in the present invention, the user focuses on the positional relationship that fluctuates depending on the hand used for touch, and selects one coordinate depending on whether the hand to be used is the right hand or the left hand. Can be obtained more accurately.
[0018]
The invention according to claim 6 is a coordinate detecting means for detecting the coordinates of the computer on the display screen touched by the object, and the hand used by the user to touch the display screen is the right hand or the left hand. Left and right discriminating means for judging whether there are a plurality of coordinates on the display screen designated by an object, selecting means for selecting one coordinate from the plurality of coordinates based on the discrimination result of the left and right discriminating means Function as
[0019]
According to the invention according to claim 6, the computer can function as a device having the same configuration as that of the invention according to claim 1, and even if there are a plurality of detected coordinates, the touch point intended by the user is intended. Can be selected more accurately.
[0020]
According to a seventh aspect of the present invention, in the configuration according to the sixth aspect, when the determination result by the left / right determination unit is a right hand, the selection unit selects the display from among the plurality of coordinates. When the display screen is viewed from the position opposing the screen, the leftmost coordinate is selected, and when the result of the determination by the left / right determination means is a left hand, the display screen is selected from the plurality of coordinates. When the display screen is viewed from a position opposing to, the rightmost coordinate is selected.
[0021]
According to the invention according to claim 7, the computer can function as a device having a configuration similar to that of the invention according to claim 3, and the coordinates of the touch point intended by the user can be more accurately selected.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Preferred embodiments of a coordinate input device, a display device, a coordinate input method, and a program according to the present invention will be described in detail below with reference to the accompanying drawings.
[0023]
A. Configuration of the embodiment
FIG. 1 is a block diagram illustrating a configuration of a display device with a touch panel function including a coordinate input device according to an embodiment of the present invention. As shown in FIG. 1, the display device 1 includes a display device 10 and a coordinate input device 20, and each of the display device 10 and the coordinate input device 20 is connected to a PC (Personal Computer) 30. .
[0024]
The display device 10 has a
[0025]
The coordinate input device 20 includes
[0026]
The three reflecting
[0027]
The
[0028]
Here, FIG. 2 is a diagram of the
[0029]
The
[0030]
The
[0031]
The
[0032]
The above is the configuration of the
[0033]
The
[0034]
As shown in the figure, light is emitted from the
[0035]
First, the
x = W × tan θR / (tan θL + tan θR)
y = W × tan θL × tan θR / (tan θL + tan θR)
[0036]
The
[0037]
Further, the coordinate input device 20 according to the present embodiment is configured to be able to detect the coordinates of each touch point even when a plurality of locations on the
[0038]
As shown in FIG. 5, when a plurality of points (two points in the illustrated example) are touched at the same time, the reflected light is blocked at two places. An area (dark area) exists. In such a case, when the coordinates are obtained by the above equation, the coordinates A, A ′, B, and B ′ are derived even though the original touch points are two places. It is unknown whether is the coordinate of the touch point.
[0039]
Therefore, the
[0040]
First, the
[0041]
The
[0042]
Then, based on the acquired distance a and the imaging size b, the diameter D of the shield corresponding to each dark spot is calculated as follows.
[0043]
As shown in FIG. 7, the distance a between the peak point X and the center pixel is an angle α formed by a perpendicular line from the center of the
α = tan -1 (A / f)
Here, f is the focal length of the
[0044]
Next, a distance L from the center point C of the shield to the
The image magnification of the object image of the shielding object received by the
L: 1 = D: b
Here, 1 is the distance from the
D = (b / l) · L
= (B / (a / sinα)) · L
= (B / (a / sin (tan) -1 (A / f))) · L
The
[0045]
As described above, the
[0046]
The configuration for detecting each touch coordinate when two points are touched at the same time is not limited to the configuration using the above-described method. For example, three optical units are provided, and each point is determined based on the light reception result of each optical unit. A configuration for detecting coordinates may be employed.
[0047]
As described above, the coordinate input device 20 according to the present embodiment is configured to be able to detect the coordinates of each touch point when a plurality of places are touched at the same time. At this time, not only the touch by the pen mouse but also the touch of the back of the hand is detected, and the coordinates of each touch point are obtained. When a plurality of coordinates are simultaneously detected in this way, the
[0048]
The
[0049]
B. Operation of the embodiment
Next, the operation of the coordinate input device 20 having the above configuration will be described.
[0050]
As shown in FIG. 9, when the display device 1 with the touch panel provided with the coordinate input device 20 is powered on, the
[0051]
When the user status is set, the
[0052]
Next, the
[0053]
As shown in FIG. 11, in the coordinate selection process, the
[0054]
Returning to FIG. 9, if it is determined in step Sa4 that there is only one detected coordinate, the flow proceeds to step Sa6 without performing the coordinate selection processing.
[0055]
Next, the
[0056]
On the other hand, if the coordinates are not in the area where the change to the left hand is touched (No in step Sa6), it is determined whether or not the coordinates are in the
[0057]
On the other hand, when the coordinates are not within the area where the change to the right hand is touched (No in step Sa8), the coordinates are not within the area where the change to the right hand and the left hand are touched, and the coordinate input device 20 is not used. Therefore, the coordinate data including the coordinates is output to the
[0058]
The above is the details of the processing operation performed by the
[0059]
When performing a drawing process or the like in accordance with the movement trajectory of the position touched by the user in this way, the user usually carries a pen mouse or the like on the dominant arm in the same manner as a pencil or the like, and draws a picture or character on paper with a pencil or the like You will operate the pen mouse in the same way. When the user performs this operation, not only the tip of the pen mouse touches the
[0060]
On the other hand, the coordinate input device 20 according to the present embodiment also determines whether the user is using the right hand or the left hand even when a plurality of touches are detected at the same time. In some cases, the coordinate data having the leftmost coordinate as viewed from the side facing the
[0061]
As shown on the left side of FIG. 12, when a user with a dominant arm has a
[0062]
As shown in FIG. 12, when the hand to be used is the right hand, the positional relationship between the
[0063]
In addition, although the angle at which the
[0064]
As described above, when the holding method of the
[0065]
C. Modified example
Note that the present invention is not limited to the above-described embodiment, and various modifications as exemplified below are possible.
[0066]
(Modification 1)
In the above-described embodiment, the user refers to the setting screen (see FIG. 10) displayed on the upper right side of the
[0067]
For example, in the display device 1 with a touch panel, a dedicated pen mouse or the like for touching the
[0068]
(Modification 2)
Further, in the above-described embodiment, both the
[0069]
(Modification 3)
Further, in the above-described embodiment, the user makes a touch whether the hand to be used is the “right hand” or the “left hand”, and the hand to be used is determined based on the touch. Whether the hand used by the coordinate input device 20 is a left hand or a right hand may be determined based on other information.
[0070]
For example, the user may input a user name to the coordinate input device 20, and the coordinate input device 20 may automatically set the user status to the right hand or the left hand based on the input user name. In such a case, the coordinate input device 20 is provided with a conversion table having contents as shown in FIG. 17 in which user name information and hand information to be used are stored in association with each other. By referring to the table, it is possible to determine whether the hand to be used is the left hand or the right hand.
[0071]
Further, as another method of determining the hand used by the coordinate input device 20, the biometric information of the user may be acquired, and the hand to be used may be determined based on the acquired biometric information.
[0072]
(Modification 4)
In the above-described embodiment, the case where the present invention is applied to the coordinate input device 20 having the optical coordinate detection function including the
[0073]
(Modification 5)
Further, in the above-described embodiment, the above-described processing of coordinate detection and coordinate selection (see FIGS. 9 and 11) is performed by operating according to the program stored in the memory included in the
[0074]
Further, a program for causing a computer to execute the above processing may be provided to a user via a communication line such as the Internet, or the program may be provided on a computer-readable recording medium such as a CD-ROM (Compact Disc). And may be provided to the user.
[0075]
【The invention's effect】
As described above, according to the first aspect of the present invention, even when coordinates at a plurality of locations are detected, it is possible to more accurately acquire the coordinates of the touch point intended by the user. Play.
[0076]
Further, according to the second aspect of the present invention, it is possible to accurately determine the hand to be used, and as a result, it is possible to more accurately select the coordinates of the touch position intended by the user.
[0077]
Further, according to the third aspect of the invention, there is an effect that the coordinates of the touch point intended by the user who uses the touch while holding the pen mouse or the like can be more accurately selected.
[0078]
Further, according to the invention according to claim 4, there is an effect that even when there are a plurality of detected coordinates, the coordinates of the touch point intended by the user can be selected more accurately.
[0079]
Further, according to the invention according to claim 5, there is an effect that the coordinates of the touch point intended by the user can be acquired more accurately.
[0080]
According to the invention of claim 6, the computer can function as a device having the same configuration as that of the invention of claim 1, and even if there are a plurality of detected coordinates, the user's intention is obtained. There is an effect that the coordinates of the touch point can be selected more accurately.
[0081]
According to the seventh aspect of the present invention, the computer can function as a device having the same configuration as the third aspect of the present invention, and the coordinates of the touch point intended by the user can be selected more accurately. It has the effect of being able to do it.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a display device including a coordinate input device according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of an optical unit which is a component of the coordinate input device.
FIG. 3 is a diagram showing a configuration of an optical unit which is a component of the coordinate input device.
FIG. 4 is a view for explaining a method of detecting touch point coordinates on a display screen by the coordinate input device.
FIG. 5 is a diagram for explaining a method of detecting a plurality of touch point coordinates by the coordinate input device.
FIG. 6 is a diagram showing an example of a light receiving waveform output from a light receiving section of the optical unit.
FIG. 7 is a diagram for explaining a method of detecting a plurality of touch point coordinates by the coordinate input device.
FIG. 8 is a block diagram illustrating a functional configuration of a calculation unit of the coordinate input device.
FIG. 9 is a flowchart showing a procedure of a process executed by the coordinate input device.
FIG. 10 is a diagram showing a setting screen displayed on a display screen of the display device by processing of the coordinate input device.
FIG. 11 is a flowchart showing a procedure of a coordinate selection process executed by the coordinate input device.
FIG. 12 is a diagram for explaining a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a right hand.
FIG. 13 is a diagram for explaining a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a left hand.
FIG. 14 is a diagram for explaining another example of a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a right hand.
FIG. 15 is a diagram for explaining another example of a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a right hand.
FIG. 16 is a diagram for explaining coordinates selected by the coordinate input device when the pen mouse is operated with the right hand and when the pen mouse is operated with the left hand.
FIG. 17 is a diagram showing the contents of a conversion table used to determine whether a hand used by a user is a right hand or a left hand in a modification of the coordinate input device.
[Explanation of symbols]
1 Display device
10 Display device
20 Coordinate input device
30 PC
80 pen mouse
81 Tip
101 Display screen
102A, 102B optical unit
103A, 103B, 103C Reflecting member
104 arithmetic unit
105 Interface section
201 light source
202 lens
203 lens
204 light receiving section
205 half mirror
Claims (7)
ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、
前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段と
を備えたことを特徴とする座標入力装置。Coordinate detection means for detecting coordinates on the display screen touched by the object,
Left and right discriminating means for discriminating whether a hand used by the user to touch the display screen is a right hand or a left hand;
And selecting means for selecting one coordinate from the plurality of coordinates detected by the coordinate detecting means based on a result of the determination by the left / right determining means when the plurality of coordinates are detected by the coordinate detecting means. A coordinate input device.
ことを特徴とする請求項1に記載の座標入力装置。The coordinate according to claim 1, wherein the left / right determination unit determines whether a hand used by the user to touch the display screen is a right hand or a left hand based on the touch content of the user. Input device.
前記左右判別手段による判別結果が右手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、
前記左右判別手段による判別結果が左手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する
ことを特徴とする請求項1または2に記載の座標入力装置。The selecting means,
When the result of the determination by the left / right determination means is a right hand, the leftmost position when the display screen is viewed from a position facing the display screen from among a plurality of coordinates detected by the coordinate detection means. Select the coordinates to
When the result of the discrimination by the left and right discriminating means is a left hand, the position on the rightmost side when the display screen is viewed from a position facing the display screen from among a plurality of coordinates detected by the coordinate detecting means. The coordinate input device according to claim 1, wherein coordinates to be selected are selected.
前記座標入力装置は、
物体によってタッチされた表示画面上の座標を検出する座標検出手段と、
ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、
前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段とを備える
ことを特徴とするディスプレイ装置。A display device having a display screen, and a display device including a coordinate input device,
The coordinate input device,
Coordinate detection means for detecting coordinates on the display screen touched by the object,
Left and right discriminating means for discriminating whether a hand used by the user to touch the display screen is a right hand or a left hand;
And selecting means for selecting one coordinate from among the plurality of coordinates detected by the coordinate detecting means based on a result of the determination by the left / right determining means when the plurality of coordinates are detected by the coordinate detecting means. A display device characterized by the above-mentioned.
ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別ステップと、
前記座標検出手段によって複数の座標が検出された場合、前記左右判別ステップの判別結果に基づいて、前記座標検出ステップによって検出された複数の座標の中から一の座標を選択する選択ステップと
を具備することを特徴とする座標入力方法。A coordinate detection step of detecting coordinates on the display screen touched by the object,
A left / right determination step of determining whether the hand used by the user to touch the display screen is a right hand or a left hand;
A selecting step of selecting one coordinate from the plurality of coordinates detected by the coordinate detecting step based on a determination result of the left / right determining step when the plurality of coordinates is detected by the coordinate detecting means. A coordinate input method.
物体によってタッチされた表示画面上の座標を検出する座標検出手段、
ユーザが表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段、
物体によって指示された前記表示画面上の座標が複数ある場合、前記左右判別手段の判別結果に基づいて、前記複数の座標の中から一の座標を選択する選択手段、
として機能させるためのプログラム。Computer
Coordinate detecting means for detecting coordinates on the display screen touched by the object,
Left and right discriminating means for discriminating whether a hand used by the user to touch the display screen is a right hand or a left hand;
When there are a plurality of coordinates on the display screen instructed by an object, a selection unit that selects one coordinate from the plurality of coordinates based on a determination result of the left / right determination unit,
Program to function as
前記左右判別手段による判別結果が右手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、
前記左右判別手段による判別結果が左手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する
ことを特徴とする請求項6に記載のプログラム。The selecting means,
When the determination result by the left and right determination unit is a right hand, from the plurality of coordinates, select the coordinates located on the leftmost side when viewing the display screen from a position facing the display screen,
When the result of the determination by the left / right determination means is a left hand, it is preferable to select, from the plurality of coordinates, the coordinate located on the rightmost side when viewing the display screen from a position facing the display screen. The program according to claim 6, wherein:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002354009A JP2004185495A (en) | 2002-12-05 | 2002-12-05 | Coordinate input device, display device and method and program for inputting coordinate |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002354009A JP2004185495A (en) | 2002-12-05 | 2002-12-05 | Coordinate input device, display device and method and program for inputting coordinate |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004185495A true JP2004185495A (en) | 2004-07-02 |
Family
ID=32755154
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002354009A Pending JP2004185495A (en) | 2002-12-05 | 2002-12-05 | Coordinate input device, display device and method and program for inputting coordinate |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2004185495A (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007213135A (en) * | 2006-02-07 | 2007-08-23 | Ricoh Elemex Corp | Coordinate detection device and coordinate detection method |
| JP2008262509A (en) * | 2007-04-13 | 2008-10-30 | Oki Electric Ind Co Ltd | Input device |
| JP2009048238A (en) * | 2007-08-13 | 2009-03-05 | Canon Inc | Coordinate input device, coordinate input method |
| JP2011134069A (en) * | 2009-12-24 | 2011-07-07 | Panasonic Corp | Touch panel device |
| JP2012027944A (en) * | 2011-10-07 | 2012-02-09 | Oki Electric Ind Co Ltd | Automatic transaction device |
| JP2012128883A (en) * | 2012-03-22 | 2012-07-05 | Oki Electric Ind Co Ltd | Automatic transaction device |
| JP2013030025A (en) * | 2011-07-28 | 2013-02-07 | Toshiba Corp | Information input device, control method for information input device, and control program for information input device |
| JP2013206349A (en) * | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | Touch panel control device, touch panel control method, control program, and computer-readable medium storing control program therein |
| JP2013232044A (en) * | 2012-04-27 | 2013-11-14 | Toshiba Corp | Electronic apparatus, control method, and program |
| US9024914B2 (en) | 2010-01-07 | 2015-05-05 | Samsung Display Co., Ltd. | Method of detecting touch position, touch position detecting apparatus for performing the method and display apparatus having the touch position detecting apparatus |
| JP2023066676A (en) * | 2021-10-29 | 2023-05-16 | 株式会社日立製作所 | Elevator device, elevator control method, and elevator control panel |
-
2002
- 2002-12-05 JP JP2002354009A patent/JP2004185495A/en active Pending
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007213135A (en) * | 2006-02-07 | 2007-08-23 | Ricoh Elemex Corp | Coordinate detection device and coordinate detection method |
| JP2008262509A (en) * | 2007-04-13 | 2008-10-30 | Oki Electric Ind Co Ltd | Input device |
| JP2009048238A (en) * | 2007-08-13 | 2009-03-05 | Canon Inc | Coordinate input device, coordinate input method |
| JP2011134069A (en) * | 2009-12-24 | 2011-07-07 | Panasonic Corp | Touch panel device |
| US9024914B2 (en) | 2010-01-07 | 2015-05-05 | Samsung Display Co., Ltd. | Method of detecting touch position, touch position detecting apparatus for performing the method and display apparatus having the touch position detecting apparatus |
| JP2013030025A (en) * | 2011-07-28 | 2013-02-07 | Toshiba Corp | Information input device, control method for information input device, and control program for information input device |
| JP2012027944A (en) * | 2011-10-07 | 2012-02-09 | Oki Electric Ind Co Ltd | Automatic transaction device |
| JP2012128883A (en) * | 2012-03-22 | 2012-07-05 | Oki Electric Ind Co Ltd | Automatic transaction device |
| JP2013206349A (en) * | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | Touch panel control device, touch panel control method, control program, and computer-readable medium storing control program therein |
| JP2013232044A (en) * | 2012-04-27 | 2013-11-14 | Toshiba Corp | Electronic apparatus, control method, and program |
| US9001063B2 (en) | 2012-04-27 | 2015-04-07 | Kabushiki Kaisha Toshiba | Electronic apparatus, touch input control method, and storage medium |
| JP2023066676A (en) * | 2021-10-29 | 2023-05-16 | 株式会社日立製作所 | Elevator device, elevator control method, and elevator control panel |
| JP7709362B2 (en) | 2021-10-29 | 2025-07-16 | 株式会社日立製作所 | Elevator device, elevator control method, and elevator control panel |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7176904B2 (en) | Information input/output apparatus, information input/output control method, and computer product | |
| JP3934846B2 (en) | Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium | |
| JP4627781B2 (en) | Coordinate input / detection device and electronic blackboard system | |
| JP2000105671A (en) | Coordinate input / detection device and electronic blackboard system | |
| JP2003162370A (en) | Image processing apparatus, display device with touch panel, image processing method, and program for causing computer to execute image processing method | |
| JP4342572B2 (en) | Information input / output device, information input / output control method, recording medium, and program | |
| JP2004185495A (en) | Coordinate input device, display device and method and program for inputting coordinate | |
| JP2001282457A (en) | Coordinate input system, control method of coordinate input system, and computer-readable recording medium storing program for causing a computer to execute the method | |
| JP2016122345A (en) | Image projection apparatus and interactive input / output system. | |
| JP2004199181A (en) | Coordinate input device, display device, coordinate input method and program | |
| JP2003241872A (en) | Drawing processing method, program according to the method, and storage medium storing the program | |
| JP4335468B2 (en) | Information input / output system, information control method, program, and recording medium | |
| JP4560224B2 (en) | Information input device, information input / output system, program, and storage medium | |
| JP6036856B2 (en) | Electronic control apparatus, control method, and control program | |
| JP2003186616A (en) | Information input device, information input / output system, position coordinate output method, program, and recording medium | |
| JP4615178B2 (en) | Information input / output system, program, and storage medium | |
| JP2002342015A (en) | Information input device and information input / output system | |
| JP2007206935A (en) | Coordinate detection system, coordinate detection device, coordinate detection method and touch pen | |
| JP4060040B2 (en) | Information input device, information input system, input information identification method, coordinate input / detection device, honey / tome identification method, and storage medium | |
| JP4603183B2 (en) | Information input / output system, display control method, storage medium, and program | |
| JP4256555B2 (en) | Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium | |
| JP2001084104A (en) | Coordinate input / detection device and information storage medium | |
| JP4001705B2 (en) | Coordinate input / detection device and electronic blackboard system | |
| JP4414106B2 (en) | Information input device, information input / output system, program, and storage medium | |
| JP2001084108A (en) | Coordinate input / detection / display device |