[go: up one dir, main page]

JP2004185495A - Coordinate input device, display device and method and program for inputting coordinate - Google Patents

Coordinate input device, display device and method and program for inputting coordinate Download PDF

Info

Publication number
JP2004185495A
JP2004185495A JP2002354009A JP2002354009A JP2004185495A JP 2004185495 A JP2004185495 A JP 2004185495A JP 2002354009 A JP2002354009 A JP 2002354009A JP 2002354009 A JP2002354009 A JP 2002354009A JP 2004185495 A JP2004185495 A JP 2004185495A
Authority
JP
Japan
Prior art keywords
coordinates
coordinate
display screen
hand
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002354009A
Other languages
Japanese (ja)
Inventor
Takahiro Ito
貴弘 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Elemex Corp
Original Assignee
Ricoh Elemex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Elemex Corp filed Critical Ricoh Elemex Corp
Priority to JP2002354009A priority Critical patent/JP2004185495A/en
Publication of JP2004185495A publication Critical patent/JP2004185495A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more accurately select the coordinates of a touch point intended by a user when two or more positions are simultaneously touched on the display screen of a display device with a touch panel. <P>SOLUTION: When a user touches the display screen 101 of the device with a pen mouse or the like held by the user, the coordinates of the touch parts are detected. When the user touches the screen with the pen mouse held by the user, not only parts 401, 501, other parts 402, 502 may also be touched by the back of a hand holding the pen mouse. When the user's dominant hand is the right hand in this case, the coordinates of the most left side touch part 401 are selected in the figure, and in the case of the left hand, the coordinates of the most right side touch part 501 are selected. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、表示画面上のタッチされた点の座標を入力する座標入力装置、ディスプレイ装置、座標入力方法およびプログラムに関する。
【0002】
【従来の技術】
従来より、PDP(Plasma Display Panel)や液晶リアプロジェクタなどの表示装置と座標入力装置とが一体化されたタッチパネル付きディスプレイ装置が用いられている。このようなタッチパネル付きディスプレイ装置に搭載される座標入力装置としては、表示画面に向けて複数の異なる位置に設けられた光源から光を照射し、その照射光を再帰的に反射する反射部材からの反射光を受光する。そして、この受光結果から、遮蔽物の有無を検出するとともに、その遮蔽物の座標を取得するというものがある(例えば、特許文献1参照)。
【0003】
上記のような座標入力装置を有するタッチパネル付きディスプレイ装置には、ユーザがその表示画面上を指やペンマウスなどで指し示すことによって装置側に何らかの指令を入力することができるものや、また指し示す位置を移動させることで表示画面上にその移動奇跡に応じた文字や図形などを描画することができるものなどがある。
【0004】
【特許文献1】
特開2001−14091号公報
【0005】
【発明が解決しようとする課題】
しかし、上記のように指し示す位置の移動軌跡に応じた描画を行う機能を有するタッチパネル付きディスプレイ装置においては、ユーザが表示画面上にペンマウスや指で筆記する作業を行った場合に手の甲が表示画面に接する等すると、座標入力装置によって指先やペンマウスのタッチ点のみならず、手の甲の接触点も検出される。すなわち、同時に複数箇所の座標が検出されることがある。
【0006】
かかる場合、従来の座標入力装置においては、複数検出された座標のうち、どの座標が指先やペンマウスによってタッチされた点についてのものであるかを判別することができず、この結果ユーザが操作した指等の移動奇跡とは異なる図形等が描画されたり、まったく描画がなされなくなるといった不都合が生じていた。
【0007】
この発明は上記に鑑みてなされたもので、複数箇所の座標が検出された場合であっても、ユーザが意図したタッチ点の座標をより正確に取得することができる座標入力装置、ディスプレイ装置、座標入力方法およびプログラムを得ることを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するため、請求項1にかかる発明は、物体によってタッチされた表示画面上の座標を検出する座標検出手段と、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段とを備えたことを特徴とする座標入力装置である。
【0009】
請求項1にかかる発明によれば、座標検出手段によって表示画面上のタッチ点が複数検出された場合、選択手段によってユーザの利用する手が左手であるか右手であるかに基づいて座標が選択される。ユーザが表示画面上をタッチする際、ユーザが意図したタッチ点のほかにタッチのために利用する手の甲などの他の部位が表示画面にタッチして座標が検出されてしまうことがあり、かかる場合一般的には利用する手によって意図するタッチ点と他の部位のタッチ点との位置関係が異なる傾向がある。この発明では、利用する手によって変動する複数のタッチ点の位置関係に着目し、利用する手が右手であるか左手であるかによって1の座標を選択することで、ユーザの意図したタッチ点の座標をより正確に取得することができる。
【0010】
また、請求項2にかかる発明は、請求項1にかかる発明の構成において、前記左右判別手段が、ユーザのタッチ内容に基づいてユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する。
【0011】
請求項2にかかる発明によれば、ユーザからのタッチ内容に基づいて左右判別手段がユーザが利用する手を判別しているので、利用する手の判別が正確であり、この結果、より正確にユーザが意図したタッチ位置の座標を選択することができる。
【0012】
また、請求項3にかかる発明は、請求項1または2にかかる発明の構成において、前記選択手段が、前記左右判別手段による判別結果が右手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、前記左右判別手段による判別結果が左手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する。
【0013】
ユーザがペンマウス等を所持して操作する場合、右手を利用する場合には表示画面にタッチするペンマウスの先端が表示画面にタッチする手の甲などの部位よりも表示画面と対向する側から見て左側に位置し、左手を利用する場合にはペンマウスの先端が右側に位置するのが一般的である。このような傾向を鑑み請求項3にかかる発明によれば、選択手段が、利用する手が右手である場合に最も左側の座標を選択し、利用する手が左手である場合に最も右側の座標を選択することで、より正確にユーザが意図したタッチ点の座標を選択することができる。
【0014】
また、請求項4にかかる発明は、表示画面を有する表示装置と、座標入力装置とを備えたディスプレイ装置であって、前記座標入力装置は、物体によってタッチされた表示画面上の座標を検出する座標検出手段と、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段とを備えることを特徴とする。
【0015】
請求項4にかかる発明は、請求項1にかかる発明と同様の構成を有しているので、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができる。
【0016】
また、請求項5にかかる発明は、物体によってタッチされた表示画面上の複数点の座標を検出する座標検出ステップと、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別ステップと、前記座標検出手段によって複数の座標が検出された場合、前記左右判別ステップの判別結果に基づいて、前記座標検出ステップによって検出された複数の座標の中から一の座標を選択する選択ステップとを具備することを特徴とする。
【0017】
請求項5にかかる発明によれば、表示画面上のタッチ点が複数検出された場合、選択手段によってユーザの利用する手が左手であるか右手であるかに基づいて座標が選択される。そして、この発明では、ユーザがタッチに利用する手によって変動する位置関係に着目し、利用する手が右手であるか左手であるかによって1の座標を選択することで、ユーザの意図したタッチ点の座標をより正確に取得することができる。
【0018】
また、請求項6にかかる発明は、コンピュータを、物体によってタッチされた表示画面上の座標を検出する座標検出手段、ユーザが表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段、物体によって指示された前記表示画面上の座標が複数ある場合、前記左右判別手段の判別結果に基づいて、前記複数の座標の中から一の座標を選択する選択手段として機能させる。
【0019】
請求項6にかかる発明によれば、コンピュータを請求項1にかかる発明と同様の構成を有する装置として機能させることができ、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができる。
【0020】
また、請求項7にかかる発明は、請求項6にかかる発明の構成において、前記選択手段は、前記左右判別手段による判別結果が右手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、前記左右判別手段による判別結果が左手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する。
【0021】
請求項7にかかる発明によれば、コンピュータを請求項3にかかる発明と同様の構成を有する装置として機能させることができ、より正確にユーザが意図したタッチ点の座標を選択することができる。
【0022】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる座標入力装置、ディスプレイ装置、座標入力方法およびプログラムの好適な実施の形態を詳細に説明する。
【0023】
A.実施形態の構成
図1は、本発明の一実施形態にかかる座標入力装置を備えたタッチパネル機能付きディスプレイ装置の構成を示すブロック図である。同図に示すように、このディスプレイ装置1は、表示装置10と、座標入力装置20とを備えており、表示装置10および座標入力装置20の各々はPC(Personal Computer)30と接続されている。
【0024】
表示装置10は、PDP、LCD(Liquid Crystal Display)、CRT(Cathode−Ray Tube)等である表示画面101を有しており、PC30から供給される画像データに対応した画像を表示画面101に表示する。
【0025】
座標入力装置20は、光学ユニット102A、102Bと、反射部材103A,103B,103Cと、演算部104と、インターフェース部105とを備えている。
【0026】
3つの反射部材103A,103B,103Cは、入射してくる光を180度の角度で反射する光再帰性の反射部材であり、矩形状の表示画面101の三方を覆うように配置されている。より具体的には、反射部材103A、103Cは表示画面の縦方向の長さとほぼ同じ長さを有する部材であり、それぞれその長手方向が表示画面101の図の左端部および右端部に沿うように配置されている。反射部材103Bは、表示画面101の横方向とほぼ同じ長さを有する部材であり、その長手方向が表示画面の上端部に沿うように配置されている。このように各反射部材が配置されることによって、表示画面101の上方および左右側の三方が覆われるようになっている。
【0027】
光学ユニット102A、102Bは、それぞれ表示画面101の下端部の左右両端側、つまり反射部材103A、103Cの下端側に配置されている。光学ユニット102A,102Bは、反射部材103A,103B,103Cに覆われていない表示画面101の下方側から当該表示画面側に向けて扇状の光を照射し、これにより照射光が表示画面101の全領域上を照射されるようになっている。また、光学ユニット102A、102Bは、照射した光の反射部材103A,103B,103Cからの反射光を受光し、受光結果を演算部104に出力する。
【0028】
ここで、図2は光学ユニット102Aを表示画面101と対向する側から見た図であり、図3は光学ユニット102Aを表示画面101に沿った方向から見た図である。図2および図3に示すように、光学ユニット102Aは、光源201と、レンズ202と、レンズ203と、受光部204と、ハーフミラー205とを備えている。
【0029】
光源201は、半導体レーザを有しており、レーザ光(図中一点鎖線で示す)を照射する。レンズ202は、光源201から照射されたレーザ光を拡散するレンズであり、かかるレンズ202を通過したレーザ光は表示画面101と対向する側から見て扇状に拡散される(図2参照)。
【0030】
ハーフミラー205は、上記のようにレンズ202によって拡散された光を図の上方側である表示画面101側(図1参照)に通過させる一方で、その光の反射部材103A,103B,103Cからの反射光を受光部204側(図3の右側)に反射させる。この反射光がレンズ203を通過して受光部204によって受光される。
【0031】
受光部204は、CCD(Charge Coupled Device)等を有しており、反射部材103A,103B,103Cからの反射光を受光し、受光データを図1に示す演算部104に出力する。
【0032】
以上が光学ユニット102Aの構成であり、このような光源201と受光部204とを一体化したユニットを用いることで、各構成部品の位置関係(距離や中心位置合わせなど)の調整等をユニット毎に行うことができ、調整作業が容易となる。なお、光学ユニット102Bの構成は光学ユニット102Aと同一であるためのその構成の詳細な説明は割愛する。
【0033】
演算部104は、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリを有しており、メモリに格納されたプログラムにしたがって座標検出、座標選択などの処理を行う。演算部104によって行われる座標検出処理は、光学ユニット102A,102Bから供給される受光データに基づいて、ユーザの指やペンマウス等の物体が表示画面上のタッチ点の座標を検出する処理である。このような演算部104による座標検出について図4を参照しながら説明する。
【0034】
同図に示すように、光学ユニット102Aおよび光学ユニット102Bからは表示画面101の全域に光が照射され、その光が反射部材103A,103B,103Cによって反射され、反射光が光学ユニット102A、102Bによって受光される。したがって、図示のように、ある点がユーザの指等によってタッチされるとその部分を通過する光が遮られ、光学ユニット102A、102Bによって受光されなくなる。一方、表示画面101上に指などの物体が存在しない場合には、上記のように光が遮られることがなく、光学ユニット102A,102Bはすべての反射光を受光することになる。演算部104には、このような受光データが供給され、この受光データに基づいて次のようにしてタッチ点301の座標を求める。
【0035】
まず、演算部104は、扇状に照射された光のうち、光学ユニット102A,102Bの受光部204が光を受光しなかった位置で本来受光されるはずの光の光軸から光学ユニット102A,102Bの受光点を通る直線と各受光点とタッチ点301とを通る直線の角度(光遮蔽角度)θL、θRを求める。そして、演算部104は、タッチ点301の座標(x、y)を角度θL、θRを用いて以下のように求める。
x=W×tanθR/(tanθL+tanθR)
y=W×tanθL×tanθR/(tanθL+tanθR)
【0036】
演算部104は、以上のようにして求めた座標を含む座標データをインターフェース部105を介してPC30に出力する。なお、本実施形態では、光学ユニット102A、102Bの受光データに基づいて表示画面101上へのタッチの有無を検出する構成であるため、実際には表示画面101に指等が接触していない場合であっても、表示画面101に近接する位置(光学ユニット102A、102Bの照射光を遮る位置)に達するとタッチありとして検出されるが、本実施形態においてタッチとはこのような現実には非接触な状態を含むものをいう。
【0037】
また、本実施形態にかかる座標入力装置20では、表示画面101上の複数箇所が同時にタッチされた場合にも、各々のタッチ点の座標を検出することができるよう構成されている。このように同時にタッチされた複数箇所の座標の検出について図5〜図7を参照しながら説明する。
【0038】
図5に示すように、同時に複数点(図示の例は2点)がタッチされた場合、2箇所で反射光が遮られるため、各光学ユニットの受光部204には2箇所の受光量の小さい領域(暗領域)が存在することになる。かかる場合において、上記の式により座標を求めると、本来のタッチ点は2箇所であるにもかかわらず、座標A、A’、B、B’が導出されてしまい、これらのうちのどれとどれがタッチ点の座標であるかが不明となる。
【0039】
そこで、演算部104は、特開2001−318759号公報に開示された技術を用い、以下のようにして4つの座標の中から現実のタッチ点に対応する2つの座標を抽出している。
【0040】
まず、演算部104は、上記のように求められる4つの座標と、各光学ユニット102A、102Bの受光部204における受光量の小さいピーク点(暗点)と受光部204における所定の受光点(例えば、受光素子の中心画素)との距離aと、受光部204における結像サイズbとから、4つの各座標点における光遮蔽物の径サイズDを算出する。
【0041】
演算部104は、図6に示される受光部204の受光波形のうち、最も電圧値が小さい点をピーク点とし、かかるピーク点Xと所定の受光点である受光素子の中心画素からの距離aを取得するとともに、所定の閾値よりも電圧値が小さい領域の結像サイズbを取得する。同時に2点がタッチされた場合には、各受光部204について暗点が2箇所存在するはずであるから、各々について距離aと、結像サイズbを取得する。
【0042】
そして、取得した距離aと、結像サイズbとから各暗点に対応する遮蔽物の径サイズDを以下のようにして算出する。
【0043】
図7に示すように、ピーク点Xと中心画素までの距離aは、受光部204の中心からの垂線と、遮蔽物の中心点Cとピーク点Xとを結ぶ線とで形成される角度αに依存しており、角度αを以下の式により算出する。
α=tan−1(a/f)
ここで、fはレンズ203の焦点距離である。
【0044】
次に、遮蔽物の中心点Cとレンズ203に至る距離Lを座標から求める。
そして、受光部204が受光する遮蔽物の被写体像の像倍率は距離Lに依存しており、以下の関係が成立する。
L:l=D:b
ここで、lはレンズ203からピーク点Xまでの距離である。この関係から、遮蔽物の径サイズDは以下の式により算出することができる。
D=(b/l)・L
=(b/(a/sinα))・L
=(b/(a/sin(tan−1(a/f)))・L
演算部104は、上記式に取得した距離a、結像サイズbを代入することで遮蔽物の径サイズDを導出することができる。
【0045】
以上のようにして演算部104は、各受光部204の受光結果毎に4つの座標における遮蔽物の径サイズDを求め、座標毎に光学ユニット102Aの受光部204の受光結果から求められた径サイズDと、光学ユニット102Bの受光部204の受光結果から求められた径サイズDとを比較する。そして、演算部104は、4つの座標の中から、比較した径サイズDが近似する2つの座標をタッチ点の座標として検出する。
【0046】
なお、2点が同時にタッチされた際に、各々のタッチ座標を検出する構成としては、上記手法を用いる構成に限らず、例えば3つの光学ユニットを設け、各光学ユニットの受光結果から各点の座標を検出する構成を採用してもよい。
【0047】
以上のように本実施形態にかかる座標入力装置20は、同時に複数箇所がタッチされた場合に各タッチ点の座標を検出することができる構成であるため、ユーザがペンマウス等を所持してタッチした際に、ペンマウスによるタッチのみならず、手の甲などのタッチが検出され、それぞれのタッチ点の座標が求められることになる。このように複数の座標が同時に検出された場合、演算部104は、ユーザの利用する手が右手であるか左手であるかを判別するとともに、当該判別結果から複数の座標の中から一の座標を選択する座標選択処理を行う。そして、選択した座標を含む座標データをインターフェース部105を介してPC30に出力する。したがって、本実施形態において、図8に示すように演算部104は、ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段800と、複数の座標が検出された場合に左右判別手段800の判別結果に基づいて複数の検出座標の中から一の座標を選択する選択手段801とを備えた要素である。なお、演算部104によって行われる座標選択処理についての詳細は後述する。
【0048】
PC30は、演算部104からインターフェース部105を介して供給された座標データに基づいて、予め当該座標データに示される座標に設定されている機能などを実行する。ここでいう機能とは、例えば、ドラッグの軌跡を特定の色や太さの線で描画する文字描画、図形描画、罫線描画をいう。このような機能の実行によって作成された画像データは、R,G,Bで表される形式でRAMに展開されてPC30から表示装置10に出力される。表示装置10は、当該画像データに対応する画像を表示画面101に表示する。
【0049】
B.実施形態の動作
次に、上記構成の座標入力装置20の動作について説明する。
【0050】
図9に示すように、当該座標入力装置20を備えたタッチパネル付きディスプレイ装置1に電源が投入されると、演算部104は利用手ステータスを右手にセットする(ステップSa1)。ここで、利用手ステータスとは、ユーザが当該ディスプレイ装置1でタッチパネル機能を利用する際に、いずれの手で表示画面のタッチをするかが設定されたものであり、本実施形態では電源投入後にはデフォルト状態として右手が設定されるようになっている。なお、デフォルト状態として左手を設定するようにしてもよいし、電源オフ直前に設定されている内容をEEPROM(Electrically Erasable Programmable)等に記憶しておき、電源投入後にEEPROMに記憶されている手(左または右)を利用ステータスとして設定するようにしてもよい。
【0051】
利用手ステータスを設定すると、演算部104は表示画面101に利用する手をいずれに設定するかの入力をユーザに促す画像を表示させるべく画像データを表示装置10に出力する(ステップSa2)。これにより、表示画面101には図10に示すような利用する手を選択設定するための設定用画像が表示される。同図に示すように、この設定用画像は、表示画面101の右上側の端部に表示され、左手の領域702および右手の領域701が表示されている。そして、現在設定されている手がいずれであるかがユーザにわかるように左手領域および右手領域の表示方法が異なるようになっている。電源投入後は、上記のように利用手ステータスが右手に設定されており、本実施形態では図示のように選択されている手(右手)の領域が網掛け表示されるようになっている。
【0052】
次に演算部104は、光学ユニット102A,102Bから供給される受光データに基づいて座標を検出する処理を行う(ステップSa3)。この後、演算部104は、検出された座標が複数であるか否かを判別し(ステップSa4)、複数である場合には座標選択処理を行う(ステップSa5)。
【0053】
図11に示すように、座標選択処理では、演算部104は利用手ステータスが右手に設定されているか否かを判別する(ステップSb1)。そして、利用手ステータスが右手に設定されている場合には(判別Yes)、複数検出された座標の中から、表示画面101に対向する側から見て最も左側(図1の左側)に位置するx座標を有する座標を選択する(ステップSb2)。一方、利用手ステータスが左手に設定されている場合には(判別No)、複数検出された座標の中から、表示画面101に対向する側から見て最も右側(図1の右側)に位置するx座標を有する座標を選択する(ステップSb3)。
【0054】
図9に戻り、ステップSa4の判別において、検出された座標1つである場合には、座標選択処理は行われずステップSa6に進む。
【0055】
次に演算部104は、検出された座標、または座標選択処理によって選択された座標が利用手ステータスの左手への変更をタッチする領域内のものであるか否かを判別する(ステップSa6)。すなわち、ユーザが指やペンマウス等でタッチした点が図10に示す左手の領域702であるか否かを判別し、かかる領域内である場合には利用手ステータスを左手に設定した後(ステップSa7)、次の受光データに基づく座標検出を行う(ステップSa3)。
【0056】
一方、座標が左手への変更をタッチする領域内のものではない場合(ステップSa6の判別No)、その座標が利用手ステータスの右手への変更をタッチする領域701内のものであるか否かを判別し(ステップSa8)、かかる領域内である場合には利用手ステータスを右手に設定した後(ステップSa9)、次の受光データに基づく座標検出を行う(ステップSa3)。
【0057】
また、座標が右手への変更をタッチする領域内のものではない場合(ステップSa8の判別No)、この座標は、右手および左手への変更をタッチする領域内のものでなく当該座標入力装置20内で利用するものではないため、当該座標を含む座標データをインターフェース部105を介してPC30に出力する(ステップSa10)。このようにしてPC30に出力された座標データが、PC30において描画処理等に利用される。
【0058】
以上が座標入力装置20の演算部104によって行われる処理動作の詳細であり、本実施形態では、ユーザが表示画面101上をペンマウス等でタッチすることで、当該タッチ位置に応じた処理、例えばタッチ位置の移動奇跡に応じた描画処理等がなされる。
【0059】
このようにユーザがタッチした位置の移動軌跡に応じて描画処理等を行う際には、通常ユーザは利き腕にペンマウス等を鉛筆等と同様に所持し、鉛筆等で紙に絵や文字を描く際と同じようにペンマウスを操作することになる。この操作をユーザが行っている際、ペンマウスの先端部分が表示画面101にタッチするだけでなく、利用する手の甲が表示画面101にタッチしてしまうことがある。かかる場合において従来の座標入力装置では、このように同時に2箇所以上のタッチがなされた場合、いずれのタッチ点座標データを描画処理等のPC30による処理に用いるべきかを判別できず、ユーザが意図した操作に応じた処理、つまりペンマウスのタッチ位置に応じた処理ができなかった。
【0060】
これに対し、本実施形態にかかる座標入力装置20は、同時に複数箇所のタッチが検出された際にも、ユーザが利用している手が右手であるか左手であるかを判別し、右手である場合には表示画面101と対向する側から見て最も左側の座標を有する座標データを選択し、左手である場合には最も右側の座標を有する座標データを選択しPC30に出力し、描画処理等に用いられるようになっている。このようにすることで、上記のような手の甲がタッチしたために同時に複数箇所のタッチが検出された場合であっても、以下のような理由でユーザの意図したタッチ位置に応じた座標データを取得することができる。
【0061】
図12左側に示すように、利き腕が右のユーザが右手でペンマウス80を所持して文字や絵を表示画面101上に描く場合、同図右側に示すようにペンマウス80の先端部81の表示画面101上へのタッチ(タッチ部分401)が検出されるだけではなく、ユーザの右手の甲の表示画面101上へのタッチ(タッチ部分402)が検出されてしまうことがある。一方、図13右側に示すように、ユーザが左手でペンマウス80を所持して文字や絵を描く場合にも、同図左側に示すようにペンマウス80の先端部81のタッチ(タッチ部分501)が検出されるのみならず、左手の甲もタッチ(タッチ部分502)も検出されてしまうことがある。
【0062】
図12に示すように、利用する手が右手の場合、ペンマウス80の先端部81がタッチする部分401と、利用する手の甲がタッチする部分402との位置関係は、表示画面101と対向する側から見てタッチ部分401がタッチ部分402よりも左側に位置しているという関係である。一方、利用する手が左手の場合、図13に示すように、タッチ部分501がタッチ部分502よりも右側に位置しているという関係である。
【0063】
また、ペンマウス80を所持する際の角度等は人によって異なるが、図14に示すようにペンマウス80を比較的水平に近い状態で所持するユーザであっても、右手を利用する場合にはタッチ部分401はタッチ部分402よりも左側に位置する。さらに、図15に示すようにペンマウス80を比較的垂直方向に沿った状態で所持するユーザであっても、右手で利用する場合にはタッチ部分401よりもタッチ部分402よりも左側に位置することになる。
【0064】
このようにペンマウス80の所持の仕方が一般的なものである場合には、右手を利用した場合タッチ部分401がタッチ部分402よりも左側に位置し、左手を利用した場合、タッチ部分501がタッチ部分502よりも右側に位置することになる。本実施形態にかかる座標入力装置20は、かかるペンマウス80の先端部81のタッチ部分(401,501)と、手の甲のタッチ部分(402,502)との位置関係に着目し、図16に示すように利用する手が右手である場合には最も左側に位置するタッチ部分401の座標データを選択し、利用する手が左手である場合には最も右側に位置するタッチ部分501の座標データを選択することで、ペンマウス80の先端部81のタッチ点の座標データをより正確にPC30に出力することができるのである。そして、このように正確に選択されたペンマウス80の先端部81のタッチ点の座標データを用いてPC30が描画処理等を行うことで、ユーザが意図した操作が描画処理等に反映されるのである。
【0065】
C.変形例
なお、本発明は、上述した実施形態に限定されるものではなく、以下に例示するような種々の変形が可能である。
【0066】
(変形例1)
上述した実施形態では、表示画面101の右上側に表示された設定用画面(図10参照)を参照し、ユーザが右手領域701、左手領域702のいずれかをタッチするといったタッチ内容に基づき、ユーザが利用する手が右手であるか左手であるかが座標入力装置20(利用手ステータス)に設定され、かかる設定にしたがって座標選択を行うようにしていたが、これ以外の手法によってユーザのタッチ内容に基づいて利用する手が右手であるか、左手であるかを判別し、座標選択を行うようにしてもよい。
【0067】
例えば、タッチパネル付きのディスプレイ装置1では、表示画面101上をタッチするための専用のペンマウス等が用いられていることが多い。当該タッチパネル付きディスプレイ装置1に用のペンマウス等が用意されている場合には、そのペンマウスに利用する手が右手であるか左手であるかをユーザが入力するためのスイッチ等を設けるようにしてもよい。そして、このスイッチ操作状態をペンマウスから有線または無線通信を利用して座標入力装置20に供給することで、上記実施形態と同様、座標入力装置20においてユーザが利用する手が右手であるか左手であるかを判別することができ、その判別結果に基づく座標選択を行うことができる。
【0068】
(変形例2)
また、上述した実施形態では、ユーザが利用する手を設定するための設定用画面(図10参照)に、右手領域701と左手領域702の両者が表示され、現在の設定を網掛け表示するようにしていたが、現在設定されていない方の手の領域のみを表示し(利用手ステータスが右手の場合は、左手領域のみを表示する)、かかる表示領域内の点がタッチされた際に現在の設定と異なる手に利用手ステータスを切り替えるような構成としてもよい。
【0069】
(変形例3)
また、上述した実施形態では、ユーザが利用する手が「右手」であるか、「左手」であるかのタッチを行い、当該タッチに基づいて利用する手を判別するようになっていたが、他の情報に基づいて座標入力装置20が利用する手が左手であるか右手であるかを判別するようにしてもよい。
【0070】
例えば、ユーザがユーザ名を座標入力装置20に入力することで、座標入力装置20が入力されたユーザ名に基づいて利用手ステータスを右手または左手に自動的に設定するような構成としてもよい。かかる場合においては、座標入力装置20にユーザ名情報と利用する手の情報を対応つけて記憶した図17に示すような内容の変換テーブルを設けておき、ユーザ名が入力された場合に当該変換テーブルを参照することで、利用する手が左手であるか右手であるかを判別することができる。
【0071】
また、座標入力装置20が利用する手を判別する他の方法としては、ユーザのバイオメトリクス情報を取得し、取得したバイオメトリクス情報に基づいて利用する手を判別するようにしてもよい。
【0072】
(変形例4)
また、上述した実施形態では、光学ユニット102A、102B等を備えた光学式の座標検出機能を備えた座標入力装置20に本発明を適用した場合について説明したが、本発明は光学式の座標検出機能を備えたものに限らず、同時に表示画面101上の複数箇所がタッチされた場合にその複数箇所のタッチ座標を検出することができる他の方式の座標検出機能を備えた座標入力装置に適用することもできる。
【0073】
(変形例5)
また、上述した実施形態では、演算部104が内蔵するメモリに格納されたプログラムにしたがって動作することにより、上述した座標検出および座標選択とった処理(図9、図11参照)が実行されるようになっていたが、演算部104に代えて上記のような処理を行う専用ハードウェア回路を構築し、当該ハードウェア回路が上記処理を実行するようにしてもよい。
【0074】
また、コンピュータに上記処理を実行させるためのプログラムをインターネット等の通信回線を介してユーザに提供するようにしてもよいし、当該プログラムをCD−ROM(Compact Disc)などのコンピュータ読み取り可能な記録媒体に記録してユーザに提供するようにしてもよい。
【0075】
【発明の効果】
以上説明したように、請求項1にかかる発明によれば、複数箇所の座標が検出された場合であっても、ユーザが意図したタッチ点の座標をより正確に取得することができるという効果を奏する。
【0076】
また、請求項2にかかる発明によれば、利用する手の判別が正確であり、この結果、より正確にユーザが意図したタッチ位置の座標を選択することができるという効果を奏する。
【0077】
また、請求項3にかかる発明によれば、ペンマウス等を所持してタッチに利用するユーザが意図したタッチ点の座標をより正確に選択することができるという効果を奏する。
【0078】
また、請求項4にかかる発明によれば、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができるという効果を奏する。
【0079】
また、請求項5にかかる発明によれば、ユーザの意図したタッチ点の座標をより正確に取得することができるという効果を奏する。
【0080】
また、請求項6にかかる発明によれば、コンピュータを請求項1にかかる発明と同様の構成を有する装置として機能させることができ、検出された座標が複数ある場合であってもユーザの意図したタッチ点の座標をより正確に選択することができるという効果を奏する。
【0081】
また、請求項7にかかる発明によれば、コンピュータを請求項3にかかる発明と同様の構成を有する装置として機能させることができ、より正確にユーザが意図したタッチ点の座標を選択することができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施形態にかかる座標入力装置を備えたディスプレイ装置の構成を示すブロック図である。
【図2】前記座標入力装置の構成要素である光学ユニットの構成を示す図である。
【図3】前記座標入力装置の構成要素である光学ユニットの構成を示す図である。
【図4】前記座標入力装置による表示画面上のタッチ点座標を検出する手法を説明するための図である。
【図5】前記座標入力装置による、複数のタッチ点座標を検出する手法を説明するための図である。
【図6】前記光学ユニットの受光部から出力される受光波形の一例を示す図である。
【図7】前記座標入力装置による、複数のタッチ点座標を検出する手法を説明するための図である。
【図8】前記座標入力装置の演算部の機能構成を示すブロック図である。
【図9】前記座標入力装置によって実行される処理の手順を示すフローチャートである。
【図10】前記座標入力装置の処理により、前記ディスプレイ装置の表示画面に表示される設定用画面を示す図である。
【図11】前記座標入力装置によって実行される座標選択処理の手順を示すフローチャートである。
【図12】右手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分を説明するための図である。
【図13】左手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分を説明するための図である。
【図14】右手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分の他の例を説明するための図である。
【図15】右手でペンマウスを操作した際に、前記座標入力装置によって検出される前記表示画面上のタッチ部分のその他の例を説明するための図である。
【図16】右手でペンマウスを操作した場合、および左手でペンマウスを操作した場合に、前記座標入力装置によって選択される座標を説明するための図である。
【図17】前記座標入力装置の変形例において、ユーザが利用する手が右手であるか左手であるかを判別するために用いられる変換テーブルの内容を示す図である。
【符号の説明】
1 ディスプレイ装置
10 表示装置
20 座標入力装置
30 PC
80 ペンマウス
81 先端部
101 表示画面
102A,102B 光学ユニット
103A,103B,103C 反射部材
104 演算部
105 インターフェース部
201 光源
202 レンズ
203 レンズ
204 受光部
205 ハーフミラー
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a coordinate input device for inputting coordinates of a touched point on a display screen, a display device, a coordinate input method, and a program.
[0002]
[Prior art]
Conventionally, a display device with a touch panel in which a display device such as a PDP (Plasma Display Panel) or a liquid crystal rear projector and a coordinate input device are integrated has been used. As a coordinate input device mounted on such a display device with a touch panel, light is emitted from light sources provided at a plurality of different positions toward a display screen, and a reflection member that reflects the irradiated light recursively. Receives reflected light. Then, there is a method in which the presence or absence of a shielding object is detected from the result of the light reception, and the coordinates of the shielding object are acquired (for example, see Patent Document 1).
[0003]
Display device with a touch panel having a coordinate input device as described above, a user can input any command to the device side by pointing on the display screen with a finger or a pen mouse, etc. There is an example in which a character or a figure corresponding to the moving miracle can be drawn on a display screen by being moved.
[0004]
[Patent Document 1]
JP 2001-14091 A
[0005]
[Problems to be solved by the invention]
However, in a display device with a touch panel having a function of performing drawing according to the movement locus of the position pointed as described above, when the user performs a work of writing with a pen mouse or a finger on the display screen, the back of the hand is displayed on the display screen. When it touches, the coordinate input device detects not only the touch point of the fingertip and the pen mouse but also the contact point of the back of the hand. That is, coordinates of a plurality of places may be detected at the same time.
[0006]
In such a case, the conventional coordinate input device cannot determine which of the plurality of detected coordinates is the one touched by the fingertip or the point touched by the pen mouse, and as a result, There has been a problem that a figure or the like different from a moving miracle of a finger or the like is drawn or drawing is not performed at all.
[0007]
The present invention has been made in view of the above, even when the coordinates of a plurality of locations are detected, a coordinate input device, a display device, a coordinate input device that can more accurately obtain the coordinates of the touch point intended by the user, It is an object to obtain a coordinate input method and a program.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 is a coordinate detecting means for detecting coordinates on a display screen touched by an object, and a hand used by a user to touch the display screen is a right hand. Left and right discriminating means for discriminating whether the hand is a left hand, and when a plurality of coordinates are detected by the coordinate detecting means, based on the discrimination result of the left and right discriminating means, a plurality of coordinates detected by the coordinate detecting means And a selecting means for selecting one of the coordinates.
[0009]
According to the first aspect of the present invention, when a plurality of touch points on the display screen are detected by the coordinate detecting means, the coordinates are selected by the selecting means based on whether the hand used by the user is the left hand or the right hand. Is done. When the user touches the display screen, coordinates other than the touch point intended by the user may be detected by touching the display screen with another part such as the back of the hand used for the touch. Generally, there is a tendency that the positional relationship between the intended touch point and the touch point of another part differs depending on the hand to be used. In the present invention, attention is paid to the positional relationship between a plurality of touch points that fluctuate depending on the hand to be used, and one coordinate is selected depending on whether the hand to be used is the right hand or the left hand. The coordinates can be obtained more accurately.
[0010]
According to a second aspect of the present invention, in the configuration of the first aspect of the present invention, the right / left hand used by the left / right discriminating means for the user to touch the display screen based on the touch content of the user is the right hand. Or left hand.
[0011]
According to the second aspect of the present invention, since the left / right discriminating means discriminates the hand used by the user based on the content of the touch from the user, the discrimination of the hand used is accurate, and as a result, more accurate The coordinates of the touch position intended by the user can be selected.
[0012]
According to a third aspect of the present invention, in the configuration of the first or second aspect, when the determination result by the left / right determination means is a right hand, the selection means detects the right hand. From among a plurality of coordinates, when the display screen is viewed from the position facing the display screen, the leftmost coordinate is selected, and when the result of determination by the left / right determination means is a left hand, the coordinates are selected. When the display screen is viewed from a position facing the display screen, the rightmost coordinate is selected from the plurality of coordinates detected by the detection means.
[0013]
When the user has a pen mouse or the like to operate, when using the right hand, touches the display screen. The tip of the pen mouse touches the display screen. It is generally located on the left side, and when using the left hand, the tip of the pen mouse is generally located on the right side. In view of such a tendency, according to the invention according to claim 3, the selecting means selects the leftmost coordinate when the hand to be used is the right hand, and selects the rightmost coordinate when the hand to be used is the left hand. Is selected, the coordinates of the touch point intended by the user can be selected more accurately.
[0014]
The invention according to claim 4 is a display device including a display device having a display screen and a coordinate input device, wherein the coordinate input device detects coordinates on the display screen touched by an object. Coordinate detection means, left and right determination means for determining whether the hand used by the user to touch the display screen is right hand or left hand, and when a plurality of coordinates are detected by the coordinate detection means, Selecting means for selecting one coordinate from a plurality of coordinates detected by the coordinate detecting means based on a result of the determination by the left / right determining means.
[0015]
Since the invention according to claim 4 has the same configuration as the invention according to claim 1, even if there are a plurality of detected coordinates, the coordinates of the touch point intended by the user can be selected more accurately. can do.
[0016]
According to a fifth aspect of the present invention, there is provided a coordinate detecting step for detecting coordinates of a plurality of points on a display screen touched by an object, wherein a hand used by the user to touch the display screen is a right hand or a left hand. A left / right determination step of determining whether or not a plurality of coordinates are detected by the coordinate detection means, based on a determination result of the left / right determination step, from among the plurality of coordinates detected by the coordinate detection step. And a selecting step of selecting one coordinate.
[0017]
According to the invention according to claim 5, when a plurality of touch points on the display screen are detected, the coordinates are selected by the selecting means based on whether the user's hand is the left hand or the right hand. Then, in the present invention, the user focuses on the positional relationship that fluctuates depending on the hand used for touch, and selects one coordinate depending on whether the hand to be used is the right hand or the left hand. Can be obtained more accurately.
[0018]
The invention according to claim 6 is a coordinate detecting means for detecting the coordinates of the computer on the display screen touched by the object, and the hand used by the user to touch the display screen is the right hand or the left hand. Left and right discriminating means for judging whether there are a plurality of coordinates on the display screen designated by an object, selecting means for selecting one coordinate from the plurality of coordinates based on the discrimination result of the left and right discriminating means Function as
[0019]
According to the invention according to claim 6, the computer can function as a device having the same configuration as that of the invention according to claim 1, and even if there are a plurality of detected coordinates, the touch point intended by the user is intended. Can be selected more accurately.
[0020]
According to a seventh aspect of the present invention, in the configuration according to the sixth aspect, when the determination result by the left / right determination unit is a right hand, the selection unit selects the display from among the plurality of coordinates. When the display screen is viewed from the position opposing the screen, the leftmost coordinate is selected, and when the result of the determination by the left / right determination means is a left hand, the display screen is selected from the plurality of coordinates. When the display screen is viewed from a position opposing to, the rightmost coordinate is selected.
[0021]
According to the invention according to claim 7, the computer can function as a device having a configuration similar to that of the invention according to claim 3, and the coordinates of the touch point intended by the user can be more accurately selected.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Preferred embodiments of a coordinate input device, a display device, a coordinate input method, and a program according to the present invention will be described in detail below with reference to the accompanying drawings.
[0023]
A. Configuration of the embodiment
FIG. 1 is a block diagram illustrating a configuration of a display device with a touch panel function including a coordinate input device according to an embodiment of the present invention. As shown in FIG. 1, the display device 1 includes a display device 10 and a coordinate input device 20, and each of the display device 10 and the coordinate input device 20 is connected to a PC (Personal Computer) 30. .
[0024]
The display device 10 has a display screen 101 such as a PDP, an LCD (Liquid Crystal Display), a CRT (Cathode-Ray Tube), and displays an image corresponding to image data supplied from the PC 30 on the display screen 101. I do.
[0025]
The coordinate input device 20 includes optical units 102A and 102B, reflecting members 103A, 103B and 103C, a computing unit 104, and an interface unit 105.
[0026]
The three reflecting members 103A, 103B, and 103C are light-reflecting reflecting members that reflect incident light at an angle of 180 degrees, and are arranged so as to cover three sides of the rectangular display screen 101. More specifically, the reflecting members 103A and 103C are members having substantially the same length as the length of the display screen in the vertical direction, and the respective longitudinal directions are along the left end and the right end of the display screen 101 in the drawing. Are located. The reflecting member 103B is a member having substantially the same length as the horizontal direction of the display screen 101, and is arranged so that the longitudinal direction is along the upper end of the display screen. By arranging the respective reflection members in this manner, the upper side and the left and right sides of the display screen 101 are covered.
[0027]
The optical units 102A and 102B are respectively disposed on the left and right ends of the lower end of the display screen 101, that is, on the lower ends of the reflection members 103A and 103C. The optical units 102A and 102B radiate fan-shaped light from the lower side of the display screen 101 that is not covered with the reflection members 103A, 103B and 103C toward the display screen side. The area is illuminated. Further, the optical units 102A and 102B receive the reflected light of the irradiated light from the reflection members 103A, 103B and 103C, and output the light reception result to the calculation unit 104.
[0028]
Here, FIG. 2 is a diagram of the optical unit 102A viewed from a side facing the display screen 101, and FIG. 3 is a diagram of the optical unit 102A viewed from a direction along the display screen 101. As shown in FIGS. 2 and 3, the optical unit 102A includes a light source 201, a lens 202, a lens 203, a light receiving unit 204, and a half mirror 205.
[0029]
The light source 201 has a semiconductor laser and emits laser light (indicated by a dashed line in the figure). The lens 202 is a lens that diffuses the laser light emitted from the light source 201, and the laser light that has passed through the lens 202 is diffused in a fan shape when viewed from the side facing the display screen 101 (see FIG. 2).
[0030]
The half mirror 205 allows the light diffused by the lens 202 as described above to pass to the display screen 101 side (see FIG. 1), which is the upper side of the figure, while the light is reflected from the reflection members 103A, 103B, and 103C. The reflected light is reflected toward the light receiving section 204 (the right side in FIG. 3). This reflected light passes through the lens 203 and is received by the light receiving unit 204.
[0031]
The light receiving unit 204 includes a CCD (Charge Coupled Device) or the like, receives light reflected from the reflecting members 103A, 103B, and 103C, and outputs received light data to the calculation unit 104 illustrated in FIG.
[0032]
The above is the configuration of the optical unit 102A. By using such a unit in which the light source 201 and the light receiving unit 204 are integrated, adjustment of the positional relationship (distance, center alignment, etc.) of each component can be performed for each unit. Adjustment work is facilitated. Since the configuration of the optical unit 102B is the same as that of the optical unit 102A, a detailed description of the configuration is omitted.
[0033]
The arithmetic unit 104 has a memory such as a CPU (Central Processing Unit), a ROM (Read Only Memory) or a RAM (Random Access Memory), and performs processing such as coordinate detection and coordinate selection according to a program stored in the memory. I do. The coordinate detection process performed by the arithmetic unit 104 is a process of detecting the coordinates of a touch point on a display screen by an object such as a user's finger or a pen mouse based on light reception data supplied from the optical units 102A and 102B. . The coordinate detection by the arithmetic unit 104 will be described with reference to FIG.
[0034]
As shown in the figure, light is emitted from the optical units 102A and 102B to the entire area of the display screen 101, and the light is reflected by the reflecting members 103A, 103B and 103C, and the reflected light is reflected by the optical units 102A and 102B. Received. Therefore, as shown in the figure, when a certain point is touched by a user's finger or the like, light passing through that part is blocked, and is not received by the optical units 102A and 102B. On the other hand, when no object such as a finger is present on the display screen 101, the light is not blocked as described above, and the optical units 102A and 102B receive all the reflected light. The light receiving data is supplied to the arithmetic unit 104, and the coordinates of the touch point 301 are obtained as follows based on the light receiving data.
[0035]
First, the arithmetic unit 104 calculates the optical units 102A and 102B from the optical axis of the light that should be received at the position where the light receiving unit 204 of the optical units 102A and 102B did not receive the light out of the fan-shaped light. The angles (light shielding angles) θL and θR of the straight lines passing through the light receiving points and the light passing points and the touch point 301 are determined. Then, the calculation unit 104 obtains the coordinates (x, y) of the touch point 301 using the angles θL and θR as follows.
x = W × tan θR / (tan θL + tan θR)
y = W × tan θL × tan θR / (tan θL + tan θR)
[0036]
The arithmetic unit 104 outputs the coordinate data including the coordinates obtained as described above to the PC 30 via the interface unit 105. In the present embodiment, the presence or absence of a touch on the display screen 101 is detected based on the received light data of the optical units 102A and 102B. However, even if the touch reaches the position close to the display screen 101 (the position blocking the irradiation light of the optical units 102A and 102B), it is detected that there is a touch. This includes things that are in contact.
[0037]
Further, the coordinate input device 20 according to the present embodiment is configured to be able to detect the coordinates of each touch point even when a plurality of locations on the display screen 101 are touched simultaneously. The detection of the coordinates of a plurality of places touched simultaneously as described above will be described with reference to FIGS.
[0038]
As shown in FIG. 5, when a plurality of points (two points in the illustrated example) are touched at the same time, the reflected light is blocked at two places. An area (dark area) exists. In such a case, when the coordinates are obtained by the above equation, the coordinates A, A ′, B, and B ′ are derived even though the original touch points are two places. It is unknown whether is the coordinate of the touch point.
[0039]
Therefore, the arithmetic unit 104 extracts two coordinates corresponding to a real touch point from the four coordinates as described below using the technique disclosed in Japanese Patent Application Laid-Open No. 2001-318759.
[0040]
First, the arithmetic unit 104 calculates the four coordinates obtained as described above, the peak point (dark point) where the amount of light received by the light receiving unit 204 of each of the optical units 102A and 102B is small, and the predetermined light receiving point (for example, , The center size of the light receiving element) and the image size b of the light receiving unit 204, the diameter size D of the light shielding object at each of the four coordinate points is calculated.
[0041]
The arithmetic unit 104 sets the point having the smallest voltage value among the light receiving waveforms of the light receiving unit 204 shown in FIG. 6 as a peak point, and determines the peak point X and the distance a from the central pixel of the light receiving element which is a predetermined light receiving point. And the imaging size b of the area where the voltage value is smaller than the predetermined threshold value. If two points are touched at the same time, there must be two dark points for each light receiving unit 204, and therefore, the distance a and the image size b are acquired for each.
[0042]
Then, based on the acquired distance a and the imaging size b, the diameter D of the shield corresponding to each dark spot is calculated as follows.
[0043]
As shown in FIG. 7, the distance a between the peak point X and the center pixel is an angle α formed by a perpendicular line from the center of the light receiving unit 204 and a line connecting the center point C of the shield and the peak point X. And the angle α is calculated by the following equation.
α = tan -1 (A / f)
Here, f is the focal length of the lens 203.
[0044]
Next, a distance L from the center point C of the shield to the lens 203 is obtained from the coordinates.
The image magnification of the object image of the shielding object received by the light receiving unit 204 depends on the distance L, and the following relationship is established.
L: 1 = D: b
Here, 1 is the distance from the lens 203 to the peak point X. From this relationship, the diameter D of the shield can be calculated by the following equation.
D = (b / l) · L
= (B / (a / sinα)) · L
= (B / (a / sin (tan) -1 (A / f))) · L
The arithmetic unit 104 can derive the diameter size D of the shield by substituting the distance a and the imaging size b obtained in the above equation.
[0045]
As described above, the arithmetic unit 104 obtains the diameter size D of the shield at four coordinates for each light reception result of each light receiving unit 204, and calculates the diameter obtained from the light reception result of the light receiving unit 204 of the optical unit 102A for each coordinate. The size D is compared with the diameter size D obtained from the light receiving result of the light receiving unit 204 of the optical unit 102B. Then, the calculation unit 104 detects, as the coordinates of the touch point, two coordinates that the compared diameter size D approximates from among the four coordinates.
[0046]
The configuration for detecting each touch coordinate when two points are touched at the same time is not limited to the configuration using the above-described method. For example, three optical units are provided, and each point is determined based on the light reception result of each optical unit. A configuration for detecting coordinates may be employed.
[0047]
As described above, the coordinate input device 20 according to the present embodiment is configured to be able to detect the coordinates of each touch point when a plurality of places are touched at the same time. At this time, not only the touch by the pen mouse but also the touch of the back of the hand is detected, and the coordinates of each touch point are obtained. When a plurality of coordinates are simultaneously detected in this way, the arithmetic unit 104 determines whether the user's hand is the right hand or the left hand, and, based on the determination result, one coordinate from among the plurality of coordinates. Is performed to select coordinates. The coordinate data including the selected coordinates is output to the PC 30 via the interface unit 105. Therefore, in the present embodiment, as shown in FIG. 8, the calculation unit 104 includes a left and right determination unit 800 that determines whether the hand used by the user to touch the display screen is a right hand or a left hand. And selecting means 801 for selecting one coordinate from among a plurality of detected coordinates based on the result of determination by the left / right determining means 800 when the coordinates of. Are detected. The details of the coordinate selection process performed by the arithmetic unit 104 will be described later.
[0048]
The PC 30 executes a function set in advance to the coordinates indicated by the coordinate data based on the coordinate data supplied from the calculation unit 104 via the interface unit 105. The functions referred to here include, for example, character drawing, figure drawing, and ruled line drawing in which the trajectory of the drag is drawn with a line of a specific color and thickness. The image data created by executing such a function is expanded in the RAM in a format represented by R, G, and B and output from the PC 30 to the display device 10. The display device 10 displays an image corresponding to the image data on the display screen 101.
[0049]
B. Operation of the embodiment
Next, the operation of the coordinate input device 20 having the above configuration will be described.
[0050]
As shown in FIG. 9, when the display device 1 with the touch panel provided with the coordinate input device 20 is powered on, the arithmetic unit 104 sets the user status to the right hand (step Sa1). Here, the user status is a status in which the user touches the display screen when the user uses the touch panel function on the display device 1. In this embodiment, the user status is set after the power is turned on. Is set to the right hand as the default state. The left hand may be set as the default state, or the contents set immediately before the power is turned off may be stored in an EEPROM (Electrically Erasable Programmable) or the like, and the hand ( Left or right) may be set as the usage status.
[0051]
When the user status is set, the calculation unit 104 outputs image data to the display device 10 to display an image prompting the user to input which hand to use on the display screen 101 (step Sa2). As a result, a setting image for selecting and setting a hand to be used as shown in FIG. 10 is displayed on the display screen 101. As shown in the figure, the setting image is displayed at the upper right end of the display screen 101, and a left hand region 702 and a right hand region 701 are displayed. The left hand area and the right hand area are displayed in different ways so that the user can know which hand is currently set. After the power is turned on, the user status is set to the right hand as described above, and in this embodiment, the area of the selected hand (right hand) is shaded as shown in the figure.
[0052]
Next, the arithmetic unit 104 performs a process of detecting coordinates based on the received light data supplied from the optical units 102A and 102B (step Sa3). Thereafter, the arithmetic unit 104 determines whether or not the detected coordinates are plural (step Sa4), and if there are plural detected coordinates, performs a coordinate selection process (step Sa5).
[0053]
As shown in FIG. 11, in the coordinate selection process, the calculation unit 104 determines whether the user status is set to the right hand (step Sb1). When the user status is set to the right hand (determination Yes), the coordinate is located at the leftmost position (the left side in FIG. 1) when viewed from the side facing the display screen 101 among the plurality of detected coordinates. A coordinate having an x coordinate is selected (step Sb2). On the other hand, when the user status is set to the left hand (determination No), the coordinate is located on the rightmost side (the right side in FIG. 1) when viewed from the side facing the display screen 101 among the plurality of detected coordinates. A coordinate having an x coordinate is selected (step Sb3).
[0054]
Returning to FIG. 9, if it is determined in step Sa4 that there is only one detected coordinate, the flow proceeds to step Sa6 without performing the coordinate selection processing.
[0055]
Next, the arithmetic unit 104 determines whether or not the detected coordinates or the coordinates selected by the coordinate selection processing are within the area where the change of the user status to the left hand is touched (step Sa6). That is, it is determined whether or not the point touched by the user with a finger or a pen mouse is the left hand area 702 shown in FIG. 10, and if it is within such an area, the user's hand status is set to the left hand (step Sa7), coordinate detection is performed based on the next received light data (step Sa3).
[0056]
On the other hand, if the coordinates are not in the area where the change to the left hand is touched (No in step Sa6), it is determined whether or not the coordinates are in the area 701 where the change of the user status is touched to the right hand. Is determined (step Sa8), and if it is within such an area, the user status is set to the right hand (step Sa9), and then coordinate detection based on the next received light data is performed (step Sa3).
[0057]
On the other hand, when the coordinates are not within the area where the change to the right hand is touched (No in step Sa8), the coordinates are not within the area where the change to the right hand and the left hand are touched, and the coordinate input device 20 is not used. Therefore, the coordinate data including the coordinates is output to the PC 30 via the interface unit 105 (step Sa10). The coordinate data output to the PC 30 in this manner is used in the PC 30 for drawing processing and the like.
[0058]
The above is the details of the processing operation performed by the calculation unit 104 of the coordinate input device 20. In this embodiment, when the user touches the display screen 101 with a pen mouse or the like, a process corresponding to the touched position, for example, A drawing process or the like according to the miracle of the movement of the touch position is performed.
[0059]
When performing a drawing process or the like in accordance with the movement trajectory of the position touched by the user in this way, the user usually carries a pen mouse or the like on the dominant arm in the same manner as a pencil or the like, and draws a picture or character on paper with a pencil or the like You will operate the pen mouse in the same way. When the user performs this operation, not only the tip of the pen mouse touches the display screen 101 but also the back of the hand used may touch the display screen 101. In such a case, the conventional coordinate input device cannot determine which touch point coordinate data should be used for processing by the PC 30 such as drawing processing when two or more touches are made at the same time, and the The processing corresponding to the operation performed, that is, the processing corresponding to the touch position of the pen mouse cannot be performed.
[0060]
On the other hand, the coordinate input device 20 according to the present embodiment also determines whether the user is using the right hand or the left hand even when a plurality of touches are detected at the same time. In some cases, the coordinate data having the leftmost coordinate as viewed from the side facing the display screen 101 is selected, and in the case of the left hand, the coordinate data having the rightmost coordinate is selected and output to the PC 30, and the drawing processing is performed. And so on. By doing so, even when a plurality of touches are detected at the same time due to the touch of the back of the hand as described above, the coordinate data corresponding to the touch position intended by the user is acquired for the following reason. can do.
[0061]
As shown on the left side of FIG. 12, when a user with a dominant arm has a pen mouse 80 with his right hand and draws characters and pictures on the display screen 101, as shown on the right side of FIG. In addition to detecting a touch on the display screen 101 (touch portion 401), a touch (touch portion 402) of the back of the user's right hand on the display screen 101 may be detected. On the other hand, as shown on the right side of FIG. 13, even when the user holds the pen mouse 80 with his left hand and draws a character or a picture, the user touches the tip portion 81 of the pen mouse 80 (touch portion 501) as shown on the left side of FIG. ) May be detected, as well as the back of the left hand and the touch (the touch portion 502) may be detected.
[0062]
As shown in FIG. 12, when the hand to be used is the right hand, the positional relationship between the portion 401 touched by the tip portion 81 of the pen mouse 80 and the portion 402 touched by the back of the hand is determined by the side facing the display screen 101. The relationship is that the touch portion 401 is located on the left side of the touch portion 402 when viewed from above. On the other hand, when the hand to be used is the left hand, as shown in FIG. 13, the relationship is such that the touch part 501 is located on the right side of the touch part 502.
[0063]
In addition, although the angle at which the pen mouse 80 is held varies from person to person, as shown in FIG. 14, even if the user holds the pen mouse 80 in a relatively horizontal state, when using the right hand, The touch portion 401 is located on the left side of the touch portion 402. Further, as shown in FIG. 15, even if the user holds the pen mouse 80 in a relatively vertical state, the pen mouse 80 is located on the left side of the touch part 402 with respect to the touch part 401 when used with the right hand. Will be.
[0064]
As described above, when the holding method of the pen mouse 80 is general, the touch part 401 is located on the left side of the touch part 402 when the right hand is used, and the touch part 501 is used when the left hand is used. It will be located on the right side of the touch part 502. The coordinate input device 20 according to the present embodiment focuses on the positional relationship between the touch portions (401, 501) of the tip portion 81 of the pen mouse 80 and the touch portions (402, 502) of the back of the hand, and is shown in FIG. When the hand to be used is the right hand, the coordinate data of the touch part 401 located on the leftmost side is selected, and when the hand to be used is the left hand, the coordinate data of the touch part 501 located on the rightmost side is selected. By doing so, the coordinate data of the touch point of the tip portion 81 of the pen mouse 80 can be output to the PC 30 more accurately. When the PC 30 performs the drawing process or the like using the coordinate data of the touch point of the tip portion 81 of the pen mouse 80 that is accurately selected as described above, the operation intended by the user is reflected in the drawing process or the like. is there.
[0065]
C. Modified example
Note that the present invention is not limited to the above-described embodiment, and various modifications as exemplified below are possible.
[0066]
(Modification 1)
In the above-described embodiment, the user refers to the setting screen (see FIG. 10) displayed on the upper right side of the display screen 101, and based on the touch content that the user touches either the right hand area 701 or the left hand area 702, Is set in the coordinate input device 20 (user status) to determine whether the hand to be used is the right hand or the left hand, and the coordinate selection is performed according to the setting. , It may be determined whether the hand to be used is the right hand or the left hand, and the coordinates may be selected.
[0067]
For example, in the display device 1 with a touch panel, a dedicated pen mouse or the like for touching the display screen 101 is often used. When a pen mouse or the like for the touch panel-equipped display device 1 is provided, a switch or the like for the user to input whether the hand used for the pen mouse is the right hand or the left hand is provided. You may. By supplying this switch operation state from the pen mouse to the coordinate input device 20 using wired or wireless communication, the hand used by the user in the coordinate input device 20 is the right hand or the left hand as in the above-described embodiment. Can be determined, and coordinate selection can be performed based on the determination result.
[0068]
(Modification 2)
Further, in the above-described embodiment, both the right hand area 701 and the left hand area 702 are displayed on the setting screen (see FIG. 10) for setting the hand used by the user, and the current setting is shaded. Was displayed, but only the area of the hand that is not currently set is displayed (if the user status is right hand, only the left hand area is displayed). When a point in the display area is touched, The user status may be switched to a hand different from the setting of the user.
[0069]
(Modification 3)
Further, in the above-described embodiment, the user makes a touch whether the hand to be used is the “right hand” or the “left hand”, and the hand to be used is determined based on the touch. Whether the hand used by the coordinate input device 20 is a left hand or a right hand may be determined based on other information.
[0070]
For example, the user may input a user name to the coordinate input device 20, and the coordinate input device 20 may automatically set the user status to the right hand or the left hand based on the input user name. In such a case, the coordinate input device 20 is provided with a conversion table having contents as shown in FIG. 17 in which user name information and hand information to be used are stored in association with each other. By referring to the table, it is possible to determine whether the hand to be used is the left hand or the right hand.
[0071]
Further, as another method of determining the hand used by the coordinate input device 20, the biometric information of the user may be acquired, and the hand to be used may be determined based on the acquired biometric information.
[0072]
(Modification 4)
In the above-described embodiment, the case where the present invention is applied to the coordinate input device 20 having the optical coordinate detection function including the optical units 102A and 102B has been described. The present invention is not limited to a device having a function, and is applicable to a coordinate input device having a coordinate detection function of another method capable of detecting touch coordinates of a plurality of positions when a plurality of positions on the display screen 101 are simultaneously touched. You can also.
[0073]
(Modification 5)
Further, in the above-described embodiment, the above-described processing of coordinate detection and coordinate selection (see FIGS. 9 and 11) is performed by operating according to the program stored in the memory included in the arithmetic unit 104. However, a dedicated hardware circuit that performs the above-described processing may be constructed instead of the arithmetic unit 104, and the hardware circuit may execute the above-described processing.
[0074]
Further, a program for causing a computer to execute the above processing may be provided to a user via a communication line such as the Internet, or the program may be provided on a computer-readable recording medium such as a CD-ROM (Compact Disc). And may be provided to the user.
[0075]
【The invention's effect】
As described above, according to the first aspect of the present invention, even when coordinates at a plurality of locations are detected, it is possible to more accurately acquire the coordinates of the touch point intended by the user. Play.
[0076]
Further, according to the second aspect of the present invention, it is possible to accurately determine the hand to be used, and as a result, it is possible to more accurately select the coordinates of the touch position intended by the user.
[0077]
Further, according to the third aspect of the invention, there is an effect that the coordinates of the touch point intended by the user who uses the touch while holding the pen mouse or the like can be more accurately selected.
[0078]
Further, according to the invention according to claim 4, there is an effect that even when there are a plurality of detected coordinates, the coordinates of the touch point intended by the user can be selected more accurately.
[0079]
Further, according to the invention according to claim 5, there is an effect that the coordinates of the touch point intended by the user can be acquired more accurately.
[0080]
According to the invention of claim 6, the computer can function as a device having the same configuration as that of the invention of claim 1, and even if there are a plurality of detected coordinates, the user's intention is obtained. There is an effect that the coordinates of the touch point can be selected more accurately.
[0081]
According to the seventh aspect of the present invention, the computer can function as a device having the same configuration as the third aspect of the present invention, and the coordinates of the touch point intended by the user can be selected more accurately. It has the effect of being able to do it.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a display device including a coordinate input device according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of an optical unit which is a component of the coordinate input device.
FIG. 3 is a diagram showing a configuration of an optical unit which is a component of the coordinate input device.
FIG. 4 is a view for explaining a method of detecting touch point coordinates on a display screen by the coordinate input device.
FIG. 5 is a diagram for explaining a method of detecting a plurality of touch point coordinates by the coordinate input device.
FIG. 6 is a diagram showing an example of a light receiving waveform output from a light receiving section of the optical unit.
FIG. 7 is a diagram for explaining a method of detecting a plurality of touch point coordinates by the coordinate input device.
FIG. 8 is a block diagram illustrating a functional configuration of a calculation unit of the coordinate input device.
FIG. 9 is a flowchart showing a procedure of a process executed by the coordinate input device.
FIG. 10 is a diagram showing a setting screen displayed on a display screen of the display device by processing of the coordinate input device.
FIG. 11 is a flowchart showing a procedure of a coordinate selection process executed by the coordinate input device.
FIG. 12 is a diagram for explaining a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a right hand.
FIG. 13 is a diagram for explaining a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a left hand.
FIG. 14 is a diagram for explaining another example of a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a right hand.
FIG. 15 is a diagram for explaining another example of a touch portion on the display screen detected by the coordinate input device when a pen mouse is operated with a right hand.
FIG. 16 is a diagram for explaining coordinates selected by the coordinate input device when the pen mouse is operated with the right hand and when the pen mouse is operated with the left hand.
FIG. 17 is a diagram showing the contents of a conversion table used to determine whether a hand used by a user is a right hand or a left hand in a modification of the coordinate input device.
[Explanation of symbols]
1 Display device
10 Display device
20 Coordinate input device
30 PC
80 pen mouse
81 Tip
101 Display screen
102A, 102B optical unit
103A, 103B, 103C Reflecting member
104 arithmetic unit
105 Interface section
201 light source
202 lens
203 lens
204 light receiving section
205 half mirror

Claims (7)

物体によってタッチされた表示画面上の座標を検出する座標検出手段と、
ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、
前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段と
を備えたことを特徴とする座標入力装置。
Coordinate detection means for detecting coordinates on the display screen touched by the object,
Left and right discriminating means for discriminating whether a hand used by the user to touch the display screen is a right hand or a left hand;
And selecting means for selecting one coordinate from the plurality of coordinates detected by the coordinate detecting means based on a result of the determination by the left / right determining means when the plurality of coordinates are detected by the coordinate detecting means. A coordinate input device.
前記左右判別手段は、ユーザのタッチ内容に基づいてユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate according to claim 1, wherein the left / right determination unit determines whether a hand used by the user to touch the display screen is a right hand or a left hand based on the touch content of the user. Input device.
前記選択手段は、
前記左右判別手段による判別結果が右手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、
前記左右判別手段による判別結果が左手である場合には、前記座標検出手段によって検出された複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する
ことを特徴とする請求項1または2に記載の座標入力装置。
The selecting means,
When the result of the determination by the left / right determination means is a right hand, the leftmost position when the display screen is viewed from a position facing the display screen from among a plurality of coordinates detected by the coordinate detection means. Select the coordinates to
When the result of the discrimination by the left and right discriminating means is a left hand, the position on the rightmost side when the display screen is viewed from a position facing the display screen from among a plurality of coordinates detected by the coordinate detecting means. The coordinate input device according to claim 1, wherein coordinates to be selected are selected.
表示画面を有する表示装置と、座標入力装置とを備えたディスプレイ装置であって、
前記座標入力装置は、
物体によってタッチされた表示画面上の座標を検出する座標検出手段と、
ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段と、
前記座標検出手段によって複数の座標が検出された場合、前記左右判別手段の判別結果に基づいて、前記座標検出手段によって検出された複数の座標の中から一の座標を選択する選択手段とを備える
ことを特徴とするディスプレイ装置。
A display device having a display screen, and a display device including a coordinate input device,
The coordinate input device,
Coordinate detection means for detecting coordinates on the display screen touched by the object,
Left and right discriminating means for discriminating whether a hand used by the user to touch the display screen is a right hand or a left hand;
And selecting means for selecting one coordinate from among the plurality of coordinates detected by the coordinate detecting means based on a result of the determination by the left / right determining means when the plurality of coordinates are detected by the coordinate detecting means. A display device characterized by the above-mentioned.
物体によってタッチされた表示画面上の座標を検出する座標検出ステップと、
ユーザが前記表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別ステップと、
前記座標検出手段によって複数の座標が検出された場合、前記左右判別ステップの判別結果に基づいて、前記座標検出ステップによって検出された複数の座標の中から一の座標を選択する選択ステップと
を具備することを特徴とする座標入力方法。
A coordinate detection step of detecting coordinates on the display screen touched by the object,
A left / right determination step of determining whether the hand used by the user to touch the display screen is a right hand or a left hand;
A selecting step of selecting one coordinate from the plurality of coordinates detected by the coordinate detecting step based on a determination result of the left / right determining step when the plurality of coordinates is detected by the coordinate detecting means. A coordinate input method.
コンピュータを、
物体によってタッチされた表示画面上の座標を検出する座標検出手段、
ユーザが表示画面をタッチするために利用する手が右手であるか左手であるかを判別する左右判別手段、
物体によって指示された前記表示画面上の座標が複数ある場合、前記左右判別手段の判別結果に基づいて、前記複数の座標の中から一の座標を選択する選択手段、
として機能させるためのプログラム。
Computer
Coordinate detecting means for detecting coordinates on the display screen touched by the object,
Left and right discriminating means for discriminating whether a hand used by the user to touch the display screen is a right hand or a left hand;
When there are a plurality of coordinates on the display screen instructed by an object, a selection unit that selects one coordinate from the plurality of coordinates based on a determination result of the left / right determination unit,
Program to function as
前記選択手段は、
前記左右判別手段による判別結果が右手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も左側に位置する座標を選択し、
前記左右判別手段による判別結果が左手である場合には、前記複数の座標の中から、前記表示画面に対向する位置から当該表示画面を見たときに最も右側に位置する座標を選択する
ことを特徴とする請求項6に記載のプログラム。
The selecting means,
When the determination result by the left and right determination unit is a right hand, from the plurality of coordinates, select the coordinates located on the leftmost side when viewing the display screen from a position facing the display screen,
When the result of the determination by the left / right determination means is a left hand, it is preferable to select, from the plurality of coordinates, the coordinate located on the rightmost side when viewing the display screen from a position facing the display screen. The program according to claim 6, wherein:
JP2002354009A 2002-12-05 2002-12-05 Coordinate input device, display device and method and program for inputting coordinate Pending JP2004185495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002354009A JP2004185495A (en) 2002-12-05 2002-12-05 Coordinate input device, display device and method and program for inputting coordinate

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002354009A JP2004185495A (en) 2002-12-05 2002-12-05 Coordinate input device, display device and method and program for inputting coordinate

Publications (1)

Publication Number Publication Date
JP2004185495A true JP2004185495A (en) 2004-07-02

Family

ID=32755154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002354009A Pending JP2004185495A (en) 2002-12-05 2002-12-05 Coordinate input device, display device and method and program for inputting coordinate

Country Status (1)

Country Link
JP (1) JP2004185495A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213135A (en) * 2006-02-07 2007-08-23 Ricoh Elemex Corp Coordinate detection device and coordinate detection method
JP2008262509A (en) * 2007-04-13 2008-10-30 Oki Electric Ind Co Ltd Input device
JP2009048238A (en) * 2007-08-13 2009-03-05 Canon Inc Coordinate input device, coordinate input method
JP2011134069A (en) * 2009-12-24 2011-07-07 Panasonic Corp Touch panel device
JP2012027944A (en) * 2011-10-07 2012-02-09 Oki Electric Ind Co Ltd Automatic transaction device
JP2012128883A (en) * 2012-03-22 2012-07-05 Oki Electric Ind Co Ltd Automatic transaction device
JP2013030025A (en) * 2011-07-28 2013-02-07 Toshiba Corp Information input device, control method for information input device, and control program for information input device
JP2013206349A (en) * 2012-03-29 2013-10-07 Brother Ind Ltd Touch panel control device, touch panel control method, control program, and computer-readable medium storing control program therein
JP2013232044A (en) * 2012-04-27 2013-11-14 Toshiba Corp Electronic apparatus, control method, and program
US9024914B2 (en) 2010-01-07 2015-05-05 Samsung Display Co., Ltd. Method of detecting touch position, touch position detecting apparatus for performing the method and display apparatus having the touch position detecting apparatus
JP2023066676A (en) * 2021-10-29 2023-05-16 株式会社日立製作所 Elevator device, elevator control method, and elevator control panel

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213135A (en) * 2006-02-07 2007-08-23 Ricoh Elemex Corp Coordinate detection device and coordinate detection method
JP2008262509A (en) * 2007-04-13 2008-10-30 Oki Electric Ind Co Ltd Input device
JP2009048238A (en) * 2007-08-13 2009-03-05 Canon Inc Coordinate input device, coordinate input method
JP2011134069A (en) * 2009-12-24 2011-07-07 Panasonic Corp Touch panel device
US9024914B2 (en) 2010-01-07 2015-05-05 Samsung Display Co., Ltd. Method of detecting touch position, touch position detecting apparatus for performing the method and display apparatus having the touch position detecting apparatus
JP2013030025A (en) * 2011-07-28 2013-02-07 Toshiba Corp Information input device, control method for information input device, and control program for information input device
JP2012027944A (en) * 2011-10-07 2012-02-09 Oki Electric Ind Co Ltd Automatic transaction device
JP2012128883A (en) * 2012-03-22 2012-07-05 Oki Electric Ind Co Ltd Automatic transaction device
JP2013206349A (en) * 2012-03-29 2013-10-07 Brother Ind Ltd Touch panel control device, touch panel control method, control program, and computer-readable medium storing control program therein
JP2013232044A (en) * 2012-04-27 2013-11-14 Toshiba Corp Electronic apparatus, control method, and program
US9001063B2 (en) 2012-04-27 2015-04-07 Kabushiki Kaisha Toshiba Electronic apparatus, touch input control method, and storage medium
JP2023066676A (en) * 2021-10-29 2023-05-16 株式会社日立製作所 Elevator device, elevator control method, and elevator control panel
JP7709362B2 (en) 2021-10-29 2025-07-16 株式会社日立製作所 Elevator device, elevator control method, and elevator control panel

Similar Documents

Publication Publication Date Title
US7176904B2 (en) Information input/output apparatus, information input/output control method, and computer product
JP3934846B2 (en) Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium
JP4627781B2 (en) Coordinate input / detection device and electronic blackboard system
JP2000105671A (en) Coordinate input / detection device and electronic blackboard system
JP2003162370A (en) Image processing apparatus, display device with touch panel, image processing method, and program for causing computer to execute image processing method
JP4342572B2 (en) Information input / output device, information input / output control method, recording medium, and program
JP2004185495A (en) Coordinate input device, display device and method and program for inputting coordinate
JP2001282457A (en) Coordinate input system, control method of coordinate input system, and computer-readable recording medium storing program for causing a computer to execute the method
JP2016122345A (en) Image projection apparatus and interactive input / output system.
JP2004199181A (en) Coordinate input device, display device, coordinate input method and program
JP2003241872A (en) Drawing processing method, program according to the method, and storage medium storing the program
JP4335468B2 (en) Information input / output system, information control method, program, and recording medium
JP4560224B2 (en) Information input device, information input / output system, program, and storage medium
JP6036856B2 (en) Electronic control apparatus, control method, and control program
JP2003186616A (en) Information input device, information input / output system, position coordinate output method, program, and recording medium
JP4615178B2 (en) Information input / output system, program, and storage medium
JP2002342015A (en) Information input device and information input / output system
JP2007206935A (en) Coordinate detection system, coordinate detection device, coordinate detection method and touch pen
JP4060040B2 (en) Information input device, information input system, input information identification method, coordinate input / detection device, honey / tome identification method, and storage medium
JP4603183B2 (en) Information input / output system, display control method, storage medium, and program
JP4256555B2 (en) Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium
JP2001084104A (en) Coordinate input / detection device and information storage medium
JP4001705B2 (en) Coordinate input / detection device and electronic blackboard system
JP4414106B2 (en) Information input device, information input / output system, program, and storage medium
JP2001084108A (en) Coordinate input / detection / display device