JP5904440B2 - 操作入力装置、操作入力方法およびプログラム - Google Patents
操作入力装置、操作入力方法およびプログラム Download PDFInfo
- Publication number
- JP5904440B2 JP5904440B2 JP2012096643A JP2012096643A JP5904440B2 JP 5904440 B2 JP5904440 B2 JP 5904440B2 JP 2012096643 A JP2012096643 A JP 2012096643A JP 2012096643 A JP2012096643 A JP 2012096643A JP 5904440 B2 JP5904440 B2 JP 5904440B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- contact
- proximity
- region
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000001514 detection method Methods 0.000 claims description 304
- 210000003811 finger Anatomy 0.000 claims description 154
- 210000003813 thumb Anatomy 0.000 claims description 88
- 230000035945 sensitivity Effects 0.000 claims description 82
- 238000013459 approach Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 description 20
- 210000001015 abdomen Anatomy 0.000 description 16
- 230000004044 response Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
具体例として、親指を手首側から指先側へ突き出すように動かして操作した場合、操作をはじめたときには、親指の先がタッチパッドに接触している。この状態から親指が指先側に進んでいくのに応じて、親指の先が上側に反っていくことでタッチパッドの上から離れ、親指の腹の部分がタッチパッドに接触するようになる。そして、さらに親指が指先側に進んでいくのに応じて、親指の先の反りがさらに大きくなって、タッチパッドと接触する親指の腹の部分は、さらに親指の根本のほう近づくような状態となる。
しかし、特許文献1に記載の入力装置は、所定値による補正パラメータを用いた演算によってタッチパッドと親指の接触点の移動量を算出している。これは、タッチパッドの指示座標を推定により求めているということを意味している。このように推定により指示座標を求める構成では、タッチパッドに対する指の接触状態についてのユーザごとの相違に対応して、そのユーザの意図に応じた座標を適切に指示することが難しい場合がある。
[携帯端末装置の構成]
図1は、第1の実施形態における携帯端末装置100の構成例を示している。
この図に示す携帯端末装置100は、操作入力部101、制御部102、表示部103および通信部104を備える。
なお、タッチパッド110の検出方式として、例えば1つには、センサと指との間に発生する静電容量を検出する静電容量方式が知られている。しかし、本実施形態におけるタッチパッドの検出方式については、特に限定されるものではない。
また、本実施形態におけるタッチパッド110は、表示部103と組み合わせられることで、表示部103に表示された画像に対する操作が可能なタッチパッドの一部とされてもよいし、表示部103とは独立した操作部位として携帯端末装置100に設けられてもよい。
タッチパッドインターフェース120は、タッチパッド110から出力される検出信号に基づいて、タッチパッド110において指が接触している接触領域と、タッチパッド110において前記指が接触せずに近接している近接領域とを検出する。また、タッチパッドインターフェース120は、タッチパッド110の感度を変更設定する。これにより、タッチパッド110は、接触領域のみに応じた検出信号を出力する標準感度と、接触領域と近接領域とのそれぞれに応じた検出信号を出力する高感度との間で感度の切り替えが行われる。
図2は、操作入力部101の構成例を示している。図1にも示したように、操作入力部101は、タッチパッド110、タッチパッドインターフェース120および指示座標出力部130を備える。
そのうえで、タッチパッドインターフェース120は、領域検出部121と感度設定部122を備える。また、指示座標出力部130は、領域統合部131、判定部132、判定結果記憶部133および指示座標決定部134を備える。
標準感度が設定されている場合、領域検出部121は、タッチパッド110の検出信号に基づいて接触領域のみを検出する。高感度が設定されている場合、領域検出部121は、タッチパッド110の検出信号に基づいて接触領域と近接領域とを検出する。
また、タッチパッド110のセンサの時間的分解能を標準よりも低下させることによっても、タッチパッド110に標準より高い感度を設定できる。つまり、タッチパッド110のセンサのスキャン周波数を標準よりも低く設定する。これにより、タッチパッド110は、接触領域だけではなく近接領域に応じた検出信号も出力するように動作する。
また、領域統合部131は、タッチパッド110について標準感度が設定されている場合には、タッチパッド110から出力された接触領域の座標を示す情報のみによる標準検出領域情報を検出結果として出力する。
この判定にあたり、判定部132は、例えば接触領域の面積が閾値以上であるか否かについて判定する。
次に、図3および図4を参照して、図2の構成の操作入力部101による指示座標の決定手法について説明する。
まず、図3(a)、図3(b)、図3(c)は、それぞれ、タッチパッド110を人差し指200−fにより操作している状態を側面から示すとともに、このときにタッチパッド110が検出している領域を示している。人差し指200−fは、図3(a)、図3(b)、図3(c)の順で、タッチパッド110上をその指先側の方向(紙面の右方向)に移動している。
図3のように人差し指200−fにより操作を行っている場合、常に人差し指の指先がタッチパッド110と接触している。したがって、人差し指の場合、ユーザがタッチパッド110上で指示しているものと意図している位置(座標)は、実際にタッチパッド110にて検出されている接触領域310にほぼ含まれているような状態である。したがって、人差し指の場合には、特に近接領域の情報は利用せずに、接触領域310の情報に基づいて指示座標を決定してよい。
図5は、標準感度が設定されたタッチパッド110が出力する検出信号の値(検出値)とタッチパッド110の面に対する指の距離との関係を示している。
この図に示すように、標準感度が設定されたタッチパッド110では、その面に対する指の距離が「0」のときに「1.0」の検出値が得られるが、その距離が「0」より大きくなると、検出値は「0」となる。つまり、標準感度が設定されたタッチパッド110は、その面に指が接触している状態においてのみ、最大値の検出信号を出力するように動作する。
これらの図から理解されるように、標準感度が設定されたタッチパッド110は、指200が接触している接触領域310の座標のみに対応して、最大値である「1.0」の検出信号を出力し、指200が接触していない接触領域310以外の領域の座標については「0」の値の検出信号を出力する。
この図に示すように、高感度が設定されたタッチパッド110では、その面に対する指の距離が「0」となる接触領域310については、「1.0」(最大値)の検出信号を出力する。この点については、標準感度が設定されている場合と同様である。
そのうえで、高感度が設定されている場合、タッチパッド110は、指とタッチパッドの面との距離が「0」より大きい状態であっても、或る距離(例えば10mm程度)までは「0」より大きい値の検出信号を出力する。つまり、高感度が設定されたタッチパッド110は、そのパッド面に指が接触していなくとも、パッド面から一定以内の距離に在る指の部分に対応する検出信号を出力する。つまり、タッチパッド110は、そのパッド面に近接している状態の指の部分を検出することができる。
これらの図から理解されるように、タッチパッド110は、指200が接触している接触領域310の座標に対応しては、「1.0」(最大値)の検出信号を出力する。そのうえで、高感度が設定されている場合、タッチパッド110は、パッド面に対して接触せずに近接している状態の指200の部分に対応する近接領域320の座標に対応する検出信号も出力する。この近接領域320の座標に対応する検出信号は、「1.0」未満、かつ、「0」より大きい値の範囲でパッド面からの距離に応じた値の信号である。
まず、第1例において、タッチパッド110の座標については、例えば図9(a)、(b)(c)の各図に示すように、左上の頂点に対応する位置の座標を原点O(0,0)として、横方向がx軸、縦方向がy軸として設定される。
この場合にも、指示座標330は、近接領域320における指先側の先端部の位置に対応して決定される。
つまり、第1例の指示座標決定手法は、ユーザがタッチパッド110に対して指先を上側に向けて操作していさえすれば、指先の先端に対応する位置を指示座標330として決定することができる。
このように決定された指示座標330は、指の最も先端からは若干ずれているものの、ほぼ近接領域320の先端として扱って問題がない程度の位置となっている。
この図10(a)に示される統合検出領域300(接触領域310および近接領域320)を対象として、指示座標決定部134は、第2例の指示座標定手法により次のように指示座標を決定する。
まず、指示座標決定部134は、接触領域310の中心座標311と、近接領域320の中心座標321を求めたうえで、これら中心座標311と中心座標321を通過する直線Lcを設定する。
そして、指示座標決定部134は、接触領域310と近接領域320から成る統合検出領域300の外縁と直線Lcとの交点の座標を1つ求める。なお、図10(a)における統合検出領域300は、親指の根本側に対応する近接領域320の部分がタッチパッド110の左下側にまで延びている状態となっている。このように検出領域がタッチパッド110の端部にまで到達している部分については、指示座標決定部134は統合検出領域300の外縁と見なさない。したがって、この場合の指示座標決定部134は、統合検出領域300の外縁と直線Lcとの交点の座標として指先側の近接領域320の先端部分を求める。そして、指示座標決定部134は、このように求めた座標を指示座標330として決定する。
このように、第2例としての指示座標決定手法決定された指示座標330も、親指の指先に対応する位置に対応している。
また、この図10に示す手法も、接触領域310の中心座標311と近接領域320の中心座標321とを通過する直線Lcと、統合検出領域300の外縁との交点を求めるという処理であるために、処理負担は軽い。
第3例の指示座標決定手法に対応する指示座標決定部134は、統合検出領域情報が示す接触領域310と近接領域320から成る統合検出領域300に対応する座標群を最小二乗法により近似することにより、図11(a)および図11(b)に示すように近似直線Lnを求める。そして、指示座標決定部134は、統合検出領域300の外縁と近似直線Lnとの交点を指示座標330として決定する。
この第3例の指示座標決定手法であれば、第2例の指示座標決定手法と同様に、タッチパッド110に対する指の方向に係わらず指示座標330を適切に設定できる。そのうえで、第3例では、最小二乗法を用いることで十分に高い精度で指示座標330を求めることができる。
また、指示座標決定部134は、図11(d)のように、統合検出領域300の外縁の座標を最小二乗法に用いてもよい。
図11(c)と図11(d)とを比較した場合、図11(c)のほうがより高い精度で指示座標330を求めることができる。また、図11(d)のほうが、指示座標330を求めるための演算に要する処理負荷は軽い。
そのうえで、本実施形態においては、指先の位置に対応する座標を推定により求めるのではなく、近接領域320として検出された情報を直接利用して求めている。これにより、指の大きさやタッチパッド110に対する指の当て方などの個人差に係わらず、個々のユーザの指の指先の位置に対応した座標を特定し、適切な指示座標を決定することができる。
しかし、ユーザによっては、自身が意図している指示座標は、指の先端よりも若干指の腹に近い側である場合もある。
図12を参照して、指示座標決定部134が指の先端よりも指の腹に近い側の位置を指示座標330として決定するための手法例について説明する。
まず、指示座標決定部134は、例えば図9〜図11のいずれかの手法により、指の先端部分に対応する指示座標330を決定する。ただし、この場合の指示座標330は暫定的なものである。
一例として、指示座標決定部134は、接触領域310の中心座標311を(xc,yc)、指の先端部分に対応する指示座標330を(xt,yt)、加重係数をpとして、下記の加重平均のための演算によって正規の指示座標330−1である(x、y)を算出する。
(x,y)=(xt×(1−p)+xc×p,yt×(1−p)+yc×p)
なお、加重係数pは、例えばユーザの操作に応じて任意に設定できる。この加重係数pの設定により、ユーザは、自分の好みや操作感覚に合わせて、指示座標を指の根本側に移動させる度合いを変更することが可能となり、操作感覚が向上する。
上記の判定に際して、判定部132は、予め定めた固定値としての閾値thを使用してもよい。しかし、指の大きさには個人差があり、これに伴って、親指がタッチパッド110に接触する面積と、人差し指がタッチパッド110に接触する面積との関係もユーザごとに異なることになる。
上記のように個人差が存在することを考慮すると、閾値thは、タッチパッド110に対する親指と人差し指の接触面積の関係の個人差に応じて、ユーザごとに適切な値が設定されるようにすることが好ましい。
これに応じて、タッチパッド110は、マーク400において検出した接触領域の検出信号を出力し、領域検出部121は、その接触領域の座標範囲を検出する。判定部132は、領域検出部121が検出した親指対応の接触領域の座標範囲の情報を保持する。
一例として、判定部132は、親指対応の接触領域の座標範囲を面積Stに変換し、人差し指対応の接触領域の座標範囲を面積Sfに変換する。そして、判定部132は、これら面積St、Sfの平均値を閾値thとして求める。つまり、判定部132は、(th=St+Sf)/2)の演算により閾値thを求める。
図14のフローチャートは、操作入力部101が実行する指示座標決定のための処理手順例を示している。なお、この図に示す処理は、第1の実施形態における最も基本的なものであり、タッチパッド110について固定的に高感度を設定することにより、近接領域320の情報を定常的に利用して指示座標330を決定する。
一方、接触領域310が検出された場合(ステップS104−YES)、領域検出部121は、前述のように、接触領域310とともに近接領域320を検出している。そこで、領域統合部131は、領域検出部121により検出された接触領域310と近接領域320の情報を統合して統合検出領域情報を生成する(ステップS105)。
一方、接触領域310が検出された場合(ステップS205−YES)、判定部132は、検出された接触領域310の面積が閾値th以上であるか否かについて判定する(ステップS206)。
これまでの説明から理解されるように、接触領域310の面積が閾値th以上であるとの判定は、近接領域320を利用すべきとの判定に相当し、接触領域310の面積が閾値th未満であるとの判定は、近接領域320を利用しないとの判定に相当する。
指示座標決定部134は、生成された統合検出領域情報を利用して指示座標330(または指示座標330−1)を決定する(ステップS212)。
指示座標決定部134は、生成された標準検出領域情報を利用して、例えば図3にて説明したように、接触領域310の中心位置を指示座標330として決定する(ステップS217)。
ステップS212またはステップS217の処理を終了した後は、ステップS204に戻る。
なお、図14と図15に示す処理については、例えば、ユーザの設定操作に応じていずれか一方に切り替えが行われるようにしてよい。
[処理手順例]
次に第2の実施形態について説明する。なお、第2の実施形態において、携帯端末装置100と操作入力部101の構成は、図1および図2と同様でよい。
これに対して、第2の実施形態においては、タッチパッド110について固定的に高感度を設定する。そのうえで、操作入力部101は、近接領域320を利用すべきと判定した場合には、接触領域310および近接領域320の情報を利用して指示座標330(または指示座標330−1)を決定する。また、第2の実施形態の操作入力部101は、近接領域320を利用しないと判定した場合には、接触領域310の情報のみを利用して指示座標330(または指示座標330−1)を決定する。
まず、第2の実施形態において、判定部132は、初期判定として、無条件で近接領域を利用すべきと判定する(ステップS301)。また、この判定に応じて、判定部132は、タッチパッド110を高感度に設定するための制御を実行する(ステップS302)。
一方、接触領域310が検出された場合(ステップS304−YES)、判定部132は、検出された接触領域310の面積が閾値th以上であるか否か(近接領域320の情報を利用すべきか否か)について判定する(ステップS305)。
そこで、領域統合部131は、領域検出部121により検出された接触領域310と近接領域320の情報を統合して統合検出領域情報を生成する(ステップS307)。
指示座標決定部134は、生成された統合検出領域情報を利用して指示座標330(または指示座標330−1)を決定する(ステップS308)。
これに応じて、領域統合部131は、接触領域310の情報のみから成る標準検出領域情報を生成する(ステップS310)。
指示座標決定部134は、生成された標準検出領域情報を利用して指示座標330を決定する(ステップS311)。
ステップS308またはステップS311の処理を終了した後は、ステップS303に戻る。
[携帯端末装置の構成]
続いて、第3の実施形態について説明する。
図17は、第3の実施形態における携帯端末装置100の構成例を示している。なお、この図において、図1と同一部分については同一符号を付して説明を省略する。
図17に示す携帯端末装置100において、タッチパッド110は、例えば標準感度が定常的に設定されることで、接触領域310のみに応じた検出信号を出力するように動作する。そのうえで、図17の携帯端末装置100は、操作入力部101において近接領域検出部140をさらに備える。
近接領域検出デバイス141は、近接領域320を検出する。一例として、近接領域検出デバイス141は、指によって反射する光または赤外線を検出することによりタッチパッド110のパッド面に近接した指を検出する光センサを採用することができる。具体的なものの1つとして、光センサを内蔵する液晶表示デバイスが知られているが、このようなデバイスを近接領域検出デバイス141として使用できる。
また、近接領域検出デバイス141には、指によって反射する超音波を検出することによりタッチパッド110のパッド面に近接した指を検出する超音波センサを採用することができる。
図18は、第3の実施形態における操作入力部101の構成例を示している。なお、この図において、図2と同一部分には同一符号を付して説明を書略する。
この図に示す操作入力部101において、タッチパッドインターフェース120は、領域検出部121のみを備える。つまり、第3の実施形態において、タッチパッド110は標準感度が固定的に設定されるため、これに伴って感度設定部122は省略される。また、第3の実施形態における領域検出部121は、標準感度のタッチパッド110から出力される検出信号に基づき、接触領域310のみを検出する。
この場合の指示座標決定部134は、統合検出領域情報が示す接触領域310と近接領域320の座標範囲の情報を利用して、指示座標330(または指示座標330−1)を決定する。
そして、指示座標決定部134は、標準検出領域情報が示す接触領域310の座標範囲の情報を利用して指示座標330を決定する。
図19のフローチャートは、第3の実施形態における操作入力部101が実行する指示座標決定のための処理手順例を示している。
また、判定部132は、ステップS401の判定結果である近接領域非利用を示す判定結果情報を判定結果記憶部133に記憶させる(ステップS403)。
判定結果情報が近接領域利用を示している場合(ステップS405−YES)、デバイス対応近接領域検出部142aの検出動作はオンに設定された状態にある。そこで、デバイス対応近接領域検出部142aは、近接領域検出デバイス141の検出信号を入力して、近接領域320の検出を行う(ステップS406)。
一方、判定結果情報が近接領域非利用を示している場合(ステップS405−NO)、デバイス対応近接領域検出部142aの検出動作はオフに設定された状態にある。したがって、この場合のデバイス対応近接領域検出部142aは、ステップS406をスキップすることにより近接領域320の検出を行わない。
接触領域310が検出されていない場合(ステップS407−NO)、領域検出部121は、ステップS404に戻る。
一方、接触領域310が検出された場合(ステップS407−YES)、判定部132は、検出された接触領域310の面積が閾値th以上であるか否かについて判定する(ステップS408)。
指示座標決定部134は、生成された統合検出領域情報を利用して指示座標330(または指示座標330−1)を決定する(ステップS414)。
指示座標決定部134は、生成された標準検出領域情報を利用して、例えば図3にて説明したように、接触領域310の中心位置を指示座標330として決定する(ステップS419)。
ステップS414またはステップS419の処理を終了した後は、ステップS404に戻る。
図20は、第1の実施形態と第2の実施形態の携帯端末装置100におけるタッチパッド110の配置態様の一例を示している。
図20に示す携帯端末装置100は、例えばスマートフォンなどといわれる携帯電話に情報処理機能が組み合わされた構成のものである。その携帯端末装置100において、タッチパッド110は、図示するように、所定の幅と長さによる長方形の形状とされたうえで、筐体の側面部に設けられる。
ここでは、ユーザは、図21(a)、図21(b)、図21(c)の順にしたがって、親指200−tをタッチパッド110の下から上の方向にスライドさせるように操作している。
まず、図21(a)に示す状態においては、親指200−tの指先から第1関節あたりまでの部位が立った状態となっている。このとき、タッチパッド110は、図のように、親指200−tの指先付近の領域において接触領域310に応じた検出信号を出力する状態となる。
この状態において、タッチパッド110は、パッド面から離れている親指200−tの指先側に対応する近接領域320を検出し、その下側において親指200−tの指の腹の接触している部分に対応する接触領域310を検出する。さらに、この場合にも、タッチパッド110は、接触領域310の下側においてパッド面から離れている親指200−tの根本側に対応する近接領域320を検出する。
この場合、ユーザが親指200−tのスライド操作により意図している指示座標の動きと、実際に検出される指示座標の動きとの間で大きな相違が生じる。特に、図21に示す操作は、ユーザが携帯端末装置100を左手で持った状態で、同じ左手の親指200−tをタッチパッド110上でスライドさせることになる。この場合、左手自体をスライド方向に移動させることができず、親指200−tの関節を曲げ伸ばしすることによりスライド操作を行うことになるため、図21(c)に示すような指先側の反りは生じやすい。
この図に示す携帯端末装置100おけるタッチパッド110は、図20と同様に長方形の形状とされたうえで筐体の側面部に設けられる。そのうえで、矢印Fの方向に沿ってタッチパッド110と並べるように近接領域検出デバイス141が設けられる。
このようにタッチパッド110と近接領域検出デバイス141を設けることにより、タッチパッド110に対する指の動きに対応する近接領域を検出することができる。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
101 操作入力部
102 制御部
103 表示部
104 通信部
110 タッチパッド
120 タッチパッドインターフェース
121 領域検出部
122 感度設定部
130 指示座標出力部
131 領域統合部
132 判定部
133 判定結果記憶部
134 指示座標決定部
140 近接領域検出部
141 近接領域検出デバイス
142 近接領域検出デバイスインターフェース
142a デバイス対応近接領域検出部
Claims (9)
- 指が接触している接触状態と前記指が接触せずに近接している近接状態とに応じた座標の検出信号を出力する座標検出部と、
前記検出信号に基づいて、前記座標検出部において前記指が接触している接触領域と、前記座標検出部において前記指が接触せずに近接している近接領域とを検出する領域検出部と、
検出された前記接触領域と検出された前記近接領域とに基づいて、前記座標検出部上の指により指示される指示座標を決定する指示座標決定部と、
検出された前記接触領域の面積に基づいて、前記指示座標の決定にあたり前記近接領域を利用すべきか否かを判定する判定部とを備え、
前記指示座標決定部は、
前記近接領域を利用すべきと判定された場合には、前記検出された接触領域と前記検出された前記近接領域とに基づいて前記指示座標を決定し、前記近接領域を利用しないと判定された場合には、前記検出された接触領域のみに基づいて前記指示座標を決定する、
ことを特徴とする操作入力装置。 - 前記近接領域を利用すべきと判定された場合には、前記接触状態と前記近接状態とに応じた検出信号を前記座標検出部が出力し、前記近接領域を利用しないと判定された場合には、前記接触状態のみに応じた検出信号を前記座標検出部が出力するように、前記座標検出部の感度を設定する感度設定部をさらに備える、
ことを特徴とする請求項1に記載の操作入力装置。 - 前記指示座標決定部は、
前記近接領域を利用すべきと判定された場合には、前記検出された接触領域と前記検出された前記近接領域とから成る統合検出領域において指先に対応する座標を前記指示座標として決定する、
ことを特徴とする請求項1または2に記載の操作入力装置。 - 前記指示座標決定部は、
前記近接領域を利用しないと判定された場合には、前記検出された接触領域の中心座標を前記指示座標として決定する、
ことを特徴とする請求項1から3のいずれか一項に記載の操作入力装置。 - 前記判定部は、前記近接領域を利用すべきか否かの判定のために前記接触領域の面積と比較する閾値を、前記座標検出部に親指が接触する面積と、前記座標検出部に前記親指以外のうちのいずれかの指が接触する面積とに基づいて設定する、
ことを特徴とする請求項1から4のいずれか一項に記載の操作入力装置。 - 指が接触している接触状態と前記指が接触せずに近接している近接状態とに応じて座標検出部が出力する座標の検出信号に基づいて、前記座標検出部において前記指が接触している接触領域と、前記座標検出部において前記指が接触せずに近接している近接領域とを検出する領域検出ステップと、
検出された前記接触領域と検出された前記近接領域とに基づいて、前記座標検出部上の指により指示される指示座標を決定する指示座標決定ステップと、
検出された前記接触領域の面積に基づいて、前記指示座標の決定にあたり前記近接領域を利用すべきか否かを判定する判定ステップとを備え、
前記指示座標決定ステップは、
前記近接領域を利用すべきと判定された場合には、前記検出された接触領域と前記検出された前記近接領域とに基づいて前記指示座標を決定し、前記近接領域を利用しないと判定された場合には、前記検出された接触領域のみに基づいて前記指示座標を決定する、
ことを特徴とする操作入力方法。 - コンピュータに、
指が接触している接触状態と前記指が接触せずに近接している近接状態とに応じて座標検出部が出力する座標の検出信号に基づいて、前記座標検出部において前記指が接触している接触領域と、前記座標検出部において前記指が接触せずに近接している近接領域とを検出する領域検出ステップ、
検出された前記接触領域の面積に基づいて、前記座標検出部上の指により指示される指示座標の決定にあたり前記近接領域を利用すべきか否かを判定する判定ステップ、
前記近接領域を利用すべきと判定された場合には、前記検出された接触領域と前記検出された前記近接領域とに基づいて前記指示座標を決定し、前記近接領域を利用しないと判定された場合には、前記検出された接触領域のみに基づいて前記指示座標を決定する指示座標決定ステップ、
を実行させるためのプログラム。 - 指が接触している接触状態に応じた座標の検出信号を出力する座標検出部と、
前記検出信号に基づいて、前記座標検出部において前記指が接触している接触領域を検出する領域検出部と、
前記指が接触せずに近接している近接領域を検出する近接領域検出部と、
前記領域検出部により検出された前記接触領域と、前記近接領域検出部により検出された前記近接領域とに基づいて、前記座標検出部上の指により指示される指示座標を決定する指示座標決定部と、
検出された前記接触領域の面積に基づいて、前記指示座標の決定にあたり前記近接領域を利用すべきか否かを判定する判定部とを備え、
前記指示座標決定部は、
前記近接領域を利用すべきと判定された場合には、前記検出された接触領域と前記検出された前記近接領域とに基づいて前記指示座標を決定し、前記近接領域を利用しないと判定された場合には、前記検出された接触領域のみに基づいて前記指示座標を決定する、
ことを特徴とする操作入力装置。 - 指が接触している接触状態に応じて座標検出部が出力する座標の検出信号に基づいて、前記座標検出部において前記指が接触している接触領域を検出する領域検出ステップと、
前記指が接触せずに近接している近接領域を検出する近接領域検出ステップと、
前記領域検出ステップにより検出された前記接触領域と、前記近接領域検出ステップにより検出された前記近接領域とに基づいて、前記座標検出部上の指により指示される指示座標を決定する指示座標決定ステップと、
検出された前記接触領域の面積に基づいて、前記指示座標の決定にあたり前記近接領域を利用すべきか否かを判定する判定ステップとを備え、
前記指示座標決定ステップは、
前記近接領域を利用すべきと判定された場合には、前記検出された接触領域と前記検出された前記近接領域とに基づいて前記指示座標を決定し、前記近接領域を利用しないと判定された場合には、前記検出された接触領域のみに基づいて前記指示座標を決定する、
ことを特徴とする操作入力方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012096643A JP5904440B2 (ja) | 2012-04-20 | 2012-04-20 | 操作入力装置、操作入力方法およびプログラム |
US14/390,795 US9575604B2 (en) | 2012-04-20 | 2013-04-04 | Operation input device, operation input method, and program |
EP13778112.6A EP2840469B1 (en) | 2012-04-20 | 2013-04-04 | Operation input device, operation input method, and program |
PCT/JP2013/060324 WO2013157400A1 (ja) | 2012-04-20 | 2013-04-04 | 操作入力装置、操作入力方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012096643A JP5904440B2 (ja) | 2012-04-20 | 2012-04-20 | 操作入力装置、操作入力方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013225202A JP2013225202A (ja) | 2013-10-31 |
JP5904440B2 true JP5904440B2 (ja) | 2016-04-13 |
Family
ID=49383364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012096643A Active JP5904440B2 (ja) | 2012-04-20 | 2012-04-20 | 操作入力装置、操作入力方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9575604B2 (ja) |
EP (1) | EP2840469B1 (ja) |
JP (1) | JP5904440B2 (ja) |
WO (1) | WO2013157400A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102056316B1 (ko) * | 2013-05-03 | 2020-01-22 | 삼성전자주식회사 | 터치 스크린 동작 방법 및 그 전자 장치 |
KR102159789B1 (ko) * | 2013-10-28 | 2020-09-25 | 삼성전자주식회사 | 전자 장치 및 이의 사용자 제스처 인식방법 |
JP6315443B2 (ja) * | 2014-01-10 | 2018-04-25 | アルパイン株式会社 | 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム |
US20160342280A1 (en) * | 2014-01-28 | 2016-11-24 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP6321387B2 (ja) * | 2014-01-29 | 2018-05-09 | 京セラ株式会社 | 携帯機器、携帯機器のタッチ位置検出方法およびプログラム |
US9983731B2 (en) * | 2014-02-21 | 2018-05-29 | Qualcomm Incorporated | System and method for reducing shadow effects in touch systems |
KR20150104302A (ko) * | 2014-03-05 | 2015-09-15 | 삼성전자주식회사 | 전자 장치의 사용자 입력 검출 방법 및 그 전자 장치 |
JP6324203B2 (ja) | 2014-05-14 | 2018-05-16 | キヤノン株式会社 | 情報処理装置およびその制御方法、プログラム、記録媒体 |
US9619137B2 (en) * | 2015-03-26 | 2017-04-11 | Motorola Mobility Llc | Portable device touchscreen optimization |
JP2016197284A (ja) * | 2015-04-02 | 2016-11-24 | 富士通株式会社 | 電子機器、制御方法および制御プログラム |
TWI592845B (zh) * | 2015-08-28 | 2017-07-21 | 晨星半導體股份有限公司 | 適應性調整觸控閥值的方法與相關控制器 |
WO2018052096A1 (ja) | 2016-09-14 | 2018-03-22 | ソニー株式会社 | センサ、入力装置および電子機器 |
JP6966777B2 (ja) * | 2017-12-06 | 2021-11-17 | 国立大学法人秋田大学 | 入力システム |
DE102020003923B3 (de) * | 2020-06-30 | 2021-11-04 | Daimler Ag | Bedieneinheit mit einer berührungssensitiven Bedienfläche |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2318815C (en) * | 1998-01-26 | 2004-08-10 | Wayne Westerman | Method and apparatus for integrating manual input |
US20030132922A1 (en) | 2002-01-17 | 2003-07-17 | Harald Philipp | Touch screen detection apparatus |
ATE471501T1 (de) * | 2003-02-10 | 2010-07-15 | N trig ltd | Berührungsdetektion für einen digitalisierer |
US9019209B2 (en) * | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
US20070097096A1 (en) * | 2006-03-25 | 2007-05-03 | Outland Research, Llc | Bimodal user interface paradigm for touch screen devices |
JP5324440B2 (ja) * | 2006-07-12 | 2013-10-23 | エヌ−トリグ リミテッド | デジタイザのためのホバリングおよびタッチ検出 |
JP4609557B2 (ja) * | 2008-08-29 | 2011-01-12 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
JP5132604B2 (ja) * | 2009-02-19 | 2013-01-30 | 三菱電機株式会社 | 座標入力装置およびタッチパネル装置 |
JP2010204812A (ja) * | 2009-03-02 | 2010-09-16 | Panasonic Corp | 携帯端末装置及び入力装置 |
JP2011053971A (ja) * | 2009-09-02 | 2011-03-17 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2011134271A (ja) * | 2009-12-25 | 2011-07-07 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP5523191B2 (ja) * | 2010-04-30 | 2014-06-18 | 株式会社ジャパンディスプレイ | タッチ検出機能付き表示装置 |
US8514190B2 (en) * | 2010-10-06 | 2013-08-20 | Sony Corporation | Displays for electronic devices that detect and respond to the contour and/or height profile of user input objects |
JP5656652B2 (ja) * | 2011-01-07 | 2015-01-21 | キヤノン株式会社 | タッチパネル装置およびタッチパネル検出位置補正方法 |
US9389716B2 (en) * | 2011-09-23 | 2016-07-12 | Sony Corporation | Mobile terminal apparatus |
-
2012
- 2012-04-20 JP JP2012096643A patent/JP5904440B2/ja active Active
-
2013
- 2013-04-04 EP EP13778112.6A patent/EP2840469B1/en not_active Not-in-force
- 2013-04-04 US US14/390,795 patent/US9575604B2/en not_active Expired - Fee Related
- 2013-04-04 WO PCT/JP2013/060324 patent/WO2013157400A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2013225202A (ja) | 2013-10-31 |
US9575604B2 (en) | 2017-02-21 |
EP2840469A4 (en) | 2015-12-09 |
WO2013157400A1 (ja) | 2013-10-24 |
EP2840469A1 (en) | 2015-02-25 |
US20150054780A1 (en) | 2015-02-26 |
EP2840469B1 (en) | 2018-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5904440B2 (ja) | 操作入力装置、操作入力方法およびプログラム | |
US8266529B2 (en) | Information processing device and display information editing method of information processing device | |
JP4979600B2 (ja) | 携帯端末装置、及び表示制御方法 | |
JP6000797B2 (ja) | タッチパネル式入力装置、その制御方法、および、プログラム | |
EP2439623B1 (en) | Information processing apparatus including a sensing unit on a side surface and corresponding method | |
JP2010055510A (ja) | 情報処理装置及び情報処理方法 | |
JP5222967B2 (ja) | 携帯端末 | |
US10345912B2 (en) | Control method, control device, display device and electronic device | |
JPWO2009031214A1 (ja) | 携帯端末装置、及び表示制御方法 | |
JP5812015B2 (ja) | 入力装置、入力方法およびプログラム | |
US20170075453A1 (en) | Terminal and terminal control method | |
JP5912929B2 (ja) | 表示装置、処理方法及びプログラム | |
JP2015114773A (ja) | 入力装置、入力判定方法、プログラム | |
JP6000035B2 (ja) | 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体 | |
KR101143276B1 (ko) | 터치 입력의 위치 측정 정확도 향상을 위한 적응형 노이즈 제거 방법 | |
KR20140033726A (ko) | 터치 스크린을 포함한 전자 장치에서 다섯 손가락을 구별하기 위한 방법 및 장치 | |
US20170103732A1 (en) | Sensor based interface adjustment | |
JP5995171B2 (ja) | 電子機器、情報処理方法、及び情報処理プログラム | |
JP6135242B2 (ja) | 端末装置、キー入力方法及びキー入力プログラム | |
US20120206584A1 (en) | Integrated input interface | |
WO2016206438A1 (zh) | 一种触屏控制方法和装置、移动终端 | |
JP2013003601A (ja) | 表示入力装置 | |
JP2017041093A (ja) | 情報端末装置 | |
JP2017157086A (ja) | 表示装置及びその制御方法 | |
JP2013250828A (ja) | 入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5904440 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |