[go: up one dir, main page]

JP5721662B2 - 入力受付方法、入力受付プログラム、及び入力装置 - Google Patents

入力受付方法、入力受付プログラム、及び入力装置 Download PDF

Info

Publication number
JP5721662B2
JP5721662B2 JP2012101657A JP2012101657A JP5721662B2 JP 5721662 B2 JP5721662 B2 JP 5721662B2 JP 2012101657 A JP2012101657 A JP 2012101657A JP 2012101657 A JP2012101657 A JP 2012101657A JP 5721662 B2 JP5721662 B2 JP 5721662B2
Authority
JP
Japan
Prior art keywords
fingers
finger
proximity
touch panel
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012101657A
Other languages
English (en)
Other versions
JP2013228948A (ja
JP2013228948A5 (ja
Inventor
智裕 石原
智裕 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to JP2012101657A priority Critical patent/JP5721662B2/ja
Priority to PCT/JP2013/001800 priority patent/WO2013161171A1/ja
Priority to US14/395,162 priority patent/US9329714B2/en
Publication of JP2013228948A publication Critical patent/JP2013228948A/ja
Publication of JP2013228948A5 publication Critical patent/JP2013228948A5/ja
Application granted granted Critical
Publication of JP5721662B2 publication Critical patent/JP5721662B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、タッチパネルを介して、ユーザの入力操作を受け付ける入力受付方法、入力受付プログラム、及び入力装置に関する。
近年、携帯電話端末等の電子機器においては、ユーザの入力操作を受け付けるための入力デバイスとして、タッチパネルを搭載している場合が多い。この種の電子機器においては、ユーザの直感的な操作を可能にするために、透明なタッチパネルが表示部(例えばLCD(Liquid Crystal Display)又は有機EL(Electroluminescence)ディスプレイ)の画面に重ねた状態で配置されている。従って、画面上の各位置とタッチパネル上の操作位置とを対応付けることができる。つまり、電子機器は、画面上に表示されている所望の操作対象(ボタン又はアイコン等のオブジェクト)を指が直接タッチすることで、対応するオブジェクトを操作するための指示を与えることができる。
また、タッチパネルの技術は年々進化しており、ユーザの入力操作としてタッチ操作を検知するタッチパネルの他に、ユーザの入力操作としてユーザの指の近接を検知するタッチパネルの開発が進んでいる。指の近接を検知するタッチパネルについては、例えば特許文献1の非接触型ユーザ入力装置が知られている。
特許文献1に開示された非接触型ユーザ入力装置は次のように構成されている。即ち、複数の線状の送信電極と、各送信電極に送信用の交流電流を供給する発信器と、各送信電極とは接触しないように配置された複数の線状の受信電極と、受信電極を流れる交流電流を受信する受信器とを含む。送信電極と受信電極との各交差点にはコンデンサが形成され、このコンデンサの静電容量は指先の接近程度に応じて変化する。従って、非接触型ユーザ入力装置は、静電容量の変化を基に、タッチパネルと指との距離を認識できる。
特開2002−342033号公報
特許文献1に開示されたタッチパネルを採用する場合には、ユーザが指を画面に接触させなくても、近接状態にするだけで入力装置は指の位置に反応できる。また、指の位置を表す座標を検知できる。従って、例えば画面上に表示されたポインタ又はカーソルの位置を、画面に近接した指の位置に応じて移動させることが可能である。つまり、ユーザは指を画面に接触させなくても、操作対象のオブジェクト(例えばボタン)の位置までポインタを移動させることができる。
しかしながら、操作対象のオブジェクトの位置までポインタを移動させるだけでは、該当するオブジェクトを操作対象として決定し、そのオブジェクトに対する何らかの処理を実際に行うことはできない。一般的な入力デバイス(例えばマウス)を操作する場合にも、マウスの操作によってポインタを移動した後でマウスのボタンのクリック操作により決定指示を出す必要がある。
マウスを操作する場合のクリック操作と同じような入力をタッチパネルで実現する技術については、例えば次に示すような様々な方法が考えられる。
第1の方法は、タッチパネル以外の箇所に特別なボタンを配置し、このボタンが押された時に決定指示が入力されたものとみなす方法である。第2の方法は、タッチパネルに指が触れたことを検知した場合に、決定指示が入力されたものとみなす方法である。第3の方法は、ポインタが一定時間静止した状態を検知した場合に、決定指示が入力されたものとみなす方法である。
しかし、上述した第1の方法を採用する場合には、特別なボタンをタッチパネルとは別に設ける必要があるため、入力装置の構造が複雑になると共に、片手で操作することが困難となる等の操作上の問題が生じる可能性がある。
次に、上述した第2の方法を採用する場合には、指の近接状態を検知可能なタッチパネルを採用している場合でも、決定指示の度に指が画面に触れることになるため、指紋の汚れが画面に付着する。また、指がタッチパネルに触れる際に、操作対象として表示されているオブジェクトが指の影に隠れて見づらくなるため、指とオブジェクトとの位置合わせが難しくなる。
上述した第3の方法を採用する場合には、決定指示を入力するまでに一定時間待つ必要がある。従って、入力操作を受け付ける際の応答性に難点がある。また、ユーザが決定する意思がない場合でも、指を静止させた状態が一定時間継続したことによってポインタの静止状態が検知されると決定指示とみなされるため、誤操作が発生する可能性がある。
本発明は、上述した従来の事情に鑑みてなされたものであり、タッチパネルに対するユーザの入力操作に応じて、画面上に表示されたオブジェクトの直感的な決定処理を簡易に実現する入力装置、入力支援方法及びプログラムを提供することを目的とする。
本発明の入力受付方法は、所定の画面を有する表示部と、前記画面に対する指の近接を検知可能であり、かつ前記画面に近接した前記指の位置を表す近接座標を検知可能であるタッチパネルと、を備える入力装置において利用可能な入力受付方法であって、前記タッチパネルが少なくとも2つの指の近接を同時に検知している状態で、前記少なくとも2本の指が互いに接触した場合、第1のイベントを発生させ、前記少なくとも2本の指が互いに1回接触してから離れた場合、第2のイベントを発生させ、前記少なくとも2本の指が互いに2回接触してから離れた場合、第3のイベントを発生させる。
また、本発明の入力受付プログラムは、所定の画面を有する表示部と、前記画面に対する指の近接を検知可能であり、かつ前記画面に近接した前記指の位置を表す近接座標を検知可能であるタッチパネルと、を備える入力装置であるコンピュータにおいて実行可能な入力受付プログラムであって、前記タッチパネルが少なくとも2つの指の近接を同時に検知している状態で、前記少なくとも2本の指が互いに接触した場合、第1のイベントを発生させ、前記少なくとも2本の指が互いに1回接触してから離れた場合、第2のイベントを発生させ、前記少なくとも2本の指が互いに2回接触してから離れた場合、第3のイベントを発生させる。
また、本発明の入力装置は、所定の画面を有する表示部と、前記画面に対する指の近接を検知可能であり、かつ前記画面に近接した前記指の位置を表す近接座標を検知可能であるタッチパネルと、を備える入力装置であって、前記タッチパネルが少なくとも2つの指の近接を同時に検知している状態で、前記少なくとも2本の指が互いに接触した場合、第1のイベントを発生させ、前記少なくとも2本の指が互いに1回接触してから離れた場合、第2のイベントを発生させ、前記少なくとも2本の指が互いに2回接触してから離れた場合、第3のイベントを発生させる。
この構成によれば、タッチパネルに対するユーザの入力操作に応じて、画面上に表示されたオブジェクトの直感的な決定処理を簡易に実現することができる。
本発明によれば、タッチパネルに対するユーザの入力操作に応じて、画面上に表示されたオブジェクトの直感的な決定処理を簡易に実現することが可能になる。
各実施形態の入力装置を操作する場合の状態遷移の具体例を示す説明図 各実施形態の入力装置のハードウェア構成の一例を示すブロック図 図2に示す入力装置の機能的構成の一例を示すブロック図 座標情報記憶部上に記憶される情報の具体的な構成例を示す模式図 図3に示す入力装置が複数本の指のタッチ操作を検知する場合の動作を説明するフローチャート 図3に示す入力装置が複数本の指のタップ操作を検知する場合の動作を説明するフローチャート 図3に示す入力装置が2本指の操作の種類を識別する場合の動作を説明するフローチャート 図3に示す入力装置が3本指の操作の種類を識別する場合の第1の動作例を説明するフローチャート 図3に示す入力装置が3本指の操作の種類を識別する場合の第2の動作例を説明するフローチャート 各実施形態の入力装置を操作する場合の状態遷移の具体例を示す説明図 図3に示す入力装置が3本の指の操作を識別する場合のx−y平面における指の組み合わせとポインタ座標との関係の具体例を示す説明図 図3に示す入力装置が3本の指の操作を識別する場合のx−y平面における指の組み合わせと発生イベントの種類との関係の具体例を示す説明図
以下、本発明に係る入力装置、入力支援方法及びプログラムの具体的な実施形態について、各図を参照して説明する。
<前提の説明>
本発明に係る入力装置は、様々な情報を可視情報として画面に表示する機能を有する表示部を含む電子機器として搭載可能である。このような電子機器の具体例として、例えば携帯電話機、スマートフォン、タブレット端末、デジタルスチルカメラ、PDA(Personal Digital Assistant)、電子書籍端末などがある。以下の説明においては、代表例として、本発明に係る入力装置をスマートフォンに搭載した場合について説明する。
なお、本発明は、装置としての入力装置、又は入力装置をコンピュータとして動作させるためのプログラムとして表現することも可能である。更に、本発明は、入力装置により実行される各動作(ステップ)を含む入力支援方法として表現することも可能である。即ち、本発明は、装置、方法及びプログラムのうちいずれのカテゴリーにおいても表現可能である。
本発明に係る入力装置は、ユーザの入力操作を受け付けて、「所定の処理」を実行することができる。「所定の処理」の対象となるのは、コンテンツのデータファイル、コンテンツの中の一部分の領域、アプリケーション、コンテンツ又はアプリケーションと関連付けられたアイコン、ハイパーリンクされた文字列等である。コンテンツの具体例としては、静止画、動画、文字列、音声情報、或いはそれらの複数の組み合わせ等がある。
「所定の処理」の代表例は、例えば次の通りである。「所定の処理」の第1の例は、ユーザの操作により指定されたアプリケーションを起動する処理である。「所定の処理」の第2の例は、ユーザの操作により指定されたコンテンツのファイルを開く処理である。「所定の処理」の第3の例は、起動したアプリケーション上でユーザ操作により指定された機能を実行する処理である。「所定の処理」の第4の例は、処理中のコンテンツに対してユーザ操作により指定された編集を施す処理である。
後述するように、本発明に係る入力装置は、ユーザの操作面であるタッチパネル及び画面の表面若しくは画面の表面に近接した空間におけるユーザの指の位置を把握している。この位置を表現するために、互いに直交する3軸、即ち、x軸、y軸、z軸の各軸方向の位置情報を用いる。ここで、x軸、y軸は、タッチパネルの表面と平行な向きの軸を表す。また、z軸はタッチパネルの表面に対して垂直な方向の軸を表す。
また、以下の説明においては、タッチパネルの表面と平行な面におけるユーザの指等の指示媒体の位置を表現するために、2軸の座標(x、y)を用いる。また、タッチパネルの表面に近接したユーザの指等の指示媒体の空間内の位置を表現するために、3軸の座標(x、y、z)を用いる。3軸の座標(x、y、z)におけるz軸方向の位置は、タッチパネルの表面に対する垂直(z)方向の高さを表している。
なお、以下の説明において、タッチパネルへの指示媒体としては、一例としてユーザの指を用いて説明するが、指に限らず、ユーザの手により把持された導電性のスタイラスを用いても良い。また、指示媒体は、タッチパネルの構造及び検知方式に応じて、タッチパネルへの近接及びタッチが検出可能な媒体であれば特に限定されない。
更に、以下の説明において、指をタッチパネルの面上から離間した空間上の位置に翳す又はタッチパネルの面上から離間した空間上の位置からタッチパネルの面に対して略平行にスライドする操作を、「ホバー操作」と定義する。従って、指がタッチパネルの面上に直接タッチする操作は「ホバー操作」ではなく、「タッチ操作」となる。なお、ホバー操作において指とタッチパネルの面上との距離は、タッチパネルが検知する静電容量に反比例するため、タッチパネルが検知可能な静電容量の範囲に対応する距離であることが好ましい。
<ユーザ操作及び動作の具体例>
図1は、各実施形態の入力装置を操作する場合の状態遷移の具体例を示す説明図である。図1では、状態C1から状態C2へ遷移し、続いて状態C2から状態C3へ遷移する様子が表されている。
図1に示すように、入力装置の操作面である筺体上面に表示部13及びタッチパネル15が配置されている。また、表示部13の画面DP上には、操作可能なコンテンツの可視情報V1が表示されている。また、操作対象の位置(点)を表すインジケータとして、ポインタPTが表示されている。
図1に示す状態C1では、ユーザが2本の指F1(例えば親指。以下同様)及び指F2(例えば人差し指。以下同様)を操作面(タッチパネル15)に近接する位置に翳して、「ホバー操作」が行われている様子が示されている。但し、図1に示す状態C1では、2本の指F1,F2の間はある程度離れている。指F1の位置P1は近接座標(x1、y1、z1)で表され、指F2の位置P2は近接座標(x2、y2、z2)で表される。
図1に示す状態C1では、2本の指F1,F2が同時に翳されてあるため、入力装置は、指F1の位置P1と指F2の位置P2との中間点である位置Pcの座標(xc、yc、zc)をポインタ座標として算出する。更に、入力装置1は、位置Pcの直下にある操作面(タッチパネル15)上の位置Pc2、即ち、位置Pcの操作面(タッチパネル15)に対応する画面DP上の位置である座標(xc、yc)を求め、ポインタPTを位置Pc2に表示する。
なお、ポインタPTの表示パターンは、ユーザが現在の操作状態又は操作の対象として選択されている対象が示されている状態を容易に区別できるように、2本の指が近接状態であることを表す特別なパターンであることが望ましい。従って、図1に示すポインタPTのように、位置Pc2を表す丸印と、この丸印から位置P1の方向に伸びる矢印とこの丸印から位置P2の方向に伸びる矢印とを含む表示パターンを用いる。
図1に示す状態C2は、状態C1からユーザが指F1,F2を含む手全体を矢印A1方向に平行移動した様子を示している。つまり、指F1の位置P1と指F2の位置P2との間隔が一定に維持されたまま、手の平行移動に伴って、位置P1,P2が矢印A1方向に平行移動する。
図1に示す状態C2のように、位置P1,P2が間隔を保持したまま平行移動する場合には、移動中及び移動後に、入力装置は、ポインタPTの表示位置、即ち、ポインタ座標の値を更新する。つまり、入力装置1は、手の平行移動により変化した位置P1,P2に基づいて、中間点の位置Pcの座標(xc、yc、zc)を再び算出する。これにより、入力装置1は、ユーザは画面に沿って平行に指や手を移動するだけで、自由にポインタ座標を移動でき、画面上の様々な操作対象を自由に選択可能になる。なお、ここに記載している平行移動とは、絶対的な平行でなく、絶対的な平行移動に近い略平行移動でも良い。位置P1と位置P2との間隔が所定値以内で変化し、絶対的な平行から多少ずれても良い。また、複数位置の同時移動に関して、時間的に多少の前後があっても良い。
更に、入力装置1は、位置Pcの直下にある操作面(タッチパネル15)上の位置Pc2の座標(xc、yc)を求め、ポインタPTを位置Pc2に移動する。従って、ポインタPTの表示位置は、図1に示す状態C1におけるポインタ座標に対応する位置Pc20から位置Pc2に移動する。
従って、ユーザは手を動かすことにより、画面DP上に表示されているポインタPTの位置を自由に移動させることができる。ここで、指F1,F2の間に間隔が空いているため、ユーザは画面DPを上方から見下ろす場合に、指F1,F2の間の空間からポインタPTの表示及びその周辺に存在する表示内容を目視で容易に確認することができる。
図1に示す状態C3は、状態C2からユーザが指F1と指F2とを互いに近づけて接触させた様子を示している。指F1と指F2との接触は、ユーザによる決定操作を意味する。即ち、ポインタPTが指定している位置の操作対象のオブジェクト(例えばコンテンツのアイコン)に対して処理を実行しても良いのかどうかを確定させるために、決定操作を行う必要がある。決定操作は、一般的な入力デバイス(例えばマウス)を用いた場合の「クリック操作」と同じような機能として割り当てることができる。
図1に示す状態C3になると、入力装置1は、決定操作を受け付ける。具体的には、入力装置1は、指F1の位置P1と指F2の位置P2との距離が所定以下になったことを検知し、ポインタPTが指定している操作対象のオブジェクトに対する決定操作を受け付ける。また、入力装置1は、ポインタPTの表示パターンを、決定操作を受け付けたことを示すパターンに変更する。
<各実施形態に共通する入力装置のハードウェア構成>
各実施形態に共通する入力装置1のハードウェア構成について、図2を参照して説明する。図2は、各実施形態の入力装置1のハードウェア構成の一例を示すブロック図である。
図2に示す入力装置1は、プロセッサ11、ROM(Read Only Memory)12a、RAM(Random Access Memory)12b、記憶部12c、表示部13、タッチパネルドライバ14、タッチパネル15、電源制御部16、及びアンテナ17aが接続された通信制御部17を含む。プロセッサ11、ROM12a、RAM12b、記憶部12c、表示部13、タッチパネルドライバ14、電源制御部16及び通信制御部17は、バス19を介して相互にデータを入出力可能に接続されている。
プロセッサ11は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成され、入力装置1の総括的な制御を行い、その他の種々の演算処理又は制御処理を行う。プロセッサ11はROM12aに格納されたプログラム及びデータを読み込んで、後述の各実施形態における種々の処理を行う。
ROM12aは、入力装置1にインストールされているアプリケーションプログラム、並びに、プロセッサ11が図3に示す各部(後述参照)における処理を実行するためのプログラム及びデータを格納している。RAM12bは、プロセッサ11、タッチパネルドライバ14、通信制御部17の各動作におけるワークメモリとして動作する。
記憶部12cは、入力装置1に内蔵されるハードディスク又はフラッシュメモリを用いて構成され、入力装置1が取得又は生成したデータを格納する。なお、アプリケーションプログラムは記憶部12cに格納され、実行時にプロセッサ11により読み出される。また、記憶部12cは、ハードディスク又はフラッシュメモリにより構成されず、例えばUSB(Universal Serial Bus)端子を介して接続された外部記憶媒体(例えばUSBメモリ)により構成されても良い。
表示部13は、例えば画面を有するLCD又は有機ELディスプレイを用いて構成され、プロセッサ11又はタッチパネルドライバ14から出力されたデータを画面に表示する。
タッチパネルドライバ14は、タッチパネル15の動作を制御してタッチパネル15に対するユーザの入力操作を監視する。タッチパネルドライバ14は、例えばタッチパネル15がユーザの指の操作面へのタッチ操作による接触又はホバー操作による近接を検知すると、接触座標(x、y)又は近接座標(x、y、z)を取得し、接触座標(x、y)又は近接座標(x、y、z)の情報をプロセッサ11、RAM12b又は記憶部12cに出力する。以下、接触座標(x、y)を「タッチ座標(x、y)」という。
タッチパネル15は、表示部13の画面上に搭載され、ユーザの指がタッチパネル15の表面上をタッチしたことを検知する。また、タッチパネル15は、ユーザの指のホバー操作、即ち、タッチパネル15の表面に指がタッチすることなく指を浮かせた状態において、指がタッチパネル15に近接したことを検知する。
なお、本発明を実施するために必要な近接状態を検知可能なタッチパネル15の構造については、特許文献1に開示されているような公知技術をそのまま利用できる。従って、タッチパネル15の具体的な構成の説明は省略する。タッチパネル15は、ホバー操作における指の高さ(z座標の値)が所定値以下、又は指の高さに応じて定まる静電容量が所定値以上となる場合に、指の近接(状態)を検知する。
電源制御部16は、入力装置1の電力供給源(例えばバッテリ)を用いて構成され、タッチパネル15への入力操作に応じて、入力装置1の電源のオン状態又はオフ状態を切り替える。電源がオン状態の場合、電源制御部16は、電力供給源から図2に示す各部に電力を供給して入力装置1を動作可能にする。
通信制御部17は、無線通信回路を用いて構成され、送受信用のアンテナ17aを介して、プロセッサ11により処理された処理結果としてのデータを送信し、更に、不図示の基地局又は他の通信装置から送信されたデータを受信する。また、図2では、本実施形態を含む各実施形態の説明に必要となる構成が図示されているが、通話音声を制御する音声制御部と、ユーザの声を集音するマイクロフォンと、更に通話相手の音声データを出力するスピーカとを更に含む構成でも良い。
<各実施形態に共通する入力装置の機能的構成>
次に、各実施形態に共通する入力装置1の機能的構成について、図3を参照して説明する。図3は、入力装置1の機能的構成を示すブロック図である。
図2に示すタッチパネル15は、近接検知部10及びタッチ検知部20を備えている。近接検知部10は、ホバー操作によってユーザの指がタッチパネル15に近接したことを検知する。近接検知部10は、指がタッチパネル15に近接した旨の近接通知を近接座標抽出部100に出力する。
タッチ検知部20は、タッチ操作によって指がタッチパネル15にタッチしたことを検知する。タッチ検知部20は、指がタッチパネル15にタッチした旨の接触通知をタッチ座標抽出部200に出力する。なお、近接検知部10とタッチ検知部20とはタッチパネル15を用いて構成可能であり、図3では近接検知部10とタッチ検知部20とは別々の構成としているが、両者をタッチパネル15として一纏めに構成しても良い。
図2に示すタッチパネルドライバ14は、近接座標抽出部100及びタッチ座標抽出部200を備えている。近接座標抽出部100は、近接検知部10から出力された近接通知を基に、タッチパネル15に対する指の位置を表す近接座標(x、y、z)を算出して抽出する。タッチ座標抽出部200は、タッチ検知部20からの接触通知を基に、接触座標(x、y)を算出して抽出する。
近接座標(x、y、z)のうち、x成分及びy成分はタッチパネル15の表面と平行な面における位置を表す座標値であって、z成分は指とタッチパネル15との間の距離、即ち、指のタッチパネル15に対する高さを表す座標値である。近接座標抽出部100は、抽出された近接座標(x、y、z)の情報をセンサ情報取得部51に出力する。
また、複数の指が同時にタッチパネル15の表面に対して近接状態になった場合には、近接座標抽出部100は、複数の指のそれぞれの位置を表す各近接座標の情報をセンサ情報取得部51に出力する。
図2に示すプロセッサ11は、図3に示すように、センサ情報取得部51、指座標算出部52、座標情報記憶部53、指間距離算出部54、イベント検知部55、ポインタ座標算出部56、入力情報通知部57、アプリケーション処理部58、時間管理部59及び表示制御部60を含む。
センサ情報取得部51は、予め定められた所定条件を満たす時に、タッチパネル15に関する情報を取得する。センサ情報取得部51は、例えば、近接検知部10の検知状態に変化が生じた時には、最新の状態において近接状態になっている各指の近接座標の情報を近接座標抽出部100から取得する。また、センサ情報取得部51は、タッチ検知部20の検知状態に変化が生じた時には、最新の状態において接触状態になっている各指の接触座標のデータをタッチ座標抽出部200から取得する。
指座標算出部52は、センサ情報取得部51が取得した各指の近接座標又は接触座標の情報を座標情報記憶部53に記憶する。また、指座標算出部52は、同時に複数の指の近接座標又は接触座標が抽出された場合には、複数の指の近接座標又は接触座標各情報を互いに関連付けて、時間管理部59が管理する時刻毎に記憶する。また、指座標算出部52は、例えば分解能の違いによりプロセッサ11が管理している画面DP上の座標とタッチパネル15の座標との間に違いがある場合には、必要に応じて座標変換の計算を行う。
座標情報記憶部53は、所定時間前から現在までに取得した座標の情報を時刻に対応付けて一時的に記憶する。例えば図4に示す情報が座標情報記憶部53に記憶される。座標情報記憶部53が記憶する情報は、指座標算出部52、指間距離算出部54、ポインタ座標算出部56によって追加又は更新される。座標情報記憶部53が記憶している情報は必要に応じて参照される。
指間距離算出部54は、複数の指が同時にタッチパネル15に対して近接状態になっている時に、これら複数の指同士の距離を「指間距離」として算出する。例えば、図1に示す状態C1のように、2本の指F1,F2がタッチパネル15に近接している時には、指F1の位置P1と指F2の位置P2との距離が「指間距離」として算出される。「指間距離」の情報は座標情報記憶部53に記憶される。
イベント検知部55は、所定の検知条件を満たす時に、上述した「所定の処理」を実行するために必要な「決定」の操作を受け付けたことを表す「決定イベント」を検知する。具体的には、複数の指が同時にタッチパネル15に対して近接状態になって各指の「指間距離」が所定以下になった時に、上述した所定の検知条件が満たされ、イベント検知部55は、「決定イベント」を検知する。
例えば、図1に示す状態C2から状態C3のように変化した場合、つまりユーザがホバー操作状態で指F1と指F2とを近づけて接触させた場合に、位置P1と位置P2との「指間距離」が小さくなって「決定イベント」が検知される。従って、入力装置1は、ユーザが指F1又は指F2をタッチパネル15の操作面に接触させなくても、「決定イベント」を発生することができる。
ポインタ座標算出部56は、現在の操作対象の画面上の位置を特定するためのポインタ座標を算出する。タッチパネル15に対して近接状態になった指が1本だけの場合には、該当する指の位置とポインタ座標とが同等になる。しかし、同時に複数本の指が近接状態になった場合には、ポインタ座標算出部56は、後述する計算によってポインタ座標を算出する。
具体的には、図1に示す状態C1のように、2本の指F1,F2がタッチパネル15の面に対して近接状態になった場合には、ポインタ座標算出部56は、指の位置P1,P2の中間点の位置Pcを算出し、この位置Pcをタッチパネル15に垂直な軸に沿って画面DPに投影した位置Pc2の座標をポインタ座標に決定する。これにより、入力装置1は、画面DP上で操作対象(例えばアイコン)が存在するポインタ座標の箇所を、ユーザに複数本の指の間から視認させることができ、操作の際に指の位置決めを容易にさせることができる。ポインタ座標の情報は、座標情報記憶部53に記憶される。
入力情報通知部57は、イベント検知部55が「決定イベント」を検知した時に、「決定イベント」をアプリケーション処理部58に通知する。また、入力情報通知部57は、ポインタ座標算出部56が算出したポインタ座標に変化が生じた時に、新しいポインタ座標をアプリケーション処理部58に通知する。
アプリケーション処理部58は、入力情報通知部57から通知される「決定イベント」及びポインタ座標の情報に基づいてアプリケーションプログラムに関する処理を行う。例えば、表示部13の画面DP上で現在のポインタ座標の位置に特定のアプリケーションプログラムのアイコン又はハイパーリンクが割り当てられている場合に「決定イベント」が発生すると、アプリケーション処理部58は、「決定イベント」に対応するアプリケーションプログラムを起動する。
また、アプリケーション処理部58は、既に起動しているアプリケーションプログラムの特定の機能が対応付けられた箇所をポインタ座標が指し示している時に「決定イベント」が発生すると、「決定イベント」に対応する機能を実行する。あるいは、アプリケーション処理部58は、特定のコンテンツのアイコンが表示されている画面上の領域をポインタ座標が指し示している時に「決定イベント」が発生すると、「決定イベント」に対応するアイコンのコンテンツのデータファイルを所定のアプリケーションを用いて開き、表示又は再生を実行する。
時間管理部59は、入力装置1における現在の時刻を把握し、ある時点からの経過時間などを必要に応じて管理する。
表示制御部60は、ポインタ座標算出部56が算出した最新のポインタ座標の位置に、図1に示すポインタPTを表示し、ポインタ座標の変化に伴ってポインタPTの表示を更新する。また、表示制御部60は、アプリケーション処理部58の処理の結果を表示部13に表示させる。
なお、図3に示すプロセッサ11の各機能については、入力装置1を管理する基本プログラム(オペレーティングシステム)に組み込んで使用することもできるし、個別のアプリケーションプログラムの中に組み込むこともできる。あるいは、専用のハードウェアとして実現することもできる。
<使用する情報の具体例>
図4は、座標情報記憶部53に記憶される情報の具体的な構成例を示す模式図である。図4に示す例では、ユーザが2本の指を同時にタッチパネル15の面に対して近接状態にした場合の結果として座標情報記憶部53に保持される情報が示されている。
図4に示す例では、5種類の情報D1〜D5が、取得した時刻毎に区別して記憶されている。情報D1〜D5の内容は次の通りである。
情報D1は、時間情報であり、具体的には、情報を取得した時刻又はある時点からの相対的な経過時間を表す。情報D2は、指1座標であり、具体的には、近接状態になった第1番目の指の座標(x1、y1、z1)を表す。情報D3は、指2座標であり、具体的には、近接状態になった第2番目の指の座標(x2、y2、z2)を表す。情報D4は、指間距離であり、具体的には、情報D2に対応する指1座標と情報D3に対応する指2座標との間のx−y平面における距離を表す。最後に、情報D5は、ポインタ座標であり、具体的には、情報D2に対応する指1座標と情報D3に対応する指2座標との中間点に相当する座標である。
図4に示す各時刻の情報D1,D2,D3は、指座標算出部52により書き込まれる。情報D4は、指間距離算出部54により書き込まれる。情報D5は、ポインタ座標算出部56により書き込まれる。
<入力装置1の動作>
<第1実施形態:複数指のタッチ操作検知>
図5は、図3に示す入力装置1が「複数本の指のタッチ操作」を検知する場合の動作を説明するフローチャートである。ここで、「複数本の指のタッチ操作」とは、図1に示す状態C2から状態C3に遷移する場合のようなユーザの指F1,F2の操作を表す。つまり、ユーザがタッチパネル15の操作面に近接している複数本の指F1,F2を、ホバー操作状態を維持したまま互いに近づけて接触させる又は「指間距離」を所定距離より小さくする操作が「複数本の指のタッチ操作」である。
図5において、ユーザが指をタッチパネル15の操作面に近づけるように翳す時には、近接検知部10は、指の近接を検知する(S11)。近接座標抽出部100は、近接検知部10からの近接通知を基に、近接した指の位置を表す近接座標を算出して抽出する。
センサ情報取得部51は、抽出された近接座標の情報を近接座標抽出部100から取得し、同時に複数本の指が近接状態か否かを識別する(S12)。複数本の指が近接状態でない場合には(S12、NO)、入力装置1の動作はステップS11に戻る。複数本の指が近接状態の場合には(S12、YES)、センサ情報取得部51は、複数本の指の各々の近接状態の空間上の位置を表す近接座標の情報を取得する。
即ち、複数本の指が近接状態であると同時に検知された場合には、指座標算出部52は、センサ情報取得部51から取得した複数の近接座標の情報を座標情報記憶部53に書き込む(S13)。例えば、2本の指が近接状態になった場合には、図4に示す各時刻の情報のように、指座標算出部52は、現在の時間を表す情報D1、第1番目の指の位置を表す指1座標の情報D2、及び第2番目の指の位置を表す指2座標の情報D3を座標情報記憶部53に書き込む。
ポインタ座標算出部56は、複数本の指が近接状態になったことが同時に検知されると、座標情報記憶部53を参照してポインタ座標を算出し、算出されたポインタ座標を情報D5として座標情報記憶部53に書き込む(S14)。ポインタ座標は、近接状態の複数本の指の各位置の中間点Pcの座標を、タッチパネル15に垂直な軸に沿って画面DPに投影した位置Pc2である。
指間距離算出部54は、複数本の指が近接状態になったことが同時に検知されると、座標情報記憶部53を参照して指間距離を算出し、算出された指間距離を情報D4として座標情報記憶部53に書き込む(S15)。
イベント検知部55は、座標情報記憶部53に最後の時刻(現在の時刻)に記憶された情報D4の「指間距離」が所定値(指定値)Lth以下かどうかを識別する(S16)。ここで、所定値(指定値)Lthは、タッチパネル15から離間した空間上において複数本の指が互いに接触した状態か否かを区別するための閾値であり、事前に定められた定数が用いられる。「指間距離」が所定値Lth以下の場合、つまり複数本の指が互いにタッチパネル15から離間した空間上において接触したことが検知された場合には、イベント検知部55は、「決定イベント」を発行する(S17)。
「指間距離」が所定値Lth以下の場合(S17、YES)、つまり複数本の指が互いにタッチパネル15から離間した空間上において接触したことが検知された場合には、入力情報通知部57は、ポインタ座標の情報及び「決定イベント」をアプリケーション処理部58に通知する(S18)。
「指間距離」が所定値Lthを超える場合、つまり複数本の指が互いにタッチパネル15から離間した空間上において接触していない場合には(S17、NO)、入力情報通知部57は、ポインタ座標をアプリケーション処理部58に通知する(S19)。
以上により、第1の実施形態の入力装置1は、図1に示す状態C3のように、複数本の指が互いにタッチパネル15から離間した空間上において接触した時に、「決定イベント」をアプリケーション処理部58に渡して所定の処理を実行させるように「決定」の操作を行うことができる。
これにより、入力装置1は、ユーザが複数本の指の指間距離を小さくした時に、ユーザがタッチパネルに触れることなく簡単な指の操作だけで、決定イベントを確実に発生させて、決定の入力操作を行わせることができる。また、入力装置1は、指をタッチパネル15から離間した空間上において決定の入力操作を容易に行わせることができるため、画面が指の指紋で汚れることを防止できる。
また、入力装置1は、図1に示す状態C2のように複数本の指がタッチパネル15から離間した空間上の位置において接触していない状態で例えば平行移動した場合には、アプリケーション処理部58に渡すポインタ座標を逐次更新し、ポインタPTの表示位置を移動させることができる。
<第2実施形態:複数指のタップ操作検知>
図6は、図3に示す入力装置1が「複数本の指のタップ操作」を検知する場合の動作を説明するフローチャートである。ここで、「複数本の指のタップ操作」とは、図1に示す状態C2から状態C3に遷移した後で、接触した指F1,F2が直ぐに再び離間した場合のようなユーザの指の操作を表す。つまり、ユーザがタッチパネル15の操作面に近接している複数本の指F1,F2を、ホバー操作状態を維持したまま互いに近づけて一瞬だけ接触させてから直ぐに離す操作が「複数本の指のタップ操作」である。
図6において、ユーザが指をタッチパネル15の操作面に近づけるように翳す時には、近接検知部10は、指の近接を検知する(S21)。近接座標抽出部100は、近接検知部10からの近接通知を基に、近接した指の位置を表す近接座標を算出して抽出する。
センサ情報取得部51は、抽出された近接座標の情報を近接座標抽出部100から取得し、同時に複数本の指が近接状態か否かを識別する(S22)。複数本の指が近接状態でない場合には(S22、NO)、入力装置1の動作はステップS11に戻る。複数本の指が近接状態の場合には(S22、YES)、センサ情報取得部51は、複数本の指の各々の近接状態の空間上の位置を表す近接座標の情報を取得する。
即ち、複数本の指が近接状態であると同時に検知された場合には、指座標算出部52は、センサ情報取得部51から取得した複数の近接座標の情報を座標情報記憶部53に書き込む(S23)。ここで、指座標算出部52が書き込む情報は、近接座標の時系列変化が把握できるように、近接座標を検知した時刻或いは取得した時刻と関連付けて座標情報記憶部53に記憶される。
例えば、2本の指が近接状態になった場合には、図4に示す各時刻の情報のように、指座標算出部52は、現在の時間を表す情報D1、第1番目の指の位置を表す指1座標の情報D2、及び第2番目の指の位置を表す指2座標の情報D3を座標情報記憶部53に書き込む。
ポインタ座標算出部56は、複数本の指が近接状態になったことが同時に検知されると、座標情報記憶部53を参照してポインタ座標を算出し、算出されたポインタ座標を情報D5として座標情報記憶部53に書き込む(S24)。ポインタ座標は、近接状態の複数本の指の各位置の中間点Pcの座標を、タッチパネル15に垂直な軸に沿って画面DPに投影した位置Pc2である。また、ポインタ座標算出部56は、算出されたポインタ座標を、時刻と関連付けて座標情報記憶部53に記憶する。
指間距離算出部54は、複数本の指が近接状態になったことが同時に検知されると、座標情報記憶部53を参照して指間距離を算出し、算出された指間距離を情報D4として座標情報記憶部53に書き込む(S25)。また、指間距離算出部54は、算出された指間距離を、時刻と関連付けて座標情報記憶部53に記憶する。
イベント検知部55は、座標情報記憶部53に記憶されている情報の中で、現在から過去の所定時間以内、即ち、現在から所定時間前までの範囲の全ての「指間距離」の情報D4を検索し(S26)、所定値Lth以下の指間距離の情報D4が1つ以上存在するか否かを識別する(S27)。
所定値Lth以下の「指間距離」の情報D4が1つ以上存在する場合には(S27、YES)、イベント検知部55は、更に、時刻の情報D1が最後(つまり現在)の「指間距離」の情報D4を参照し、この「指間距離」が所定値Lth以上か否かを識別する(S28)。
ステップS27及びS28の両方の条件を満たす場合、つまり近接状態の複数本の指の指間距離が過去所定時間以内に接触状態であり、しかも現在は近接状態の複数本の指の指間距離が非接触状態になっている場合には(S27−YES、S28−YES)、「複数本の指のタップ操作」が行われたとして、イベント検知部55は、「決定イベント」を発行する(S29)。
ステップS27及びS28の両方の条件を満たす場合には、入力情報通知部57は、ポインタ座標及び「決定イベント」をアプリケーション処理部58に通知する(S30)。
S27又はS28の条件を満たさない場合には(S27−NO又はS28−NO)、入力情報通知部57は、ポインタ座標をアプリケーション処理部58に通知する(S31)。
以上により、第2の実施形態の入力装置1は、図1に示す状態C3のように、複数本の指が互いにタッチパネル15から離間した空間上において接触し、その直後に各指が互いに離れた場合には、「決定イベント」をアプリケーション処理部58に渡して所定の処理を実行させるように決定操作を行うことができる。
<第3実施形態:複数種類の操作を使い分ける場合>
図7は、図3に示す入力装置1が2本指の操作の種類を識別する場合の動作を説明するフローチャートである。なお、図7では、図6に示すセンサ情報取得部51、指座標算出部52、指間距離算出部54及びポインタ座標算出部56の動作、即ち、ステップS21からステップS25の動作の図示を省略しているが、図6のステップS21からステップS25の動作と同様の動作は図7に示すステップS41の動作の前に行われている。
図7において、イベント検知部55は、複数本の指が近接状態であることが同時に検知された場合には、座標情報記憶部53の内容を参照して、最後(最新又は現在)の時間の情報D1に対応する「指間距離」の情報D4を取得する(S41)。イベント検知部55は、取得された「指間距離」と所定値Lthとを比較する(S42)。「指間距離<所定値Lth」の条件を満たす場合には、入力装置1の動作はステップS43に進む。「指間距離<所定値Lth」の条件を満たさない場合には、入力装置1の動作はステップS51に進む。
つまり、複数本の指が互いにタッチパネル15から離間した空間上において接触したことが検知されると、入力装置1の動作はステップS43に進み、イベント検知部55は一定時間(例えば1秒間)だけ待機する(S43)。その後、入力装置1の動作はステップS44に進む。また、イベント検知部55がステップS43において待機している間も、座標情報記憶部53上には新たに取得した情報が順次に書き込まれる。
ステップS43における待機が終了した後、イベント検知部55は、座標情報記憶部53に記憶されている情報の中で、現在から過去の所定時間以内、即ち、現在から所定時間前までの範囲の全ての「指間距離」の情報D4を取得し、「指間距離」の時系列変化を把握する(S44)。
イベント検知部55は、ステップS44において把握した「指間距離」の時系列変化を予め定められた操作条件と比較することで、複数本の指による複数種類の操作を識別する(S45〜S49)。複数本の指による複数種類の操作とは、例えば、「2本の指によるダブルタップ操作」、「2本の指によるタップ操作」、「2本の指によるタッチ操作」の3種類である。
「2本の指によるダブルタップ操作」の操作条件とは、所定時間以内に、2本の指が2回接触し、即ち、2本の指の「指間距離」が所定値Lth以下の状態が2回連続的に発生してから離れた場合である。「2本指タップ操作」の操作条件とは、所定時間以内に、2本の指が1回接触し、即ち、2本の指の「指間距離」が所定値Lth以下の状態が1回発生してから離れた場合である。「2本指タッチ操作」の操作条件とは、2本の指が接触した場合である。
イベント検知部55は、「2本の指によるダブルタップ操作」の操作条件を満たすか否かを識別する(S45)。「2本の指によるダブルタップ操作」の操作条件を満たす場合には(S45、YES)、イベント検知部55は、「2本の指によるダブルタップ操作」の種別と共に「決定イベント」を発行する(S46)。
「2本の指によるダブルタップ操作」の操作条件を満たさない場合には(S45、NO)、イベント検知部55は、「2本の指によるタップ操作」の操作条件を満たすか否かを識別する(S47)。「2本の指によるタップ操作」の操作条件を満たす場合には(S47、YES)、イベント検知部55は、「2本の指によるタップ操作」の種別と共に「決定イベント」を発行する(S48)。
「2本の指によるダブルタップ操作」及び「2本の指によるタップ操作」のいずれの操作条件も満たさない場合には(S47、NO)、イベント検知部55は、「2本の指によるタッチ操作」の種別と共に「決定イベント」を発行する(S49)。
イベント検知部55が「決定イベント」を発行した後、入力情報通知部57は、ポインタ座標及び「決定イベント」をアプリケーション処理部58に通知する(S50)。入力情報通知部57が通知する「決定イベント」には、イベントの種類、つまり「2本の指によるダブルタップ操作」、「2本の指によるタップ操作」及び「2本の指によるタッチ操作」の3種類を区別するための情報も含まれる。
ステップS42において「指間距離<所定値Lth」の条件を満たさない場合には、入力情報通知部57は、ポインタ座標をアプリケーション処理部58に通知する(S51)。
以上により、第3の実施形態の入力装置1は、ユーザがポインタ座標において指定されている操作対象に対する処理の実行の「決定」操作を行う際に、「2本の指によるダブルタップ操作」、「2本の指によるタップ操作」、「2本の指によるタッチ操作」の3種類の操作に応じて、それぞれ異なる処理の実行を割り当てることができる。
これにより、入力装置1は、ユーザが複数本の指を操作するだけで、種類が異なる複数のイベントを発生することができ、操作の種類を使い分けることにより、複数種類の処理を必要に応じて実行することが可能になる。
また、入力装置1は、ユーザが2本の指を用いた簡単な操作の違いだけで、2種類又は3種類の入力操作を容易に識別することができる。
<第4実施形態:3本の指を用いて操作の種類を使い分ける第1の動作例>
上述した実施形態ではタッチパネル15の操作面に対して近接状態で配置した2本の指を用いた操作を想定しているが、近接状態にある3本の指を同時に用いた操作を想定しても良い。
<ポインタ座標の決定>
3本の指を用いる場合には、ポインタ座標を決定する方法について、複数種類の方法が考えられる。図11は、図3に示す入力装置1が3本の指の操作を識別する場合のx−y平面における指の組み合わせとポインタ座標との関係の具体例を示す説明図である。
図11に示す例では、ホバー操作状態、即ち、近接状態として検知されている3本の指(指A,指B,指C)が存在する場合に、3種類のポインタ座標pt1、pt2、pt3を求める場合を想定している。なお、説明を簡単にするために、ユーザが操作する手が右手の場合の代表例を想定すると、「指A」が親指、「指B」が人差し指、「指C」が中指に対応する。但し、図11に示す例では、「指A」が親指、「指B」が人差し指、「指C」が中指に対応することに限定されない。
図11に示すポインタ座標pt1は、「指A」の位置、「指B」の位置、「指C」の位置の3点の重心として算出される。このポインタ座標pt1を用いることにより、ポインタPTの正確な位置決めが可能になる。
図11に示すポインタ座標pt2は、「指A,指B,指C」の中から予め指定した2本の「指A」,「指B」のみが選択され、選択された「指A」の位置と「指B」の位置との中間点として算出される。このポインタ座標pt2を用いることにより、ユーザにとって複数本の指の制御が容易になる。
図11に示すポインタ座標pt3は、「指A」、「指B」、「指C」の3点の位置座標の中でx軸、y軸の座標値の最大値及び最小値を求め、{(最大値−最小値)/2}として算出される。このポインタ座標pt3を用いることにより、入力装置1の計算量を減らすことが可能になる。
<操作の種類>
図12は、図3に示す入力装置1が3本の指の操作を識別する場合のx−y平面における指の組み合わせと発生イベントの種類との関係の具体例を示す説明図である。
図12に示す例では、ホバー操作状態、即ち、近接状態として検知されている3本の指(指A,指B,指C)が存在する場合に、これらの指の指間距離を操作して発生イベントの種類を指定する場合を想定している。
図12の左端に示す組み合わせCO1のように、「指A」、「指B」、「指C」の3本の指の中で、「指A」と「指B」との指間距離を小さくして「指A」と「指B」とを接触させた場合には、入力装置1は、「第1イベント」を発生する。「第1イベント」とは、例えば「決定イベント」に相当し、マウスを操作する場合の「左クリック」操作又は「左ダブルクリック」操作と同様のイベントとして処理することが想定される。
また、図12の左から2番目に示す組み合わせCO2のように、「指A」、「指B」、「指C」の3本の指の中で、「指A」と「指C」との指間距離を小さくして「指A」と「指C」とを接触させた場合には、入力装置1は、「第2イベント」を発生する。「第2イベント」とは、例えばポインタ座標で指示される特定の操作対象のオブジェクト(例えばコンテンツのファイルのアイコン)のプロパティ(属性)を変更するためのイベントとして処理することが想定される。つまり、「第2イベント」は、マウスを操作する場合の「右クリック」操作と同様のイベントとして扱うことができる。
また、図12の左から3番目に示す組み合わせCO3のように、「指A」、「指B」、「指C」の3本の指の中で、「指B」と「指C」との指間距離を小さくして「指B」と「指C」とを接触させた場合には、入力装置1は、「第3イベント」を発生する。「第3イベント」とは、例えばポインタ座標で指示される特定の操作対象のオブジェクト(例えばコンテンツのファイルのアイコン)をコピーするためのイベントとして処理することが想定される。つまり、「第3イベント」は、マウスを操作する場合の「左右クリック」操作と同様のイベントとして扱うことができる。
また、図12の右端に示す組み合わせCO4のように、「指A」、「指B」、「指C」の3本の指の指間距離を小さくして「指A」と「指B」と「指C」とを接触させた場合には、入力装置1は、「第4イベント」を発生する。「第4イベント」とは、事前にコピーしたオブジェクト(例えばコンテンツのファイルのアイコン)をポインタ座標で指示される場所にペースト(貼り付ける)するためのイベントとして処理することが想定される。つまり、「第4イベント」は、マウスを操作する場合の「ダブルクリック」操作と同様のイベントとして扱うことができる。
このように、入力装置1は、指間距離を小さくして接触させる複数指の組み合わせを変えることにより、イベントの種類をユーザが簡易に切り替えることができる。
<入力装置の動作>
図8は、図3に示す入力装置1が3本指の操作の種類を識別する場合の第1の動作例を説明するフローチャートである。なお、図8では、図6に示すセンサ情報取得部51、指座標算出部52、指間距離算出部54及びポインタ座標算出部56の動作、即ち、ステップS21からステップS25の動作の図示を省略しているが、図6のステップS21からステップS25の動作と同様の動作は図8に示すステップS51の動作の前に行われている。
図8において、イベント検知部55は、複数本の指が近接状態であることが同時に検知された場合には、座標情報記憶部53の内容を参照し、最後(最新又は現在)の時間の情報D1に対応する「指間距離」の情報D4を取得する(S61)。イベント検知部55は、取得された「指間距離」と所定値Lthとを比較する(S62)。「指間距離<所定値Lth」の条件を満たす場合には、入力装置1の動作はステップS63に進む。「指間距離<所定値Lth」の条件を満たさない場合には、入力装置1の動作はステップS67に進む。
なお、近接状態の指の数が3以上の場合には、指座標算出部52は、複数の指間距離の中で最小の指間距離を、「指間距離」の情報D4として座標情報記憶部53に記憶する。
イベント検知部55は、座標情報記憶部53が保持している情報を基に、近接状態として検知されている指の数が3本か否かを識別する(S63)。入力装置1の動作は、3本の指を検知中であればステップS64に進み、例えば2本の指だけを検知している場合にはステップS65に進む。
ステップS64では、イベント検知部55は、3本の指の位置関係と、「指間距離<所定値Lth」の条件を満たした指の組み合わせとに基づき、図12に示すように操作の種類を識別し、操作の種類を含む「決定イベント」を発行する(S64)。なお、図12に示す3本の指の位置関係と、「指間距離<所定値Lth」の条件を満たした指の組み合わせと操作の種類との関係を表すデータを事前に所定のテーブルが、入力装置1の記憶部12cに記憶されている。イベント検知部55は、この所定のテーブルを基にして、3本の指による操作の種類を識別する。
また、2本の指だけを検知している場合には、イベント検知部55は、例えば「2本指タッチ操作」の種別と共に「決定イベント」を発行する(S65)。
イベント検知部55が「決定イベント」を発行した場合には、入力情報通知部57は、ポインタ座標及び「決定イベント」をアプリケーション処理部58に通知する(S66)。入力情報通知部57が通知する「決定イベント」には、イベントの種類、つまり3本の指による「第1イベント」、「第2イベント」、「第3イベント」、「第4イベント」又は「2本の指によるタッチ操作」の種類を区別するための情報も含まれる。
ステップS62において「指間距離<所定値Lth」の条件を満たさない場合には、入力情報通知部57は、ポインタ座標をアプリケーション処理部58に通知する(S67)。
<第5実施形態:3本の指を用いて操作の種類を使い分ける第2の動作例>
図12に示す例では、3本の指の中の2本又は3本の指の指間距離を小さくして1回だけ接触させる場合を想定しているが、接触させる指の組み合わせを順番に切り替えるように操作しても良い。この場合には、組み合わせを切り替えた順番の違いに応じて発生イベントの種類を切り替えることができる。この場合の入力装置の動作について以下に説明する。
図9は、図3に示す入力装置1が3本指の操作の種類を識別する場合の第2の動作例を説明するフローチャートである。なお、図8では、図6に示すセンサ情報取得部51、指座標算出部52、指間距離算出部54及びポインタ座標算出部56の動作、即ち、ステップS21からステップS25の動作の図示を省略しているが、図6のステップS21からステップS25の動作と同様の動作は図9に示すステップS51の動作の前に行われている。
図9において、イベント検知部55は、複数本の指が近接状態であることが同時に検知された場合には、座標情報記憶部53の内容を参照し、最後(最新又は現在)の時間の情報D1に対応する「指間距離」の情報D4を取得する(S71)。イベント検知部55は、取得された「指間距離」と所定値Lthとを比較する(S72)。「指間距離<所定値Lth」の条件を満たす場合には、入力装置1の動作はステップS73に進む。「指間距離<所定値Lth」の条件を満たさない場合には、入力装置1の動作はステップS79に進む。
イベント検知部55は、座標情報記憶部53が保持している情報を基に、近接状態として検知されている指の数が3本か否かを識別する(S73)。入力装置1の動作は、3本の指を検知中であればステップS74に進み、例えば2本の指だけを検知している場合にはステップS77に進む。
3本の指が互いにタッチパネル15から離間した空間上において接触したことが同時に検知された場合には、イベント検知部55は、ステップS74において一定時間(例えば1秒間)だけ待機する(S74)。その後、入力装置1の動作はステップS75に進む。また、イベント検知部55がステップS74において待機している間も、座標情報記憶部53には新たに取得した情報が順次に書き込まれる。また、近接状態の指の数が3の場合には、座標情報記憶部53の「指間距離」の情報D4として3つの指間距離が記憶される。即ち、第1番目の指と第2番目の指との距離を表す第1指間距離と、第1番目の指と第3番目の指との距離を表す第2指間距離と、第2番目の指と第3番目の指との距離を表す第3指間距離とが情報D4として存在する。
ステップS74における待機が終了した後、イベント検知部55は、座標情報記憶部53に記憶されている情報の中で、現在から過去の所定時間以内、即ち、現在から所定時間前まで範囲の全ての「指間距離」の情報D4を取得し、複数の「指間距離」の各々の時系列変化を把握する(S75)。
イベント検知部55は、ステップS75により把握された「指間距離」の時系列変化を予め定められた操作条件と比較することで、複数種類の操作を識別する。具体的には、3本の指が接触した順番の違いに応じて次に示すように異なる操作として識別する。
「3本の指による第1操作」:図12に示す組み合わせCO1のように、「指A」と「指B」とが接触した後に、同図に示す組み合わせCO4のように更に「指C」が接触した場合。
「3本の指による第2操作」:図12に示す組み合わせCO2のように、「指A」と「指C」とが接触した後に、同図に示す組み合わせCO4のように更に「指B」が接触した場合。
「3本の指による第3操作」:図12に示す組み合わせCO1のように、「指A」と「指B」とが接触した後に、同図に示す組み合わせCO2のように「指A」と「指C」とが接触した場合。
「3本の指による第4操作」:図12に示す組み合わせCO2のように「指A」と「指C」とが接触した後に、同図に示す組み合わせCO1のように「指A」と「指B」とが接触した場合。
イベント検知部55は、上述した「3本の指による第1操作」、「3本の指による第2操作」、「3本の指による第3操作」、「3本の指による第4操作」の各条件を満たすか否かを識別し、操作の種類を表す情報と共に「決定イベント」を発行する(S76)。
また、2本の指だけを検知している場合には、イベント検知部55は、例えば「2本の指によるタッチ操作」の種別と共に「決定イベント」を発行する(S77)。
イベント検知部55が「決定イベント」を発行した場合には、入力情報通知部57は、ポインタ座標及び「決定イベント」をアプリケーション処理部58に通知する(S78)。入力情報通知部57が通知する「決定イベント」には、イベントの種類、つまり「3本指の第1操作」、「3本指の第2操作」、「3本指の第3操作」、「3本指の第4操作」、「2本指タッチ操作」の5種類のうちいずれかの操作を区別するための情報も含まれる。
ステップS72において「指間距離<所定値Lth」の条件を満たさない場合には、入力情報通知部57は、ポインタ座標をアプリケーション処理部58に通知する(S79)。
以上により、第4又は第5の実施形態の入力装置1は、ユーザがポインタ座標が指定している操作対象に対する処理の実行の「決定」操作を行う際に、操作する指の組み合わせ又は操作する指の組み合わせの接触する順番の違いにより、「3本指の第1操作」、「3本指の第2操作」、「3本指の第3操作」、「3本指の第4操作」に応じた処理を実行することができる。
これにより、入力装置1は、ユーザの3本指の簡単な操作の違いだけで、複数種類の入力操作を簡易に行わせることができる。
<フォーカスの使用>
上述した実施形態では、図1に示すように、操作対象のオブジェクト(例えばアイコン)或いはオブジェクト上の領域が、ポインタPTが指し示す画面上の位置(点)によって指定されている。このポインタPTの代わりにフォーカスを使用することもできる。
フォーカスとは、画面上で現在選択されている領域を意味している。フォーカスを当てる領域は、ある大きさを有する任意の形状の領域としても良いし、画面DP上に実在する様々なオブジェクトのそれぞれの表示領域としても良い。ポインタPTを用いる場合には、ポインタPTが指定する点は、ポインタ座標の移動に伴って連続的に移動するが、フォーカスを用いる場合には選択されている領域が離散的に移動する場合もある。
以下、上述した各実施形態の入力装置1がポインタPTの代わりにフォーカスを制御する場合の具体例について説明する。図10は、各実施形態の入力装置1を操作する場合の状態遷移の具体例を示す説明図である。即ち、図10では、状態C1から状態C2へ遷移し、続いて状態C2から状態C3へ遷移する様子が示されている。
図10に示すように、入力装置1の操作面である筺体上面に表示部13及びタッチパネル15が配置されている。また、表示部13の画面DP上には、操作可能なコンテンツの可視情報が表示されている。また、操作対象として選択されている領域303がフォーカスFCにより示されている。
フォーカスFCは、フォーカスFCにより示されていない他の領域の表示形態と識別可能となるように、操作対象として選択されている領域を異なる表示形態にて示している。例えば、該当する領域の明るさを通常とは異なる状態にしたり、該当する領域の表示を点滅したり、該当する領域内で表示する画素の密度を変更したり、表示色を変更するような制御を行う。これにより、フォーカスFCの当たっている領域を他の領域と区別した状態で表示することができる。従って、ユーザは画面DP上でフォーカスFCの当たっている領域とそれ以外の領域とを視覚的に区別することができる。図10に示す例では、矩形の領域301,302,303,304のうちいずれか1つに対してフォーカスFCを当てる場合を想定している。
図10に示す状態C1では、ユーザが2本の指F1及びF2を操作面(タッチパネル15)に近接する位置に翳して、「ホバー操作」が行われている様子が示されている。但し、図10に示す状態C1では、2本の指F1,F2の間はある程度離れている。指F1の位置P1は近接座標(x1、y1、z1)で表され、指F2の位置P2は近接座標(x2、y2、z2)で表される。
図10に示す状態C1では、2本の指F1,F2が同時に翳されてあるため、入力装置1は、指F1の位置P1と指F2の位置P2との中間点である位置Pcの座標(xc、yc、zc)を、フォーカスFCをあてるための座標として算出する。更に、入力装置1は、位置Pcの直下にある操作面(タッチパネル15)上の位置Pc2、即ち、位置Pcの操作面(タッチパネル15)に対応する画面DP上の位置である座標(xc、yc)を求め、位置Pc2の座標を基準としてフォーカスFCを当てる領域を決定する。
即ち、図10の状態C1では、入力装置1は、フォーカスFCを当てることが可能な領域301〜304の中で、現在の基準位置である位置Pc2を含む領域303を選択し、この領域303に対してフォーカスFCを当てて表示している。なお、フォーカスFCを当てることが可能な領域301〜304の中に、現在の基準位置である位置Pc2を含む領域が存在しない場合は、入力装置1は、最も近い領域を選択してフォーカスFCを当てて表示する。
図10に示す状態C2は、状態C1からユーザが指F1,F2を含む手全体を矢印A1方向に平行移動した様子を示している。つまり、指F1の位置P1と指F2の位置P2との間隔が一定に維持されたまま、手の平行移動に伴って、位置P1,P2が矢印A1方向に平行移動する。
図10に示す状態C2のように、位置P1,P2が間隔を保持したまま平行移動する場合には、移動中及び移動後に、入力装置1は、フォーカスFCの表示位置を更新する。つまり、入力装置1は、手の平行移動により変化した位置P1,P2に基づいて、中間点の位置Pcの座標(xc、yc、zc)を再び算出する。なお、ここに記載している平行移動とは、絶対的な平行でなく、絶対的な平行移動に近い略平行移動でも良い。位置P1とP2との間隔が所定値以内で変化し、絶対的な平行から多少ずれても良い。また、複数位置の同時移動に関して、時間的に多少の前後があっても良い。
更に、入力装置1は、位置Pcの直下にある操作面(タッチパネル15)上の位置Pc2の座標(xc、yc)を求め、求められた位置Pc2に基づいて領域301〜304の中からいずれか1つを選択し、該当する領域にフォーカスFCを当てて表示する。
図10に示す状態C2では、位置Pc2が含まれる領域304に対してフォーカスFCが当てて表示されている。従って、入力装置1は、ユーザが指の位置を矢印A1方向に移動することで、領域301〜304の各領域を、操作対象として選択している領域として順番に指定することができる。
図10に示す状態C3は、状態C2からユーザが指F1と指F2とを互いに近づけて接触させた様子を示している。指F1と指F2との接触は、ユーザによる「決定」の操作を意味する。即ち、フォーカスFCにより示されている領域304内の操作対象物のオブジェクト(例えばコンテンツのアイコン)に対して処理を実行しても良いのかどうかを確定させるために、「決定」の操作を行う。
図10に示す状態C3になると、入力装置1は、決定操作を受け付ける。具体的には、入力装置1は、指F1の位置P1と指F2の位置P2との距離が所定以下になったことを検知し、フォーカスFCが指定している操作対象のオブジェクトに対する決定操作を受け付ける。
なお、図10に示す例では矩形の領域301〜304のいずれか1つを選択してフォーカスを当てる場合を想定しているが、画面DP上に存在する様々なオブジェクトのいずれか1つを選択してフォーカスを当てるようにしてもよい。例えば、様々なオブジェクトのアイコンが画面上に一定の間隔で並んでいるような場合には、指の位置に基づいて決定した基準位置Pc2に最も近いアイコンの領域を選択してフォーカスの表示FCを行えばよい。
以上により、入力装置1の表示制御部60は、図10に示すように、画面DP上に表示されている操作可能な複数の表示要素(オブジェクト)の中で、ポインタ座標と位置が一致する表示要素、もしくは距離が近い表示要素を選択対象のオブジェクトとして他の表示要素と区別して表示する。これにより、入力装置1は、ユーザの操作対象の領域を、画面DP上に表示されるフォーカスFCを当てて表示させることで、容易に確認させることができる。
以上、図面を参照して各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種実施の形態の変更例または修正例、更に各種実施の形態の組み合わせ例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
本発明は、タッチパネルに対するユーザの入力操作に応じて、画面上に表示されたオブジェクトの直感的な決定処理を簡易に実現する入力装置、入力支援方法及びプログラムとして有用である。
1 入力装置
10 近接検知部
16 電源制御部
17 通信制御部
20 タッチ検知部
51 センサ情報取得部
52 指座標算出部
53 座標情報記憶部
54 指間距離算出部
55 イベント検知部
56 ポインタ座標算出部
57 入力情報通知部
58 アプリケーション処理部
59 時間管理部
60 表示制御部
100 近接座標抽出部
200 タッチ座標抽出部

Claims (8)

  1. 所定の画面を有する表示部と、
    前記画面に対する指の近接を検知可能であり、かつ前記画面に近接した前記指の位置を表す近接座標を検知可能であるタッチパネルと、を備える入力装置において利用可能な入力受付方法であって、
    前記タッチパネルが少なくとも2つの指の近接を同時に検知している状態で、
    前記少なくとも2本の指が互いに接触した場合、第1のイベントを発生させ、前記少なくとも2本の指が互いに1回接触してから離れた場合、第2のイベントを発生させ、前記少なくとも2本の指が互いに2回接触してから離れた場合、第3のイベントを発生させる、
    入力受付方法。
  2. 請求項1に記載の入力受付方法であって、
    前記少なくとも2つの指の間の距離は、前記少なくとも2つの指の前記近接座標に基づき算出する、
    入力受付方法。
  3. 請求項1又は請求項2に記載の入力受付方法であって、
    前記タッチパネルが少なくとも2つの指の近接を同時に検知している状態で、
    前記少なくとも2つの指の各近接座標を基に、前記少なくとも2つの指の位置の中間点に対応する前記画面上の位置にインジケータを表示させる、
    入力受付方法。
  4. 請求項3に記載の入力受付方法であって、
    前記少なくとも2つの指が同時に略平行移動する場合、前記少なくとも2つの指の前記移動にともなって、前記インジケータが移動する、
    入力受付方法。
  5. 請求項3又は請求項4に記載の入力受付方法であって、
    前記インジケータとして、前記画面上にポインタを表示する、
    入力受付方法。
  6. 請求項3から請求項5のいずれか1項に記載の入力受付方法であって、
    前記画面上に表示されている操作可能な複数の表示要素の中で、
    前記インジケータと位置が一致する表示要素、及び/又は、前記インジケータと距離が近い表示要素を、
    他の表示要素と区別して表示する、
    入力受付方法。
  7. 所定の画面を有する表示部と、
    前記画面に対する指の近接を検知可能であり、かつ前記画面に近接した前記指の位置を表す近接座標を検知可能であるタッチパネルと、を備える入力装置であるコンピュータにおいて実行可能な入力受付プログラムであって、
    前記タッチパネルが少なくとも2つの指の近接を同時に検知している状態で、
    前記少なくとも2本の指が互いに接触した場合、第1のイベントを発生させ、前記少なくとも2本の指が互いに1回接触してから離れた場合、第2のイベントを発生させ、前記少なくとも2本の指が互いに2回接触してから離れた場合、第3のイベントを発生させる、
    入力受付プログラム。
  8. 所定の画面を有する表示部と、
    前記画面に対する指の近接を検知可能であり、かつ前記画面に近接した前記指の位置を表す近接座標を検知可能であるタッチパネルと、を備える入力装置であって、
    前記タッチパネルが少なくとも2つの指の近接を同時に検知している状態で、
    前記少なくとも2本の指が互いに接触した場合、第1のイベントを発生させ、前記少なくとも2本の指が互いに1回接触してから離れた場合、第2のイベントを発生させ、前記少なくとも2本の指が互いに2回接触してから離れた場合、第3のイベントを発生させる、
    入力装置。
JP2012101657A 2012-04-26 2012-04-26 入力受付方法、入力受付プログラム、及び入力装置 Active JP5721662B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012101657A JP5721662B2 (ja) 2012-04-26 2012-04-26 入力受付方法、入力受付プログラム、及び入力装置
PCT/JP2013/001800 WO2013161171A1 (ja) 2012-04-26 2013-03-15 入力装置、入力支援方法及びプログラム
US14/395,162 US9329714B2 (en) 2012-04-26 2013-03-15 Input device, input assistance method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012101657A JP5721662B2 (ja) 2012-04-26 2012-04-26 入力受付方法、入力受付プログラム、及び入力装置

Publications (3)

Publication Number Publication Date
JP2013228948A JP2013228948A (ja) 2013-11-07
JP2013228948A5 JP2013228948A5 (ja) 2014-11-13
JP5721662B2 true JP5721662B2 (ja) 2015-05-20

Family

ID=49482529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012101657A Active JP5721662B2 (ja) 2012-04-26 2012-04-26 入力受付方法、入力受付プログラム、及び入力装置

Country Status (3)

Country Link
US (1) US9329714B2 (ja)
JP (1) JP5721662B2 (ja)
WO (1) WO2013161171A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011679A (ja) * 2013-07-02 2015-01-19 シャープ株式会社 操作入力装置及び入力操作処理方法
JP2015053034A (ja) * 2013-08-07 2015-03-19 船井電機株式会社 入力装置
US9645651B2 (en) * 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
KR20150129419A (ko) * 2014-05-12 2015-11-20 한국전자통신연구원 사용자 입력 장치 및 그 방법
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
JP6561562B2 (ja) * 2014-06-30 2019-08-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 加熱調理装置、情報表示装置、制御方法、調理器具、およびコンピュータプログラム
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
JP2016133934A (ja) * 2015-01-16 2016-07-25 シャープ株式会社 情報処理装置、情報処理装置の制御方法、および制御プログラム
CN107430443B (zh) 2015-04-30 2020-07-10 谷歌有限责任公司 基于宽场雷达的手势识别
WO2016176606A1 (en) 2015-04-30 2016-11-03 Google Inc. Type-agnostic rf signal representations
KR102423120B1 (ko) 2015-04-30 2022-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US20160349845A1 (en) * 2015-05-28 2016-12-01 Google Inc. Gesture Detection Haptics and Virtual Tools
JP2017068569A (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US10915220B2 (en) * 2015-10-14 2021-02-09 Maxell, Ltd. Input terminal device and operation input method
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
WO2017200570A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive object with multiple electronics modules
CN106101532B (zh) * 2016-06-13 2019-12-10 惠州Tcl移动通信有限公司 基于移动终端侧边多功能按键调整相机焦距的方法及系统
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
WO2018123231A1 (ja) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 電子機器、入力制御方法、及びプログラム
US10788964B1 (en) * 2019-05-10 2020-09-29 GE Precision Healthcare LLC Method and system for presenting function data associated with a user input device at a main display in response to a presence signal provided via the user input device
CN114424231A (zh) * 2019-09-25 2022-04-29 夏普Nec显示器解决方案株式会社 电子设备、电子设备的管理方法及程序
US11790122B2 (en) * 2020-11-02 2023-10-17 Etakeoff, Llc. Predictive vector guide for construction cost estimation
JP2024168309A (ja) * 2023-05-23 2024-12-05 京セラ株式会社 端末装置、操作方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
WO2002095563A1 (en) 2001-05-21 2002-11-28 Sony Corporation User input apparatus, computer connected to user input apparatus, method of controlling computer connected to user input apparatus, and storage medium
JP4164568B2 (ja) * 2001-10-01 2008-10-15 独立行政法人産業技術総合研究所 文字情報入力装置および文字情報入力方法並びに記録媒体
US20030214481A1 (en) * 2002-05-14 2003-11-20 Yongming Xiong Finger worn and operated input device and method of use
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US20070257891A1 (en) 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
JP2009026155A (ja) 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
US8237666B2 (en) * 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
TW201020896A (en) * 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
JP2011028524A (ja) * 2009-07-24 2011-02-10 Toshiba Corp 情報処理装置、プログラムおよびポインティング方法
JP2011150413A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
KR101184460B1 (ko) * 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
JP5423593B2 (ja) * 2010-06-23 2014-02-19 株式会社Jvcケンウッド 情報処理装置
US8593398B2 (en) * 2010-06-25 2013-11-26 Nokia Corporation Apparatus and method for proximity based input
US8624858B2 (en) * 2011-02-14 2014-01-07 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same
EP2645218A1 (en) * 2012-03-29 2013-10-02 Sony Mobile Communications AB Method for operating an electronic device
US20150160819A1 (en) * 2013-12-06 2015-06-11 Microsoft Corporation Crane Gesture

Also Published As

Publication number Publication date
US20150062033A1 (en) 2015-03-05
US9329714B2 (en) 2016-05-03
WO2013161171A1 (ja) 2013-10-31
JP2013228948A (ja) 2013-11-07

Similar Documents

Publication Publication Date Title
JP5721662B2 (ja) 入力受付方法、入力受付プログラム、及び入力装置
US10216407B2 (en) Display control apparatus, display control method and display control program
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
RU2667047C2 (ru) Способ обеспечения тактильного эффекта в портативном терминале, машинно-считываемый носитель и портативный терминал
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
US10073493B2 (en) Device and method for controlling a display panel
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
CN111665983A (zh) 电子设备及其显示方法
CN106155419A (zh) 选择性地拒绝触摸表面的边缘区域中的触摸接触
JP2009104268A (ja) 座標検出装置、及びタッチパネルを用いた操作方法
JP5342693B2 (ja) 情報入力装置、情報入力方法、及び情報入力プログラム
CN103019577B (zh) 选择对象的方法及装置、控制方法和控制装置
WO2014024363A1 (ja) 表示制御装置、表示制御方法及びプログラム
KR20140030379A (ko) 단말의 표시 제어 방법 및 그 단말
EP2613247A2 (en) Method and apparatus for displaying keypad in terminal having touch screen
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
WO2013161170A1 (ja) 入力装置、入力支援方法及びプログラム
JP5854928B2 (ja) タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法
JP5173001B2 (ja) 情報処理装置、画面表示方法、制御プログラムおよび記録媒体
TW201520882A (zh) 輸入設備及輸入管理系統
JP2012174247A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP6411067B2 (ja) 情報処理装置及び入力方法
JP2015011679A (ja) 操作入力装置及び入力操作処理方法
JP2014056519A (ja) 携帯端末装置、誤操作判定方法、制御プログラムおよび記録媒体
JP6722239B2 (ja) 情報処理装置、入力方法及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131225

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140926

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140926

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20141027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150105

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150324

R150 Certificate of patent or registration of utility model

Ref document number: 5721662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250