[go: up one dir, main page]

JP2015176311A - 端末及び制御方法 - Google Patents

端末及び制御方法 Download PDF

Info

Publication number
JP2015176311A
JP2015176311A JP2014051910A JP2014051910A JP2015176311A JP 2015176311 A JP2015176311 A JP 2015176311A JP 2014051910 A JP2014051910 A JP 2014051910A JP 2014051910 A JP2014051910 A JP 2014051910A JP 2015176311 A JP2015176311 A JP 2015176311A
Authority
JP
Japan
Prior art keywords
sight
line
touch panel
contact
operation state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014051910A
Other languages
English (en)
Other versions
JP6153487B2 (ja
Inventor
直人 塩川
Naoto Shiokawa
直人 塩川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014051910A priority Critical patent/JP6153487B2/ja
Publication of JP2015176311A publication Critical patent/JP2015176311A/ja
Application granted granted Critical
Publication of JP6153487B2 publication Critical patent/JP6153487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 タッチパネルでの入力の操作性を向上させる。
【解決手段】 情報端末10は、情報の表示を行うと共に、接触を検出して表示するオブジェクトに対する当該接触による操作を受け付けるタッチパネル11と、ユーザの視線を検出して、タッチパネル11に表示されるオブジェクトに対する当該視線による操作を受け付ける視線操作部12と、タッチパネル11に表示されるオブジェクトに対する接触による操作状態を検出する操作状態検出部13と、検出される操作状態に応じて、操作がなされているオブジェクトに対して視線操作部12を機能させる制御部14とを備える。
【選択図】 図2

Description

本発明は、タッチパネルを備える端末、及び当該端末の制御方法に関する。
近年、スマートフォン、タブレット端末、PC(パーソナルコンピュータ)等の端末において、タッチパネルの搭載が増えている。これらの端末では、オブジェクトの選択をはじめ、操作のほとんどがタッチパネルで行われる。そのため、これらの端末は、タッチ操作を意識したUI(ユーザインタフェース)となっている。例えば、特許文献1には、このような端末において、タッチパネルに接触してオブジェクトを移動させることが記載されている。
特開2013−105461号公報
ところで、スマートフォン等の端末は、近年、大画面を有するものが主流となっている。大画面のスマートフォンの場合、操作者の指の長さが制限となり、片手操作ではディスプレイ上部の操作が困難な場合がある。タブレット端末及びPCにおいても、画面が大きいため、操作領域が広く、操作性上簡便とは言えない。
本発明は、以上の問題点を解決するためになされたものであり、タッチパネルでの入力の操作性を向上させることができる端末及び制御方法を提供することを目的とする。
上記の目的を達成するために、本発明に係る端末は、情報の表示を行うと共に、接触を検出して表示するオブジェクトに対する当該接触による操作を受け付けるタッチパネルと、操作者の視線を検出して、タッチパネルに表示されるオブジェクトに対する当該視線による操作を受け付ける視線操作手段と、タッチパネルに表示されるオブジェクトに対する接触による操作状態を検出する操作状態検出手段と、操作状態検出手段によって検出される操作状態に応じて、操作がなされているオブジェクトに対して視線操作手段を機能させる制御手段と、を備える。
本発明に係る端末では、タッチパネルでの接触によるオブジェクトに対する操作状態に応じて、当該オブジェクトに対する視線による操作が可能になる。従って、例えば、タッチパネルの画面上で指が届かないところがある場合等の必要な場合に視線による操作が可能となる。これにより、本発明に係る端末によれば、タッチパネルでの入力の操作性を向上させることができる。
制御手段は、操作状態としてオブジェクトの移動状態に応じて、視線操作手段を機能させることとしてもよい。あるいは、制御手段は、操作状態としてオブジェクトへの接触状態に応じて、視線操作手段を機能させることとしてもよい。これら構成によれば、適切かつ確実に視線による操作を可能にさせることができる。即ち、これら構成によれば、適切かつ確実にタッチパネルでの入力の操作性を向上させることができる。
制御手段は、視線操作手段を機能させた後、視線による操作に応じてタッチパネルに表示されるオブジェクトを移動させることとしてもよい。この構成によれば、視線による操作を有効に用いることができ、タッチパネルでの入力の操作性をより向上させることができる。
更には、制御手段は、視線操作手段を機能させた後、接触による操作に応じてタッチパネルに表示されるオブジェクトが移動する方向を検出すると共に視線による操作に応じて当該オブジェクトの移動の目的箇所を決定して、検出された方向及び決定された目的箇所に応じて当該オブジェクトを移動させることとしてもよい。この構成によれば、接触による操作と視線による操作とを併用してタッチパネルでの入力の操作性を更に向上させることができる。
ところで、本発明は、上記のように端末の発明として記述できる他に、以下のように制御方法の発明としても記述することができる。これはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。
即ち、本発明に係る制御方法は、情報の表示を行うと共に、接触を検出して表示するオブジェクトに対する当該接触による操作を受け付けるタッチパネルと、操作者の視線を検出して、タッチパネルに表示されるオブジェクトに対する当該視線による操作を受け付ける視線操作手段と、を備える端末の動作方法である制御方法であって、タッチパネルに表示されるオブジェクトに対する接触による操作状態を検出する操作状態検出ステップと、操作状態検出ステップにおいて検出される操作状態に応じて、操作がなされているオブジェクトに対して視線操作手段を機能させる制御ステップと、を含む。
本発明では、例えば、タッチパネルの画面上で指が届かないところがある場合等の必要な場合に視線による操作が可能となる。これにより、本発明によれば、タッチパネルでの入力の操作性を向上させることができる。
本発明の実施形態に係る端末である情報端末の外観を示す図である。 本発明の実施形態に係る端末である情報端末の機能構成を示す図である。 情報端末の動作(表示画面の遷移)の例を示す図である。 情報端末の動作(表示画面の遷移)の別の例を示す図である。 本発明の実施形態に係る端末である情報端末のハードウェア構成を示す図である。 図3に示す動作の際の本発明の実施形態に係る端末である情報端末で実行される処理である制御方法を示すフローチャートである。 図4に示す動作の際の本発明の実施形態に係る端末である情報端末で実行される処理である制御方法を示すフローチャートである。
以下、図面と共に本発明に係る端末及び制御方法の実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
図1に本実施形態に係る端末である情報端末10を示す。情報端末10は、ユーザ(操作者)に用いられるコンピュータであり、例えば、スマートフォン、タブレット端末及びPCである。情報端末10は、ユーザによって携帯(所持)される携帯型の端末であってもよい。情報端末10は、その筺体にタッチパネル11を備えている。タッチパネル11は、情報を表示し、情報の入力を行うことができる。また、情報端末10は、タッチパネル11と同じ面に設けられる2つの撮像手段であるカメラ12aを備えている。2つのカメラ12aは、ステレオカメラを構成し、後述するようにユーザの視線を検出するための構成である。
引き続いて、情報端末10の本発明に係る機能について説明する。図2に示すように情報端末10は、タッチパネル11と、視線操作部12と、操作状態検出部13と、制御部14とを備えて構成されている。情報端末10は、上記の機能以外にも、移動体通信機能等の通常、スマートフォン等の装置が備える機能を備えていてもよい。
タッチパネル11は、液晶ディスプレイ等の表示画面を有し、当該表示画面に情報を表示する表示装置である。タッチパネル11は、例えば、情報端末10において実行されるオペレーティングシステムやアプリケーションから表示画面に表示する情報を入力して、当該情報を表示する。タッチパネル11に表示される情報には、ユーザが操作可能なオブジェクトが含まれている。
オブジェクトは、例えば、アプリケーションを示すアイコンである。タッチパネル11の表示画面において、アイコンが表示されている位置に、ユーザが指等を触れる(接触する)と当該アイコンが選択される。ユーザが、その位置で指等を離す(接触を外す)とアプリケーションが起動される。ユーザが、アイコンを選択した後、指等を表示画面に接触させたまま移動させる(なぞる)(いわゆる、ドラッグする)と、その移動に応じてアイコンが移動する。上記のアイコンの選択に応じた動作は、制御部14によって従来の技術と同様に行われる。但し、後述するように情報端末10において視線補助モードに移行した場合には、従来の技術とは異なる方法で、一部の表示の制御が制御部14によって行われる。なお、オブジェクトは、アイコンに限られず、例えば、ポインタ等の表示画面に表示され、ユーザによって操作することができるものであればどのようなものでもよい。
タッチパネル11は、表示画面に対する接触(タッチ)を検出(検知)して、当該接触による操作(タッチ操作)を受け付ける。例えば、タッチパネル11は、表示画面に対してユーザの指等が接触することによる静電容量の変化を検出し、これらの変化に基づく操作の入力を行う。即ち、タッチパネル11は、静電式タッチパネルである。また、タッチパネル11は、ユーザの指等が接触することによる圧力の変化を検出するものであってもよい。タッチパネル11は、表示画面における、ユーザの指等が接触された位置を検出して、当該位置における操作の入力を行う。ユーザの指等が接触された位置を示す情報は、具体的には例えば、タッチパネル11の表示画面の座標である。ユーザの指等が接触された位置にオブジェクトが表示されていた場合には、タッチパネル11は、オブジェクトに対する当該接触による操作を受け付ける。なお、タッチパネル11は、従来と同様の構成のものを用いることができる。
タッチパネル11は、受け付けた操作を示す情報を制御部14に出力する。受け付けた操作を示す情報には接触された位置が含まれる。なお、情報端末10では、接触された位置に基づき、操作対象となるオブジェクトが特定される。
視線操作部12は、ユーザの視線を検出(検知)して、タッチパネル11に表示されるオブジェクトに対する当該視線による操作を受け付ける視線操作手段である。視線操作部12は、上述したステレオカメラを構成する2つのカメラ12aを備えている。視線操作部12は、当該カメラ12aによってユーザの顔を撮像し、撮像された顔画像から、ユーザがどの位置を見ているかを検出する。検出される位置は、例えば、タッチパネル11の表示画面上におけるユーザが見ている位置(ユーザの視線の位置)である。視線の位置を検出する構成は、従来と同様の構成のものを用いることができる。視線操作部12は、検出した、視線の位置を示す情報を制御部14に入力する。視線の位置を示す情報は、例えば、タッチパネル11の表示画面上におけるユーザの視線の位置であり、具体的にはタッチパネル11の表示画面の座標である。
視線操作部12による操作の受け付けは、制御部14からの制御によって、当該受け付けの機能が機能するとされた場合のみ行われる。情報端末10において、視線操作部12によって視線による操作を受け付けるモードを視線補助モードと呼ぶ。視線補助モードは、その時アクティブになっている(選択された)対象であるオブジェクトを視線により操作する(操作したい方向の指示を行う)ことが可能な状態である。
操作状態検出部13は、タッチパネル11に表示されるオブジェクトに対する接触による操作状態を検出する操作状態検出手段である。操作状態検出部13は、タッチパネル11を監視しておき、オブジェクトが選択されている状態で、あるいはオブジェクトが選択される際に、特定の操作状態となったことを検出する。特定の操作状態とは、視線補助モードに移行させるトリガとなる状態である。操作状態検出部13は、特定の操作状態になったことを検出するとその旨を制御部14に通知する。
例えば、操作状態検出部13は、オブジェクトに対する接触による操作状態としてオブジェクトの移動状態を検出する。具体的には例えば、操作状態検出部13は、オブジェクトが選択されてドラッグされている状態(ユーザの指等がタッチパネル11の表示画面のアイコンの位置に接触している状態)でオブジェクトが同じ場所で予め設定された時間以上静止し、その後、ユーザの指等が離れた(接触が外れた)こと(「特定の操作状態1」)を検出する。なお、上記の静止前にオブジェクトが移動(ドラッグ)されてもよい。上記の予め設定された時間は、例えば、1秒である。
あるいは、操作状態検出部13は、オブジェクトに対する接触による操作状態としてオブジェクトへの接触状態を検出する。具体的には例えば、操作状態検出部13は、オブジェクトが選択される(ユーザの指等がタッチパネル11の表示画面のアイコンの位置に接触する)際に、複数の指で接触されたこと(「特定の操作状態2」)を検出する。上記の複数の指は、例えば、2本指である。
制御部14は、操作状態検出部13によって検出される操作状態に応じて、操作がなされているオブジェクトに対して視線操作部12を機能させる制御手段である。例えば、制御部14は、操作状態としてオブジェクトの移動状態に応じて、視線操作部12を機能させる。あるいは、制御部14は、操作状態としてオブジェクトへの接触状態に応じて、視線操作部12を機能させる。具体的には、制御部14は、操作状態検出部13から特定の操作状態になったことの通知を受けた場合に視線操作部12を機能させるように制御する。即ち、制御部14は、操作状態検出部13から当該通知を受けると、視線補助モードへ移行させる。なお、視線補助モードへの移行は、視線操作部12による視線による操作の受け付けを行っていない状態から行う状態に移行させるものであってもよい。あるいは、視線補助モードへの移行は、視線操作部12により受け付けられた視線による操作に基づき情報端末10を動作させない状態(この際、視線操作部12による視線による操作の受け付けを行っていてもよい)から、動作させる状態に移行させるものであってもよい。
制御部14は、タッチパネル11によって受け付けられた接触による操作、及び視線操作部12によって受け付けられた視線による操作に応じた処理を行う。具体的には、制御部14は、タッチパネル11への接触によるオブジェクト(例えば、アイコン)の選択に応じた動作を従来の技術と同様に行う。また、制御部14は、上記の接触及び視線による操作に基づき、タッチパネル11に表示されるオブジェクトの選択を受け付けて、選択されたオブジェクトを移動させる。
制御部14は、視線補助モードへ移行させた後、視線による操作に応じてタッチパネル11に表示されるオブジェクトを移動させる。視線による操作によって移動対象となるオブジェクトは、視線補助モードに移行するトリガとなった特定の操作状態の際に選択されているオブジェクトである。具体的には、制御部14は、視線の位置の移動に応じてオブジェクトを移動させる。
例えば、上記の特定の操作状態1をトリガとして視線補助モードへ移行された場合には、制御部14は、オブジェクトがドラッグされている状態を継続して、その時点のオブジェクトの位置(ユーザの指等が離れた位置)を基準として、視線の位置にてドラッグを継続させる。制御部14は、視線の位置の移動と同じように(視線の位置の移動と合わせて)オブジェクトを移動させる。これは、例えば、情報端末がスマートフォンであり、ユーザが片手操作を行っている場合にタッチパネル11の全域にユーザの指が届かない場合に有効である。これにより、視線によるオブジェクトのドラッグが可能となる。この場合、制御部14は、タッチパネル11の表示画面へユーザが再度、接触(タッチ)を行い、当該接触が検出されると視線補助モードを終了させる(視線補助モードをオフとする)。また、この際に合わせて、あるいは、視線補助モードの終了に先立って、オブジェクトをドラッグしている状態(オブジェクトが選択されている状態)を終了させる。
この場合、情報端末10では、例えば、図3に示すように動作する。まず、図3(a)に示すように、ユーザの指30がタッチパネル11の表示画面上に表示されているオブジェクト20の位置に接触され、オブジェクト20が選択される。これにより、移動対象のオブジェクト20が指定される。ユーザの指30が、表示画面に接触したまま動かされるとオブジェクト20はその動きに伴ってタッチパネル11の表示画面上で移動する。即ち、オブジェクト20がドラッグされる。ここでは、ユーザは、タッチパネル11の表示画面の左下から右上の目的箇所(目的地)21までオブジェクトを移動させることを意図している。
続いて、図3(b)に示すように、ユーザは、オブジェクト20を同じ場所で1秒以上静止させ、指をタッチパネル11の表示画面から離す。情報端末10では、操作状態検出部13によって、この操作状態が検出される。続いて、この操作状態をトリガとして、制御部14によって視線補助モードに移行される。また、オブジェクトをドラッグする状態が継続される。
図3(c)に示す視線補助モードでは、視線操作部12によってユーザの視線31の位置が検出される。制御部14の制御によって、当該視線の位置に基づくオブジェクト20のドラッグが継続される。これにより、ユーザは、視線31によってオブジェクト20を目的箇所21に移動させることができる。視線補助モードにおいて、ユーザがタッチパネル11の表示画面へ接触すると、視線補助モードが終了する。
また、制御部14は、視線補助モードへ移行させた後、視線の位置と接触による操作に応じてオブジェクトを移動させこととしてもよい。例えば、上記の特定の操作状態2をトリガとして視線補助モードへ移行された場合には、制御部14は、接触による操作に応じてタッチパネル11に表示されるオブジェクトが移動される方向を検出すると共に視線による操作に応じて当該オブジェクトの移動の目的箇所を決定して、検出された方向及び決定された目的箇所に応じて当該オブジェクトを移動させる。これは、例えば、情報端末10がスマートフォン、タブレット端末及びPCの何れかであり、タッチパネル11の表示画面が大きい場合に有効である。
制御部14は、タッチパネル11からの入力に基づき、視線補助モードへの移行のトリガとなった接触が継続されたまま、接触位置が移動する際の接触位置の移動方向を検出して記憶する。即ち、制御部14は、オブジェクトがドラッグされる(移動される)方向を検出して記憶する。一方で、制御部14は、視線操作部12から入力される、タッチパネル11の表示画面上におけるユーザの視線の位置をオブジェクトの移動の目的箇所として決定して記憶する。方向の検出及び目的箇所の決定は、例えば、リアルタイムに行われる。
制御部14は、現時点のオブジェクトの位置から、上記のように検出した方向に上記のように決定した目的箇所が位置しているか否かを判断する。例えば、現時点のオブジェクトの位置を基準として当該方向から一定の角度の範囲に目的箇所が位置していれば、現時点のオブジェクトの位置から当該方向に当該目的箇所が位置していると判断する。
制御部14は、現時点のオブジェクトの位置から当該方向に当該目的箇所が位置していると判断した場合には、接触を検出しているユーザの指の速度を超える速度でオブジェクトを目的箇所に向けて移動させる。この際の速度は、例えば、指の移動速度のn倍(nは予め任意に設定される1を超える数値)である。また、この際の移動は目的箇所に向けてではなく、検出した方向に移動させることとしてもよい。一方で、制御部14は、現時点のオブジェクトの位置から当該方向に当該目的箇所が位置していないと判断した場合には、接触を検出しているユーザの指の速度でオブジェクトを当該方向に移動させる。これにより、オブジェクトの高速ドラッグと高速ドラッグ中の微調整が可能となる。
上記の場合、制御部14は、タッチパネル11の表示画面からユーザの指が離れた(ユーザの接触が外れた)ことが検出されると、視線補助モードを終了させる(視線補助モードをオフとする)。また、この際に合わせて、あるいは、視線補助モードの終了に先立って、オブジェクトをドラッグしている状態(オブジェクトが選択されている状態)を終了させる。
この場合、情報端末10では、例えば、図4に示すように動作する。まず、図4(a)に示すように、ユーザの2本の指30がタッチパネル11の表示画面上に表示されているオブジェクト20の位置に接触され、オブジェクト20が選択される。これにより、移動対象のオブジェクト20が指定される。情報端末10では、操作状態検出部13によって、この操作状態が検出される。続いて、この操作状態をトリガとして、制御部14によって視線補助モードに移行される。
図4(b)に示すように、ユーザは、指30をタッチパネル11の表示画面に接触させたまま、オブジェクト20を動かすために移動させる。情報端末10では、タッチパネル11による接触の検出に基づいて、制御部14によってオブジェクト20が移動された方向22(オブジェクト20の移動の方向22)が検出(判断)される。それと同時に図4(c)に示すように、ユーザの視線31の位置が、タッチパネル11の表示画面上におけるオブジェクト20の目的箇所21に向けられる。視線操作部12によって検出された視線の位置が、制御部14によって、オブジェクト20の目的箇所21として決定(設定)される。
続いて、制御部14によって、現時点のオブジェクト20の位置から当該方向22に当該目的箇所21が位置しているか否かが判断される。現時点のオブジェクト20の位置から当該方向22に当該目的箇所21が位置していると判断された場合には、図4(d)に示すように、制御部14によって、接触を検出しているユーザの指30の移動速度を超える速度でオブジェクト20が目的箇所21に向けて移動される。この場合、視線による操作は、視線だけの操作ではなくタッチ操作によるドラッグの補助の位置付けである。
現時点のオブジェクト20の位置から当該方向22に当該目的箇所21が位置していないと判断された場合には、図4(e)に示すように、接触を検出しているユーザの指30の移動速度で(ユーザの指30の移動通りに)オブジェクト20を当該方向22に移動させる。
これは、オブジェクト20が目的箇所21を越えてしまった場合の対応を可能としたものである。指30の接触をし直すことなく、現在、指30のある位置のまま連続的な操作を可能とする。基本的には、上記の通り目的箇所21が設定されているので問題とならない。しかしながら、デバイス依存である視線検出(視線検知)の精度により誤差が出る場合がある。上記の操作は、その誤差が出た場合の補正等を目的とする。視線補助モードにおいて、ユーザがタッチパネル11の表示画面から指30を離すと、オブジェクト20のドラッグが終了され、視線補助モードが終了する。なお、以上の例では、ユーザが指30でタッチパネル11に接触しているが、指30以外でタッチパネル11に接触することとしてもよい。以上が、情報端末10の本発明に係る機能である。
引き続いて、図5に本実施形態に係る情報端末10のハードウェア構成を示す。図4に示すように、情報端末10は、CPU(Central Processing Unit)101、RAM(RandomAccess Memory)102、ROM(Read Only Memory)103、移動体通信モジュール104及びアンテナ105等のハードウェアにより構成されている。また、情報端末10は上述したようにハードウェアとしてタッチパネル11及びカメラ12aを備えている。これらの構成要素がプログラム等により動作することにより、上述した機能が発揮される。以上が、情報端末10の構成である。
引き続いて、図6及び図7のフローチャートを用いて、本実施形態に係る端末である情報端末10で実行される処理(情報端末10の動作方法)である制御方法を説明する。まず、図6のフローチャートを用いて、図3に示す動作の際に実行される処理を説明する。
本処理は、タッチパネル11の表示画面上にオブジェクト20が表示された状態で開始される。本処理では、ユーザが指30でタッチパネル11の表示画面のオブジェクト20が表示されている箇所に接触する。タッチパネル11によって、当該オブジェクト20が表示されている箇所への接触が検出(検知)される(S01)。タッチパネル11によって検出された接触に関する情報は制御部14に入力され、制御部14によって接触操作に応じた処理が行われる。また、操作状態検出部13によって、タッチパネル11に表示されるオブジェクト20に対する接触による操作状態が検出される(操作状態検出ステップ)。上記のようにオブジェクト20が表示されている箇所へ接触されると、当該オブジェクト20が選択された状態となる。
続いて、ユーザが、タッチパネル11の表示画面に接触したまま、接触位置を移動させると、タッチパネル11によって当該接触操作が検出される。それに応じて、制御部14の制御によって、タッチパネル11の表示画面上のオブジェクト20が移動される(S02、図3(a))。上記のようにユーザのタッチパネル11に対する接触操作に応じた処理が行われる。
ユーザのタッチパネル11への接触操作の間、オブジェクト20が同じ場所で1秒以上静止され、その後、タッチパネル11からの接触状態が外れた(例えば、指がタッチパネル11の表示画面から離れた)操作状態となったか否かが、操作状態検出部13によって判断される(S03、操作状態検出ステップ)。上記の操作状態になっていないと判断された場合(S03のNO)には、引き続き、ユーザのタッチパネル11に対する接触操作に応じた処理(S01、S02)が行われる。
上記の操作状態になっていると判断された場合(S03のYES、図3(b))(即ち、上記の操作状態が検出(検知)された場合)、その旨が操作状態検出部13から制御部14に通知される。続いて、制御部14によって、視線補助モードへ移行される(S04、制御ステップ)。視線補助モードでは、視線操作部12によって、ユーザの視線31が検出(検知)される(S05)。視線操作部12によって検出された視線に関する情報は制御部14に入力される。それに応じて、制御部14の制御によって、タッチパネル11の表示画面上のオブジェクト20が移動される(S06、制御ステップ、図3(c))。タッチパネル11への接触があることが検出されるまで(S07のNO)、ユーザの視線操作に応じた処理(S05、S06)が行われる。
ユーザの視線操作の間、タッチパネル11への接触があったことが検出された場合(S07のYES)、制御部14によって、オブジェクトのドラッグが終了される(オブジェクトの選択状態が解除される)(S08)。また、制御部14によって、視線補助モードが終了される(S09)。以上が、図3に示す動作の際に情報端末10で実行される処理である。
続いて、図7のフローチャートを用いて、図4に示す動作の際に実行される処理を説明する。本処理は、タッチパネル11の表示画面上にオブジェクト20が表示された状態で開始される。本処理では、ユーザがタッチパネル11の表示画面のオブジェクト20が表示されている箇所に2本指30で接触する。タッチパネル11によって、当該オブジェクト20が表示されている箇所への2本指接触が検出(検知)される。タッチパネル11によって検出された接触に関する情報は制御部14に入力され、制御部14によって接触操作に応じた処理が行われる。上記のようにオブジェクト20が表示されている箇所へ接触されると、当該オブジェクト20が選択された状態となる。
また、操作状態検出部13によって、タッチパネル11に表示されるオブジェクト20に対する接触による操作状態が検出される。操作状態検出部13によって、上記の操作状態が検出される(S11、操作状態検出ステップ、図4(a))。上記の検出の旨は操作状態検出部13から制御部14に通知される。続いて、制御部14によって、視線補助モードへ移行される(S12、制御ステップ)。
視線補助モードでは、タッチパネル11による接触の検出に基づいて、制御部14によってオブジェクトの移動方向22が検出(判断)される(S13、制御ステップ、図4(b))。その一方で、視線操作部12によって、ユーザの視線31が検出される。視線操作部12によって検出された視線31の位置が、制御部14によって、オブジェクト20の目的箇所21として決定される(S14、制御ステップ、図4(c))。
続いて、制御部14によって、検出された方向22及び決定された目的箇所21に応じて、オブジェクト20が移動される(S15、制御ステップ)。具体的には、現時点のオブジェクト20の位置から当該方向22に当該目的箇所21が位置している場合には、接触を検出しているユーザの指30の移動速度を超える速度でオブジェクトが目的箇所21に向けて移動される(図4(d))。現時点のオブジェクト20の位置から当該方向22に当該目的箇所21が位置していない場合には、接触を検出しているユーザの指30の移動速度でオブジェクト20を当該方向22に移動させる(図4(e))。
タッチパネル11への接触が外れる(ユーザの2本指がタッチパネルから離れる)ことが検出されるまで(S16のNO)、ユーザの接触操作及び視線操作に応じた処理(S13〜S15)が行われる。
ユーザの接触操作及び視線操作の間、タッチパネル11への接触が外れたことが検出(検知)された場合(S16のYES)、制御部14によって、オブジェクトのドラッグが終了される(オブジェクトの選択状態が解除される)(S17)。また、制御部14によって、視線補助モードが終了される(S18)。以上が、図4に示す動作の際に情報端末10で実行される処理である。
上述したように本実施形態では、タッチパネル11での接触によるオブジェクト20に対する操作状態に応じて、当該オブジェクト20に対する視線による操作が可能になる。従って、ユーザが接触操作のみでは十分な操作が可能でないと判断した場合に、特定の操作状態とすることで視線による操作を可能とすることができる。即ち、タッチ操作のサポート機能の位置付けとして、必要な場合のみに視線による補助操作を可能とすることができる。必要な場合とは、例えば、ユーザが片手操作を行う場合にタッチパネル11の一部に指が届かない場合(指が操作限界領域に達した場合)や、タッチパネル11の表示画面が大きいため操作領域が広く操作しにくい場合である。これにより、本実施形態によれば、タッチパネル11での入力の操作性を向上させることができる。
なお、タッチ操作を前提としたUIの場合、常に視線入力であることは一概に操作が容易になるとは限らず、操作性がよいとはいえない。そこで本実施形態のように、必要な場合のみに情報端末における設定操作ではなく、オブジェクト20に対する操作状態に応じて視線入力を可能とすることで、ユーザに自然に視線入力に移行させることができ、スムーズに操作を継続させることができる。
また、視線補助モードへの移行は、図3に示したようなオブジェクトの移動状態である特定の操作状態をトリガとしてもよい。あるいは、図4に示したようなオブジェクト20への接触状態である特定の操作状態をトリガとしてもよい。これら構成によれば、適切かつ確実に視線補助モードへの移行を可能にさせることができる。即ち、これら構成によれば、適切かつ確実にタッチパネル11での入力の操作性を向上させることができる。但し、視線補助モードへの移行は、上述したトリガに限られず、オブジェクト20に対するタッチパネル11への接触による特定の操作状態に基づくものであればよい。
また、本実施形態のように視線入力をオブジェクト20の移動をさせることとしてもよい。この構成によれば、視線による操作を有効に用いることができ、タッチパネル11での入力の操作性をより向上させることができる。但し、オブジェクト20の移動以外の操作を行うこととしてもよい。
更には、図4に示したように接触による操作と視線による操作とを併用することもできる。視線操作では、通常、ユーザに細かな操作を行わせることが難しいが、タッチ操作によって微調整を可能とすることができる。これにより、タッチパネル11での入力の操作性を更に向上させることができる。
なお、本実施形態では、視線の検出は、情報端末10が備える2つのカメラ12a(ステレオカメラ)を用いて行うこととしたが、視線の検出が可能であればどのような構成のものを用いてもよい。
また、本実施形態では、視線操作による処理は、オブジェクトを移動させるものであったが、オブジェクトの移動以外のものであってもよい。
10…情報端末、11…タッチパネル、12…視線操作部、12a…カメラ、13…操作状態検出部、14…制御部、101…CPU、102…RAM、103…ROM、104…移動体通信モジュール、105…アンテナ。

Claims (6)

  1. 情報の表示を行うと共に、接触を検出して表示するオブジェクトに対する当該接触による操作を受け付けるタッチパネルと、
    操作者の視線を検出して、前記タッチパネルに表示されるオブジェクトに対する当該視線による操作を受け付ける視線操作手段と、
    前記タッチパネルに表示されるオブジェクトに対する接触による操作状態を検出する操作状態検出手段と、
    前記操作状態検出手段によって検出される前記操作状態に応じて、操作がなされているオブジェクトに対して前記視線操作手段を機能させる制御手段と、
    を備える端末。
  2. 前記制御手段は、前記操作状態として前記オブジェクトの移動状態に応じて、前記視線操作手段を機能させる請求項1に記載の端末。
  3. 前記制御手段は、前記操作状態として前記オブジェクトへの接触状態に応じて、前記視線操作手段を機能させる請求項1又は2に記載の端末。
  4. 前記制御手段は、前記視線操作手段を機能させた後、前記視線による操作に応じて前記タッチパネルに表示される前記オブジェクトを移動させる請求項1〜3の何れか一項に記載の端末。
  5. 前記制御手段は、前記視線操作手段を機能させた後、前記接触による操作に応じて前記タッチパネルに表示される前記オブジェクトが移動する方向を検出すると共に前記視線による操作に応じて当該オブジェクトの移動の目的箇所を決定して、検出された方向及び決定された目的箇所に応じて当該オブジェクトを移動させる請求項4に記載の端末。
  6. 情報の表示を行うと共に、接触を検出して表示するオブジェクトに対する当該接触による操作を受け付けるタッチパネルと、操作者の視線を検出して、前記タッチパネルに表示されるオブジェクトに対する当該視線による操作を受け付ける視線操作手段と、を備える端末の動作方法である制御方法であって、
    前記タッチパネルに表示されるオブジェクトに対する接触による操作状態を検出する操作状態検出ステップと、
    前記操作状態検出ステップにおいて検出される前記操作状態に応じて、操作がなされているオブジェクトに対して前記視線操作手段を機能させる制御ステップと、
    を含む制御方法。
JP2014051910A 2014-03-14 2014-03-14 端末及び制御方法 Active JP6153487B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014051910A JP6153487B2 (ja) 2014-03-14 2014-03-14 端末及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014051910A JP6153487B2 (ja) 2014-03-14 2014-03-14 端末及び制御方法

Publications (2)

Publication Number Publication Date
JP2015176311A true JP2015176311A (ja) 2015-10-05
JP6153487B2 JP6153487B2 (ja) 2017-06-28

Family

ID=54255458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014051910A Active JP6153487B2 (ja) 2014-03-14 2014-03-14 端末及び制御方法

Country Status (1)

Country Link
JP (1) JP6153487B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010584A (ja) * 2016-07-15 2018-01-18 アイシン・エィ・ダブリュ株式会社 操作支援装置及びコンピュータプログラム
CN109426351A (zh) * 2017-09-04 2019-03-05 富士施乐株式会社 信息处理装置以及存储介质
JP2019046320A (ja) * 2017-09-05 2019-03-22 富士ゼロックス株式会社 情報処理装置、画像形成装置、および、プログラム
JP2020197942A (ja) * 2019-06-03 2020-12-10 株式会社デンソー 入力装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120083312A1 (en) * 2010-10-05 2012-04-05 Kim Jonghwan Mobile terminal and operation control method thereof
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2013196267A (ja) * 2012-03-19 2013-09-30 Konica Minolta Inc 画像形成装置、画像形成装置の制御方法、及び画像形成装置の制御プログラム
JP2013242671A (ja) * 2012-05-18 2013-12-05 Fujitsu Ltd タブレット端末および操作受付プログラム
JP2013254355A (ja) * 2012-06-07 2013-12-19 Ntt Docomo Inc 表示装置、表示方法及びプログラム
JP2014006640A (ja) * 2012-06-22 2014-01-16 Ntt Docomo Inc 表示装置、表示方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120083312A1 (en) * 2010-10-05 2012-04-05 Kim Jonghwan Mobile terminal and operation control method thereof
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2013196267A (ja) * 2012-03-19 2013-09-30 Konica Minolta Inc 画像形成装置、画像形成装置の制御方法、及び画像形成装置の制御プログラム
JP2013242671A (ja) * 2012-05-18 2013-12-05 Fujitsu Ltd タブレット端末および操作受付プログラム
JP2013254355A (ja) * 2012-06-07 2013-12-19 Ntt Docomo Inc 表示装置、表示方法及びプログラム
JP2014006640A (ja) * 2012-06-22 2014-01-16 Ntt Docomo Inc 表示装置、表示方法及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010584A (ja) * 2016-07-15 2018-01-18 アイシン・エィ・ダブリュ株式会社 操作支援装置及びコンピュータプログラム
CN109426351A (zh) * 2017-09-04 2019-03-05 富士施乐株式会社 信息处理装置以及存储介质
JP2019046252A (ja) * 2017-09-04 2019-03-22 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019046320A (ja) * 2017-09-05 2019-03-22 富士ゼロックス株式会社 情報処理装置、画像形成装置、および、プログラム
JP2021140833A (ja) * 2017-09-05 2021-09-16 富士フイルムビジネスイノベーション株式会社 情報処理装置、画像形成装置、プログラム、および、システム
JP7279737B2 (ja) 2017-09-05 2023-05-23 富士フイルムビジネスイノベーション株式会社 情報処理装置、画像形成装置、プログラム、および、システム
JP2020197942A (ja) * 2019-06-03 2020-12-10 株式会社デンソー 入力装置

Also Published As

Publication number Publication date
JP6153487B2 (ja) 2017-06-28

Similar Documents

Publication Publication Date Title
KR102141099B1 (ko) 신속한 스크린 분할 방법 및 장치, 전자 디바이스, 디스플레이 인터페이스, 및 저장 매체
US9323444B2 (en) Device, method, and storage medium storing program
EP3617861A1 (en) Method of displaying graphic user interface and electronic device
EP3163404B1 (en) Method and device for preventing accidental touch of terminal with touch screen
CN107124508B (zh) 悬浮控件的位置调整方法、装置及终端、可读存储介质
US10042386B2 (en) Information processing apparatus, information processing method, and program
US20140380209A1 (en) Method for operating portable devices having a touch screen
EP2657811A1 (en) Touch input processing device, information processing device, and touch input control method
TW201329835A (zh) 顯示控制裝置、顯示控制方法及電腦程式
JP2012194842A (ja) 情報処理装置、情報処理方法およびプログラム
US9256359B2 (en) Touch control method and electronic device using the same
US20180032243A1 (en) Methods and devices for moving icons between different pages
EP2613247A2 (en) Method and apparatus for displaying keypad in terminal having touch screen
TWM486792U (zh) 行動裝置
KR20130097331A (ko) 터치 스크린을 구비하는 전자기기에서 객체를 선택하기 위한 장치 및 방법
CN107728910B (zh) 电子装置、显示屏控制系统及方法
JP6153487B2 (ja) 端末及び制御方法
JP6102474B2 (ja) 表示装置、入力制御方法、及び入力制御プログラム
CN107850980A (zh) 便携式终端装置以及便携式终端装置的控制方法
US20170075453A1 (en) Terminal and terminal control method
JP5628991B2 (ja) 表示装置、表示方法、及び表示プログラム
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
US10599326B2 (en) Eye motion and touchscreen gestures
JP5820414B2 (ja) 情報処理装置及び情報処理方法
US11009991B2 (en) Display control apparatus and control method for the display control apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170530

R150 Certificate of patent or registration of utility model

Ref document number: 6153487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250