[go: up one dir, main page]

JP2004021528A - 携帯情報機器 - Google Patents

携帯情報機器 Download PDF

Info

Publication number
JP2004021528A
JP2004021528A JP2002174493A JP2002174493A JP2004021528A JP 2004021528 A JP2004021528 A JP 2004021528A JP 2002174493 A JP2002174493 A JP 2002174493A JP 2002174493 A JP2002174493 A JP 2002174493A JP 2004021528 A JP2004021528 A JP 2004021528A
Authority
JP
Japan
Prior art keywords
user
portable information
main body
sensor
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002174493A
Other languages
English (en)
Other versions
JP4447823B2 (ja
Inventor
Poupyrev Iwan
イワン プピレフ
Eijiro Mori
森 栄二郎
Carsten Schwesig
カーステン シュヴェージグ
Jiyunichi Rekimoto
暦本 純一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002174493A priority Critical patent/JP4447823B2/ja
Priority to US10/456,186 priority patent/US7456823B2/en
Publication of JP2004021528A publication Critical patent/JP2004021528A/ja
Application granted granted Critical
Publication of JP4447823B2 publication Critical patent/JP4447823B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Calculators And Similar Devices (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

【課題】機器に対する物理的なインタラクションを機器への汎用的なインターフェースとして用いる。
【解決手段】機器本体の正面側に視覚的ディスプレイを配設するとともに、その背面側にタッチ・センサを配設する。ユーザは、機器正面の表示スクリーン上の表示内容を確認しながら、その背面で指を走査して座標指示を行なう。また、機器本体の左右両端縁に操作部がヒンジ結合されており、回転センサにより操作部の回転操作をジェスチャ入力として取得する。ユーザは、ジェスチャ入力と座標指示入力を透過的に行なうことができる。
【選択図】 図3

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザからの入力動作に応答して所定の情報処理サービスを提供する携帯情報機器に係り、特に、機器に標準で装備されている入力装置を介したユーザ入力に応答して動作する携帯情報機器に関する。
【0002】
さらに詳しくは、本発明は、複雑な入力オペレーションを比較的簡単なユーザ動作で実現する携帯情報機器に係り、特に、ユーザの物理的なジェスチャを受容する物理的なユーザ・インターフェースを備えて入力操作を簡単にした携帯情報機器に関する。
【0003】
【従来の技術】
人の手は、極めて優秀なツールである。すなわち、手や指が持つ多数の自由度を効果的にコントロールすることによってさまざまの複雑な操作を成し遂げることができる。例えば、バイオリニストなどの音楽家は、弓で弦を同時に2つの方向(例えば弦と同じ方向並びにこれを横切る方向)に弾いたり、同時に弦に異なる張力を印加することができる。
【0004】
これと同様に、最近のコンピュータにおいては、マウスやペンなどの入力装置を用いて、コンピュータ・スクリーン上で位置と力を同時に入力することができる。例えば、マウスでスクリーン上の特定の場所を指示しながらボタンを押下したり、タブレット上でペンを押下操作する。
【0005】
また、S. Zhai、P. Milgram共著の論文”Human performance evaluation of manipulation schemes in virtual environments”(Proceedings of VRAIS’93. 1993. IEEE. pp. 155−61)では、位置制御(アイソトニック・コントロール)と力制御(アイソメトリック・コントロール)は、マニュアル・コントロールの生理学的及び心理学的メカニズムが相違し、人間にとって基本的には制御方向が直交関係にある、ということが示唆されている。
【0006】
携帯型若しくはハンドヘルド型の機器においては、データ入力が難作業であり、効果的なインタラクションを行なえない、ということが長らく重要な課題であった。通常、携帯型機器における入力機能は、例えばタッチ・スクリーンを介したペン入力や、ボタン、ジョグダイヤル式のコントローラなどに限定される。また、タッチ・スクリーンを用いた場合、スクリーンの表示内容を遮ったり、ペンの使用がしばしば必要になったり、タッチ・センサが持つ解像度の限界のためにペン入力が困難になることがある。
【0007】
タッチ・スクリーンを介したインタラクションは、GUIインターフェース・オブジェクトに対する連続的な操作を直接行なうといったような、ある特定のインタラクションにおいては推奨される。例えば、地図をズームするために、スクロールやズーム機能を連続的に適用しなければならない場合などである。このような入力オペレーションを単一のジェスチャで実現することができれば、作業は著しく簡素化され、ユーザの負担を軽減することができる。
【0008】
ユーザが携帯型コンピュータに対して物理的なジェスチャを印加することによってすべてのコンピュータ操作を行なったり、さまざまなタスクを実現するという物理的なユーザ・インターフェースに関する提案も幾つかなされている。
【0009】
例えば、米国特許第6,243,074号明細書には、処理されたデータ構造に関する情報を表示するフィードバック・モジュールと、ユーザの手操作を検出するディテクタを備え、手操作に応答してデータ構造の表示形態を変更する携帯型機器について開示されている。また、米国特許第5,602,566号明細書には、片手で持つことができ、機器本体の傾きに応じて画面をスクロールさせる小型情報処理装置について開示されている。これらの場合、ユーザが機器に印加したアクションを機器本体に内蔵されたセンサが検出することによって、インターフェースをコントロールするようになっている。
【0010】
また、J. Rekimoto著の論文”Tilting operations for small screen interfaces”( Proceedings of UIST’96. 1996. ACM. pp. 167−168)には、傾斜センサを用いて機器の傾きを検出して、これを情報表示におけるスクロールに使用するという小型表示インターフェースについて開示されている。
【0011】
しかしながら、これらのインターフェースは、ある特定の機能を実現することに着目したものである。言い換えれば、コンピュータに対する物理的なインタラクションは非同期的なものと考えられており、例えば、他のアクションを形成した後にユーザ・アクションが続く。複数のジェスチャを透過的に組み合わせて取り扱える機器というものは、これまで開発されてこなかった。
【0012】
例えば、R. Balakrishnan、G. Fitzmaurice、G. Kurtenbach、K. Singh共著の論文”Exploring interactive curve and surface manipulation using a bend and twist sensitive input strip”(Proceedings of Symposium on Interactive 3D graphics. 1999. ACM. pp. 111−118)や米国特許第5,396,265号明細書には、回転センサを用いて互いに機械的に接続されている感知部品を撓ませるという、可撓性のインターフェースについて開示されている。しかしながら、このようなインターフェースは、単に形を生成するという作業に着目したに過ぎず、携帯型機器やさらには一般的な機器インターフェースに適用するという汎用インターフェースを提案するものではない。
【0013】
例えば、スペース・ボールなどの力検出装置を用いて、デスクトップ・コンピュータのための物理的インタラクションが実現されている。しかしながら、この種の装置の用途は、一般に、3次元空間におけるナビゲーションなどに限定されたものである。
【0014】
【発明が解決しようとする課題】
本発明の目的は、複雑な入力オペレーションを比較的簡単なユーザ動作で実現することができる、優れた携帯情報機器を提供することにある。
【0015】
本発明のさらなる目的は、ユーザの物理的なジェスチャを受容する物理的なユーザ・インターフェースを備えて入力操作を簡単にすることができる、優れた携帯情報機器を提供することにある。
【0016】
本発明のさらなる目的は、ユーザが行なう複数のジェスチャを透過的に組み合わせて機器に対する入力として取り扱うことができる、優れた携帯情報機器を提供することにある。
【0017】
本発明のさらなる目的は、機器に対する物理的なインタラクションを機器への汎用的なインターフェースとして用いることができる、優れた携帯情報機器を提供することにある。
【0018】
【課題を解決するための手段及び作用】
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、ユーザ入力に応答して動作する携帯情報機器であって、
機器本体と、
前記機器本体に対してユーザが印加した物理的インタラクションを取得するジェスチャ入力手段と、
ユーザ入力に応じた処理を実行する処理手段と、
を具備することを特徴とする携帯型情報機器である。
【0019】
例えば機器本体を曲げる、撓ませるといったジェスチャをユーザ入力として採取することによって、ユーザは自分の感情や衝動に従って直感的に機器操作を行なうことができるので、効率的な物理的インタラクションを実現することができる。
【0020】
本発明に係る携帯型情報機器は、前記機器本体正面に配設されて、前記処理手段による処理結果を視覚的に表示する視覚的ディスプレイと、前記機器本体背面に配設されて、ユーザの指先による操作に応じてディスプレイ・スクリーン上で方向入力又は座標指示入力を行なう方向入力手段とをさらに備えていてもよい。
【0021】
また、本発明に係る携帯型情報機器は、前記処理手段による処理結果を力覚的にユーザにフィードバックする力覚提示部をさらに備えていてもよい。このような場合、前記ジェスチャ入力手段を介して機器本体に有効に印加された物理的インタラクションの程度や回数などを、ユーザに力覚的にフィードバックすることができる。
【0022】
前記ジェスチャ入力手段は、例えば、前記機器本体の左右両端に回動自在に結合された操作部と、前記操作部の前記機器本体に対する回転操作量を検出する回転センサと、前記回転センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することができる。
【0023】
このような場合、ユーザはそれぞれの手で左右の操作部をつかんで、機器本体に対して操作部を撓ませることができる。このとき、回転センサによって検出された回転操作量はジェスチャ入力として取得される。
【0024】
機器本体に対して操作部を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0025】
このようなジェスチャ入力は、視覚的ディスプレイの表示内容を確認しながら行なうことができる。また、ユーザは機器本体の左右側縁をつかんでジェスチャ入力を行なうことから、表示スクリーンが遮られるというオクルージョンの問題はない。
【0026】
また、ユーザは、機器正面の表示スクリーン上の表示内容を確認しながら、その背面で指を走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。また、正面側の視覚的ディスプレイ上にGUI操作画面を用意するとともに、背面側のタッチ・センサ上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ上での2次元的な座標指示入力と視覚的ディスプレイ上でのGUI操作を連動させてもよい。
【0027】
あるいは、前記機器本体を可撓性の構造体にすることによって、前記ジェスチャ入力手段は、ユーザによる物理的インタラクションによる前記機器本体の撓み量を検出する撓みセンサと、前記撓みセンサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することができる。そして、前記撓みセンサは前記機器本体の撓み量と撓み方向を検出して、撓み量と撓み方向の組み合わせに対してコンピュータ上のデータやコマンドをマッピングすることができる。
【0028】
このような場合、機器本体が変形することから、視覚的ディスプレイには有機EL素子のような可撓性の表示装置を利用するとともに、可撓性の静電容量型メッシュ・センサをタッチ・センサに利用するようにすればよい。
【0029】
あるいは、前記ジェスチャ入力手段は、前記機器本体の左右両端に取り付けられた操作部と、前記機器本体に対して前記操作部を変形させる外力を検出する力センサと、前記回転センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することができる。この場合、ユーザが機器本体を撓ませるような外力を操作部に印加すると、力センサがこれをジェスチャ入力として検出することができる。
【0030】
あるいは、前記ジェスチャ入力手段は、前記機器本体を変形させようと印加された外力を検出する圧力センサと、前記圧力センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することもできる。
【0031】
例えば、ユーザが機器本体の端部を親指と人差し指等で挟み込むように摘んで、撓ませるような外力を印加すると、圧力センサが親指から印加される圧力をジェスチャ入力として検出する。
【0032】
また、機器本体の上下の各面に力センサを配設することによって、単に力の強度を検出するだけでなく、ユーザが印加する物理的インタラクションの方向、すなわち前記機器本体を上下いずれの方向に撓ませようとしているかを判別することができる。
【0033】
また、前記処理手段は、前記ジェスチャ入力手段を介したジェスチャ入力と前記方向入力手段を介した方向入力を同時で透過的に処理するようにしてもよい。
【0034】
このような場合、前記処理手段は、前記方向入力手段を介して指定された前記ディスプレイ・スクリーン上のオブジェクトに対して、前記ジェスチャ入力手段を介した物理的インタラクションに応じた処理を適用するようことができる。
【0035】
例えば、前記方向入力手段を介した指示座標を基に地図の表示場所をスクロールしながら、入力されたジェスチャに応じて縮尺を切り替えていく(物理的な操作量の増大とともにズームさせていく)といったインタラクションを行なうことができる。
【0036】
また、前記ジェスチャ入力手段は、ユーザが前記機器本体に印加した物理的インタラクションの強度を検出する力センサで構成され、前記処理手段は、前記力センサによる連続的なセンサ出力をインターフェース・コントロールのためのアナログ値として取り扱うようにしてもよい。そして、前記ジェスチャ手段を介してどれだけのアナログ値が入力されたかを、力感的提示部によってユーザに力覚的にフィードバックするようにしてもよい。
【0037】
あるいは、前記処理手段は、前記力センサによるセンサ出力が所定の閾値を越えたことに応答して、システムに対するコマンドを発行したり、インターフェースの状態や動作モードを切り替えたり、その他のGUIオペレーションを実行するなど、システム・オペレーションを制御するようにしてもよい。また、前記ジェスチャ手段を介した物理的インタラクションが有効に作用したことをユーザに力覚的に通知するようにしてよい。
【0038】
例えば、ユーザは、方向入力手段を介してメニュー上の所望の要素が選択し、さらに機器本体を撓ませるような物理的インタラクションを行なえばよい。そして、このとき印加された外力が所定の閾値に到達したことに応答して、該当するメニュー・コマンドが実行される。
【0039】
あるいは、前記処理手段は、前記力センサにより検出された力のパターンを認識して特定のコマンドとして取り扱うようにしてもよい。
【0040】
例えば、機器本体を同じ方向又は逆方向に撓ませたり、異なる時刻に撓ませたり、所定の間隔を置いて撓ませたりすることによって、さまざまなジェスチャを作ることができる。そして、これら個々のジェスチャのパターンに対して、システム・オペレーション上のコマンドを割り当てることができる。
【0041】
また、前記ジェスチャ手段を介した物理的インタラクションの認識並びに該当するコマンドの実行が成功したことをユーザに力覚的に通知するようにしてもよい。
【0042】
要するに、本発明は、コンピュータ・インターフェースが方向入力若しくは座標指示と力の伝達を同時に行なうことができるコンピュータ・インターフェースを提供するものである。多元的なユーザ入力を同時に行なうことができるので、操作性が高まるとともにインタラクションの表現力が増す。
【0043】
このようなユーザ入力の組み合わせを用いることは、とりわけハンドヘルド若しくは携帯型、携行型のコンピュータにおいて効果的であり、ユーザに豊かなインタラクションをもたらすことができる。
【0044】
このようなインターフェースによれば、ユーザは、相違する直交性の情報に関するインタラクションを単一のジェスチャだけで実現することができる。例えば、市街地の地図をスクロールしながら同時に縮尺を変えていくといったインタラクションを単一のジェスチャにより行なうことができる。
【0045】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0046】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態について詳解する。
【0047】
図1には、本発明の一実施形態に係る携帯型機器100のハードウェア構成を模式的に示している。
【0048】
同図に示すように、携帯型機器100は、メイン・コントローラとしてのプロセッサ・ユニット108と、ユーザ入力を行なうインターフェースとして力センサ101、撓みセンサ102、圧力センサ103、回転センサ104、並びにユーザが2次元位置を入力するためのタッチ・センサ105と、ユーザ出力を行なうインターフェースとしての視覚的ディスプレイ106並びに力覚的(Tactile)ディスプレイ109を備えている。
【0049】
プロセッサ・ユニット108は、例えば、処理エンジンとしてのCPU(Central Processing Unit)と、実行プログラムをロードしたり作業データを一時保存するRAM(Random Access Memory)、プログラム・コードやその他のデータを恒久的に格納するROM(Read Only Memory)などの組み合わせで構成され、オペレーティング・システム(OS)が提供する実行環境下で、ユーザのジェスチャなどの物理的なインタラクションを利用したアプリケーションを実行する。
【0050】
視覚的ディスプレイ106は、例えば液晶表示ディスプレイ(LCD)などで構成され、プロセッサ・ユニット108における処理結果を視覚表示する。
【0051】
また、タッチ・センサ105は、例えば、視覚的ディスプレイ106に重畳されていてもよい。あるいは、機器100本体の視覚的ディスプレイ106とは反対側(すなわち、機器100の背面側)に配設されている。後者の場合、ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面を指先で走査することによって2次元的な座標指示を行なうことができる。したがって、座標指示を行なう指先が視覚的ディスプレイ106の表示スクリーンを遮ることはない。
【0052】
力覚的ディスプレイ109は、プロセッサ・ユニット108における処理結果を力覚的にフィードバックするためのデバイスである。力覚的ディスプレイ109に任意の制御信号を印加することにより、力覚パターンを自由に変更することができる。プロセッサ・ユニット108は処理結果データに従って電圧の時間関数である制御信号を生成すればよい。例えば、多層ピエゾ可撓性アクチュエータで力覚的ディスプレイ109を構成することができる。多層ピエゾ・アクチュエータは、上層ピエゾ・アクチュエータと、下層ピエゾ・アクチュエータからなり、上層及び下層の各ピエゾ・アクチュエータに対して逆方向の電圧を印加することによって、上層を収縮させると同時に下層を拡張させて、多層ピエゾ可撓性アクチュエータ全体としては、上方あるいは下方に撓ませることができる。なお、力覚的ディスプレイに関しては、本出願人に既に譲渡されている特願2002−18228号明細書に記述されている。
【0053】
力センサ101、撓みセンサ102、圧力センサ103、回転センサ104は、ユーザのジェスチャなどの物理的なインタラクションを検出して、コンピュータ・データとして取り込むためのデバイスである。物理的なインタラクションを取得するために、携帯型機器100がこれらすべてのセンサ101〜104を装備する必要はなく、これらのうち少なくとも1つを備えていればよい。
【0054】
データ取得部107は、これらのセンサ出力をデジタライズしてプロセッサ・ユニット108に供給する。そして、プロセッサ・ユニット108においては、タッチ・センサ105からの2次元位置の入力と、データ取得部107を介したジェスチャ入力とを同時で透過的に処理することにより、相違する直交性の情報に関するインタラクションを単一のジェスチャだけで実現することができる。プロセッサ・ユニット108は、例えば、市街地の地図をスクロールしながら同時に縮尺を変えていくといったインタラクションを提供する。ジェスチャを基調とするインタラクションは、直感的で効率的であり、また楽しい。
【0055】
図2には、携帯型機器100の外観構成の一例を示している。同図に示す例では、携帯型機器100本体の左右両端縁にそれぞれ操作部111が回動可能にヒンジ結合されている。また、ヒンジ部分には回転センサ104が装備されており、機器100本体に対する操作部111の回転操作量を検出することができる。
【0056】
例えば、ユーザは図示のようにそれぞれの手で左右の操作部111をつかんで、機器100本体に対して操作部111を撓ませることができる。このとき、回転センサ104によって検出された回転操作量はジェスチャ入力としてデータ取得部107を介してプロセッサ・ユニット108に与えられる。このようなジェスチャ入力は、視覚的ディスプレイ106の表示内容を確認しながら行なうことができる。ユーザは機器100本体の左右側縁をつかんでジェスチャ入力を行なうことから、表示スクリーンが遮られるというオクルージョンの問題はない。
【0057】
機器100本体に対して操作部111を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0058】
また、図3には、図2に示した携帯型機器100の変形例を示している。
【0059】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。したがって、ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面を指先で走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。また、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0060】
プロセッサ・ユニット108では、左右の操作部111を用いたジェスチャ入力と、タッチ・センサ105を介した2次元的な座標指示入力を同時で透過的に処理することができる。例えば、市街地の地図表示アプリケーションにおいて、タッチ・センサ105による指示座標を基に地図の表示場所をスクロールしながら、ジェスチャすなわち操作部111の回転操作量に応じて縮尺を切り替えていく(回転操作量の増大とともにズームさせていく)といったインタラクションを行なうことができる。
【0061】
図4には、携帯型機器100のさらに他の変形例を示している。
【0062】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面のタッチ・センサ105上を指先で走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。
【0063】
勿論、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0064】
また、この変形例では、ジェスチャ入力の手段として、機器100本体に対する操作部の回転量ではなく、機器100本体に印加される撓みを利用する。この場合、機器100本体に内蔵されている撓みセンサ102からのセンサ出力を基にユーザの物理的なインタラクションを計測する。そして、プロセッサ・ユニット108は、データ取得部107を介してジェスチャ入力を取得する。
【0065】
この実施形態では、ジェスチャ入力に応じて機器100本体が変形する。このため、視覚的ディスプレイ106には有機EL素子のような可撓性の表示装置を利用するとともに、可撓性の静電容量型メッシュ・センサをタッチ・センサ105に利用するようにすればよい。
【0066】
図5には、携帯型機器100のさらに他の変形例を示している。
【0067】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面のタッチ・センサ105上を指先で走査することによって2次元的な座標指示を行なうことができるので、座標指示を行なう指先が表示スクリーンを遮ることはない。
【0068】
勿論、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0069】
また、同図に示す例では、携帯型機器100本体の左右両端縁にそれぞれ操作部111が力センサ101を介して連結されている。したがって、ユーザが機器100本体を撓ませるような外力を操作部111に印加すると、力センサ101がこれをジェスチャ入力として検出する。
【0070】
したがって、ユーザは、機器100本体の左右を両手で把持して、視覚的ディスプレイ106を眺めながら親指を押し付けることによって、座標指示入力と同時に透過的なジェスチャ入力を行なうことができる。機器100本体を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0071】
この実施形態では、ジェスチャ入力に応じて機器100本体が変形することはないので、視覚的ディスプレイ106として可撓性のデバイスを使用する必要は必ずしもない。
【0072】
図6には、携帯型機器100のさらに他の変形例を示している。
【0073】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面のタッチ・センサ105上を指先で走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。
【0074】
勿論、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0075】
また、この変形例では、ジェスチャ入力の手段として、機器100本体の左右の両端には、表裏双方に圧力センサ103が配設されている。したがって、ユーザが機器100本体の端部を親指と人差し指等で挟み込むように摘んで、撓ませるような外力を印加すると、圧力センサ103が親指から印加される圧力をジェスチャ入力として検出する。
【0076】
したがって、ユーザは、機器100本体の左右を両手で把持して視覚的ディスプレイ106を眺めながら、親指と人差し指等で挟み込んだ姿勢で機器100本体の表面をせり出すように上方向に撓ませる力を印加したり、あるいは表面を凹ませるように下方向に力を印加することによって、座標指示入力と同時に透過的なジェスチャ入力を行なうことができる。機器100本体を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0077】
この実施形態では、ジェスチャ入力に応じて機器100本体が変形することはないので、視覚的ディスプレイ106として可撓性のデバイスを使用する必要は必ずしもない。
【0078】
圧力センサ103を用いてジェスチャ入力を実現するためのメカニズムを、図7〜図8を参照しながら説明する。
【0079】
図7に示すように、2つの圧力センサ103が機器100本体の正面及び背面にそれぞれ貼設されている。そして、一方の手の親指並びに人差し指等を用いて各々の面で圧力センサ103に触れている。
【0080】
ユーザは、このように親指並びに人差し指等で挟み込むように摘んで、機器100本体の表面をせり出すように上方向に撓ませる力を印加したり、あるいは表面を凹ませるような下方向に力を印加することができる。ユーザが機器100本体に対していずれの方向に力を印加しているかは、正面及び背面それぞれに配設した圧力センサ103間のセンサ出力の差分によって検出することができる。すなわち、正面側の圧力センサ103の出力の方が背面側よりも大きければ下方向の力が印加され、下方向へのジェスチャ入力が行なわれていると判断される(図8を参照のこと)。
【0081】
勿論、圧力センサ103を正面又は背面のいずれか一方にのみ配設して、構造を簡素化してもよい。このような場合、力の印加はいずれか一方においてのみ可能で、また圧力の大小のみでジェスチャ入力が行なわれる。
【0082】
本発明は、コンピュータ・インターフェースが座標指示と力の伝達を同時に行なうことができるコンピュータ・インターフェースを提供するものである。図3〜図6に示したように、本発明に係る携帯型機器100における必須の構成として、タッチ・パネル105を機器100本体の背面に配設することが挙げられる。このような構成により、ユーザは、機器本体の左右両端を両手で把持することにより、ごく自然に機器100を持つことができる。そして、ユーザは、手で機器100本体に力を伝達してジェスチャ入力を行なうと同時に、タッチ・パネル105上に置いた指先を自由に移動することによって、座標指示入力を透過的に行なうことができる。
【0083】
このようなコンピュータ・インターフェースによれば、キーボードやマウス、ペンなどを使用しなくても、ハンドヘルド型のコンピュータに対して複雑なインタラクションを実現することができる。また、機器の視覚的ディスプレイ106を遮るという問題もない。したがって、このコンピュータ・インターフェースを、小型の表示ディスプレイしか持たない機器と組み合わせることにより、快適な操作環境を提供することができる。
【0084】
携帯型機器100は、タッチ・パネル105上に指先を置いて座標指示のためのインタラクションを行ないながら、ユーザが機器本体に力を印加してジェスチャ入力インタラクションを行ない易いようなフォームファクタを備えていることが好ましい。
【0085】
本実施形態に係る携帯型機器100によれば、視覚的ディスプレイ106によって提供された表示情報又はGUIオブジェクトに対して座標指示入力を行なうと同時に、ジェスチャ入力に応答して指示された特定の位置に対してさらなる処理を適用することができる。以下では、本実施形態に係る携帯型機器100におけるこのようなデータの同時入力の方法について説明する。
【0086】
(1)座標指示入力と連続的な力制御の組み合わせ:
この場合、ユーザが機器100本体に印加する力は、インターフェース・コントロールにおけるアナログ値にマッピングされる。
【0087】
例えば、視覚的ディスプレイ106上に地図を表示して、機器100本体背面のタッチ・パネル105を利用して地図上の場所を指示すると同時に、ユーザの物理的インタラクションを力センサ101で検出して、このセンサ出力に従って地図の縮尺をコントロールする。そして、機器100本体に印加された撓み量が小さければ視覚的ディスプレイ106上の地図表示を拡大又は縮小する。また、機器100が剛体で力を加えても実際には変形しない場合には、どれだけのアナログ値が機器100本体に入力されたかを力覚的ディスプレイ109を用いてユーザにフィードバックするようにしてもよい。
【0088】
(2)座標指示入力と閾値を越えた力制御の組み合わせ:
ユーザが機器100本体に印加した力が所定の閾値を越えたときに、システムに対するコマンドを発行したり、インターフェースの状態や動作モードを切り替えたり、その他のGUIオペレーションを実行する。
【0089】
例えば、ユーザは、タッチ・パネル105を介してメニュー上のセレクタを移動してメニューを閲覧することができる。所望の要素が選択されたときに、さらに機器100本体を撓ませるような物理的インタラクションを行なえばよい。そして、このとき印加された外力が所定の閾値に到達したことに応答して、該当するメニュー・コマンドが実行される。ユーザが行なったジェスチャの力が所定レベルに到達して、物理的インタラクションが有効に作用したことを、例えば力覚的ディスプレイ109を用いてユーザに通知するようにしてもよい。
【0090】
(3)座標指示入力とジェスチャ・ベースの力制御:
機器100本体に印加された力のパターンを認識して、特定のコマンドとして取り扱う。
【0091】
例えば、ユーザは視覚的ディスプレイ106上で表示されている地図上で所望の位置をタッチ・パネル105を介して走査して、さらに、機器100本体を垂直方向に2回だけ瞬時に撓ませることによって、画面表示を切り替える。
【0092】
このような場合、例えば機器100本体を同じ方向又は逆方向に撓ませたり、異なる時刻に撓ませたり、所定の間隔を置いて撓ませたりすることによって、さまざまなジェスチャを作ることができる。そして、機器100本体に印加した物理的インタラクションの認識並びに該当するコマンドの実行が成功したことを、例えば力覚的ディスプレイ109を用いてユーザに通知するようにしてもよい。
【0093】
図9には、ジェスチャ入力を利用したシステム・オペレーションをフローチャートの形式で示している。このような処理は、実際には、所定のプログラム・コードを起動するプロセッサ・ユニット108が、ジェスチャ入力並びにタッチ・パネル105を介した座標指示入力を同時且つ透過的に取り扱うことによって実現される。
【0094】
まず、タッチ・パネル105を介した指示座標値(X,Y)、並びに力センサ101で検出された力F、若しくは撓みセンサ102、圧力センサ103、回転センサ104を介したジェスチャを入力する(ステップS1)。
【0095】
ここで、ユーザがジェスチャを形成した場合(例えば、機器100本体を2回だけ変形させる)には(ステップS2)、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS3)、メニューを表示するなど所定のアクションを実行する(ステップS4)。また、ユーザがジェスチャを行なわなかった場合には、入力データの読み込みを継続する(ステップS5)。
【0096】
また、タッチ・パネル105を介した座標指示入力が行なわれた場合には、支持座標に対応するGUIオブジェクトを探索する(ステップS6)。
【0097】
次いで、指定されたGUIオブジェクトがメニュー項目やハイパーリンクなどの選択可能なオブジェクトかどうかを判別する(ステップS7)。
【0098】
そして、指定されたGUIオブジェクトが選択可能である場合には、さらに、ジェスチャ入力により機器100本体に印加された力Fが所定の閾値を越える(あるいは、ジェスチャ入力の程度が所定レベルを越える)かどうかを判別する(ステップS8)。
【0099】
力Fが所定の閾値を越える場合には、入力されたジェスチャを有効化して、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS9)、選択されたメニューの実行やハイパーリンクの探索など、指示座標に基づくコマンドを発行する(ステップS10)。また、力Fが所定の閾値に達しないなどジェスチャ入力が有効化されなかった場合には、入力データの読み込みを継続する(ステップS11)。
【0100】
また、ステップS7において、選択可能なGUIオブジェクトが指示されていないと判断された場合には、さらに、このGUIオブジェクトが縮尺や色合い、サイズといった連続的な値をコントロールするものかどうかを判別する(ステップS12)。
【0101】
GUIオブジェクトが連続的な値をコントロールするものである場合には、機器100本体に印加された力F(あるいは、その他の入力されたジェスチャ)を、地図表示のズームなど制御値の変更にマッピングする(ステップS13)。そして、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS14)、入力データの読み込みを継続する(ステップS15)。
【0102】
また、ステップS12における判断結果が否定的である場合には、指示されたGUIオブジェクトがヘルプやプレビュー、他のビューなどの付加的な情報レイヤを持つかどうかをさらに判別する(ステップS16)。
【0103】
付加的な情報レイヤを持つ場合には、ジェスチャ入力による連続的なコントロールが可能かどうかを判別する(ステップS17)。そして、ジェスチャ入力による連続的なコントロールが可能である場合には、機器100本体に印加された力F(あるいは、その他の入力されたジェスチャ)を、ズーム・イン/アウトやブレンドなど付加的な情報レイヤにマッピングする(ステップS18)。そして、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS19)、入力データの読み込みを継続する(ステップS20)。
【0104】
一方、ジェスチャ入力による連続的なコントロールが可能でない場合には、さらに、機器100本体に印加された力Fが所定の閾値を越える(あるいは、ジェスチャ入力の程度が所定レベルを越える)かどうかを判別する(ステップS21)。力Fが所定の閾値を越える場合には、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS22)、ポップ・アップ・ヘルプなどの付加的な情報を表示する(ステップS23)。また、力Fが所定の閾値に達しないなどジェスチャ入力が有効化されなかった場合には、入力データの読み込みを継続する(ステップS24)。
【0105】
また、ステップS16において、指示されたGUIオブジェクトが付加的な情報を持たないと判別された場合には、入力データの読み込みを継続する(ステップS25)。
【0106】
以上説明してきたように、本実施形態に係るジェスチャ入力は、マウスやタッチ・スクリーン、キーボードなどを使用しないハンドヘルド型の機器におけるインタラクションに利用することができる。例えば以下のような用途を挙げることができる。
【0107】
▲1▼ディスプレイ・スクリーンのための先進的なリモート・コントロール
▲2▼TV受像機のための先進的なリモート・コントロール(図10を参照のこと)
▲3▼PDA(Personal Digital Assistant)やその他の個人情報の閲覧や管理
▲4▼携帯電話機
▲5▼電子ブック
▲6▼ハンドヘルド型のゲーム・コントローラ
【0108】
図10には、本実施形態に係るジェスチャ入力をTV受像機などのオーディオ機器用リモート・コントローラに適用した様子を示している。同図に示すような実施形態においては、ユーザはリモート・コントローラ本体を上下各方向に曲げるという物理的インタラクションを印加する。このとき、曲げ量又は本体に印加する力の強弱のパターンを変える。そして、リモート・コントローラ内ではこのようなジェスチャを機器コントロール用のデータやコマンドにデコードして、機器本体に転送する。
【0109】
[追補]
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0110】
【発明の効果】
以上詳記したように、本発明によれば、複雑な入力オペレーションを比較的簡単なユーザ動作で実現することができる、優れた携帯情報機器を提供することができる。
【0111】
また、本発明によれば、ユーザの物理的なジェスチャを受容する物理的なユーザ・インターフェースを備えて入力操作を簡単にすることができる、優れた携帯情報機器を提供することができる。
【0112】
また、本発明によれば、ユーザが行なう複数のジェスチャを透過的に組み合わせて機器に対する入力として取り扱うことができる、優れた携帯情報機器を提供することができる。
【0113】
また、本発明によれば、機器に対する物理的なインタラクションを機器への汎用的なインターフェースとして用いることができる、優れた携帯情報機器を提供することができる。
【0114】
本発明によれば、コンピュータ・インターフェースが座標指示と力の伝達を同時に行なうことができるコンピュータ・インターフェースを提供することができる。すなわち、多元的なユーザ入力を同時に行なうことができるので、操作性が高まるとともにインタラクションの表現力が増す。
【0115】
このようなユーザ入力の組み合わせを用いることは、とりわけハンドヘルド若しくは携帯型、携行型のコンピュータにおいて効果的であり、マウスやタッチ・パネル、キーボードなどを用いなくても、ユーザに豊かなインタラクションをもたらすことができる。また、本発明に係るインターフェースは、表示スクリーンとは干渉しないので、ジェスチャによるインタラクションにおいてスクリーンの表示内容が遮られることはない。
【0116】
本発明に係るインターフェースによれば、ユーザは、相違する直交性の情報に関するインタラクションを単一のジェスチャだけで実現することができる。ジェスチャを基調とするインタラクションは、直感的で効率的であり、また楽しい。
【0117】
本発明に係るインターフェースによれば、小型のハンドヘルド・コンピュータ上で、2次元的な座標指示と力入力を同時で透過的に行なうことができる。例えば、市街地の地図をスクロールしながら同時に縮尺を変えていくといったインタラクションを単一のジェスチャにより行なうことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る携帯型機器100のハードウェア構成を模式的に示した図である。
【図2】携帯型機器100の外観構成の一例を示した図である。
【図3】図2に示した携帯型機器100の変形例を示した図である。
【図4】図2に示した携帯型機器100の変形例を示した図である。
【図5】図2に示した携帯型機器100の変形例を示した図である。
【図6】図2に示した携帯型機器100の変形例を示した図である。
【図7】圧力センサ103を用いてジェスチャ入力を実現するためのメカニズムを説明するための図である。
【図8】圧力センサ103を用いてジェスチャ入力を実現するためのメカニズムを説明するための図である。
【図9】ジェスチャ入力を利用したシステム・オペレーションを示したフローチャートである。
【図10】ジェスチャ入力の応用例を示した図である。
【符号の説明】
100…携帯型情報機器
101…力センサ,102…撓みセンサ
103…圧力センサ,104…回転センサ
105…タッチ・パネル
106…視覚的ディスプレイ
107…データ取得部
108…プロセッサ・ユニット
109…力覚的ディスプレイ
111…操作部

Claims (19)

  1. ユーザ入力に応答して動作する携帯情報機器であって、
    機器本体と、
    前記機器本体に対してユーザが印加した物理的インタラクションを取得するジェスチャ入力手段と、
    ユーザ入力に応じた処理を実行する処理手段と、
    を具備することを特徴とする携帯型情報機器。
  2. 前記機器本体正面に配設されて、前記処理手段による処理結果を視覚的に表示する視覚的ディスプレイと、
    前記機器本体背面に配設されて、ユーザの指先による操作に応じてディスプレイ・スクリーン上で方向入力を行なう方向入力手段と、
    をさらに備えることを特徴とする請求項1に記載の携帯型情報機器。
  3. 前記処理手段による処理結果を力覚的にユーザにフィードバックする力覚提示部をさらに備える、
    ことを特徴とする請求項1に記載の携帯型情報機器。
  4. 前記ジェスチャ入力手段は、
    前記機器本体の左右両端に回動自在に結合された操作部と、
    前記操作部の前記機器本体に対する回転操作量を検出する回転センサと、
    前記回転センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部と、
    を備えることを特徴とする請求項1に記載の携帯型情報機器。
  5. 前記機器本体は可撓性であり
    前記ジェスチャ入力手段は、
    ユーザによる物理的インタラクションによる前記機器本体の撓み量を検出する撓みセンサと、
    前記撓みセンサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部と、
    を備えることを特徴とする請求項1に記載の携帯型情報機器。
  6. 前記撓みセンサは前記機器本体の撓み量と撓み方向を検出する、
    ことを特徴とする請求項5に記載の携帯型情報機器。
  7. 前記機器本体正面に配設されて、前記処理手段による処理結果を視覚的に表示する可撓性の視覚的ディスプレイと、
    前記機器本体背面に配設されて、ユーザの指先による操作に応じて方向入力を行なう可撓性の方向入力手段と、
    をさらに備えることを特徴とする請求項5に記載の携帯型情報機器。
  8. 前記ジェスチャ入力手段は、
    前記機器本体の左右両端に取り付けられた操作部と、
    前記機器本体に対して前記操作部を変形させる外力を検出する力センサと、
    前記回転センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部と、
    を備えることを特徴とする請求項1に記載の携帯型情報機器。
  9. 前記ジェスチャ入力手段は、
    前記機器本体を変形させようと印加された外力を検出する圧力センサと、
    前記圧力センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部と、
    を備えることを特徴とする請求項1に記載の携帯型情報機器。
  10. 前記圧力センサは前記機器本体の上下の各面に配設されて、ユーザが該左右両端をつかんで前記機器本体を上方向及び/又は下方向に撓ませようとする圧力を検出する、
    ことを特徴とする請求項9に記載の携帯型情報機器。
  11. 前記力センサは前記機器本体に対して印加された力の大きさと力の方向を検出する、
    ことを特徴とする請求項9に記載の携帯型情報機器。
  12. 前記機器本体正面に配設されて、前記処理手段による処理結果を視覚的に表示する視覚的ディスプレイと、
    ディスプレイ・スクリーン上での方向入力を行なう方向入力手段をさらに備え、
    前記処理手段は、前記ジェスチャ入力手段を介したジェスチャ入力と前記方向入力手段を介した方向入力を同時で透過的に処理する、
    ことを特徴とする請求項1に記載の携帯型情報機器。
  13. 前記処理手段は、前記方向入力手段を介して指定された前記ディスプレイ・スクリーン上のオブジェクトに対して、前記ジェスチャ入力手段を介した物理的インタラクションに応じた処理を適用する、
    ことを特徴とする請求項12に記載の携帯型情報機器。
  14. 前記ジェスチャ入力手段は、ユーザが前記機器本体に印加した物理的インタラクションの強度を検出する力センサで構成され、
    前記処理手段は、前記力センサによる連続的なセンサ出力をインターフェース・コントロールのためのアナログ値として取り扱う、
    ことを特徴とする請求項1に記載の携帯型情報機器。
  15. 前記ジェスチャ手段を介してどれだけのアナログ値が入力されたかをユーザに力覚的にフィードバックする力覚的提示部をさらに備える、
    ことを特徴とする請求項14に記載の携帯型情報機器。
  16. 前記ジェスチャ入力手段は、ユーザが前記機器本体に印加した物理的インタラクションの強度を検出する力センサで構成され、
    前記処理手段は、前記力センサによるセンサ出力が所定の閾値を越えたことに応答してシステム・オペレーションを制御する、
    ことを特徴とする請求項1に記載の携帯型情報機器。
  17. 前記ジェスチャ手段を介した物理的インタラクションが有効に作用したことをユーザに力覚的に通知する力覚的提示部をさらに備える、
    ことを特徴とする請求項16に記載の携帯型情報機器。
  18. 前記ジェスチャ入力手段は、ユーザが前記機器本体に印加した物理的インタラクションの強度を検出する力センサで構成され、
    前記処理手段は、前記力センサにより検出された力のパターンを認識して特定のコマンドとして取り扱う、
    ことを特徴とする請求項1に記載の携帯型情報機器。
  19. 前記ジェスチャ手段を介した物理的インタラクションの認識並びに該当するコマンドの実行が成功したことをユーザに力覚的に通知する力覚的提示部をさらに備える、
    ことを特徴とする請求項18に記載の携帯型情報機器。
JP2002174493A 2002-06-14 2002-06-14 携帯情報機器 Expired - Fee Related JP4447823B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002174493A JP4447823B2 (ja) 2002-06-14 2002-06-14 携帯情報機器
US10/456,186 US7456823B2 (en) 2002-06-14 2003-06-06 User interface apparatus and portable information apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002174493A JP4447823B2 (ja) 2002-06-14 2002-06-14 携帯情報機器

Publications (2)

Publication Number Publication Date
JP2004021528A true JP2004021528A (ja) 2004-01-22
JP4447823B2 JP4447823B2 (ja) 2010-04-07

Family

ID=31173446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002174493A Expired - Fee Related JP4447823B2 (ja) 2002-06-14 2002-06-14 携帯情報機器

Country Status (1)

Country Link
JP (1) JP4447823B2 (ja)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023892A (ja) * 2004-07-07 2006-01-26 Sony Computer Entertainment Inc 操作入力装置、及びそれを用いた端末装置
JP2007293407A (ja) * 2006-04-21 2007-11-08 E-Lead Electronic Co Ltd 背負い式入力装置
JP2009034918A (ja) * 2007-08-02 2009-02-19 Brother Ind Ltd プリンタ、及び、画像出力装置
JP2010160775A (ja) * 2009-01-08 2010-07-22 Prime View Internatl Co Ltd フレキシブルディスプレイ装置用タッチコントロール構造
JP2011118244A (ja) * 2009-12-04 2011-06-16 Sony Corp 表示装置及び表示装置の制御方法
WO2012063069A1 (en) * 2010-11-10 2012-05-18 Jt Consultancy Limited A simulator including a controller
JP2012512454A (ja) * 2008-12-15 2012-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザインタフェース装置及び方法
JP2012199697A (ja) * 2011-03-18 2012-10-18 Kyocera Corp 携帯電子機器
JP2012208758A (ja) * 2011-03-30 2012-10-25 Brother Ind Ltd 入力装置及び画像表示装置
JP2012531658A (ja) * 2009-06-25 2012-12-10 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置および方法
US8330590B2 (en) 2008-10-02 2012-12-11 Sony Corporation User interface feedback apparatus, user interface feedback method, and program
JP2013516703A (ja) * 2010-01-06 2013-05-13 クアルコム,インコーポレイテッド 力感知式入力を提供するためのユーザインターフェースの方法およびシステム
JP2013178759A (ja) * 2012-02-08 2013-09-09 Immersion Corp ハプティック・フレックス・ジェスチャリングのための方法及び装置
JP2013196313A (ja) * 2012-03-19 2013-09-30 Yahoo Japan Corp 情報処理装置及び方法
KR101345343B1 (ko) 2006-11-24 2013-12-27 삼성전자 주식회사 제어 객체의 움직임에 따른 피드백 제공을 위한 방법 및장치
CN103853514A (zh) * 2012-12-04 2014-06-11 联想(北京)有限公司 一种信息处理的方法及电子设备
KR101454685B1 (ko) * 2012-02-29 2014-10-27 주식회사 팬택 플렉서블 디스플레이의 휘어짐을 이용해서 인터페이스 제공하는 장치, 휴대용 단말 및 방법
JP2014216025A (ja) * 2013-04-26 2014-11-17 イマージョンコーポレーションImmersion Corporation 折り畳み可能・折り曲げ可能ディスプレイとのインタラクションに対する触覚フィードバック
JP2015529915A (ja) * 2012-08-23 2015-10-08 サムスン エレクトロニクス カンパニー リミテッド フレキシブル装置及びその制御方法
KR20160104177A (ko) * 2015-02-25 2016-09-05 삼성디스플레이 주식회사 폴더블 디스플레이 장치
US9451064B2 (en) 2009-10-26 2016-09-20 Lg Electronics Inc. Mobile terminal
JP2016177802A (ja) * 2011-04-08 2016-10-06 株式会社村田製作所 操作デバイス
KR101753582B1 (ko) * 2009-11-03 2017-07-06 엘지전자 주식회사 휴대용 단말기
JP2017201533A (ja) * 2009-07-22 2017-11-09 イマージョン コーポレーションImmersion Corporation 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法
EP3262487A1 (en) * 2015-02-25 2018-01-03 Immersion Corporation Systems and methods for user interaction with a curved display
JP2018088264A (ja) * 2013-04-26 2018-06-07 イマージョン コーポレーションImmersion Corporation フレキシブルディスプレイのための、受動的剛性及び能動的変形の触覚出力装置
WO2020085069A1 (ja) * 2018-10-22 2020-04-30 ソニー株式会社 触覚提示装置及び触覚提示制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123760A (ja) * 1994-10-26 1996-05-17 Matsushita Electric Ind Co Ltd 携帯型電子機器
JPH08194667A (ja) * 1995-01-20 1996-07-30 Matsushita Electric Ind Co Ltd 情報処理装置
JPH11312040A (ja) * 1998-01-12 1999-11-09 Xerox Corp コンピュ―タユ―ザインタフェ―ス及びコンピュ―タ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123760A (ja) * 1994-10-26 1996-05-17 Matsushita Electric Ind Co Ltd 携帯型電子機器
JPH08194667A (ja) * 1995-01-20 1996-07-30 Matsushita Electric Ind Co Ltd 情報処理装置
JPH11312040A (ja) * 1998-01-12 1999-11-09 Xerox Corp コンピュ―タユ―ザインタフェ―ス及びコンピュ―タ

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023892A (ja) * 2004-07-07 2006-01-26 Sony Computer Entertainment Inc 操作入力装置、及びそれを用いた端末装置
JP2007293407A (ja) * 2006-04-21 2007-11-08 E-Lead Electronic Co Ltd 背負い式入力装置
KR101345343B1 (ko) 2006-11-24 2013-12-27 삼성전자 주식회사 제어 객체의 움직임에 따른 피드백 제공을 위한 방법 및장치
JP2009034918A (ja) * 2007-08-02 2009-02-19 Brother Ind Ltd プリンタ、及び、画像出力装置
US8154739B2 (en) 2007-08-02 2012-04-10 Brother Kogyo Kabushiki Kaisha Printer and image output apparatus
US8330590B2 (en) 2008-10-02 2012-12-11 Sony Corporation User interface feedback apparatus, user interface feedback method, and program
JP2012512454A (ja) * 2008-12-15 2012-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザインタフェース装置及び方法
JP2010160775A (ja) * 2009-01-08 2010-07-22 Prime View Internatl Co Ltd フレキシブルディスプレイ装置用タッチコントロール構造
EP2207079B1 (en) * 2009-01-08 2019-08-21 Prime View International Co., Ltd. Touch-control structure for a flexible display device
US9987553B2 (en) 2009-06-25 2018-06-05 Samsung Electronics Co., Ltd. Virtual world processing device and method
JP2012531658A (ja) * 2009-06-25 2012-12-10 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置および方法
US9566506B2 (en) 2009-06-25 2017-02-14 Samsung Electronics Co., Ltd. Virtual world processing device and method
US10139911B2 (en) 2009-07-22 2018-11-27 Immersion Corporation System and method for providing complex haptic stimulation during input of control gestures, and relating to control of virtual equipment
KR101875354B1 (ko) * 2009-07-22 2018-07-05 임머숀 코퍼레이션 제어 제스처의 입력 동안에 가상 장비의 제어에 관한 복합 햅틱 자극을 제공하기 위한 시스템 및 방법
JP2017201533A (ja) * 2009-07-22 2017-11-09 イマージョン コーポレーションImmersion Corporation 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法
US9451064B2 (en) 2009-10-26 2016-09-20 Lg Electronics Inc. Mobile terminal
KR101753582B1 (ko) * 2009-11-03 2017-07-06 엘지전자 주식회사 휴대용 단말기
JP2011118244A (ja) * 2009-12-04 2011-06-16 Sony Corp 表示装置及び表示装置の制御方法
US9261914B2 (en) 2009-12-04 2016-02-16 Sony Corporation Flexible display device and method of controlling flexible display device
JP2013516703A (ja) * 2010-01-06 2013-05-13 クアルコム,インコーポレイテッド 力感知式入力を提供するためのユーザインターフェースの方法およびシステム
WO2012063069A1 (en) * 2010-11-10 2012-05-18 Jt Consultancy Limited A simulator including a controller
JP2012199697A (ja) * 2011-03-18 2012-10-18 Kyocera Corp 携帯電子機器
US8866737B2 (en) 2011-03-30 2014-10-21 Brother Kogyo Kabushiki Kaisha Input device and image display apparatus
JP2012208758A (ja) * 2011-03-30 2012-10-25 Brother Ind Ltd 入力装置及び画像表示装置
JP2016177802A (ja) * 2011-04-08 2016-10-06 株式会社村田製作所 操作デバイス
US10133401B2 (en) 2012-02-08 2018-11-20 Immersion Corporation Method and apparatus for haptic flex gesturing
JP2019050040A (ja) * 2012-02-08 2019-03-28 イマージョン コーポレーションImmersion Corporation ハプティック・フレックス・ジェスチャリングのための方法及び装置
JP2013178759A (ja) * 2012-02-08 2013-09-09 Immersion Corp ハプティック・フレックス・ジェスチャリングのための方法及び装置
KR101454685B1 (ko) * 2012-02-29 2014-10-27 주식회사 팬택 플렉서블 디스플레이의 휘어짐을 이용해서 인터페이스 제공하는 장치, 휴대용 단말 및 방법
JP2013196313A (ja) * 2012-03-19 2013-09-30 Yahoo Japan Corp 情報処理装置及び方法
US9983628B2 (en) 2012-08-23 2018-05-29 Samsung Electronics Co., Ltd. Flexible apparatus and control method thereof
JP2015529915A (ja) * 2012-08-23 2015-10-08 サムスン エレクトロニクス カンパニー リミテッド フレキシブル装置及びその制御方法
CN103853514A (zh) * 2012-12-04 2014-06-11 联想(北京)有限公司 一种信息处理的方法及电子设备
JP2018088264A (ja) * 2013-04-26 2018-06-07 イマージョン コーポレーションImmersion Corporation フレキシブルディスプレイのための、受動的剛性及び能動的変形の触覚出力装置
JP2018190452A (ja) * 2013-04-26 2018-11-29 イマージョン コーポレーションImmersion Corporation 折り畳み可能・折り曲げ可能ディスプレイとのインタラクションに対する触覚フィードバック
JP2014216025A (ja) * 2013-04-26 2014-11-17 イマージョンコーポレーションImmersion Corporation 折り畳み可能・折り曲げ可能ディスプレイとのインタラクションに対する触覚フィードバック
US10503262B2 (en) 2013-04-26 2019-12-10 Immersion Corporation Passive stiffness and active deformation haptic output devices for flexible displays
EP3262487A1 (en) * 2015-02-25 2018-01-03 Immersion Corporation Systems and methods for user interaction with a curved display
KR20160104177A (ko) * 2015-02-25 2016-09-05 삼성디스플레이 주식회사 폴더블 디스플레이 장치
KR102305508B1 (ko) 2015-02-25 2021-09-28 삼성디스플레이 주식회사 폴더블 디스플레이 장치
WO2020085069A1 (ja) * 2018-10-22 2020-04-30 ソニー株式会社 触覚提示装置及び触覚提示制御方法
US11650665B2 (en) 2018-10-22 2023-05-16 Sony Corporation Tactile presentation apparatus and tactile presentation control method

Also Published As

Publication number Publication date
JP4447823B2 (ja) 2010-04-07

Similar Documents

Publication Publication Date Title
JP4447823B2 (ja) 携帯情報機器
US7456823B2 (en) User interface apparatus and portable information apparatus
US9152185B2 (en) Dorsal touch input
US8941600B2 (en) Apparatus for providing touch feedback for user input to a touch sensitive surface
US8604364B2 (en) Sensors, algorithms and applications for a high dimensional touchpad
JP5198874B2 (ja) コンピュータマウス周辺機器
US5917476A (en) Cursor feedback text input method
JP6138671B2 (ja) マルチタッチセンシングデバイスを持つハンドヘルド電子装置
KR100783552B1 (ko) 휴대 단말기의 입력 제어 방법 및 장치
TWI382739B (zh) 用以提供資訊的卷軸運動之方法、電腦程式產品、電子裝置及卷軸多功能鍵模組
US20060119588A1 (en) Apparatus and method of processing information input using a touchpad
US20150153847A1 (en) Computer Input Device
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
US20110216015A1 (en) Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
JPH0778120A (ja) 手持ち演算装置及び手持ち演算装置における入力信号処理方法
Holman et al. Unifone: Designing for auxiliary finger input in one-handed mobile interactions
US20100127969A1 (en) Non-Contact Input Electronic Device and Method Thereof
US20160328024A1 (en) Method and apparatus for input to electronic devices
JP2004192241A (ja) ユーザ・インタフェース装置および携帯情報装置
KR20160097410A (ko) 동작 인식을 통한 비접촉식 입력 인터페이스 제공 방법 및 그 장치
US11537219B2 (en) Feedback input apparatus and method for use thereof
KR101163479B1 (ko) 무선 usb 기반의 골무 마우스
Hollatz Combining auxiliary finger input with thumb touch for single-handed mobile device interfaces
Zhai The Computer Mouse and Related Input Devices
Hanewich-Hollatz Combining Auxiliary Finger Input With Thumb Touch for Single-Handed Mobile Device Interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070308

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees