JP2004280496A - Operation panel device - Google Patents
Operation panel device Download PDFInfo
- Publication number
- JP2004280496A JP2004280496A JP2003071386A JP2003071386A JP2004280496A JP 2004280496 A JP2004280496 A JP 2004280496A JP 2003071386 A JP2003071386 A JP 2003071386A JP 2003071386 A JP2003071386 A JP 2003071386A JP 2004280496 A JP2004280496 A JP 2004280496A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor
- touch panel
- display
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 238000013459 approach Methods 0.000 claims abstract description 7
- 230000004044 response Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、タッチパネルを備えた表示部上で両眼視差による立体表示を行い、センサによって立体表示と平面表示の切替えを可能にした操作パネル装置に関する。
【0002】
【従来の技術】
近年、表示装置、とりわけLCD表示装置の技術的進歩と低価格化により、多量且つ詳細な情報を表示することが可能になっている。また、カラー表示装置の普及にともない、情報をより一層分かりやすく表示することができるようになっている。
【0003】
そのため、このような表示装置は様々な装置の操作パネルの表示部として利用されているが、操作にかかわる多量の情報を一度に表示できるため、操作者の立場に立てば、操作のための表示が複雑で込み入ったものになり、反対に操作がしにくくなり、操作ミスにつながる可能性も高くなる。
【0004】
こうした問題を解決するため、特許文献1によると、移動式の携帯電話装置の表示部に、3D−LCD手法によって制御された立体画像によるメニューを表示して、操作者が3Dグラスなどを装着せずに表示されたメニューを直視して、表示部の近傍に配された操作用のボールを操作することによって、メニューの移動や選択などの操作ができるようになっている。また、より操作を現実的にするために、操作用のボールの立体画像を表示部にメニューとともに表示して、操作用のボールの動きにあわせてメニューの移動や選択ができるようにしている。
【0005】
通常、複雑な操作を行う場合は、多くのボタンやスイッチなどの操作部品が必要で、それぞれが操作パネル上に配されることになって操作性が低下する。そのため、特許文献2は、両眼視差を利用した立体表示装置と、その立体表示装置の表示面に重ねて配されたタッチパネルからなる操作のための入力装置を開示している。そして、ボタン、スイッチ、ボリューム、レバーなどの操作部品を立体的に画面に表示して、タッチパネルを介した操作者の操作によって、その操作部品の表示状態を立体的に変化させることによって、操作性の向上を図っている。
【0006】
【特許文献1】
特開2001−224046号公報
【特許文献2】
特開平10−105735号公報
【0007】
【発明が解決しようとする課題】
しかし、特許文献1による方法では、立体画面で操作の表示を行うため、表示には現実感がでるものの、操作用のボールと数個のメニューを重畳させて立体画面に表示して、実際の操作用のボールの動きにあわせてメニューの移動や選択を行うため、特定の操作に多量の情報が必要な操作の場合、その操作にかかわる多くのメニューを一度に表示することは困難である。また、画面はあくまで表示するためのものであり、操作は実際のボールを介しておこなうため、操作性が低下する可能性がある。
【0008】
特許文献2による方法では、操作にかかわる部品を立体画面で表示するため、人間工学的に分かりやすく、また特定のスイッチなどが探しやすく、タッチパネルを介して操作が行われるため、特許文献1の方法に比較して操作性は優れている。しかし、タッチパネルを介して操作部品を操作したときに、操作部品の位置や見え方を操作に応じて変化させるため、実際の指の接触感覚と一体感がなく操作に違和感を呈することになると同時に、このような制御を行うためには、逐次立体画像を変化させる必要があり、操作してから変化の状態を表示するまでに遅延を生じる恐れがある。その場合、操作の違和感は増幅される。また、指の動きに応じてリアルタイムで立体画像を変化させるためには、制御回路が複雑になり、コスト増大の要因ともなる。
【0009】
本発明は、このような状況に鑑みなされたものであり、立体視差画像を表示部に表示し、タッチパネル上で操作が行われる前に平面画像に切替えることによって、操作性の向上を図ることが可能な操作パネル装置を提供することを目的とするものである。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明による操作パネル装置は、操作のための画像を表示する表示部と、この表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、このタッチパネルの操作面と所定の距離離間して配設され、押圧手段がタッチパネルに触れる以前に操作面への接近を検知するセンサと、立体視差画像と平面画像を形成し、センサの検知に応じて表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えている。
【0011】
センサが押圧手段を検知すると、表示部に表示される画像は立体視差画像から平面画像に切り替わり、センサが押圧手段を検知しなくなると、表示部に表示される画像は平面画像から立体視差画像に切り替わる。
【0012】
また、本発明の操作パネル装置は、複数の表示領域を有し、操作のための画像をそれぞれの表示領域で表示する表示部と、この表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、このタッチパネルの操作面と所定の距離離間して配設され、押圧手段がタッチパネルに触れる以前に、複数の表示領域のいずれに接近しているかの位置が検出可能なセンサと、立体視差画像と平面画像を形成し、センサが押圧手段の位置を検出した場合、少なくとも該検出位置に対応する表示領域に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えている。
【0013】
センサが押圧手段の位置を検出した場合、少なくともその検出位置に対応する表示領域に表示される画像は立体視差画像から平面画像に切り替わり、センサが押圧手段の位置を検出しなくなると、少なくともその検出位置に対応する表示領域に表示される画像は平面画像から立体視差画像に切り替わる。
【0014】
押圧手段がセンサによって検知或いは検出されてからタッチパネルに触れるまでの時間が、表示部の画像の切替え時間よりも長くなるように、センサとタッチパネルの操作面との所定の距離が設定されている。
【0015】
さらに、センサが押圧手段を検知しなくなると、表示部に表示される画像は所定の遅延時間を経過してから切り替わる。
【0016】
また、本発明による操作パネル装置は、操作のための画像を表示する表示部と、この表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、このタッチパネルの操作面と所定の距離離間して配設され、押圧手段が該操作面の投影範囲内でかつ該操作面から所定の法線距離内に位置すると押圧手段を検知するセンサと、立体視差画像と平面画像を形成し、センサの検知に応じて表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えている。
【0017】
【発明の実施の形態】
最初に、本発明の第1実施形態を図1〜図4に基づいて説明する。図1は、第1実施形態にかかわる操作パネルの構造を模した斜視図である。図示しない制御部により形成された両眼視差による立体画像のデータに基づき立体差視画像の表示を行う表示部2と、その表示部2に重ね合わされて形成された透明のタッチパネル3と、タッチパネル3の操作表面から距離L離間して設けられた枠状の近接センサ4とから、第1実施形態の操作パネル1は構成されている。
【0018】
タッチパネル3上で操作をするために、例えば指がこの操作パネル1の図の上方から移動して、近接センサ4の上面に接近して、近接センサ4の検知範囲に入ると、表示部2に表示されている立体画像が平面画像に切り替わる。操作のための指先は、さらに移動して近接センサ4の下面を通過して、距離Lを移動してからタッチパネル3の表面に到達し、操作のための押圧を加えることになる。
【0019】
上記のような指先による操作によって、表示部2の画面がどのように切り替わるかを、図1と図2を参照して具体的に説明する。図2は、表示部に表示される操作メニューの一例であり、(a)は両眼視差による立体視差画像を立体画像として模式化した図で、(b)は同じ操作メニューの立体化していない平面図である。
【0020】
通常、表示部に重ね合わされたタッチパネル上で操作を行う場合、操作のための表示内容が複雑になれば、その表示内容を立体画像として視覚するほうが、必要な情報を素早く把握できる。しかし、一旦必要な情報や操作のための位置を把握してしまえば、立体視差画像を表示すると、立体画像の上またはその中を指先で操作する感覚になり、逆に違和感を与え、操作者によっては、船酔いに似た感覚に陥ってしまう可能性もある。
【0021】
そのため、第1実施形態では、図2(a)に示されるように、操作者が表示部を視認する段階では、例えば、図のような複数のブロックで構成されるメニューと、その中の複数のボタンを立体視差画像を使って立体表示するようにしている。操作者が操作に必要なメニューとボタンを視野内で確認し、指先による操作が始まろうとする段階で、図2(b)のように、表示内容を立体化していない平面画像に切替えるようにする。
【0022】
図3は、このような第1実施形態にかかわる制御を行うためのブロック図である。操作パネル装置10は、表示部2とタッチパネル3と近接センサ4とからなる操作パネル1と、この操作パネル1を制御する制御部9とによって構成されている。また、各操作段階での表示は、制御部9が内蔵している或いは外部から供給される表示モジュールという表示用のプログラムやデータに基づいて行われる。さらに、この表示モジュールに基づいて立体画像の表示を行う場合、制御部9はその内部にて両眼視差によって立体視ができる立体視差画像データに変換してから表示部2に画像データを供給する。また、タッチパネル3を操作した場合、指先などから操作のための押圧が加わる座標が、タッチパネル3から座標データとして制御部9に取り込まれ、制御部9にて表示部2による表示座標と照合して、その操作の内容が特定される。近接センサ4は、指などが近接するときに容量が変化する原理を利用した既知の技術によるセンサであり、その他の原理を応用した近接センサであっても構わない。この近接センサ4は、指などのタッチパネル3の押圧手段が、タッチパネル3の操作面から所定の法線距離内、すなわち、センサの検知範囲に入ると検知し、外れると検知しなくなる、いわゆる、ON/OFFタイプのセンサである。
【0023】
以上説明した内容を、より具体的に図4に基づいて説明する。図4は、表示部2が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。いま、S1(ステップ1)で操作パネル装置10の電源がONされると、S2で、その時点で必要な表示モジュールが制御部9にロードされて、その表示モジュールの内容に応じた、例えば操作メニューの立体視差画像が、S3のタイミングで表示部2に表示される。この時点で、操作者は操作メニューを立体的に確認して把握できる。その後、操作が行われない場合は、近接センサ4が指先などによるタッチパネル3の押圧手段を検知しない(押圧手段が近接センサ4の検知範囲に入らない)ため、S4へのループを続ける。S4で、表示部2とタッチパネル3上のメニューのボタンを押すために、操作者が指先を操作パネル1に近づけると、近接センサ4の枠のほぼ上面付近で指先の接近が検知されてS5に移行する。
【0024】
S5では、制御部9によって、表示部2に表示されている立体視差画像を平面画像に書き換える作業が行われて、画像が切り替わる。操作のとき、指先の移動はかなり速い速度で行われるので、指先がタッチパネルに触れてから画像が切り替わるのであれば、前述した操作の際の違和感が解消できない。そのため、近接センサ4の枠のほぼ上面で近接センサ4が検知してから、移動している指先がタッチパネル3に到達するまでに、画像を切替えることが必要になる。このため、図1に示しているように、近接センサ4の枠の下端とタッチパネル3の操作面との間に所定の距離Lを設けている。通常の速度で指先を移動させる場合、指先が近接センサ4によって検知されてからタッチパネル3に到達する時間のほうが、画像の切替え時間より長くなるように、この距離Lが決定される。
【0025】
このようにして、表示部2の画像が平面画像に切り替わり、その後、S6でタッチパネル3上での操作が行われる。タッチパネル3に触れず、途中で操作を中止した場合、S6からS3に戻り、再度立体視差画像による表示が行われる。S6からS3に戻る過程で、破線で示すS8のように、所定の遅延時間を設けることによって、平面画像から立体視差画像に即座に切り替わることなく、しばらく平面画像が表示されるため、引き続きタッチパネル3上で操作を続ける場合、画像が頻繁に切り替わることを防ぐことができる。
【0026】
S6で、所望する操作が行われると、その操作結果に基づいた次の表示モジュールが制御部9にロードされて、S3に移行する。そして、S3で、新たにロードされた表示モジュールに基づいた立体視差画像の表示が行われ、次の操作の確認を、立体画像上で行うことができる。以上の繰り返しが、電源がOFFされるまで続く。
【0027】
以上説明したように、第1実施形態では、近接センサ4を使用することによって、表示部の表示画面全てを切替えている。もちろん、固定された部分的な表示領域を立体視差画像或いは平面画像に切替えないようにすることも可能であるが、操作をしようとしている領域においてのみ、他の領域と異なるように画像の切替えを行うことは困難である。
【0028】
第2実施形態では、表示部2の操作しようとする領域を検出することによって、少なくともその領域またはそれ以外の領域の画像切替えを独立して行うことが可能な操作パネルと操作パネル装置について、図5〜図8に基づいて説明する。図5は、第2実施形態にかかわる操作パネルの構造を模した斜視図である。図示しない制御部により形成された両眼視差による立体視差画像のデータに基づき立体視差画像の表示を行う表示部2と、その表示部2に重ね合わされて形成された透明のタッチパネル3と、タッチパネル3の操作表面から距離L離間して設けられた枠状の位置検出センサ5とから、第2実施形態の操作パネル1bは構成されている。
【0029】
位置検出センサとは、センサの枠内に座標を模した複数のセンサを設け、指などのポインタの位置を座標で検出するセンサのことである。図5の位置検出センサ5はその一例であり、位置検出センサ5の枠の1辺(例えばX軸)とこの1辺に交わる1辺(例えばY軸)に配設された複数の発光素子5aと、それぞれの1辺の対向する辺に配設された受光素子5bとによって、例えば、XとYの座標を形成する。この交差するXとYの座標に指先などの物体が位置すると、発光素子5aによる光線を遮って、対応する受光素子5bに光、例えば赤外線が届かなくなる。発光素子5aと受光素子5bの数は、指先やポインタなど、通常操作に使用するものによって、X軸とY軸とも光が遮光されるように決めればよい。また、この例のように透過型の光センサを使用する代わりに、反射型の光センサを使用してもよいし、他の方式による位置検出センサや座標検出センサを使用することも可能である。また、操作時の各メニューなどの表示画像に応じて、表示部を複数の表示領域にわけ、これらの複数の表示領域に対応する位置の検出が行われるように、位置検出センサ5の検出精度を決めればよい。
【0030】
タッチパネル3上で操作をするために、例えば指がこの操作パネル1bの図の上方から移動して、位置検出センサ5のX軸とY軸のそれぞれの座標で構成された検知範囲に入ると、表示部2に表示されている特定の立体視差画像が平面画像に切り替わる。操作のための指先は、さらに移動して位置検出センサ5の下面を通過して、距離Lを移動してからタッチパネル3の表面に到達し、操作のための押圧を印加することになる。
【0031】
上記のような指先による操作によって、表示部2の画面がどのように切り替わるかを、図5と図6を参照して具体的に説明する。図6は、表示部に表示される操作メニューの一例であり、(a)は立体視差画像を両眼視差による立体画像として模式化した図で、(b)は同じ操作メニューの一部を立体化していない平面図である。
【0032】
例えば、図6(a)のように、操作メニューがメニュー1、メニュー2、メニュー3などの複数の領域に分割されている場合、全体を立体画像で確認して、これから操作しようとする領域がメニュー1であるとすると、操作を行うときにメニュー1のみ立体視差画像から平面画像に切替えたほうが、切替えにかかる時間が短くなる。また、操作途中で操作を変える場合もあり、その時には操作対象メニュー以外は立体画像のままのほうが、操作対象を変更する場合、新たなメニューやボタンを探しやすい。
【0033】
そのため、第2実施形態では、図6(a)に示されるように、操作者が表示部を視認する段階では、例えば、図のような複数の領域で構成される複数のメニュー1〜メニュー3と、その中の複数のボタンを立体視差画像で表示するようにしている。操作者が操作に必要なメニューとボタンを視野内で確認し、指先による操作が始まろうとする段階で、位置検出センサ5で指先の位置を検出する。その検出した位置が例えば、メニュー1のボタン2の表示領域に対応した位置であるとすると、図6(b)のように、少なくともボタン2を含むメニュー1のみ立体化していない平面画像に切替えるようにする。もちろん、操作のし易さに応じてボタン2のみ立体化していない平面画像に切替えるようにしてもよい。
【0034】
図7は、このような第2実施形態にかかわる制御を行うためのブロック図である。操作パネル装置10bは、表示部2とタッチパネル3と位置検出センサ5とからなる操作パネル1bと、この操作パネル1bを制御する制御部9bとによって構成されている。さらに、座標検出部8は位置検出センサ5の検出位置を座標に変換するために備わっているが、位置検出センサ5或いは制御部9bに含ませることもできる。また、各操作段階での表示は、制御部9bが内蔵している或いは外部から供給される表示モジュールという表示用のプログラムやデータに基づいて行われる。さらに、この表示モジュールに基づいて立体視差画像の表示を行う場合、制御部9bはその内部にて両眼視差で立体視ができる立体視差画像データに変換してから表示部2に画像データを供給する。また、タッチパネル3を操作した場合、指先などから操作のための押圧が加わる座標が、タッチパネル3から座標データとして制御部9bに取り込まれ、制御部9bにて表示部2による表示座標と照合して、その操作の内容が特定される。位置検出センサ5は、複数の光センサを組み合わせて座標を検出するセンサであるが、他の原理を利用した既知の技術によるセンサであっても構わない。この位置検出センサ5は、指などがその枠内に位置したときの座標を検出する。
【0035】
以上説明した内容を、より具体的に図8に基づいて説明する。図8は、表示部2が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。いま、S11で操作パネル装置10bの電源がONされると、S12で、その時点で必要な表示モジュールが制御部9bにロードされて、その表示モジュールの内容に応じた、例えば操作メニューの立体視差画像が、S13のタイミングで表示部2に表示される。この時点で、操作者は操作メニューを立体画像で確認して把握できる。その後、操作が行われない場合は、S14で位置検出センサ5が指先の位置を検出しないため、S14に戻り、そのループを続ける。S14で、表示部2上のメニューのボタンを押すために、操作者が指先を操作パネル1bに近づけると、位置検出センサ5でその位置が検出されてS15に移行する。
【0036】
S15では、位置検出センサ5で検出された位置を、座標検出部8が座標に変換して制御部9bに送る。制御部9bはその座標が、例えば、図6(a)のメニュー1〜メニュー3のいずれの表示領域対応する位置かを識別して、S16〜S18のいずれかに移行する。S16は、検出した座標がメニュー1を表示する表示領域に対応する場合、S17は、検出した座標がメニュー2を表示する表示領域に対応する場合、S18は、検出した座標がメニュー3を表示する表示領域に対応する場合であり、それぞれ対応するメニュの部分のみ、それまでの立体視差画像を平面画像に書き換える作業が行われる。操作のとき、指先の移動はかなり速い速度で行われるので、指先がタッチパネルに触れてから画像が切り替わるのであれば、操作の際の違和感が解消できない。そのため、位置検出センサ5がその指先の位置を検出してから、移動している指先がタッチパネル3に到達するまでに、画像を切替えることが必要になる。このため、図5に示しているように、位置検出センサ5の枠の下端とタッチパネル3の操作面との間に所定の距離Lを設けている。通常の速度で指先を移動させる場合、指先の位置が位置検出センサ5によって検出されてからタッチパネル3に到達する時間のほうが、画像の切替え時間より長くなるように、この距離Lが決定される。
【0037】
このようにして、操作しようとするメニュー部分の画像のみが平面画像に切り替わり、その後、S19でタッチパネル3上での操作が行われる。タッチパネル3に触れず、途中で操作を中止した場合、S19からS13に戻り、再度全てのメニュー部分の立体視差画像による表示が行われる。S19からS13に戻る過程で、破線で示すS21のように、所定の遅延時間を設けることによって、検出した位置に対応するメニュー部分が平面画像から立体視差画像に即座に切り替わることなく、しばらく平面画像で表示されるため、引き続きタッチパネル3上で操作を続ける場合、画像が頻繁に切り替わることを防ぐことができる。
【0038】
S19で、所望する操作が行われると、その操作結果に基づいた次の表示モジュールが制御部9bにロードされて、S13に移行する。そして、S13で、新たにロードされた表示モジュールに基づいた立体視差画像の表示が行われ、次の操作の確認を、立体画像上で行うことができる。以上の繰り返しが、電源がOFFされるまで続く。
【0039】
以上の第2実施形態で説明した、特定のメニュー部分のみの画像の切替えは、本実施形態を理解しやすくするための一例であり、本実施形態はこの例に限定されるものではなく、操作パネル1bまたは操作パネル装置10bの実際の使用に適した、画像の切替えを行うようにするとよい。
【0040】
また、第1と第2実施形態では、タッチパネル3の操作を指先で行う例を挙げて説明したが、実際の使用に当たっては、様々な形態のポインタを使うことも可能である。その場合、第1実施形態では、使用するポインタを検知することが可能な近接センサ4を使用し、第2実施形態では、使用するポインタの位置を検出することが可能な位置検出センサ5を使用すればよい。
【0041】
【発明の効果】
本発明によると、操作のための表示に3Dグラスを必要としない両眼視差を利用した立体視差画像を表示するため、一般のユーザが頻繁に使用する装置に採用することができ、特に複雑な操作メニューなどから操作対象となる特定部分を視認しやすくなる。
【0042】
さらに、本発明によると、操作手段として、表示部に重ね合わされて形成されたタッチパネルを使用するため、ポインタ或いは指先による操作が可能で、複雑な操作を機械的なキーを使用せずタッチパネル上で集約して行うことができるため、操作性の向上とともに操作パネルの小型化が図れる。
【0043】
また、ポインタや指先を検知する近接センサをタッチパネル上に備えるために、ポインタや指先がタッチパネルに触れて操作が行われる前に、立体視差画像を平面画像に切替えることができ、立体画像上で操作する違和感を低減或いは解消させることが可能になる。
【0044】
また、近接センサの代わりに座標の検出が可能な位置検出センサを使用することで、特定の操作部分のみ立体視差画像から平面画像に、或いは特定の操作部分を除く他の部分を立体視差画像から平面画像に切替えることができるため、複雑な操作メニューの場合、操作する限定部分のみ操作の違和感をなくし、その他の部分は視認のし易さを保つため立体視差画像にしておくことも可能になる。
【0045】
操作のための画像が、操作の直前に立体視差画像から平面画像に切り替わっても、遅延手段によって、所定の時間の間、平面画像に保たれるため、続けて操作を行うときに頻繁に立体視差画像と平面画像とが切り替わることがなくなり、操作性の向上を一層図ることができる。
【図面の簡単な説明】
【図1】第1実施形態にかかわる操作パネルの構造を模した斜視図である。
【図2】表示部に表示される操作メニューの一例であり、(a)は立体視差画像を両眼視差によって立体画像として模式化した図で、(b)は同じ操作メニューの立体化していない平面図である。
【図3】第1実施形態にかかわる制御を行うためのブロック図である。
【図4】表示部が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。
【図5】第2実施形態にかかわる操作パネルの構造を模した斜視図である。
【図6】表示部に表示される操作メニューの一例であり、(a)は立体視差画像を両眼視差によって立体画像として模式化した図で、(b)は同じ操作メニューの立体化していない平面図である。
【図7】第2実施形態にかかわる制御を行うためのブロック図である。
【図8】表示部が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。
【符号の説明】
1、1b 操作パネル
2 表示部
3 タッチパネル
4 近接センサ
5 位置検出センサ
5b 受光素子
5a 発光素子
9、9b 制御部
10、10b 操作パネル装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an operation panel device that performs stereoscopic display based on binocular parallax on a display unit having a touch panel and enables switching between stereoscopic display and planar display by a sensor.
[0002]
[Prior art]
2. Description of the Related Art In recent years, technological progress and cost reduction of display devices, particularly LCD display devices, have made it possible to display a large amount of detailed information. Also, with the spread of color display devices, information can be displayed in a more easily understood manner.
[0003]
For this reason, such a display device is used as a display unit of an operation panel of various devices. However, since a large amount of information related to an operation can be displayed at a time, from an operator's standpoint, a display for an operation is displayed. Becomes complicated and complicated, and on the contrary, operation becomes difficult, and the possibility of operation error increases.
[0004]
In order to solve such a problem, according to
[0005]
Usually, when performing a complicated operation, many operation components such as buttons and switches are required, and each of them is arranged on the operation panel, so that the operability is reduced. Therefore,
[0006]
[Patent Document 1]
JP 2001-22046 A
[Patent Document 2]
JP-A-10-105735
[0007]
[Problems to be solved by the invention]
However, in the method according to
[0008]
In the method according to
[0009]
The present invention has been made in view of such a situation, and improves operability by displaying a stereoscopic parallax image on a display unit and switching to a planar image before an operation is performed on a touch panel. It is an object of the present invention to provide a possible operation panel device.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, an operation panel device according to the present invention includes a display unit that displays an image for operation, and a display unit that is formed so as to be superimposed on the display unit and is operated by being pressed by a pressing unit. A touch panel on which input is performed, a sensor disposed at a predetermined distance from the operation surface of the touch panel, a sensor for detecting approach to the operation surface before the pressing means touches the touch panel, and a stereoscopic parallax image and a planar image. A control unit configured to switch between an image formed and displayed on the display unit in response to detection of the sensor between a stereoscopic parallax image and a planar image.
[0011]
When the sensor detects the pressing unit, the image displayed on the display unit switches from the stereoscopic parallax image to the planar image, and when the sensor stops detecting the pressing unit, the image displayed on the display unit changes from the planar image to the stereoscopic parallax image. Switch.
[0012]
Further, the operation panel device of the present invention has a plurality of display areas, a display section for displaying images for operation in the respective display areas, and is formed by being superimposed on the display section and pressed by pressing means. A touch panel on which an input for operation is performed by being performed, and a touch panel is disposed at a predetermined distance from the operation surface of the touch panel, and any one of the plurality of display areas approaches before the pressing means touches the touch panel. A sensor capable of detecting the position of the squat, forming a stereoscopic parallax image and a planar image, and when the sensor detects the position of the pressing means, at least an image displayed in a display area corresponding to the detected position is a stereoscopic parallax image and a planar image. Control means for switching between images.
[0013]
When the sensor detects the position of the pressing unit, at least the image displayed in the display area corresponding to the detected position is switched from the stereoscopic parallax image to the planar image, and when the sensor stops detecting the position of the pressing unit, at least the detection is performed. The image displayed in the display area corresponding to the position is switched from the planar image to the stereoscopic parallax image.
[0014]
The predetermined distance between the sensor and the operation surface of the touch panel is set such that the time from when the pressing means is detected or detected by the sensor to when it touches the touch panel is longer than the switching time of the image on the display unit.
[0015]
Further, when the sensor stops detecting the pressing unit, the image displayed on the display unit switches after a predetermined delay time has elapsed.
[0016]
In addition, the operation panel device according to the present invention includes a display unit that displays an image for operation, and a touch panel that is formed by being superimposed on the display unit and that is operated by being pressed by a pressing unit. A sensor that is disposed at a predetermined distance from the operation surface of the touch panel and detects the pressing device when the pressing device is located within a projection range of the operation surface and within a predetermined normal distance from the operation surface. Control means for forming a stereoscopic parallax image and a planar image and switching an image to be displayed on the display unit between the stereoscopic parallax image and the planar image in response to detection by the sensor.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a perspective view simulating the structure of the operation panel according to the first embodiment. A
[0018]
In order to operate on the
[0019]
How the screen of the
[0020]
Normally, when an operation is performed on a touch panel superimposed on a display unit, if display contents for the operation become complicated, it is possible to quickly grasp necessary information by visually observing the display contents as a stereoscopic image. However, once the necessary information and the position for the operation are grasped, when the stereoscopic parallax image is displayed, it becomes a feeling of operating on or in the stereoscopic image with a fingertip. In some cases, you may fall into a feeling similar to seasickness.
[0021]
Therefore, in the first embodiment, as shown in FIG. 2A, when the operator visually recognizes the display unit, for example, a menu including a plurality of blocks as shown in FIG. Is stereoscopically displayed using a stereoscopic parallax image. The operator checks the menus and buttons required for the operation in the field of view, and switches the display content to a non-three-dimensional plane image as shown in FIG. 2B at the stage where the operation with the fingertip is about to start. .
[0022]
FIG. 3 is a block diagram for performing such control according to the first embodiment. The
[0023]
The contents described above will be described more specifically with reference to FIG. FIG. 4 is a flowchart showing the timing of switching between the stereoscopic parallax image and the planar image displayed by the
[0024]
In S5, the
[0025]
In this way, the image on the
[0026]
When a desired operation is performed in S6, the next display module based on the operation result is loaded into the
[0027]
As described above, in the first embodiment, the entire display screen of the display unit is switched by using the
[0028]
In the second embodiment, an operation panel and an operation panel device capable of independently performing image switching of at least that area or other areas by detecting an area to be operated on the
[0029]
The position detection sensor is a sensor that includes a plurality of sensors simulating coordinates in a frame of the sensor and detects the position of a pointer such as a finger by the coordinates. The
[0030]
In order to operate on the
[0031]
How the screen of the
[0032]
For example, as shown in FIG. 6A, when the operation menu is divided into a plurality of areas such as a
[0033]
Therefore, in the second embodiment, as shown in FIG. 6A, when the operator visually recognizes the display unit, for example, a plurality of
[0034]
FIG. 7 is a block diagram for performing such control according to the second embodiment. The
[0035]
The contents described above will be described more specifically with reference to FIG. FIG. 8 is a flowchart showing the timing of switching between the stereoscopic parallax image and the planar image displayed by the
[0036]
In S15, the position detected by the
[0037]
In this way, only the image of the menu portion to be operated is switched to the plane image, and thereafter, the operation on the
[0038]
When a desired operation is performed in S19, the next display module based on the operation result is loaded into the control unit 9b, and the process proceeds to S13. Then, in S13, a stereoscopic parallax image is displayed based on the newly loaded display module, and the next operation can be confirmed on the stereoscopic image. The above repetition continues until the power is turned off.
[0039]
The switching of the image of only a specific menu portion described in the second embodiment is an example for facilitating understanding of the present embodiment, and the present embodiment is not limited to this example. Switching of images suitable for actual use of the
[0040]
In the first and second embodiments, an example has been described in which the operation of the
[0041]
【The invention's effect】
According to the present invention, since a stereoscopic parallax image using binocular parallax which does not require 3D glasses for display for operation is displayed, the stereoscopic parallax image can be adopted in a device frequently used by a general user, and is particularly complicated. It becomes easy to visually recognize a specific portion to be operated from an operation menu or the like.
[0042]
Furthermore, according to the present invention, since a touch panel formed by being superimposed on a display unit is used as an operation means, an operation with a pointer or a fingertip is possible, and a complicated operation can be performed on the touch panel without using mechanical keys. Since the operation can be performed collectively, the operability can be improved and the size of the operation panel can be reduced.
[0043]
In addition, since the proximity sensor that detects the pointer and the fingertip is provided on the touch panel, the stereoscopic parallax image can be switched to the planar image before the pointer or the fingertip touches the touch panel and the operation is performed. It is possible to reduce or eliminate the uncomfortable feeling.
[0044]
In addition, by using a position detection sensor capable of detecting coordinates instead of the proximity sensor, only a specific operation part is converted from a stereoscopic parallax image to a planar image, or another part excluding a specific operation part is converted from a stereoscopic parallax image. Since it is possible to switch to a two-dimensional image, in the case of a complicated operation menu, it is possible to eliminate a sense of incongruity in only a limited portion to be operated, and to make a remaining portion a stereoscopic parallax image in order to maintain visibility. .
[0045]
Even if the image for the operation is switched from the stereoscopic parallax image to the plane image immediately before the operation, the plane image is maintained for a predetermined time by the delay means, so that the stereoscopic image is frequently displayed when the operation is continuously performed. Switching between the parallax image and the plane image is prevented, and the operability can be further improved.
[Brief description of the drawings]
FIG. 1 is a perspective view simulating a structure of an operation panel according to a first embodiment.
2A and 2B are examples of an operation menu displayed on a display unit, where FIG. 2A is a diagram schematically illustrating a stereoscopic parallax image as a stereoscopic image by binocular parallax, and FIG. It is a top view.
FIG. 3 is a block diagram for performing control according to the first embodiment.
FIG. 4 is a flowchart illustrating a timing of switching between a stereoscopic parallax image and a planar image displayed by a display unit.
FIG. 5 is a perspective view simulating a structure of an operation panel according to a second embodiment.
6A and 6B are examples of an operation menu displayed on a display unit, wherein FIG. 6A is a diagram schematically illustrating a stereoscopic parallax image as a stereoscopic image by binocular parallax, and FIG. It is a top view.
FIG. 7 is a block diagram for performing control according to a second embodiment.
FIG. 8 is a flowchart illustrating a timing of switching between a stereoscopic parallax image and a planar image displayed by a display unit.
[Explanation of symbols]
1, 1b Operation panel
2 Display
3 Touch panel
4 Proximity sensor
5 Position detection sensor
5b light receiving element
5a Light emitting element
9, 9b control unit
10, 10b Operation panel device
Claims (7)
前記表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、
前記タッチパネルの操作面と所定の距離離間して配設され、前記押圧手段が前記タッチパネルに触れる以前に該操作面への接近を検知するセンサと、
立体視差画像と平面画像を形成し、前記センサの検知に応じて前記表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えたことを特徴とする操作パネル装置。A display for displaying an image for operation;
A touch panel that is formed by being superimposed on the display unit, and that is operated for input by being pressed by a pressing unit,
A sensor that is disposed at a predetermined distance from the operation surface of the touch panel, and detects an approach to the operation surface before the pressing unit touches the touch panel;
An operation panel device comprising: a control unit that forms a stereoscopic parallax image and a planar image, and that switches an image to be displayed on the display unit between the stereoscopic parallax image and the planar image in response to detection of the sensor. .
前記表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、
前記タッチパネルの操作面と所定の距離離間して配設され、前記押圧手段が前記タッチパネルに触れる以前に、前記複数の表示領域のいずれに接近しているかの位置が検出可能なセンサと、
立体視差画像と平面画像を形成し、前記センサが前記押圧手段の位置を検出した場合、少なくとも該検出位置に対応する前記表示領域に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えたことを特徴とする操作パネル装置。A display unit having a plurality of display areas and displaying an image for operation in each display area;
A touch panel that is formed by being superimposed on the display unit, and that is operated for input by being pressed by a pressing unit,
A sensor that is arranged at a predetermined distance from the operation surface of the touch panel and before the pressing unit touches the touch panel, a sensor capable of detecting a position of any of the plurality of display areas approaching,
Forming a stereoscopic parallax image and a planar image, and, when the sensor detects the position of the pressing unit, switching between the stereoscopic parallax image and the planar image at least an image to be displayed in the display area corresponding to the detected position. And an operation panel device.
前記表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、
前記タッチパネルの操作面と所定の距離離間して配設され、前記押圧手段が該操作面の投影範囲内でかつ該操作面から所定の法線距離内に位置すると前記押圧手段を検知するセンサと、
立体視差画像と平面画像を形成し、前記センサの検知に応じて前記表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えたことを特徴とする操作パネル装置。A display for displaying an image for operation;
A touch panel that is formed by being superimposed on the display unit, and that is operated for input by being pressed by a pressing unit,
A sensor that is disposed at a predetermined distance from the operation surface of the touch panel and detects the pressing unit when the pressing unit is located within a projection range of the operation surface and within a predetermined normal distance from the operation surface. ,
An operation panel device comprising: a control unit that forms a stereoscopic parallax image and a planar image, and that switches an image to be displayed on the display unit between the stereoscopic parallax image and the planar image in response to detection of the sensor. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003071386A JP2004280496A (en) | 2003-03-17 | 2003-03-17 | Operation panel device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003071386A JP2004280496A (en) | 2003-03-17 | 2003-03-17 | Operation panel device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004280496A true JP2004280496A (en) | 2004-10-07 |
Family
ID=33287834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003071386A Pending JP2004280496A (en) | 2003-03-17 | 2003-03-17 | Operation panel device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004280496A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007065993A (en) * | 2005-08-31 | 2007-03-15 | Tokai Rika Co Ltd | Input apparatus |
WO2010023887A1 (en) * | 2008-08-27 | 2010-03-04 | 富士フイルム株式会社 | Device and method for setting instruction position during three-dimensional display, and program |
JP2011013778A (en) * | 2009-06-30 | 2011-01-20 | Sony Corp | Stereoscopic image display device, object proximity detection device and electronic apparatus |
JP2011118907A (en) * | 2010-12-20 | 2011-06-16 | Fujifilm Corp | Device and method for setting indicated position in three-dimensional display, and program |
JP2011170694A (en) * | 2010-02-19 | 2011-09-01 | Victor Co Of Japan Ltd | Image display device and image display method |
JP2011257820A (en) * | 2010-06-07 | 2011-12-22 | Sony Corp | Information display device and method for controlling display image |
JP2012003742A (en) * | 2010-05-18 | 2012-01-05 | Panasonic Corp | Input device, input method, program and recording medium |
JP2012027794A (en) * | 2010-07-26 | 2012-02-09 | Olympus Imaging Corp | Display device |
JP2012048622A (en) * | 2010-08-30 | 2012-03-08 | Sony Corp | Information processing unit, stereoscopic vision display method, and program |
JP2012098929A (en) * | 2010-11-02 | 2012-05-24 | Canon Inc | Display control device and display control method |
WO2012120849A1 (en) * | 2011-03-09 | 2012-09-13 | Sony Corporation | Image processing apparatus and method, and computer program product |
WO2012157342A1 (en) * | 2011-05-18 | 2012-11-22 | 日本電気株式会社 | Image display device, image display method, and program |
JP2012244187A (en) * | 2011-05-13 | 2012-12-10 | Ntt Docomo Inc | Display control device and display control method |
JP2013008087A (en) * | 2011-06-22 | 2013-01-10 | Lixil Corp | Operation input device |
WO2013084560A1 (en) | 2011-12-07 | 2013-06-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Method of displaying electronic document, and apparatus and computer program therefor |
KR101488121B1 (en) * | 2010-10-21 | 2015-01-29 | 노키아 코포레이션 | Apparatus and method for user input for controlling displayed information |
JP2015093143A (en) * | 2013-11-14 | 2015-05-18 | 一寛 沼賀 | Electric potential therapy device |
US9083962B2 (en) | 2010-10-20 | 2015-07-14 | Mitsubishi Electric Corporation | 3Dimension stereoscopic display device |
US9135845B2 (en) | 2012-02-21 | 2015-09-15 | Samsung Display Co., Ltd. | Display apparatus including barrier panel and touch sensing part |
JP5781080B2 (en) * | 2010-10-20 | 2015-09-16 | 三菱電機株式会社 | 3D stereoscopic display device and 3D stereoscopic display processing device |
US9164621B2 (en) | 2010-03-18 | 2015-10-20 | Fujifilm Corporation | Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium |
US9179133B2 (en) | 2010-10-19 | 2015-11-03 | Mitsubishi Electric Corporation | 3Dimension stereoscopic display device |
US9179140B2 (en) | 2010-10-19 | 2015-11-03 | Mitsubishi Electric Corporation | 3dimension stereoscopic display device |
JP2017054522A (en) * | 2005-03-04 | 2017-03-16 | アップル インコーポレイテッド | Handheld electronic device with multi-touch sensing device |
-
2003
- 2003-03-17 JP JP2003071386A patent/JP2004280496A/en active Pending
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017054522A (en) * | 2005-03-04 | 2017-03-16 | アップル インコーポレイテッド | Handheld electronic device with multi-touch sensing device |
JP2007065993A (en) * | 2005-08-31 | 2007-03-15 | Tokai Rika Co Ltd | Input apparatus |
WO2010023887A1 (en) * | 2008-08-27 | 2010-03-04 | 富士フイルム株式会社 | Device and method for setting instruction position during three-dimensional display, and program |
JP2010055266A (en) * | 2008-08-27 | 2010-03-11 | Fujifilm Corp | Apparatus, method and program for setting position designated in three-dimensional display |
US8482557B2 (en) | 2008-08-27 | 2013-07-09 | Fujifilm Corporation | Device and method for setting instructed position during three-dimensional display, as well as program |
JP2011013778A (en) * | 2009-06-30 | 2011-01-20 | Sony Corp | Stereoscopic image display device, object proximity detection device and electronic apparatus |
US9571821B2 (en) | 2009-06-30 | 2017-02-14 | Japan Display, Inc. | Stereoscopic image displaying device, object proximity detecting device, and electronic apparatus |
JP2011170694A (en) * | 2010-02-19 | 2011-09-01 | Victor Co Of Japan Ltd | Image display device and image display method |
US9164621B2 (en) | 2010-03-18 | 2015-10-20 | Fujifilm Corporation | Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium |
JP2012003742A (en) * | 2010-05-18 | 2012-01-05 | Panasonic Corp | Input device, input method, program and recording medium |
JP2011257820A (en) * | 2010-06-07 | 2011-12-22 | Sony Corp | Information display device and method for controlling display image |
US8872821B2 (en) | 2010-06-07 | 2014-10-28 | Sony Corporation | Information display device and display image control method |
JP2012027794A (en) * | 2010-07-26 | 2012-02-09 | Olympus Imaging Corp | Display device |
US9880672B2 (en) | 2010-07-26 | 2018-01-30 | Olympus Corporation | Display apparatus, display method, and computer-readable recording medium |
JP2012048622A (en) * | 2010-08-30 | 2012-03-08 | Sony Corp | Information processing unit, stereoscopic vision display method, and program |
US10338805B2 (en) | 2010-08-30 | 2019-07-02 | Sony Corporation | Information processing apparatus, stereoscopic display method, and program |
US9678655B2 (en) | 2010-08-30 | 2017-06-13 | Sony Corporation | Information processing apparatus, stereoscopic display method, and program |
US9179140B2 (en) | 2010-10-19 | 2015-11-03 | Mitsubishi Electric Corporation | 3dimension stereoscopic display device |
US9179133B2 (en) | 2010-10-19 | 2015-11-03 | Mitsubishi Electric Corporation | 3Dimension stereoscopic display device |
US9083962B2 (en) | 2010-10-20 | 2015-07-14 | Mitsubishi Electric Corporation | 3Dimension stereoscopic display device |
JP5781080B2 (en) * | 2010-10-20 | 2015-09-16 | 三菱電機株式会社 | 3D stereoscopic display device and 3D stereoscopic display processing device |
KR101488121B1 (en) * | 2010-10-21 | 2015-01-29 | 노키아 코포레이션 | Apparatus and method for user input for controlling displayed information |
US9043732B2 (en) | 2010-10-21 | 2015-05-26 | Nokia Corporation | Apparatus and method for user input for controlling displayed information |
JP2012098929A (en) * | 2010-11-02 | 2012-05-24 | Canon Inc | Display control device and display control method |
JP2011118907A (en) * | 2010-12-20 | 2011-06-16 | Fujifilm Corp | Device and method for setting indicated position in three-dimensional display, and program |
WO2012120849A1 (en) * | 2011-03-09 | 2012-09-13 | Sony Corporation | Image processing apparatus and method, and computer program product |
US10222950B2 (en) | 2011-03-09 | 2019-03-05 | Sony Corporation | Image processing apparatus and method |
CN102685526A (en) * | 2011-03-09 | 2012-09-19 | 索尼公司 | Image processing apparatus and method, and computer program product |
JP2012190184A (en) * | 2011-03-09 | 2012-10-04 | Sony Corp | Image processing device, method, and program |
US9348485B2 (en) | 2011-03-09 | 2016-05-24 | Sony Corporation | Image processing apparatus and method, and computer program product |
JP2012244187A (en) * | 2011-05-13 | 2012-12-10 | Ntt Docomo Inc | Display control device and display control method |
WO2012157342A1 (en) * | 2011-05-18 | 2012-11-22 | 日本電気株式会社 | Image display device, image display method, and program |
JP2013008087A (en) * | 2011-06-22 | 2013-01-10 | Lixil Corp | Operation input device |
WO2013084560A1 (en) | 2011-12-07 | 2013-06-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Method of displaying electronic document, and apparatus and computer program therefor |
US11150785B2 (en) | 2011-12-07 | 2021-10-19 | International Business Machines Corporation | Displaying an electronic document |
US9135845B2 (en) | 2012-02-21 | 2015-09-15 | Samsung Display Co., Ltd. | Display apparatus including barrier panel and touch sensing part |
JP2015093143A (en) * | 2013-11-14 | 2015-05-18 | 一寛 沼賀 | Electric potential therapy device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004280496A (en) | Operation panel device | |
CN114008569B (en) | Method and apparatus for configuring multiple virtual buttons on a device | |
US9244544B2 (en) | User interface device with touch pad enabling original image to be displayed in reduction within touch-input screen, and input-action processing method and program | |
US8259083B2 (en) | Mobile device having backpanel touchpad | |
JP5323603B2 (en) | Image display device | |
JP5857255B2 (en) | Information processing apparatus, processing control method, program, and recording medium | |
JP4650559B2 (en) | Information processing apparatus, information processing method, information processing system, and information processing program | |
KR102212993B1 (en) | Drawing device | |
EP3179358A1 (en) | Method and apparatus for inputting contents based on virtual keyboard, and touch device | |
JP5333397B2 (en) | Information processing terminal and control method thereof | |
US20090002342A1 (en) | Information Processing Device | |
KR101706927B1 (en) | Method for operating an industrial robot | |
EP2383631A1 (en) | Hand-held mobile device and method for operating the hand-held mobile device | |
JP5265433B2 (en) | Display device and program | |
US9395816B2 (en) | Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same | |
JP2009140368A (en) | Input device, display device, input method, display method, and program | |
WO2011158605A1 (en) | Information display device and method for moving operation of onscreen button | |
WO2012108462A1 (en) | Electronic apparatus | |
JP2017111462A (en) | Tactile sensation presentation apparatus and tactile sensation presentation method | |
CN102981743A (en) | Method for controlling operation object and electronic device | |
US20140225847A1 (en) | Touch panel apparatus and information processing method using same | |
JP2018136616A (en) | Display operation system | |
JP6115421B2 (en) | Input device and input system | |
JP5954145B2 (en) | Input device | |
JP2011100337A (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071017 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071106 |