[go: up one dir, main page]

JP2004280496A - Operation panel device - Google Patents

Operation panel device Download PDF

Info

Publication number
JP2004280496A
JP2004280496A JP2003071386A JP2003071386A JP2004280496A JP 2004280496 A JP2004280496 A JP 2004280496A JP 2003071386 A JP2003071386 A JP 2003071386A JP 2003071386 A JP2003071386 A JP 2003071386A JP 2004280496 A JP2004280496 A JP 2004280496A
Authority
JP
Japan
Prior art keywords
image
sensor
touch panel
display
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003071386A
Other languages
Japanese (ja)
Inventor
Takayuki Furumoto
隆行 古本
Takeshi Nishio
健 西尾
Akifumi Seto
彰史 瀬戸
Kenta Higashiyamazaki
健太 東山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Mita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Mita Corp filed Critical Kyocera Mita Corp
Priority to JP2003071386A priority Critical patent/JP2004280496A/en
Publication of JP2004280496A publication Critical patent/JP2004280496A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation panel device displaying a three-dimensional parallax image on a display part, and capable of improving operability by changing to a planar image before operation is carried out on a touch panel. <P>SOLUTION: The operation panel device is provided with the display part 2 displaying an image for operation, the touch panel 3 formed on the display part in an overlapping state and pressed by a pressing means to carry out input for operation, a sensor 4 arranged at a predetermined distance from an operation face of the touch panel and detecting approach of the pressing means to the operation face before it contacts the touch panel 3, and a control means for forming the three-dimensional parallax image and the planar image and changing the image displayed by the display part 2 between the three-dimensional parallax image and the planar image in response to detection of the sensor 4. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、タッチパネルを備えた表示部上で両眼視差による立体表示を行い、センサによって立体表示と平面表示の切替えを可能にした操作パネル装置に関する。
【0002】
【従来の技術】
近年、表示装置、とりわけLCD表示装置の技術的進歩と低価格化により、多量且つ詳細な情報を表示することが可能になっている。また、カラー表示装置の普及にともない、情報をより一層分かりやすく表示することができるようになっている。
【0003】
そのため、このような表示装置は様々な装置の操作パネルの表示部として利用されているが、操作にかかわる多量の情報を一度に表示できるため、操作者の立場に立てば、操作のための表示が複雑で込み入ったものになり、反対に操作がしにくくなり、操作ミスにつながる可能性も高くなる。
【0004】
こうした問題を解決するため、特許文献1によると、移動式の携帯電話装置の表示部に、3D−LCD手法によって制御された立体画像によるメニューを表示して、操作者が3Dグラスなどを装着せずに表示されたメニューを直視して、表示部の近傍に配された操作用のボールを操作することによって、メニューの移動や選択などの操作ができるようになっている。また、より操作を現実的にするために、操作用のボールの立体画像を表示部にメニューとともに表示して、操作用のボールの動きにあわせてメニューの移動や選択ができるようにしている。
【0005】
通常、複雑な操作を行う場合は、多くのボタンやスイッチなどの操作部品が必要で、それぞれが操作パネル上に配されることになって操作性が低下する。そのため、特許文献2は、両眼視差を利用した立体表示装置と、その立体表示装置の表示面に重ねて配されたタッチパネルからなる操作のための入力装置を開示している。そして、ボタン、スイッチ、ボリューム、レバーなどの操作部品を立体的に画面に表示して、タッチパネルを介した操作者の操作によって、その操作部品の表示状態を立体的に変化させることによって、操作性の向上を図っている。
【0006】
【特許文献1】
特開2001−224046号公報
【特許文献2】
特開平10−105735号公報
【0007】
【発明が解決しようとする課題】
しかし、特許文献1による方法では、立体画面で操作の表示を行うため、表示には現実感がでるものの、操作用のボールと数個のメニューを重畳させて立体画面に表示して、実際の操作用のボールの動きにあわせてメニューの移動や選択を行うため、特定の操作に多量の情報が必要な操作の場合、その操作にかかわる多くのメニューを一度に表示することは困難である。また、画面はあくまで表示するためのものであり、操作は実際のボールを介しておこなうため、操作性が低下する可能性がある。
【0008】
特許文献2による方法では、操作にかかわる部品を立体画面で表示するため、人間工学的に分かりやすく、また特定のスイッチなどが探しやすく、タッチパネルを介して操作が行われるため、特許文献1の方法に比較して操作性は優れている。しかし、タッチパネルを介して操作部品を操作したときに、操作部品の位置や見え方を操作に応じて変化させるため、実際の指の接触感覚と一体感がなく操作に違和感を呈することになると同時に、このような制御を行うためには、逐次立体画像を変化させる必要があり、操作してから変化の状態を表示するまでに遅延を生じる恐れがある。その場合、操作の違和感は増幅される。また、指の動きに応じてリアルタイムで立体画像を変化させるためには、制御回路が複雑になり、コスト増大の要因ともなる。
【0009】
本発明は、このような状況に鑑みなされたものであり、立体視差画像を表示部に表示し、タッチパネル上で操作が行われる前に平面画像に切替えることによって、操作性の向上を図ることが可能な操作パネル装置を提供することを目的とするものである。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明による操作パネル装置は、操作のための画像を表示する表示部と、この表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、このタッチパネルの操作面と所定の距離離間して配設され、押圧手段がタッチパネルに触れる以前に操作面への接近を検知するセンサと、立体視差画像と平面画像を形成し、センサの検知に応じて表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えている。
【0011】
センサが押圧手段を検知すると、表示部に表示される画像は立体視差画像から平面画像に切り替わり、センサが押圧手段を検知しなくなると、表示部に表示される画像は平面画像から立体視差画像に切り替わる。
【0012】
また、本発明の操作パネル装置は、複数の表示領域を有し、操作のための画像をそれぞれの表示領域で表示する表示部と、この表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、このタッチパネルの操作面と所定の距離離間して配設され、押圧手段がタッチパネルに触れる以前に、複数の表示領域のいずれに接近しているかの位置が検出可能なセンサと、立体視差画像と平面画像を形成し、センサが押圧手段の位置を検出した場合、少なくとも該検出位置に対応する表示領域に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えている。
【0013】
センサが押圧手段の位置を検出した場合、少なくともその検出位置に対応する表示領域に表示される画像は立体視差画像から平面画像に切り替わり、センサが押圧手段の位置を検出しなくなると、少なくともその検出位置に対応する表示領域に表示される画像は平面画像から立体視差画像に切り替わる。
【0014】
押圧手段がセンサによって検知或いは検出されてからタッチパネルに触れるまでの時間が、表示部の画像の切替え時間よりも長くなるように、センサとタッチパネルの操作面との所定の距離が設定されている。
【0015】
さらに、センサが押圧手段を検知しなくなると、表示部に表示される画像は所定の遅延時間を経過してから切り替わる。
【0016】
また、本発明による操作パネル装置は、操作のための画像を表示する表示部と、この表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、このタッチパネルの操作面と所定の距離離間して配設され、押圧手段が該操作面の投影範囲内でかつ該操作面から所定の法線距離内に位置すると押圧手段を検知するセンサと、立体視差画像と平面画像を形成し、センサの検知に応じて表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えている。
【0017】
【発明の実施の形態】
最初に、本発明の第1実施形態を図1〜図4に基づいて説明する。図1は、第1実施形態にかかわる操作パネルの構造を模した斜視図である。図示しない制御部により形成された両眼視差による立体画像のデータに基づき立体差視画像の表示を行う表示部2と、その表示部2に重ね合わされて形成された透明のタッチパネル3と、タッチパネル3の操作表面から距離L離間して設けられた枠状の近接センサ4とから、第1実施形態の操作パネル1は構成されている。
【0018】
タッチパネル3上で操作をするために、例えば指がこの操作パネル1の図の上方から移動して、近接センサ4の上面に接近して、近接センサ4の検知範囲に入ると、表示部2に表示されている立体画像が平面画像に切り替わる。操作のための指先は、さらに移動して近接センサ4の下面を通過して、距離Lを移動してからタッチパネル3の表面に到達し、操作のための押圧を加えることになる。
【0019】
上記のような指先による操作によって、表示部2の画面がどのように切り替わるかを、図1と図2を参照して具体的に説明する。図2は、表示部に表示される操作メニューの一例であり、(a)は両眼視差による立体視差画像を立体画像として模式化した図で、(b)は同じ操作メニューの立体化していない平面図である。
【0020】
通常、表示部に重ね合わされたタッチパネル上で操作を行う場合、操作のための表示内容が複雑になれば、その表示内容を立体画像として視覚するほうが、必要な情報を素早く把握できる。しかし、一旦必要な情報や操作のための位置を把握してしまえば、立体視差画像を表示すると、立体画像の上またはその中を指先で操作する感覚になり、逆に違和感を与え、操作者によっては、船酔いに似た感覚に陥ってしまう可能性もある。
【0021】
そのため、第1実施形態では、図2(a)に示されるように、操作者が表示部を視認する段階では、例えば、図のような複数のブロックで構成されるメニューと、その中の複数のボタンを立体視差画像を使って立体表示するようにしている。操作者が操作に必要なメニューとボタンを視野内で確認し、指先による操作が始まろうとする段階で、図2(b)のように、表示内容を立体化していない平面画像に切替えるようにする。
【0022】
図3は、このような第1実施形態にかかわる制御を行うためのブロック図である。操作パネル装置10は、表示部2とタッチパネル3と近接センサ4とからなる操作パネル1と、この操作パネル1を制御する制御部9とによって構成されている。また、各操作段階での表示は、制御部9が内蔵している或いは外部から供給される表示モジュールという表示用のプログラムやデータに基づいて行われる。さらに、この表示モジュールに基づいて立体画像の表示を行う場合、制御部9はその内部にて両眼視差によって立体視ができる立体視差画像データに変換してから表示部2に画像データを供給する。また、タッチパネル3を操作した場合、指先などから操作のための押圧が加わる座標が、タッチパネル3から座標データとして制御部9に取り込まれ、制御部9にて表示部2による表示座標と照合して、その操作の内容が特定される。近接センサ4は、指などが近接するときに容量が変化する原理を利用した既知の技術によるセンサであり、その他の原理を応用した近接センサであっても構わない。この近接センサ4は、指などのタッチパネル3の押圧手段が、タッチパネル3の操作面から所定の法線距離内、すなわち、センサの検知範囲に入ると検知し、外れると検知しなくなる、いわゆる、ON/OFFタイプのセンサである。
【0023】
以上説明した内容を、より具体的に図4に基づいて説明する。図4は、表示部2が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。いま、S1(ステップ1)で操作パネル装置10の電源がONされると、S2で、その時点で必要な表示モジュールが制御部9にロードされて、その表示モジュールの内容に応じた、例えば操作メニューの立体視差画像が、S3のタイミングで表示部2に表示される。この時点で、操作者は操作メニューを立体的に確認して把握できる。その後、操作が行われない場合は、近接センサ4が指先などによるタッチパネル3の押圧手段を検知しない(押圧手段が近接センサ4の検知範囲に入らない)ため、S4へのループを続ける。S4で、表示部2とタッチパネル3上のメニューのボタンを押すために、操作者が指先を操作パネル1に近づけると、近接センサ4の枠のほぼ上面付近で指先の接近が検知されてS5に移行する。
【0024】
S5では、制御部9によって、表示部2に表示されている立体視差画像を平面画像に書き換える作業が行われて、画像が切り替わる。操作のとき、指先の移動はかなり速い速度で行われるので、指先がタッチパネルに触れてから画像が切り替わるのであれば、前述した操作の際の違和感が解消できない。そのため、近接センサ4の枠のほぼ上面で近接センサ4が検知してから、移動している指先がタッチパネル3に到達するまでに、画像を切替えることが必要になる。このため、図1に示しているように、近接センサ4の枠の下端とタッチパネル3の操作面との間に所定の距離Lを設けている。通常の速度で指先を移動させる場合、指先が近接センサ4によって検知されてからタッチパネル3に到達する時間のほうが、画像の切替え時間より長くなるように、この距離Lが決定される。
【0025】
このようにして、表示部2の画像が平面画像に切り替わり、その後、S6でタッチパネル3上での操作が行われる。タッチパネル3に触れず、途中で操作を中止した場合、S6からS3に戻り、再度立体視差画像による表示が行われる。S6からS3に戻る過程で、破線で示すS8のように、所定の遅延時間を設けることによって、平面画像から立体視差画像に即座に切り替わることなく、しばらく平面画像が表示されるため、引き続きタッチパネル3上で操作を続ける場合、画像が頻繁に切り替わることを防ぐことができる。
【0026】
S6で、所望する操作が行われると、その操作結果に基づいた次の表示モジュールが制御部9にロードされて、S3に移行する。そして、S3で、新たにロードされた表示モジュールに基づいた立体視差画像の表示が行われ、次の操作の確認を、立体画像上で行うことができる。以上の繰り返しが、電源がOFFされるまで続く。
【0027】
以上説明したように、第1実施形態では、近接センサ4を使用することによって、表示部の表示画面全てを切替えている。もちろん、固定された部分的な表示領域を立体視差画像或いは平面画像に切替えないようにすることも可能であるが、操作をしようとしている領域においてのみ、他の領域と異なるように画像の切替えを行うことは困難である。
【0028】
第2実施形態では、表示部2の操作しようとする領域を検出することによって、少なくともその領域またはそれ以外の領域の画像切替えを独立して行うことが可能な操作パネルと操作パネル装置について、図5〜図8に基づいて説明する。図5は、第2実施形態にかかわる操作パネルの構造を模した斜視図である。図示しない制御部により形成された両眼視差による立体視差画像のデータに基づき立体視差画像の表示を行う表示部2と、その表示部2に重ね合わされて形成された透明のタッチパネル3と、タッチパネル3の操作表面から距離L離間して設けられた枠状の位置検出センサ5とから、第2実施形態の操作パネル1bは構成されている。
【0029】
位置検出センサとは、センサの枠内に座標を模した複数のセンサを設け、指などのポインタの位置を座標で検出するセンサのことである。図5の位置検出センサ5はその一例であり、位置検出センサ5の枠の1辺(例えばX軸)とこの1辺に交わる1辺(例えばY軸)に配設された複数の発光素子5aと、それぞれの1辺の対向する辺に配設された受光素子5bとによって、例えば、XとYの座標を形成する。この交差するXとYの座標に指先などの物体が位置すると、発光素子5aによる光線を遮って、対応する受光素子5bに光、例えば赤外線が届かなくなる。発光素子5aと受光素子5bの数は、指先やポインタなど、通常操作に使用するものによって、X軸とY軸とも光が遮光されるように決めればよい。また、この例のように透過型の光センサを使用する代わりに、反射型の光センサを使用してもよいし、他の方式による位置検出センサや座標検出センサを使用することも可能である。また、操作時の各メニューなどの表示画像に応じて、表示部を複数の表示領域にわけ、これらの複数の表示領域に対応する位置の検出が行われるように、位置検出センサ5の検出精度を決めればよい。
【0030】
タッチパネル3上で操作をするために、例えば指がこの操作パネル1bの図の上方から移動して、位置検出センサ5のX軸とY軸のそれぞれの座標で構成された検知範囲に入ると、表示部2に表示されている特定の立体視差画像が平面画像に切り替わる。操作のための指先は、さらに移動して位置検出センサ5の下面を通過して、距離Lを移動してからタッチパネル3の表面に到達し、操作のための押圧を印加することになる。
【0031】
上記のような指先による操作によって、表示部2の画面がどのように切り替わるかを、図5と図6を参照して具体的に説明する。図6は、表示部に表示される操作メニューの一例であり、(a)は立体視差画像を両眼視差による立体画像として模式化した図で、(b)は同じ操作メニューの一部を立体化していない平面図である。
【0032】
例えば、図6(a)のように、操作メニューがメニュー1、メニュー2、メニュー3などの複数の領域に分割されている場合、全体を立体画像で確認して、これから操作しようとする領域がメニュー1であるとすると、操作を行うときにメニュー1のみ立体視差画像から平面画像に切替えたほうが、切替えにかかる時間が短くなる。また、操作途中で操作を変える場合もあり、その時には操作対象メニュー以外は立体画像のままのほうが、操作対象を変更する場合、新たなメニューやボタンを探しやすい。
【0033】
そのため、第2実施形態では、図6(a)に示されるように、操作者が表示部を視認する段階では、例えば、図のような複数の領域で構成される複数のメニュー1〜メニュー3と、その中の複数のボタンを立体視差画像で表示するようにしている。操作者が操作に必要なメニューとボタンを視野内で確認し、指先による操作が始まろうとする段階で、位置検出センサ5で指先の位置を検出する。その検出した位置が例えば、メニュー1のボタン2の表示領域に対応した位置であるとすると、図6(b)のように、少なくともボタン2を含むメニュー1のみ立体化していない平面画像に切替えるようにする。もちろん、操作のし易さに応じてボタン2のみ立体化していない平面画像に切替えるようにしてもよい。
【0034】
図7は、このような第2実施形態にかかわる制御を行うためのブロック図である。操作パネル装置10bは、表示部2とタッチパネル3と位置検出センサ5とからなる操作パネル1bと、この操作パネル1bを制御する制御部9bとによって構成されている。さらに、座標検出部8は位置検出センサ5の検出位置を座標に変換するために備わっているが、位置検出センサ5或いは制御部9bに含ませることもできる。また、各操作段階での表示は、制御部9bが内蔵している或いは外部から供給される表示モジュールという表示用のプログラムやデータに基づいて行われる。さらに、この表示モジュールに基づいて立体視差画像の表示を行う場合、制御部9bはその内部にて両眼視差で立体視ができる立体視差画像データに変換してから表示部2に画像データを供給する。また、タッチパネル3を操作した場合、指先などから操作のための押圧が加わる座標が、タッチパネル3から座標データとして制御部9bに取り込まれ、制御部9bにて表示部2による表示座標と照合して、その操作の内容が特定される。位置検出センサ5は、複数の光センサを組み合わせて座標を検出するセンサであるが、他の原理を利用した既知の技術によるセンサであっても構わない。この位置検出センサ5は、指などがその枠内に位置したときの座標を検出する。
【0035】
以上説明した内容を、より具体的に図8に基づいて説明する。図8は、表示部2が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。いま、S11で操作パネル装置10bの電源がONされると、S12で、その時点で必要な表示モジュールが制御部9bにロードされて、その表示モジュールの内容に応じた、例えば操作メニューの立体視差画像が、S13のタイミングで表示部2に表示される。この時点で、操作者は操作メニューを立体画像で確認して把握できる。その後、操作が行われない場合は、S14で位置検出センサ5が指先の位置を検出しないため、S14に戻り、そのループを続ける。S14で、表示部2上のメニューのボタンを押すために、操作者が指先を操作パネル1bに近づけると、位置検出センサ5でその位置が検出されてS15に移行する。
【0036】
S15では、位置検出センサ5で検出された位置を、座標検出部8が座標に変換して制御部9bに送る。制御部9bはその座標が、例えば、図6(a)のメニュー1〜メニュー3のいずれの表示領域対応する位置かを識別して、S16〜S18のいずれかに移行する。S16は、検出した座標がメニュー1を表示する表示領域に対応する場合、S17は、検出した座標がメニュー2を表示する表示領域に対応する場合、S18は、検出した座標がメニュー3を表示する表示領域に対応する場合であり、それぞれ対応するメニュの部分のみ、それまでの立体視差画像を平面画像に書き換える作業が行われる。操作のとき、指先の移動はかなり速い速度で行われるので、指先がタッチパネルに触れてから画像が切り替わるのであれば、操作の際の違和感が解消できない。そのため、位置検出センサ5がその指先の位置を検出してから、移動している指先がタッチパネル3に到達するまでに、画像を切替えることが必要になる。このため、図5に示しているように、位置検出センサ5の枠の下端とタッチパネル3の操作面との間に所定の距離Lを設けている。通常の速度で指先を移動させる場合、指先の位置が位置検出センサ5によって検出されてからタッチパネル3に到達する時間のほうが、画像の切替え時間より長くなるように、この距離Lが決定される。
【0037】
このようにして、操作しようとするメニュー部分の画像のみが平面画像に切り替わり、その後、S19でタッチパネル3上での操作が行われる。タッチパネル3に触れず、途中で操作を中止した場合、S19からS13に戻り、再度全てのメニュー部分の立体視差画像による表示が行われる。S19からS13に戻る過程で、破線で示すS21のように、所定の遅延時間を設けることによって、検出した位置に対応するメニュー部分が平面画像から立体視差画像に即座に切り替わることなく、しばらく平面画像で表示されるため、引き続きタッチパネル3上で操作を続ける場合、画像が頻繁に切り替わることを防ぐことができる。
【0038】
S19で、所望する操作が行われると、その操作結果に基づいた次の表示モジュールが制御部9bにロードされて、S13に移行する。そして、S13で、新たにロードされた表示モジュールに基づいた立体視差画像の表示が行われ、次の操作の確認を、立体画像上で行うことができる。以上の繰り返しが、電源がOFFされるまで続く。
【0039】
以上の第2実施形態で説明した、特定のメニュー部分のみの画像の切替えは、本実施形態を理解しやすくするための一例であり、本実施形態はこの例に限定されるものではなく、操作パネル1bまたは操作パネル装置10bの実際の使用に適した、画像の切替えを行うようにするとよい。
【0040】
また、第1と第2実施形態では、タッチパネル3の操作を指先で行う例を挙げて説明したが、実際の使用に当たっては、様々な形態のポインタを使うことも可能である。その場合、第1実施形態では、使用するポインタを検知することが可能な近接センサ4を使用し、第2実施形態では、使用するポインタの位置を検出することが可能な位置検出センサ5を使用すればよい。
【0041】
【発明の効果】
本発明によると、操作のための表示に3Dグラスを必要としない両眼視差を利用した立体視差画像を表示するため、一般のユーザが頻繁に使用する装置に採用することができ、特に複雑な操作メニューなどから操作対象となる特定部分を視認しやすくなる。
【0042】
さらに、本発明によると、操作手段として、表示部に重ね合わされて形成されたタッチパネルを使用するため、ポインタ或いは指先による操作が可能で、複雑な操作を機械的なキーを使用せずタッチパネル上で集約して行うことができるため、操作性の向上とともに操作パネルの小型化が図れる。
【0043】
また、ポインタや指先を検知する近接センサをタッチパネル上に備えるために、ポインタや指先がタッチパネルに触れて操作が行われる前に、立体視差画像を平面画像に切替えることができ、立体画像上で操作する違和感を低減或いは解消させることが可能になる。
【0044】
また、近接センサの代わりに座標の検出が可能な位置検出センサを使用することで、特定の操作部分のみ立体視差画像から平面画像に、或いは特定の操作部分を除く他の部分を立体視差画像から平面画像に切替えることができるため、複雑な操作メニューの場合、操作する限定部分のみ操作の違和感をなくし、その他の部分は視認のし易さを保つため立体視差画像にしておくことも可能になる。
【0045】
操作のための画像が、操作の直前に立体視差画像から平面画像に切り替わっても、遅延手段によって、所定の時間の間、平面画像に保たれるため、続けて操作を行うときに頻繁に立体視差画像と平面画像とが切り替わることがなくなり、操作性の向上を一層図ることができる。
【図面の簡単な説明】
【図1】第1実施形態にかかわる操作パネルの構造を模した斜視図である。
【図2】表示部に表示される操作メニューの一例であり、(a)は立体視差画像を両眼視差によって立体画像として模式化した図で、(b)は同じ操作メニューの立体化していない平面図である。
【図3】第1実施形態にかかわる制御を行うためのブロック図である。
【図4】表示部が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。
【図5】第2実施形態にかかわる操作パネルの構造を模した斜視図である。
【図6】表示部に表示される操作メニューの一例であり、(a)は立体視差画像を両眼視差によって立体画像として模式化した図で、(b)は同じ操作メニューの立体化していない平面図である。
【図7】第2実施形態にかかわる制御を行うためのブロック図である。
【図8】表示部が表示する立体視差画像と平面画像の切替えのタイミングを示すフローチャートである。
【符号の説明】
1、1b 操作パネル
2 表示部
3 タッチパネル
4 近接センサ
5 位置検出センサ
5b 受光素子
5a 発光素子
9、9b 制御部
10、10b 操作パネル装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an operation panel device that performs stereoscopic display based on binocular parallax on a display unit having a touch panel and enables switching between stereoscopic display and planar display by a sensor.
[0002]
[Prior art]
2. Description of the Related Art In recent years, technological progress and cost reduction of display devices, particularly LCD display devices, have made it possible to display a large amount of detailed information. Also, with the spread of color display devices, information can be displayed in a more easily understood manner.
[0003]
For this reason, such a display device is used as a display unit of an operation panel of various devices. However, since a large amount of information related to an operation can be displayed at a time, from an operator's standpoint, a display for an operation is displayed. Becomes complicated and complicated, and on the contrary, operation becomes difficult, and the possibility of operation error increases.
[0004]
In order to solve such a problem, according to Patent Literature 1, a menu of a stereoscopic image controlled by a 3D-LCD method is displayed on a display unit of a mobile cellular phone, and an operator wears 3D glasses or the like. By directly looking at the displayed menu and operating the operation ball arranged near the display unit, operations such as moving and selecting the menu can be performed. To make the operation more realistic, a three-dimensional image of the operation ball is displayed on the display unit together with the menu so that the menu can be moved or selected in accordance with the movement of the operation ball.
[0005]
Usually, when performing a complicated operation, many operation components such as buttons and switches are required, and each of them is arranged on the operation panel, so that the operability is reduced. Therefore, Patent Literature 2 discloses an input device for operation including a stereoscopic display device using binocular parallax and a touch panel arranged on a display surface of the stereoscopic display device. Then, by displaying operation components such as buttons, switches, volumes, and levers on the screen in a three-dimensional manner, and by operating the operator through the touch panel, the display state of the operation components is three-dimensionally changed, thereby improving operability. Is being improved.
[0006]
[Patent Document 1]
JP 2001-22046 A
[Patent Document 2]
JP-A-10-105735
[0007]
[Problems to be solved by the invention]
However, in the method according to Patent Literature 1, although the operation is displayed on the three-dimensional screen, although the display has a realistic feeling, the operation ball and several menus are superimposed and displayed on the three-dimensional screen, and the actual operation is performed. Since the menu is moved and selected in accordance with the movement of the operation ball, it is difficult to display many menus related to the operation at a time when the operation requires a large amount of information for a specific operation. In addition, the screen is only for displaying, and the operation is performed through an actual ball, so that operability may be reduced.
[0008]
In the method according to Patent Literature 2, since the components related to the operation are displayed on a three-dimensional screen, it is easy to understand ergonomically, it is easy to find a specific switch, and the operation is performed via a touch panel. The operability is superior to that of. However, when the operation components are operated through the touch panel, the position and appearance of the operation components are changed according to the operation, so that the actual touch feeling of the finger does not have a sense of unity, and the operation becomes uncomfortable. However, in order to perform such control, it is necessary to sequentially change the stereoscopic image, and there is a possibility that a delay may occur between the operation and the display of the changed state. In that case, the uncomfortable feeling of the operation is amplified. Further, in order to change the stereoscopic image in real time in accordance with the movement of the finger, the control circuit becomes complicated and causes a cost increase.
[0009]
The present invention has been made in view of such a situation, and improves operability by displaying a stereoscopic parallax image on a display unit and switching to a planar image before an operation is performed on a touch panel. It is an object of the present invention to provide a possible operation panel device.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, an operation panel device according to the present invention includes a display unit that displays an image for operation, and a display unit that is formed so as to be superimposed on the display unit and is operated by being pressed by a pressing unit. A touch panel on which input is performed, a sensor disposed at a predetermined distance from the operation surface of the touch panel, a sensor for detecting approach to the operation surface before the pressing means touches the touch panel, and a stereoscopic parallax image and a planar image. A control unit configured to switch between an image formed and displayed on the display unit in response to detection of the sensor between a stereoscopic parallax image and a planar image.
[0011]
When the sensor detects the pressing unit, the image displayed on the display unit switches from the stereoscopic parallax image to the planar image, and when the sensor stops detecting the pressing unit, the image displayed on the display unit changes from the planar image to the stereoscopic parallax image. Switch.
[0012]
Further, the operation panel device of the present invention has a plurality of display areas, a display section for displaying images for operation in the respective display areas, and is formed by being superimposed on the display section and pressed by pressing means. A touch panel on which an input for operation is performed by being performed, and a touch panel is disposed at a predetermined distance from the operation surface of the touch panel, and any one of the plurality of display areas approaches before the pressing means touches the touch panel. A sensor capable of detecting the position of the squat, forming a stereoscopic parallax image and a planar image, and when the sensor detects the position of the pressing means, at least an image displayed in a display area corresponding to the detected position is a stereoscopic parallax image and a planar image. Control means for switching between images.
[0013]
When the sensor detects the position of the pressing unit, at least the image displayed in the display area corresponding to the detected position is switched from the stereoscopic parallax image to the planar image, and when the sensor stops detecting the position of the pressing unit, at least the detection is performed. The image displayed in the display area corresponding to the position is switched from the planar image to the stereoscopic parallax image.
[0014]
The predetermined distance between the sensor and the operation surface of the touch panel is set such that the time from when the pressing means is detected or detected by the sensor to when it touches the touch panel is longer than the switching time of the image on the display unit.
[0015]
Further, when the sensor stops detecting the pressing unit, the image displayed on the display unit switches after a predetermined delay time has elapsed.
[0016]
In addition, the operation panel device according to the present invention includes a display unit that displays an image for operation, and a touch panel that is formed by being superimposed on the display unit and that is operated by being pressed by a pressing unit. A sensor that is disposed at a predetermined distance from the operation surface of the touch panel and detects the pressing device when the pressing device is located within a projection range of the operation surface and within a predetermined normal distance from the operation surface. Control means for forming a stereoscopic parallax image and a planar image and switching an image to be displayed on the display unit between the stereoscopic parallax image and the planar image in response to detection by the sensor.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a perspective view simulating the structure of the operation panel according to the first embodiment. A display unit 2 for displaying a stereoscopic parallax image based on stereoscopic parallax image data formed by a binocular parallax formed by a control unit (not shown); a transparent touch panel 3 formed so as to overlap the display unit 2; The operation panel 1 of the first embodiment is composed of a frame-shaped proximity sensor 4 provided at a distance L from the operation surface of the first embodiment.
[0018]
In order to operate on the touch panel 3, for example, when a finger moves from above the operation panel 1 in the drawing and approaches the upper surface of the proximity sensor 4 and enters the detection range of the proximity sensor 4, the display unit 2 The displayed three-dimensional image is switched to a two-dimensional image. The fingertip for the operation further moves, passes through the lower surface of the proximity sensor 4, moves a distance L, reaches the surface of the touch panel 3, and applies a pressure for the operation.
[0019]
How the screen of the display unit 2 is switched by the operation with the fingertip as described above will be specifically described with reference to FIGS. 1 and 2. 2A and 2B are examples of an operation menu displayed on the display unit. FIG. 2A is a diagram schematically illustrating a stereoscopic parallax image based on binocular parallax as a stereoscopic image, and FIG. 2B is a diagram in which the same operation menu is not stereoscopically displayed. It is a top view.
[0020]
Normally, when an operation is performed on a touch panel superimposed on a display unit, if display contents for the operation become complicated, it is possible to quickly grasp necessary information by visually observing the display contents as a stereoscopic image. However, once the necessary information and the position for the operation are grasped, when the stereoscopic parallax image is displayed, it becomes a feeling of operating on or in the stereoscopic image with a fingertip. In some cases, you may fall into a feeling similar to seasickness.
[0021]
Therefore, in the first embodiment, as shown in FIG. 2A, when the operator visually recognizes the display unit, for example, a menu including a plurality of blocks as shown in FIG. Is stereoscopically displayed using a stereoscopic parallax image. The operator checks the menus and buttons required for the operation in the field of view, and switches the display content to a non-three-dimensional plane image as shown in FIG. 2B at the stage where the operation with the fingertip is about to start. .
[0022]
FIG. 3 is a block diagram for performing such control according to the first embodiment. The operation panel device 10 includes an operation panel 1 including a display unit 2, a touch panel 3, and a proximity sensor 4, and a control unit 9 that controls the operation panel 1. The display at each operation stage is performed based on a display program or data called a display module built in the control unit 9 or supplied from the outside. Further, when a stereoscopic image is displayed based on this display module, the control unit 9 supplies the image data to the display unit 2 after converting the stereoscopic image data into stereoscopic parallax image data in which stereoscopic viewing can be performed by binocular parallax. . In addition, when the touch panel 3 is operated, coordinates at which a pressure for operation is applied from a fingertip or the like are taken into the control unit 9 as coordinate data from the touch panel 3, and the control unit 9 compares the coordinates with display coordinates on the display unit 2. , The content of the operation is specified. The proximity sensor 4 is a sensor based on a known technique using the principle that the capacitance changes when a finger or the like approaches, and may be a proximity sensor applying another principle. The proximity sensor 4 detects when a pressing unit of the touch panel 3 such as a finger enters a predetermined normal line distance from the operation surface of the touch panel 3, that is, enters a detection range of the sensor. / OFF type sensor.
[0023]
The contents described above will be described more specifically with reference to FIG. FIG. 4 is a flowchart showing the timing of switching between the stereoscopic parallax image and the planar image displayed by the display unit 2. Now, when the power of the operation panel device 10 is turned on in S1 (step 1), in S2, a display module required at that time is loaded into the control unit 9 and, for example, an operation corresponding to the content of the display module is performed. The stereoscopic parallax image of the menu is displayed on the display unit 2 at the timing of S3. At this point, the operator can check the operation menu three-dimensionally and grasp it. Thereafter, when no operation is performed, the loop to S4 is continued because the proximity sensor 4 does not detect the pressing means of the touch panel 3 by the fingertip or the like (the pressing means does not enter the detection range of the proximity sensor 4). In S4, when the operator brings the fingertip close to the operation panel 1 in order to press the menu button on the display unit 2 and the touch panel 3, the approach of the fingertip is detected substantially near the upper surface of the frame of the proximity sensor 4, and the process proceeds to S5. Transition.
[0024]
In S5, the control unit 9 performs an operation of rewriting the stereoscopic parallax image displayed on the display unit 2 to a planar image, and the image is switched. At the time of operation, the movement of the fingertip is performed at a very high speed, so that if the image is switched after the fingertip touches the touch panel, the above-mentioned discomfort at the time of the operation cannot be eliminated. Therefore, it is necessary to switch the image between the time when the proximity sensor 4 detects the almost upper surface of the frame of the proximity sensor 4 and the time when the moving fingertip reaches the touch panel 3. For this reason, as shown in FIG. 1, a predetermined distance L is provided between the lower end of the frame of the proximity sensor 4 and the operation surface of the touch panel 3. When the fingertip is moved at a normal speed, the distance L is determined such that the time that the fingertip reaches the touch panel 3 after being detected by the proximity sensor 4 is longer than the image switching time.
[0025]
In this way, the image on the display unit 2 is switched to the flat image, and thereafter, the operation on the touch panel 3 is performed in S6. If the operation is stopped halfway without touching the touch panel 3, the process returns from S6 to S3, and the display using the stereoscopic parallax image is performed again. In the process of returning from S6 to S3, by providing a predetermined delay time as shown by S8 shown by a broken line, the plane image is displayed for a while without immediately switching from the plane image to the stereoscopic parallax image. When the operation is continued on the above, it is possible to prevent the image from being frequently switched.
[0026]
When a desired operation is performed in S6, the next display module based on the operation result is loaded into the control unit 9, and the process proceeds to S3. Then, in S3, a stereoscopic parallax image is displayed based on the newly loaded display module, and the next operation can be confirmed on the stereoscopic image. The above repetition continues until the power is turned off.
[0027]
As described above, in the first embodiment, the entire display screen of the display unit is switched by using the proximity sensor 4. Of course, it is possible not to switch the fixed partial display area to the stereoscopic parallax image or the plane image, but only in the area where the operation is to be performed, the image is switched differently from the other areas. It is difficult to do.
[0028]
In the second embodiment, an operation panel and an operation panel device capable of independently performing image switching of at least that area or other areas by detecting an area to be operated on the display unit 2 are described. This will be described with reference to FIGS. FIG. 5 is a perspective view simulating the structure of an operation panel according to the second embodiment. A display unit 2 for displaying a stereoscopic parallax image based on stereoscopic parallax image data based on binocular parallax formed by a control unit (not shown); a transparent touch panel 3 formed so as to overlap the display unit 2; The operation panel 1b of the second embodiment is composed of a frame-shaped position detection sensor 5 provided at a distance L from the operation surface of the second embodiment.
[0029]
The position detection sensor is a sensor that includes a plurality of sensors simulating coordinates in a frame of the sensor and detects the position of a pointer such as a finger by the coordinates. The position detection sensor 5 in FIG. 5 is an example thereof, and includes a plurality of light emitting elements 5a arranged on one side (for example, X axis) of the frame of the position detection sensor 5 and one side (for example, Y axis) intersecting this one side. And the light receiving element 5b disposed on one of the opposite sides, for example, to form X and Y coordinates. When an object such as a fingertip is positioned at the intersecting X and Y coordinates, the light beam from the light emitting element 5a is blocked, and light, for example, infrared light, does not reach the corresponding light receiving element 5b. The numbers of the light-emitting elements 5a and the light-receiving elements 5b may be determined so that light is blocked in both the X-axis and the Y-axis by a fingertip, a pointer, or another element used for normal operation. Further, instead of using a transmission type optical sensor as in this example, a reflection type optical sensor may be used, or a position detection sensor or a coordinate detection sensor by another method may be used. . In addition, the display unit is divided into a plurality of display areas in accordance with a display image of each menu or the like at the time of operation, and the detection accuracy of the position detection sensor 5 is determined so that the positions corresponding to the plurality of display areas are detected. You just have to decide.
[0030]
In order to operate on the touch panel 3, for example, when a finger moves from above the operation panel 1 b in the figure and enters a detection range of the position detection sensor 5 configured by the respective coordinates of the X axis and the Y axis, The specific stereoscopic parallax image displayed on the display unit 2 is switched to a planar image. The fingertip for the operation further moves, passes through the lower surface of the position detection sensor 5, moves a distance L, reaches the surface of the touch panel 3, and applies a pressure for the operation.
[0031]
How the screen of the display unit 2 is switched by the operation with the fingertip as described above will be specifically described with reference to FIGS. FIG. 6 is an example of an operation menu displayed on the display unit. FIG. 6A is a diagram schematically illustrating a stereoscopic parallax image as a stereoscopic image based on binocular parallax, and FIG. It is a top view which is not made.
[0032]
For example, as shown in FIG. 6A, when the operation menu is divided into a plurality of areas such as a menu 1, a menu 2, and a menu 3, the entire area is checked with a stereoscopic image, and the area to be operated next is Assuming that the menu is the menu 1, the time required for switching is shorter when the menu 1 is switched from the stereoscopic parallax image to the planar image when the operation is performed. In some cases, the operation may be changed during the operation. At that time, it is easier to search for a new menu or button when the operation target is changed by keeping the stereoscopic image other than the operation target menu.
[0033]
Therefore, in the second embodiment, as shown in FIG. 6A, when the operator visually recognizes the display unit, for example, a plurality of menus 1 to 3 composed of a plurality of areas as shown in FIG. Are displayed as a stereoscopic parallax image. The operator checks the menu and buttons required for the operation in the field of view, and detects the position of the fingertip by the position detection sensor 5 at the stage when the operation with the fingertip is about to start. Assuming that the detected position is, for example, a position corresponding to the display area of the button 2 of the menu 1, as shown in FIG. 6B, only the menu 1 including at least the button 2 is switched to a non-stereoscopic flat image. To Needless to say, only the button 2 may be switched to a three-dimensional image that is not three-dimensionalized according to the ease of operation.
[0034]
FIG. 7 is a block diagram for performing such control according to the second embodiment. The operation panel device 10b includes an operation panel 1b including the display unit 2, the touch panel 3, and the position detection sensor 5, and a control unit 9b that controls the operation panel 1b. Further, although the coordinate detecting section 8 is provided for converting the detected position of the position detecting sensor 5 into coordinates, it may be included in the position detecting sensor 5 or the control section 9b. The display at each operation stage is performed based on a display program or data called a display module built in the control unit 9b or supplied from the outside. Furthermore, when displaying a stereoscopic parallax image based on this display module, the control unit 9b converts the data into stereoscopic parallax image data that allows stereoscopic viewing with binocular parallax inside, and then supplies the image data to the display unit 2. I do. In addition, when the touch panel 3 is operated, the coordinates at which a press for operation is applied from a fingertip or the like are taken into the control unit 9b as coordinate data from the touch panel 3 and collated with the display coordinates on the display unit 2 by the control unit 9b. , The content of the operation is specified. The position detection sensor 5 is a sensor that detects coordinates by combining a plurality of optical sensors, but may be a sensor based on a known technique using another principle. The position detection sensor 5 detects coordinates when a finger or the like is positioned in the frame.
[0035]
The contents described above will be described more specifically with reference to FIG. FIG. 8 is a flowchart showing the timing of switching between the stereoscopic parallax image and the planar image displayed by the display unit 2. Now, when the power of the operation panel device 10b is turned on in S11, in S12, the display module required at that time is loaded into the control unit 9b, and according to the content of the display module, for example, the stereoscopic parallax of the operation menu. The image is displayed on the display unit 2 at the timing of S13. At this point, the operator can check and grasp the operation menu with the stereoscopic image. Thereafter, when no operation is performed, the process returns to S14 and continues the loop because the position detection sensor 5 does not detect the position of the fingertip in S14. In S14, when the operator brings the fingertip close to the operation panel 1b to press the menu button on the display unit 2, the position is detected by the position detection sensor 5, and the process proceeds to S15.
[0036]
In S15, the position detected by the position detection sensor 5 is converted into coordinates by the coordinate detection unit 8 and sent to the control unit 9b. The control unit 9b identifies, for example, which of the menus 1 to 3 in FIG. 6A corresponds to the display area, and shifts to any of S16 to S18. In step S16, when the detected coordinates correspond to the display area for displaying the menu 1, in step S17, when the detected coordinates correspond to the display area for displaying the menu 2, in step S18, the detected coordinates display the menu 3. This is a case corresponding to a display area, and an operation of rewriting a stereoscopic parallax image up to that point into a planar image is performed only for a corresponding menu portion. At the time of operation, the movement of the fingertip is performed at a considerably high speed, so that if the image is switched after the fingertip touches the touch panel, the uncomfortable feeling at the time of operation cannot be eliminated. Therefore, it is necessary to switch the image after the position detection sensor 5 detects the position of the fingertip and before the moving fingertip reaches the touch panel 3. For this reason, as shown in FIG. 5, a predetermined distance L is provided between the lower end of the frame of the position detection sensor 5 and the operation surface of the touch panel 3. When the fingertip is moved at a normal speed, the distance L is determined so that the time to reach the touch panel 3 after the position of the fingertip is detected by the position detection sensor 5 is longer than the image switching time.
[0037]
In this way, only the image of the menu portion to be operated is switched to the plane image, and thereafter, the operation on the touch panel 3 is performed in S19. When the operation is interrupted halfway without touching the touch panel 3, the process returns from S19 to S13, and the display of all the menu portions is performed again using the stereoscopic parallax images. In the process of returning from S19 to S13, by providing a predetermined delay time as shown by S21 indicated by a broken line, the menu portion corresponding to the detected position is not immediately switched from the planar image to the stereoscopic parallax image, and the planar image is displayed for a while. Therefore, when the operation is continued on the touch panel 3, it is possible to prevent the image from being frequently switched.
[0038]
When a desired operation is performed in S19, the next display module based on the operation result is loaded into the control unit 9b, and the process proceeds to S13. Then, in S13, a stereoscopic parallax image is displayed based on the newly loaded display module, and the next operation can be confirmed on the stereoscopic image. The above repetition continues until the power is turned off.
[0039]
The switching of the image of only a specific menu portion described in the second embodiment is an example for facilitating understanding of the present embodiment, and the present embodiment is not limited to this example. Switching of images suitable for actual use of the panel 1b or the operation panel device 10b may be performed.
[0040]
In the first and second embodiments, an example has been described in which the operation of the touch panel 3 is performed with a fingertip. However, in actual use, various types of pointers can be used. In that case, the first embodiment uses the proximity sensor 4 that can detect the pointer to be used, and the second embodiment uses the position detection sensor 5 that can detect the position of the pointer to be used. do it.
[0041]
【The invention's effect】
According to the present invention, since a stereoscopic parallax image using binocular parallax which does not require 3D glasses for display for operation is displayed, the stereoscopic parallax image can be adopted in a device frequently used by a general user, and is particularly complicated. It becomes easy to visually recognize a specific portion to be operated from an operation menu or the like.
[0042]
Furthermore, according to the present invention, since a touch panel formed by being superimposed on a display unit is used as an operation means, an operation with a pointer or a fingertip is possible, and a complicated operation can be performed on the touch panel without using mechanical keys. Since the operation can be performed collectively, the operability can be improved and the size of the operation panel can be reduced.
[0043]
In addition, since the proximity sensor that detects the pointer and the fingertip is provided on the touch panel, the stereoscopic parallax image can be switched to the planar image before the pointer or the fingertip touches the touch panel and the operation is performed. It is possible to reduce or eliminate the uncomfortable feeling.
[0044]
In addition, by using a position detection sensor capable of detecting coordinates instead of the proximity sensor, only a specific operation part is converted from a stereoscopic parallax image to a planar image, or another part excluding a specific operation part is converted from a stereoscopic parallax image. Since it is possible to switch to a two-dimensional image, in the case of a complicated operation menu, it is possible to eliminate a sense of incongruity in only a limited portion to be operated, and to make a remaining portion a stereoscopic parallax image in order to maintain visibility. .
[0045]
Even if the image for the operation is switched from the stereoscopic parallax image to the plane image immediately before the operation, the plane image is maintained for a predetermined time by the delay means, so that the stereoscopic image is frequently displayed when the operation is continuously performed. Switching between the parallax image and the plane image is prevented, and the operability can be further improved.
[Brief description of the drawings]
FIG. 1 is a perspective view simulating a structure of an operation panel according to a first embodiment.
2A and 2B are examples of an operation menu displayed on a display unit, where FIG. 2A is a diagram schematically illustrating a stereoscopic parallax image as a stereoscopic image by binocular parallax, and FIG. It is a top view.
FIG. 3 is a block diagram for performing control according to the first embodiment.
FIG. 4 is a flowchart illustrating a timing of switching between a stereoscopic parallax image and a planar image displayed by a display unit.
FIG. 5 is a perspective view simulating a structure of an operation panel according to a second embodiment.
6A and 6B are examples of an operation menu displayed on a display unit, wherein FIG. 6A is a diagram schematically illustrating a stereoscopic parallax image as a stereoscopic image by binocular parallax, and FIG. It is a top view.
FIG. 7 is a block diagram for performing control according to a second embodiment.
FIG. 8 is a flowchart illustrating a timing of switching between a stereoscopic parallax image and a planar image displayed by a display unit.
[Explanation of symbols]
1, 1b Operation panel
2 Display
3 Touch panel
4 Proximity sensor
5 Position detection sensor
5b light receiving element
5a Light emitting element
9, 9b control unit
10, 10b Operation panel device

Claims (7)

操作のための画像を表示する表示部と、
前記表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、
前記タッチパネルの操作面と所定の距離離間して配設され、前記押圧手段が前記タッチパネルに触れる以前に該操作面への接近を検知するセンサと、
立体視差画像と平面画像を形成し、前記センサの検知に応じて前記表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えたことを特徴とする操作パネル装置。
A display for displaying an image for operation;
A touch panel that is formed by being superimposed on the display unit, and that is operated for input by being pressed by a pressing unit,
A sensor that is disposed at a predetermined distance from the operation surface of the touch panel, and detects an approach to the operation surface before the pressing unit touches the touch panel;
An operation panel device comprising: a control unit that forms a stereoscopic parallax image and a planar image, and that switches an image to be displayed on the display unit between the stereoscopic parallax image and the planar image in response to detection of the sensor. .
前記センサが前記押圧手段を検知すると、前記表示部に表示される画像は立体視差画像から平面画像に切り替わり、前記センサが前記押圧手段を検知しなくなると、前記表示部に表示される画像は平面画像から立体視差画像に切り替わることを特徴とする請求項1に記載の操作パネル装置。When the sensor detects the pressing unit, the image displayed on the display unit switches from a stereoscopic parallax image to a planar image, and when the sensor stops detecting the pressing unit, the image displayed on the display unit is a flat image. The operation panel device according to claim 1, wherein the image is switched to a stereoscopic parallax image. 複数の表示領域を有し、操作のための画像をそれぞれの表示領域で表示する表示部と、
前記表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、
前記タッチパネルの操作面と所定の距離離間して配設され、前記押圧手段が前記タッチパネルに触れる以前に、前記複数の表示領域のいずれに接近しているかの位置が検出可能なセンサと、
立体視差画像と平面画像を形成し、前記センサが前記押圧手段の位置を検出した場合、少なくとも該検出位置に対応する前記表示領域に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えたことを特徴とする操作パネル装置。
A display unit having a plurality of display areas and displaying an image for operation in each display area;
A touch panel that is formed by being superimposed on the display unit, and that is operated for input by being pressed by a pressing unit,
A sensor that is arranged at a predetermined distance from the operation surface of the touch panel and before the pressing unit touches the touch panel, a sensor capable of detecting a position of any of the plurality of display areas approaching,
Forming a stereoscopic parallax image and a planar image, and, when the sensor detects the position of the pressing unit, switching between the stereoscopic parallax image and the planar image at least an image to be displayed in the display area corresponding to the detected position. And an operation panel device.
前記センサが前記押圧手段の位置を検出した場合、少なくともその検出位置に対応する前記表示領域に表示される画像は立体視差画像から平面画像に切り替わり、前記センサが前記押圧手段の位置を検出しなくなると、少なくともその検出位置に対応する前記表示領域に表示される画像は平面画像から立体視差画像に切り替わることを特徴とする請求項3に記載の操作パネル装置。When the sensor detects the position of the pressing unit, at least the image displayed in the display area corresponding to the detected position is switched from a stereoscopic parallax image to a planar image, and the sensor does not detect the position of the pressing unit. 4. The operation panel device according to claim 3, wherein an image displayed in the display area corresponding to at least the detected position is switched from a planar image to a stereoscopic parallax image. 前記押圧手段が前記センサによって検知或いは検出されてからタッチパネルに触れるまでの時間が、前記表示部の画像の切替え時間よりも長くなるように、前記センサの前記所定の距離が設定されていることを特徴とする請求項1乃至請求項4のいずれかに記載の操作パネル装置。The predetermined distance of the sensor is set such that the time from when the pressing unit is detected or detected by the sensor to when the touch panel is touched is longer than the switching time of the image on the display unit. The operation panel device according to any one of claims 1 to 4, wherein: 前記センサが前記押圧手段を検知しなくなると、表示部に表示される画像は所定の遅延時間を経過してから切り替わることを特徴とする請求項1乃至請求項5に記載の操作パネル装置。6. The operation panel device according to claim 1, wherein when the sensor stops detecting the pressing unit, the image displayed on the display unit switches after a predetermined delay time has elapsed. 操作のための画像を表示する表示部と、
前記表示部上に重ね合わされて形成され、押圧手段によって押圧されることにより操作のための入力が行われるタッチパネルと、
前記タッチパネルの操作面と所定の距離離間して配設され、前記押圧手段が該操作面の投影範囲内でかつ該操作面から所定の法線距離内に位置すると前記押圧手段を検知するセンサと、
立体視差画像と平面画像を形成し、前記センサの検知に応じて前記表示部に表示させる画像を立体視差画像と平面画像との間で切替える制御手段とを備えたことを特徴とする操作パネル装置。
A display for displaying an image for operation;
A touch panel that is formed by being superimposed on the display unit, and that is operated for input by being pressed by a pressing unit,
A sensor that is disposed at a predetermined distance from the operation surface of the touch panel and detects the pressing unit when the pressing unit is located within a projection range of the operation surface and within a predetermined normal distance from the operation surface. ,
An operation panel device comprising: a control unit that forms a stereoscopic parallax image and a planar image, and that switches an image to be displayed on the display unit between the stereoscopic parallax image and the planar image in response to detection of the sensor. .
JP2003071386A 2003-03-17 2003-03-17 Operation panel device Pending JP2004280496A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003071386A JP2004280496A (en) 2003-03-17 2003-03-17 Operation panel device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003071386A JP2004280496A (en) 2003-03-17 2003-03-17 Operation panel device

Publications (1)

Publication Number Publication Date
JP2004280496A true JP2004280496A (en) 2004-10-07

Family

ID=33287834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003071386A Pending JP2004280496A (en) 2003-03-17 2003-03-17 Operation panel device

Country Status (1)

Country Link
JP (1) JP2004280496A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007065993A (en) * 2005-08-31 2007-03-15 Tokai Rika Co Ltd Input apparatus
WO2010023887A1 (en) * 2008-08-27 2010-03-04 富士フイルム株式会社 Device and method for setting instruction position during three-dimensional display, and program
JP2011013778A (en) * 2009-06-30 2011-01-20 Sony Corp Stereoscopic image display device, object proximity detection device and electronic apparatus
JP2011118907A (en) * 2010-12-20 2011-06-16 Fujifilm Corp Device and method for setting indicated position in three-dimensional display, and program
JP2011170694A (en) * 2010-02-19 2011-09-01 Victor Co Of Japan Ltd Image display device and image display method
JP2011257820A (en) * 2010-06-07 2011-12-22 Sony Corp Information display device and method for controlling display image
JP2012003742A (en) * 2010-05-18 2012-01-05 Panasonic Corp Input device, input method, program and recording medium
JP2012027794A (en) * 2010-07-26 2012-02-09 Olympus Imaging Corp Display device
JP2012048622A (en) * 2010-08-30 2012-03-08 Sony Corp Information processing unit, stereoscopic vision display method, and program
JP2012098929A (en) * 2010-11-02 2012-05-24 Canon Inc Display control device and display control method
WO2012120849A1 (en) * 2011-03-09 2012-09-13 Sony Corporation Image processing apparatus and method, and computer program product
WO2012157342A1 (en) * 2011-05-18 2012-11-22 日本電気株式会社 Image display device, image display method, and program
JP2012244187A (en) * 2011-05-13 2012-12-10 Ntt Docomo Inc Display control device and display control method
JP2013008087A (en) * 2011-06-22 2013-01-10 Lixil Corp Operation input device
WO2013084560A1 (en) 2011-12-07 2013-06-13 インターナショナル・ビジネス・マシーンズ・コーポレーション Method of displaying electronic document, and apparatus and computer program therefor
KR101488121B1 (en) * 2010-10-21 2015-01-29 노키아 코포레이션 Apparatus and method for user input for controlling displayed information
JP2015093143A (en) * 2013-11-14 2015-05-18 一寛 沼賀 Electric potential therapy device
US9083962B2 (en) 2010-10-20 2015-07-14 Mitsubishi Electric Corporation 3Dimension stereoscopic display device
US9135845B2 (en) 2012-02-21 2015-09-15 Samsung Display Co., Ltd. Display apparatus including barrier panel and touch sensing part
JP5781080B2 (en) * 2010-10-20 2015-09-16 三菱電機株式会社 3D stereoscopic display device and 3D stereoscopic display processing device
US9164621B2 (en) 2010-03-18 2015-10-20 Fujifilm Corporation Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
US9179133B2 (en) 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3Dimension stereoscopic display device
US9179140B2 (en) 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3dimension stereoscopic display device
JP2017054522A (en) * 2005-03-04 2017-03-16 アップル インコーポレイテッド Handheld electronic device with multi-touch sensing device

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054522A (en) * 2005-03-04 2017-03-16 アップル インコーポレイテッド Handheld electronic device with multi-touch sensing device
JP2007065993A (en) * 2005-08-31 2007-03-15 Tokai Rika Co Ltd Input apparatus
WO2010023887A1 (en) * 2008-08-27 2010-03-04 富士フイルム株式会社 Device and method for setting instruction position during three-dimensional display, and program
JP2010055266A (en) * 2008-08-27 2010-03-11 Fujifilm Corp Apparatus, method and program for setting position designated in three-dimensional display
US8482557B2 (en) 2008-08-27 2013-07-09 Fujifilm Corporation Device and method for setting instructed position during three-dimensional display, as well as program
JP2011013778A (en) * 2009-06-30 2011-01-20 Sony Corp Stereoscopic image display device, object proximity detection device and electronic apparatus
US9571821B2 (en) 2009-06-30 2017-02-14 Japan Display, Inc. Stereoscopic image displaying device, object proximity detecting device, and electronic apparatus
JP2011170694A (en) * 2010-02-19 2011-09-01 Victor Co Of Japan Ltd Image display device and image display method
US9164621B2 (en) 2010-03-18 2015-10-20 Fujifilm Corporation Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
JP2012003742A (en) * 2010-05-18 2012-01-05 Panasonic Corp Input device, input method, program and recording medium
JP2011257820A (en) * 2010-06-07 2011-12-22 Sony Corp Information display device and method for controlling display image
US8872821B2 (en) 2010-06-07 2014-10-28 Sony Corporation Information display device and display image control method
JP2012027794A (en) * 2010-07-26 2012-02-09 Olympus Imaging Corp Display device
US9880672B2 (en) 2010-07-26 2018-01-30 Olympus Corporation Display apparatus, display method, and computer-readable recording medium
JP2012048622A (en) * 2010-08-30 2012-03-08 Sony Corp Information processing unit, stereoscopic vision display method, and program
US10338805B2 (en) 2010-08-30 2019-07-02 Sony Corporation Information processing apparatus, stereoscopic display method, and program
US9678655B2 (en) 2010-08-30 2017-06-13 Sony Corporation Information processing apparatus, stereoscopic display method, and program
US9179140B2 (en) 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3dimension stereoscopic display device
US9179133B2 (en) 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3Dimension stereoscopic display device
US9083962B2 (en) 2010-10-20 2015-07-14 Mitsubishi Electric Corporation 3Dimension stereoscopic display device
JP5781080B2 (en) * 2010-10-20 2015-09-16 三菱電機株式会社 3D stereoscopic display device and 3D stereoscopic display processing device
KR101488121B1 (en) * 2010-10-21 2015-01-29 노키아 코포레이션 Apparatus and method for user input for controlling displayed information
US9043732B2 (en) 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
JP2012098929A (en) * 2010-11-02 2012-05-24 Canon Inc Display control device and display control method
JP2011118907A (en) * 2010-12-20 2011-06-16 Fujifilm Corp Device and method for setting indicated position in three-dimensional display, and program
WO2012120849A1 (en) * 2011-03-09 2012-09-13 Sony Corporation Image processing apparatus and method, and computer program product
US10222950B2 (en) 2011-03-09 2019-03-05 Sony Corporation Image processing apparatus and method
CN102685526A (en) * 2011-03-09 2012-09-19 索尼公司 Image processing apparatus and method, and computer program product
JP2012190184A (en) * 2011-03-09 2012-10-04 Sony Corp Image processing device, method, and program
US9348485B2 (en) 2011-03-09 2016-05-24 Sony Corporation Image processing apparatus and method, and computer program product
JP2012244187A (en) * 2011-05-13 2012-12-10 Ntt Docomo Inc Display control device and display control method
WO2012157342A1 (en) * 2011-05-18 2012-11-22 日本電気株式会社 Image display device, image display method, and program
JP2013008087A (en) * 2011-06-22 2013-01-10 Lixil Corp Operation input device
WO2013084560A1 (en) 2011-12-07 2013-06-13 インターナショナル・ビジネス・マシーンズ・コーポレーション Method of displaying electronic document, and apparatus and computer program therefor
US11150785B2 (en) 2011-12-07 2021-10-19 International Business Machines Corporation Displaying an electronic document
US9135845B2 (en) 2012-02-21 2015-09-15 Samsung Display Co., Ltd. Display apparatus including barrier panel and touch sensing part
JP2015093143A (en) * 2013-11-14 2015-05-18 一寛 沼賀 Electric potential therapy device

Similar Documents

Publication Publication Date Title
JP2004280496A (en) Operation panel device
CN114008569B (en) Method and apparatus for configuring multiple virtual buttons on a device
US9244544B2 (en) User interface device with touch pad enabling original image to be displayed in reduction within touch-input screen, and input-action processing method and program
US8259083B2 (en) Mobile device having backpanel touchpad
JP5323603B2 (en) Image display device
JP5857255B2 (en) Information processing apparatus, processing control method, program, and recording medium
JP4650559B2 (en) Information processing apparatus, information processing method, information processing system, and information processing program
KR102212993B1 (en) Drawing device
EP3179358A1 (en) Method and apparatus for inputting contents based on virtual keyboard, and touch device
JP5333397B2 (en) Information processing terminal and control method thereof
US20090002342A1 (en) Information Processing Device
KR101706927B1 (en) Method for operating an industrial robot
EP2383631A1 (en) Hand-held mobile device and method for operating the hand-held mobile device
JP5265433B2 (en) Display device and program
US9395816B2 (en) Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
JP2009140368A (en) Input device, display device, input method, display method, and program
WO2011158605A1 (en) Information display device and method for moving operation of onscreen button
WO2012108462A1 (en) Electronic apparatus
JP2017111462A (en) Tactile sensation presentation apparatus and tactile sensation presentation method
CN102981743A (en) Method for controlling operation object and electronic device
US20140225847A1 (en) Touch panel apparatus and information processing method using same
JP2018136616A (en) Display operation system
JP6115421B2 (en) Input device and input system
JP5954145B2 (en) Input device
JP2011100337A (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071106