JP5132028B2 - User interface device - Google Patents
User interface device Download PDFInfo
- Publication number
- JP5132028B2 JP5132028B2 JP2004174782A JP2004174782A JP5132028B2 JP 5132028 B2 JP5132028 B2 JP 5132028B2 JP 2004174782 A JP2004174782 A JP 2004174782A JP 2004174782 A JP2004174782 A JP 2004174782A JP 5132028 B2 JP5132028 B2 JP 5132028B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- button
- display
- user access
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 34
- 238000012790 confirmation Methods 0.000 claims description 9
- 239000004973 liquid crystal related substance Substances 0.000 description 61
- 238000010586 diagram Methods 0.000 description 19
- 230000007704 transition Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、ユーザインタフェース装置、特に数字キーや操作ボタン等を可変に表示可能な液晶パネル等を表示部として有するユーザインタフェース装置の操作性に関する。 The present invention relates to operability of a user interface device, particularly a user interface device having a liquid crystal panel or the like that can variably display numeric keys, operation buttons, and the like as a display unit.
例えばATM(Automatic Teller Machine)で代表されるように、従来から液晶パネルなどのディスプレイの表面にタッチパネルを配設したユーザインタフェース装置が実用化されている。このユーザインタフェース装置は、液晶パネルに表示するキー画像等をユーザ操作に応じて変更することができる。近年、タッチパネルを配設したユーザインタフェース装置は、携帯電話などの小型機器の操作手段としても利用されてきている。 For example, as represented by ATM (Automatic Teller Machine), a user interface device in which a touch panel is provided on the surface of a display such as a liquid crystal panel has been put into practical use. This user interface device can change a key image or the like displayed on the liquid crystal panel according to a user operation. In recent years, a user interface device provided with a touch panel has been used as an operation means for small devices such as a mobile phone.
ただ、このタイプのインタフェース装置を携帯電話等の小型機器に適用する場合には、操作領域が必然的に狭くなってしまうため、同等数の操作ボタンを表示しようとすると、各操作ボタンの大きさは相対的に小さくなってしまう。そうすると、この種のユーザインタフェースは、物理的な操作ボタン等と異なり凹凸を設けることができないため、ユーザは、操作しようとするキーの存在を触覚により確認することができない。このため、誤操作を招きやすくなる。 However, when this type of interface device is applied to a small device such as a mobile phone, the operation area is inevitably narrowed. Therefore, if an equivalent number of operation buttons is displayed, the size of each operation button is reduced. Will be relatively small. Then, since this type of user interface cannot be provided with unevenness unlike a physical operation button or the like, the user cannot confirm the presence of a key to be operated by touch. For this reason, it becomes easy to invite an erroneous operation.
このような誤操作を削減するために、従来においては、ユーザ操作を検出したときに操作された、若しくは操作されると思われるキー若しくはキー入力受付領域を拡大するなどしてデータ入力を容易にする入力装置が提案されている(例えば特許文献1,2)。
In order to reduce such erroneous operations, conventionally, data input is facilitated by expanding a key or a key input reception area that is operated or is supposed to be operated when a user operation is detected. Input devices have been proposed (for example,
しかしながら、特許文献1においては、キー画像の境界線が押下された場合に次回以降の入力ミスを低減させるためにキー入力受付領域を拡大変更するが、キー自体の表示を変更するものではない。また、「押下」という1回の操作に応じて操作されたキーの表示形態を変更することなく入力が確定されてしまうので、誤操作したことに気づかない場合も起こり得る。
However, in
これに対し、特許文献2においては、キーが選択されたときにその選択されたキー及びその周辺のキーを拡大表示するので、選択したキーをユーザに容易に確認させることができる。更に、ユーザは、選択したキーが誤っていた場合には指をずらすことで選択し直すことができるので、一見するとユーザフレンドリであるようにも考えられる。しかしながら、特許文献2においては、拡大表示した後に入力を中止したいときでも、タッチパネルから指を離した位置のキーで入力が無条件に確定されてしまうため、必ずしも使い勝手がよいとは言い難い。
On the other hand, in
本発明は、以上のような課題を解決するためになされたものであり、その目的は、誤操作の防止に、より適したユーザインタフェース装置を提供することにある。 The present invention has been made to solve the above-described problems, and an object thereof is to provide a user interface device that is more suitable for preventing erroneous operations.
本発明に係るユーザインタフェース装置は、ユーザにより操作される操作項目を表示するユーザ操作領域が設定された第1の表示手段と、前記第1表示手段に近接され、表示領域が設定された第2の表示手段と、ユーザ操作領域に対する第1のユーザアクセスを検出すると共に、第1のユーザアクセスより更にユーザ操作領域方向への移動を伴うユーザ操作領域に対する第2のユーザアクセスを検出する検出手段と、前記検出手段により検出された第2のユーザアクセスを、ユーザによる確定操作と判定する制御手段と、前記第1の表示手段に表示する操作項目の表示形態を制御する表示制御手段と、前記検出手段により第1のユーザアクセスが検出されたときに、ユーザ操作領域上における第1のユーザアクセス位置を特定する位置特定手段と、を有し、前記制御手段は、前記位置特定手段により特定された第1のユーザアクセス位置に対応した操作項目を特定し、前記表示制御手段は、前記検出手段により第1のユーザアクセスが検出されたときに、第1のユーザアクセス検出時点からの経過時間に応じて前記制御手段により特定された操作項目のみを前記第2の表示手段に設定された表示領域まで拡大表示するものである。
The user interface device according to the present invention includes a first display unit in which a user operation area for displaying an operation item operated by a user is set, and a second display unit in which the display area is set in proximity to the first display unit. And a detecting means for detecting a first user access to the user operation area and detecting a second user access to the user operation area with a further movement in the direction of the user operation area than the first user access. Control means for determining the second user access detected by the detection means as a confirming operation by a user, display control means for controlling a display form of operation items displayed on the first display means, and the detection A position specifying hand for specifying the first user access position on the user operation area when the first user access is detected by the means; The control means specifies an operation item corresponding to the first user access position specified by the position specifying means, and the display control means allows the first user access by the detection means. when it is detected, that only identified operation item to set the display area or in enlarging the image on the second display means by said control means in accordance with the elapsed time from the first user access detection time It is.
また、前記制御手段は、表示される操作項目毎に対応させて設定した反応領域と、前記位置特定手段により特定された第1のユーザアクセス位置とを照合することで、第1のユーザアクセス位置に対応した操作項目を特定する場合、前記検出手段により第1のユーザアクセスが検出されたときに前記位置特定手段により特定された第1のユーザアクセス位置に対応した操作項目に対応させて設定する反応領域の大きさを、当該操作項目の大きさより大きくするものである。 Further, the control means collates the reaction area set corresponding to each operation item to be displayed with the first user access position specified by the position specifying means, so that the first user access position is determined. When the operation item corresponding to the first user access is detected by the detection unit, the operation item is set corresponding to the operation item corresponding to the first user access position specified by the position specifying unit. The size of the reaction area is larger than the size of the operation item .
本発明によれば、第1及び第2という二段階のユーザアクセスを検出するように構成し、そのうち第1のユーザアクセスに続けて第2のユーザアクセスが行われてはじめてその第2のユーザアクセスを入力確定操作と判定するようにしたので、誤操作を効果的に防止することができる。 According to the present invention, it is configured to detect two-stage user access of first and second, and the second user access is not performed until the second user access is performed following the first user access. Is determined as an input confirmation operation, so that an erroneous operation can be effectively prevented.
また、第1のユーザアクセス検出の際に操作された操作項目が視認できるように、操作項目の表示形態を変更するようにしたので、ユーザ操作の確認を容易に行うことができ、また誤操作の防止を図ることができる。 In addition, since the display mode of the operation item is changed so that the operation item operated at the time of the first user access detection can be visually confirmed, the user operation can be easily confirmed, and an erroneous operation can be performed. Prevention can be achieved.
また、第1のユーザアクセス位置に対応した操作項目を拡大表示すると共に、当該操作項目の内容を示す情報を、拡大表示した操作項目表示領域内の操作部位からずれた位置に表示するようにしたので、どの操作項目を操作しているのかをユーザに容易に確認させることができる。 In addition, the operation item corresponding to the first user access position is displayed in an enlarged manner, and information indicating the contents of the operation item is displayed at a position shifted from the operation part in the enlarged operation item display area. Therefore, the user can easily confirm which operation item is being operated.
また、操作項目の拡大表示に合わせて当該操作項目に対応させて設定する反応領域の大きさも拡張するようにしたので、誤操作をより効果的に防止することができる。 In addition, since the size of the reaction area set corresponding to the operation item is expanded in accordance with the enlarged display of the operation item, erroneous operation can be prevented more effectively.
また、通知手段を設けたので、ユーザが操作項目以外の箇所を操作していることをユーザに知らせることができる。 In addition, since the notification means is provided, it is possible to notify the user that the user is operating a part other than the operation item.
以下、図面に基づいて、本発明の好適な実施の形態について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
実施の形態1.
図1は、本発明に係るユーザインタフェース装置の一実施の形態を適用した携帯電話の概略構成図である。本実施の形態における携帯電話1には、2つの液晶画面2,3が形成されている。液晶画面2には、電話番号等をガイド表示する表示領域が形成される。液晶画面3には、操作項目を表示してユーザによる入力操作を受け付けるユーザ操作領域が形成される。本実施の形態では、液晶画面3に表示されユーザにより操作されるメニュー等のボタン4や数字キー等を「操作項目」と総称する。ただ、以下の説明では、便宜的に「ボタン」を代表して用いる。
FIG. 1 is a schematic configuration diagram of a mobile phone to which an embodiment of a user interface device according to the present invention is applied. Two
図2は、携帯電話1のユーザ操作領域が形成される液晶画面部分を横からみたときの構造を示した概略図である。図2(a)に示したように、液晶画面3は、携帯電話1の筐体内部においてタッチパネル5、液晶パネル6及びスイッチ7が積層された液晶タッチパネルとして形成される。液晶画面3に対する操作は、指先やペン先をタッチパネル5に接触させることで行われるが、タッチパネル5は、このユーザによる接触操作及びその接触位置を検出する。なお、携帯電話1に対しては、通常、指でボタン操作するので、本実施の形態でも、ユーザ操作は指先で行われるものとして説明する。液晶パネル6は、携帯電話1における表示制御に従ったボタン画像をユーザ操作領域内に表示する。スイッチ7は、液晶画面3が押下されたことを検出するオン/オフスイッチである。スイッチ7は、液晶パネル6と隙間を設けて配置され、液晶パネル6との接触を電気的に検出したり、あるいは液晶パネル6との接触により生じる圧力を検出するなどして、ユーザによる液晶画面3の押下を検出する。
FIG. 2 is a schematic diagram showing a structure when the liquid crystal screen portion on which the user operation area of the
液晶画面3は、周知な機構を用いて筐体内部方向に可動な状態で携帯電話1に取り付けられており、ユーザによりタッチパネル5側が押下されると、筐体内部方向に押し込まれる構造を有している。すなわち、この液晶画面部分の構造について図2を用いて説明すると、ユーザは、図2(a)に示したように液晶画面3のユーザ操作領域に表示されたいずれかのボタン(図示せず)を押下操作するとき、指先を液晶画面3に近づけるよう移動させる。指先は、その移動によっていずれ液晶画面3に接触することになる。なお、この液晶画面3への接触は、タッチパネル5により検出される。続いて、ユーザは、液晶画面3を更に押下すると、液晶画面3は、筐体内部方向に押し込まれる。図2(b)では、この押し込まれた状態を、タッチパネル5と携帯電話1の筐体との間の隙間8によって示している。スイッチ7は、このタッチパネル接触後に続いて行われる押下というユーザ操作を検出する。なお、指先が離れると、液晶画面3は、図2(a)に示した元の位置に戻る。
The
本実施の形態における液晶画面3は、以上のような構造を有しているが、本実施の形態では、上記のようにタッチパネル5への接触操作と、その接触後において更にタッチパネル5を押し込む方向への指先の移動、すなわち押下操作という2段階のユーザ操作を検出できるように構成した。そして、タッチパネル5により検出された最初の接触操作を第1のユーザアクセスと、スイッチ7により検出された最初の接触後における押下操作を第2のユーザアクセスと称するならば、本実施の形態では、第1のユーザアクセス後に行われる第2のユーザアクセスをユーザによる確定操作としてみなすようにした。すなわち、本実施の形態では、液晶画面3への接触後に更に押し込むという二段操作若しくは二度押しというユーザインタフェースを提供し、その二段目(二度押し目)の操作をユーザによる確定操作として判定するようにしたことを特徴としている。
The
図3は、本実施の形態におけるユーザインタフェース装置のブロック構成図である。図3には、表示部10、表示制御部11、位置特定部12、第1操作検出部13、第2操作検出部14、制御部15及び通知部16が示されている。表示部10は、前述した液晶パネル6により実現される。表示制御部11は、携帯電話本体の表示制御機能から送られてくる表示データに基づいて、ユーザにより操作されるボタン等の操作項目を表示部10に設定されたユーザ操作領域に表示する。表示データには、液晶パネル6に表示する各操作項目の形状、表示位置、色等表示に必要なデータが含まれている。また、詳細は後述するが、表示制御部11は、操作項目の表示形態をユーザ操作に応じて変更するなどの表示制御を行う。検出手段17は、ユーザ操作領域に対する第1のユーザアクセスを検出する第1操作検出部13と、第1のユーザアクセス後のユーザ操作領域に対する第2のユーザアクセスを検出する第2操作検出部14とを有している。第1操作検出部13が検出する第1のユーザアクセスというのは、上記例示したタッチパネル5への接触操作に相当し、タッチパネル5により実現される。一方、第2操作検出部14は、タッチパネル5に対する押下操作に相当し、スイッチ7により実現される。
FIG. 3 is a block diagram of the user interface device according to the present embodiment. 3 shows a
位置特定部12は、第1のユーザアクセスが検出されたときに、ユーザ操作領域上における第1のユーザアクセスがされた位置を特定する。具体的に言うと、ユーザの指先が接触したタッチパネル5上の位置を特定可能な電気信号を出力する。位置特定部12は、タッチパネル5により実現される。制御部15は、位置特定部12から送られてくる信号データに基づき得たユーザ接触位置の座標データと、表示制御部11を介して取得した表示データから特定される各ボタンの表示位置とを比較照合してユーザが操作したボタン4を特定する。制御部15は、またその他ユーザインタフェース装置全体の動作制御を行う。通知部16は、制御部15が第1のユーザアクセス位置に対応したボタンを特定できなかったときにその旨をユーザに通知する。
The
なお、本実施の形態におけるユーザインタフェース装置の説明に必要な構成要素を図3に示したが、これらの構成要素は、携帯電話が持つ既存の構成要素に適宜組み込んで実現することができる。例えば、制御部15や表示制御部11が持つ処理機能は、携帯電話1に搭載されている制御回路に組み込んで実現できる。また、通知部16は、スピーカ等で実現できる。
In addition, although the component required for description of the user interface apparatus in this Embodiment was shown in FIG. 3, these components can be implement | achieved by suitably incorporating in the existing component which a mobile telephone has. For example, the processing functions of the
次に、本実施の形態における動作について図4に示した画面表示例の遷移図を用いて説明する。 Next, the operation in the present embodiment will be described using the transition diagram of the screen display example shown in FIG.
図4(a)に示したように、液晶画面3のユーザ操作領域には“A”から“L”までの文字入力ボタンが表示されている。ここで、ユーザは、“B”を入力することを選択したとする。そこで、ユーザは、液晶画面3に表示された“B”ボタンを入力するために、“B”ボタンに指先を合わせて液晶画面3のタッチパネル5に接触する。第1操作検出部13は、この指先の接触を検出し、またこれと同時に位置特定部12はユーザ操作領域内の接触位置を特定する。制御部15は、位置特定部12により特定されたユーザ接触位置に基づいて、ユーザが操作しようとするボタンを次のようにして特定する。
As shown in FIG. 4A, character input buttons from “A” to “L” are displayed in the user operation area of the
制御部15は、ユーザ操作領域に表示するための表示データを表示制御部11から取得することで、ユーザ操作領域内における各ボタンの表示領域を位置座標データとして把握する。そして、ユーザ操作領域と同じ大きさを持つ別途用意した領域上に各ボタンの表示領域を投影する。これにより、ユーザ接触位置と比較照合するための領域情報を生成する。このユーザが操作した位置と比較照合するための領域情報を「反応領域」と称することにする。反応領域は、ボタン毎に生成され、ユーザが操作したボタンを特定するために制御部15によって用いられる座標データである。この点で表示制御部11が表示のために用いる表示データとは異なる。反応領域は、座標データにより範囲指定されるが、制御部15は、位置特定部12により特定されたユーザ接触位置に基づき得られる位置座標データと、表示されている各ボタンに対応した反応領域とを比較することでユーザ接触位置がどの反応領域に含まれるかを特定する。そして、特定した反応領域に対応するボタンがユーザにより操作されたボタンであると判定する。この制御部15における処理によって、図4に示した例によると、“B”ボタンが操作されたと特定することができる。
The
ところで、ボタンには、通常、図4(a)に示したように各ボタンの内容を示す情報、この例の場合は“A”〜“L”という文字がボタン上に表示される。携帯電話1などの小型機器の場合は特にボタンを指で操作すると、ボタン上に表示される文字が指先で覆われ視認できなくなってしまう。そこで、本実施の形態においては、上記のように第1のユーザアクセスで“B”ボタンが操作されたと制御部15により特定されると、表示制御部11は、図4(b)に示したように該当する“B”ボタンを拡大表示する。図4(b)では、“A”ボタンが隠れる大きさに拡大しているが、“A”ボタンは選択されていないため隠れても問題ないと考えられる。そして、表示制御部11は、拡大表示した“B”ボタン上であって指先からずれた位置に文字“B”を表示する。これにより、ユーザは、操作したボタンが“B”ボタンであることを容易に視認することができる。
By the way, information indicating the contents of each button as shown in FIG. 4A, in this case, characters “A” to “L” are usually displayed on the button. In the case of a small device such as the
ボタンの拡大サイズ又は拡大率は、固定値として予め設定しておいてもよいが、ユーザの指先の位置は特定できるので、その位置と推測した操作部位(この例では指先)の大きさとから文字“B”の表示位置を計算により求めることができる。従って、文字“B”の表示位置が含まれるような大きさに “B”ボタンを拡大表示すればよい。これにより、ユーザは、文字“B”を常に視認することができる。 The enlargement size or enlargement ratio of the button may be set in advance as a fixed value. However, since the position of the user's fingertip can be specified, the character is determined from the position and the size of the estimated operation part (in this example, the fingertip) The display position of “B” can be obtained by calculation. Therefore, the “B” button may be enlarged and displayed so as to include the display position of the character “B”. Thereby, the user can always visually recognize the character “B”.
更に、小型機器の場合はボタン自体が小さいためにボタン上に表示される文字も小さい。従って、図4(b)に例示したように文字自体もボタンと共に拡大表示することがユーザにとっては好適である。なお、文字とボタンの拡大倍率は、同じでも別でもよい。 Furthermore, in the case of a small device, since the button itself is small, the characters displayed on the button are also small. Therefore, as illustrated in FIG. 4B, it is preferable for the user to display the characters themselves together with the buttons. Note that the magnification of the characters and buttons may be the same or different.
ユーザがタッチパネル5に接触操作すると、上記のようにして図4(b)が画面表示されることになる。ユーザは、入力しようとする“B”ボタンを操作できていることが確認できると、“B”ボタンを押下する。この押下操作をスイッチ7、すなわち第2操作検出部14が検出すると、制御部15は、この“B”ボタンに対する押下操作をユーザによる確定操作と判定する。なお、図4(c)における“Pi!”は、押下操作により確定されたことをユーザに聴覚にて知らせるための音を示している。他の図においても同様である。
When the user touches the
以上のように、本実施の形態によれば、ユーザ操作領域に対する接触操作(第1のユーザアクセス)によりボタンを拡大表示するなどしてどのボタンが操作されているのかをユーザに確認させ、更にその接触操作に続いて行われるユーザ操作領域に対する押下操作(第2のユーザアクセス)により入力確定させる。ユーザからしてみれば、押下により入力を確定させる前にボタンに接触した時点で押下しようとしているボタンが拡大表示されるので、誤入力を防止することができる。仮に、ボタンを押下する前に、すなわちユーザ操作領域に接触した時点で誤ったボタンを操作しようとしていることを視認した場合には、操作をやり直せばよい。この際に指先が液晶画面3から離れたとしても、この操作を入力確定操作とみなされることはない。
As described above, according to the present embodiment, the user can confirm which button is being operated by, for example, enlarging and displaying the button by a contact operation (first user access) with respect to the user operation area. The input is confirmed by a pressing operation (second user access) on the user operation area performed following the contact operation. From the viewpoint of the user, since the button to be pressed is enlarged when the button is touched before the input is confirmed by pressing, an erroneous input can be prevented. If it is visually confirmed that an incorrect button is to be operated before the button is pressed, that is, when the user touches the user operation area, the operation may be performed again. Even if the fingertip moves away from the
本実施の形態は、上記説明したとおり、ボタンの拡大表示等によるボタンの確認と、入力確定のために二段操作(二度押し操作)によるユーザインタフェースを提供するものである。しかし、二段階の操作をユーザに強要するものではない。すなわち、ユーザが確定のために押下操作をする際には、その押下操作より前に接触操作は常に行われることになるので、ユーザは、この二段階の操作を意識的に実行する必要はない。ユーザからしてみれば、一連の操作を行えばよく、本実施の形態におけるインタフェース装置が前述した内部処理にて二段階の操作として処理することになる。もちろん、ユーザは、意識的に接触操作をした時点で更なる押し込み操作をしないようにしてもよく、この場合は、ボタンの拡大表示が維持された状態になる。 As described above, the present embodiment provides a user interface by a two-step operation (double-pressing operation) for confirming a button by an enlarged display of the button or the like and confirming an input. However, it does not force the user to perform a two-step operation. That is, when the user performs a pressing operation for confirmation, the contact operation is always performed before the pressing operation, so the user does not need to consciously execute the two-stage operation. . From the user's point of view, a series of operations may be performed, and the interface device according to the present embodiment processes as a two-stage operation in the internal processing described above. Of course, the user may not perform further push-in operation when the user makes a conscious contact operation. In this case, the enlarged display of the button is maintained.
図5は、図4の変形例に相当する画面表示例の遷移図である。上記説明では、図4に示したようにユーザ操作領域が形成された液晶画面3の表示範囲内でボタンを拡大表示させていた。これに対し、図5は、ガイド表示領域が形成された液晶画面2まで拡大してボタンを表示させるようにした。このように、ユーザ操作領域に限定されずにボタンを拡大表示してもよい。
FIG. 5 is a transition diagram of a screen display example corresponding to the modification of FIG. In the above description, as shown in FIG. 4, the buttons are enlarged and displayed within the display range of the
図6乃至図9は、更に異なる画面表示例を示した遷移図である。図4では、接触操作されたときにその操作されたボタンの表示形態を操作前と異ならせて表示するようにした。しかし、操作されたボタン以外のボタンの表示形態を変更するようにして操作されたボタンか否かを識別できるようにしてもよい。図6には、操作された“B”ボタン以外のボタンを淡く表示するようにした例が示されている。このように、操作されていないボタンの表示を淡くしたり、消去したり、あるいは色を変更するなどすることで操作されたボタンを目立たせることができ、これにより誤入力の防止効果を向上させることができる。 6 to 9 are transition diagrams showing further different screen display examples. In FIG. 4, when a touch operation is performed, the display mode of the operated button is displayed differently from that before the operation. However, it may be possible to identify whether the button is operated by changing the display form of buttons other than the operated button. FIG. 6 shows an example in which buttons other than the operated “B” button are displayed lightly. In this way, it is possible to make the operated button stand out by dimming the display of the button that has not been operated, deleting it, or changing the color, thereby improving the effect of preventing erroneous input. be able to.
図7には、操作されたボタンからの距離に応じてボタンの表示形態を決定するようにした例が示されている。すなわち、図7(b)に示した表示例によると、ユーザは“B”ボタンを操作しているが、それが誤操作だとすると、正しく選択されるべきボタンは、“B”ボタン周辺にあると考えられる。そこで、操作した“B”ボタンは上記と同様に拡大表示するが、その横隣にある“A”ボタンと“C”ボタンも拡大表示してボタンの存在をユーザに示す。ただ、操作された“B”ボタンとの区別が付けられるように拡大の程度を多少落とす。また、“B”ボタンの下段に位置する“D”〜“F”ボタンは、縮小表示する。“D”〜“F”ボタンの中に正しいボタンが存在する確率は、“A”,“C”ボタンより低いためである。更に、下段に位置する“G”〜“I”ボタンは淡く表示する。“G”〜“I”ボタンの中に正しいボタンが存在する確率は、“D”〜“F”ボタンより更に低いためである。つまり、重要度は更に低くなる。実際には、2段ずれた位置を押し間違いすることは通常はないと考えられるので、表示しなくてもよい。 FIG. 7 shows an example in which the button display form is determined according to the distance from the operated button. That is, according to the display example shown in FIG. 7B, the user operates the “B” button, but if it is an erroneous operation, the button to be correctly selected is considered to be around the “B” button. It is done. Therefore, the operated “B” button is enlarged and displayed in the same manner as described above, but the “A” and “C” buttons adjacent to the “B” button are also enlarged to indicate the existence of the button to the user. However, the degree of enlargement is slightly reduced so that it can be distinguished from the operated “B” button. Further, the “D” to “F” buttons located in the lower part of the “B” button are displayed in a reduced size. This is because the probability that a correct button exists among the “D” to “F” buttons is lower than those of the “A” and “C” buttons. Further, the “G” to “I” buttons located in the lower row are displayed lightly. This is because the probability that the correct button exists among the “G” to “I” buttons is lower than that of the “D” to “F” buttons. That is, the importance is further reduced. Actually, it is considered that it is not usually wrong to push a position shifted by two steps, so that it is not necessary to display it.
なお、本実施の形態は、操作されたボタンの位置からの距離に応じて表示形態を変更することを特徴とするものであり、例えば、“B”ボタンの直下の“E”ボタンは“A”,“C”ボタンと同様に拡大表示してもよいし、“B”ボタンの周囲に位置することから“D”〜“F”ボタンも拡大表示するようにしてもよい。 The present embodiment is characterized in that the display form is changed in accordance with the distance from the position of the operated button. For example, the “E” button directly below the “B” button is “A”. The buttons “D” to “F” may be enlarged and displayed because they are located around the “B” button.
図8には、図4等と同様に操作されたボタンを拡大表示するが、接触操作の検出時点からの経過時間に応じてボタンを徐々に拡大していくように表示する例が示されている。これにより、ユーザに確定操作を喚起することができる。なお、ボタンの表示形態を変化させる例として、ボタンの大きさを変化させる場合を図8に示したが、この他にも表示色等他の表示形態を変化させるようにしてもよい。 FIG. 8 shows an example in which a button operated in the same manner as in FIG. 4 or the like is displayed in an enlarged manner, but the button is displayed so as to gradually expand in accordance with the elapsed time from the detection time of the contact operation. Yes. Thereby, confirmation operation can be alerted to a user. As an example of changing the display form of the button, the case where the size of the button is changed is shown in FIG. 8, but other display forms such as the display color may be changed.
以上のように、本実施の形態では、操作されたボタンの表示形態を変更することで、どのボタンが操作されているのかをユーザに知らせることができるようにした。ボタンの表示形態を変更するためには、操作されたボタンを特定しなければならないが、この操作されたボタンは、ボタンのレイアウトが示された表示データから各ボタンの反応領域を生成し、この生成した各反応領域とユーザ接触位置とを比較することで特定している。この処理については前述している。但し、ユーザ接触位置がいずれの反応領域にも含まれない場合もあり得る。このように、ユーザ接触位置に対応したボタンが特定できなかったとき、制御部15は、表示制御部11にそのユーザ接触位置近傍のボタンを拡大表示させる。このときの画面表示例を図9に示す。図9(a)に示したように、“A”ボタンと“B”ボタンの上方であっていずれのボタンも操作していないとき、制御部15は、そのユーザ接触位置から接触位置近傍にある“A”,“B”ボタンを特定する。そして、表示制御部11は、その特定された“A”,“B”ボタンを図9(b)に例示したように拡大表示する。これにより、ユーザは、図9(c)に示したように選択しようとしていた“A”ボタンを押下することで入力を確定する。なお、図9(b)では、拡大表示したボタンを明確に示すために操作部位である指を図面から省略した。
As described above, in the present embodiment, it is possible to notify the user which button is being operated by changing the display form of the operated button. In order to change the button display form, the operated button must be specified. This operated button generates a reaction area for each button from the display data indicating the button layout, and It is specified by comparing each generated reaction area with the user contact position. This process has been described above. However, the user contact position may not be included in any reaction region. As described above, when the button corresponding to the user contact position cannot be specified, the
本実施の形態によれば、ボタンが表示されていないユーザ操作領域にユーザが触れたとき、どのボタンを操作しようとしたのかをそのユーザ接触位置に基づき推測し、そのボタンを拡大表示するようにしたので、ボタン操作が容易になり、誤操作防止に効果的である。なお、この例では、2つのボタンを拡大表示したが、拡大表示するボタン数は、ユーザの接触位置によって決まる。例えば、“A”ボタンの左上なら“A”ボタンのみを拡大表示する。また、“A”,“B”,“D”,“E”ボタンの間なら4つのボタンを拡大表示する。 According to the present embodiment, when a user touches a user operation area where no button is displayed, it is estimated which button is to be operated based on the user contact position, and the button is enlarged and displayed. As a result, button operation is facilitated, which is effective in preventing erroneous operation. In this example, two buttons are enlarged and displayed, but the number of buttons to be enlarged is determined by the contact position of the user. For example, in the upper left of the “A” button, only the “A” button is enlarged and displayed. In addition, four buttons are enlarged and displayed between the “A”, “B”, “D”, and “E” buttons.
また、制御部15は、ボタンが表示されていないユーザ操作領域にユーザが触れたとき、通知部16に通知指示を出す。通知部16は、制御部15からの指示に従い所定の方法でユーザにその旨を知らせる。所定の方法というのは、例えば、本実施の形態のように携帯電話1の場合は、音出力でもよいし、搭載されたバイブレータを駆動制御して振動させるようにしてもよい。また、発光など他の方法でユーザの五感を通じて知らせるようにしてもよい。タッチパネル5の場合、ボタン以外の箇所に触れても、そのことが触覚として伝わらないため、通知部16を設けてその旨をユーザに知らせるようにすることは効果的である。
Further, the
ところで、ユーザがアクセス(接触、押下)したボタンは、ユーザが操作した位置の座標データを、表示データから得られるボタンの表示領域と比較するのではなく、各ボタンの表示領域を投影することで生成した各反応領域と比較して特定していることは前述したとおりである。上記のように各ボタンの表示領域を投影することによって反応領域を生成した場合には、各ボタンの表示領域と反応領域の大きさは一致する。このため、ユーザは、ボタンの表示位置を操作すれば、実際にボタン操作を行うことができる。図4乃至図8を用いて説明したように、ボタンが拡大表示されることによって正しいボタンを操作していることが確認できると、ユーザは、接触位置から指先を動かすことなくその位置で押下操作を行うと推測できる。従って、ボタンの拡大表示に連動して必ずしも反応領域を拡大させる必要はない。しかしながら、ボタンサイズの拡大に連動させて反応領域も拡張すれば、都合のよい場合もある。例えば、図9に示したようにボタン以外の箇所を接触操作した後は、指先の位置を移動させなければならない。このような場合に拡大表示した“A”,“B”ボタンと表示領域(表示サイズ)と同じサイズで反応領域を生成すれば、誤操作を効果的に防止できる。なお、反応領域の生成に関しては、上記と同様で表示制御部11によって表示形態が変更されたときに、制御部15は、その表示データを表示制御部11から取得して反応領域を生成し直せばよい。
By the way, the button accessed by the user (contact, pressed) is not by comparing the coordinate data of the position operated by the user with the display area of the button obtained from the display data, but by projecting the display area of each button. As described above, it is specified in comparison with each reaction region generated. When the reaction area is generated by projecting the display area of each button as described above, the display area of each button and the size of the reaction area match. For this reason, the user can actually perform the button operation by operating the display position of the button. As described with reference to FIG. 4 to FIG. 8, when it is confirmed that the correct button is operated by the enlarged display of the button, the user performs a pressing operation at that position without moving the fingertip from the contact position. Can be guessed. Therefore, it is not always necessary to enlarge the reaction area in conjunction with the enlarged display of the button. However, it may be convenient if the reaction area is expanded in conjunction with the increase in button size. For example, as shown in FIG. 9, after touching a place other than the button, the position of the fingertip must be moved. In such a case, if the reaction area is generated with the same size as the enlarged display of the “A” and “B” buttons and the display area (display size), an erroneous operation can be effectively prevented. Regarding the generation of the reaction region, when the display form is changed by the
この反応領域の生成は、図9に限らず、時間の経過と共にボタンの大きさが変化する図8に示したような表示の場合にも適用可能である。図8に対応する反応領域を図10に示したが、図10から明らかなように、ボタンの大きさの変化に応じて反応領域を再生成することで、ボタンの表示領域と反応領域の大きさを常に一致させることができる。 The generation of the reaction region is not limited to FIG. 9, but can be applied to the display as shown in FIG. 8 in which the size of the button changes with time. The reaction area corresponding to FIG. 8 is shown in FIG. 10, but as is clear from FIG. 10, by regenerating the reaction area according to the change in the size of the button, the display area of the button and the size of the reaction area are shown. Can always be matched.
更に、反応領域の大きさは、ボタンの表示領域と必ずしも一致させる必要はなく、例えば表示領域より広くなるように生成してもよい。本実施の形態において例示した携帯電話、更にリモコンや車載情報機器など液晶画面を入力インタフェースとし、また表示する操作ボタン自体を小さくせざるを得ない小型機器においては、入力ミスの確率が必然的に高くなってしまう。特に、乗車中など静止していない状態、あるいは片手に持って連続して入力する頻度の高い携帯電話では、捜査中に指先がボタンからずれてしまう可能性がある。表示領域より反応領域の大きさを大きくすると、多少の操作位置のずれを許容することができるので、本実施の形態が提供するユーザインタフェースは誤操作防止に特に有効である。 Furthermore, the size of the reaction area does not necessarily have to coincide with the display area of the button. For example, the reaction area may be generated so as to be wider than the display area. In a small-sized device in which a liquid crystal screen such as a mobile phone exemplified in this embodiment and a remote control or an in-vehicle information device is used as an input interface and the operation buttons to be displayed must be made small, the probability of an input error is inevitably It will be high. In particular, in a mobile phone that is not stationary, such as when riding, or a mobile phone that is frequently input with a single hand, the fingertip may be displaced from the button during the investigation. If the size of the reaction area is made larger than the display area, a slight shift in the operation position can be allowed, so that the user interface provided by this embodiment is particularly effective in preventing erroneous operations.
なお、本実施の形態では、入力方式として二段操作(二度押し)というユーザインタフェースを提供することによって操作の確認を容易にし、かつ誤操作の防止を図ることができるようにした。上記例では、二段操作のうちユーザ操作領域に対する接触操作(第1のユーザアクセス)でボタンを拡大表示し、ユーザ操作領域に対して続けて行われる押下操作(第2のユーザアクセス)で入力確定としたが、例えば、第1のユーザアクセスが検出されたときに、当該ボタンに割り付けた情報を画面表示させるなど、各ユーザアクセスを他の処理と関連付けるようにしてもよい。 In this embodiment, a user interface called a two-stage operation (pressed twice) is provided as an input method, thereby facilitating confirmation of the operation and preventing an erroneous operation. In the above example, the button is enlarged and displayed by the touch operation (first user access) to the user operation area in the two-stage operation, and input is performed by the pressing operation (second user access) performed subsequently to the user operation area. Although it is determined, for example, when the first user access is detected, each user access may be associated with other processing such as displaying the information assigned to the button on the screen.
また、本実施の形態では、液晶パネル6の下方にスイッチ7を配設して第2のユーザアクセスを検出するように構成したが、この構成に限定する必要はない。例えば、携帯電話1の筐体とタッチパネル5との隙間8を検出するなど他の手段によって第2のユーザアクセスを検出するようにしてもよい。
In the present embodiment, the switch 7 is disposed below the
実施の形態2.
実施の形態1では、液晶画面3を押し込むことで入力を確定させるタイプ、すなわちプッシュスイッチタイプのユーザインタフェースを示した。以下の説明する各実施の形態は、実施の形態1とは異なるタイプのインタフェースを提供するものである。なお、表示形態に関しては、実施の形態1と同じであるため説明を省略し、携帯電話1に組み込む液晶画面3部分の構造についてのみ説明する。
In the first embodiment, a user interface of a type in which an input is confirmed by pressing the
図11は、本実施の形態における液晶画面3を表面側から見たときの概念図である。図12は、携帯電話1の液晶画面3部分を横からみたときの構造を示した概略図であり、実施の形態1の説明に用いた図2に相当する図である。
FIG. 11 is a conceptual diagram when the
本実施の形態における液晶画面3は、タッチパネル5及び液晶パネル6で形成される。そして、赤外線22を発光する発光素子20と赤外線を受光する受光素子21とを組にして液晶画面3の表面側に配列する。発光素子20は、携帯電話1の使用中は赤外線22を常時発光しており、赤外線22が遮断されることによってタッチパネル5に接触しようとする指先を検出するように構成した。
The
すなわち、実施の形態1では、タッチパネル5に対する接触操作を第1のユーザアクセスとして検出したが、本実施の形態では、図12(b)に示したように、この接触操作を第2のユーザアクセスとして検出する。そして、多数の発光素子20と受光素子21との組を含む赤外線センサ手段による物体の検出を、図12(a)に示したように第2のユーザアクセスとして検出するように構成したことを特徴としている。
That is, in the first embodiment, the touch operation on the
本実施の形態における装置のブロック構成は、図3で表すことができる。但し、本実施の形態の場合、第1操作検出部13及び位置特定部12は、発光素子20,受光素子21を含む赤外線センサ手段で実現され、第2操作検出部14は、タッチパネル5で実現される。
The block configuration of the apparatus in the present embodiment can be represented in FIG. However, in the case of the present embodiment, the first
本実施の形態における作用は、基本的には実施の形態1と同じなので説明を省略するが、第1のユーザアクセス検出時では、ユーザの指先の検出位置を特定する必要があるので、液晶画面3の大きさ等を考慮して縦横に照射する赤外線数を調整することになる。第1のユーザアクセス検出時、縦横それぞれ少なくとも1本の赤外線が指先で遮断されることになるので、制御部15は、各受光素子21の受光状態を検出することでユーザアクセス位置を特定することができる。
Since the operation in the present embodiment is basically the same as that in the first embodiment, the description thereof will be omitted. However, when detecting the first user access, it is necessary to specify the detection position of the user's fingertip. In consideration of the size of 3 and the like, the number of infrared rays irradiated vertically and horizontally is adjusted. When detecting the first user access, at least one infrared ray is cut off by the fingertips in the vertical and horizontal directions, so that the
実施の形態3.
図13は、本実施の形態における携帯電話1の液晶画面3部分を横からみたときの構造を示した概略図であり、実施の形態1の説明に用いた図2に相当する図である。本実施の形態における液晶画面3は、タッチパネル5及び液晶パネル6で形成される。そして、指先でタッチパネル5を押下するとき、指先のタッチパネル5との接触面の大きさは変化する。図13を用いてより詳細に説明すると、図13(a)に示したようにタッチパネル5に触れたときの指先の接触面30は、図13(b)に示したように小さい。図13(c)に示したようにユーザがタッチパネル5を更に押し込むように押下操作すると、タッチパネル5に触れたときの指先の接触面31は、図13(d)に示したように触れたときの接触面30の面積より大きくなる。
FIG. 13 is a schematic view showing the structure of the
すなわち、本実施の形態においては、指先がタッチパネル5に最初に触れたときの接触操作を第1のユーザアクセスとして検出する。この点は実施の形態1と同じである。但し、本実施の形態では、第1のユーザアクセス時のタッチパネル5に対する接触面積に対して、予め決められた基準値以上にタッチパネル5に対する接触面積が増加したときの接触操作を第2のユーザアクセスとして検出するようにした。予め決められた基準値以上にタッチパネル5に対する接触面積が増加したときというのは、第2のユーザアクセス時における接触面積が基準値(mm2)以上になったとき、あるいは第1のユーザアクセス時において求めた接触面積に対して第2のユーザアクセス時における設置面積が基準値(増加率(%))以上に増加したときなどのことをいう。
That is, in the present embodiment, the contact operation when the fingertip first touches the
本実施の形態における装置のブロック構成は、図3で表すことができる。但し、本実施の形態の場合、第2操作検出部14、第1操作検出部13及び位置特定部12は、タッチパネル5で実現されるが、第2のユーザアクセスの検出時点の判断は、検出手段であるタッチパネル5からの電気信号に基づき予め決められた基準値に従い制御部15によりなされる。
The block configuration of the apparatus in the present embodiment can be represented in FIG. However, in the case of the present embodiment, the second
実施の形態4.
図14は、本実施の形態における携帯電話1の液晶画面3部分を横からみたときの構造を示した概略図であり、実施の形態1の説明に用いた図2に相当する図である。本実施の形態における液晶画面3は、タッチパネル40及び液晶パネル6で形成されるが、本実施の形態におけるタッチパネル40は、静電タイプのタッチパネルであり、触れられなくても指先が近づくと静電容量が変化する。
FIG. 14 is a schematic view showing a structure of the
すなわち、本実施の形態においては、図14(a)に示したように、タッチパネル40に近づいて接触しようとした指先が静電容量の変化により検出されたとき、その接触しようとした非接触操作を第1のユーザアクセスとして検出する。そして、図14(b)に示したように、指先がタッチパネル40に更に近づきタッチパネル40に接触したとき、この接触操作を第2のユーザアクセスとして検出する。この第2のユーザアクセスの検出に関しては、実施の形態2と同じである。
That is, in the present embodiment, as shown in FIG. 14A, when a fingertip approaching and touching the
本実施の形態における装置のブロック構成は、図3で表すことができる。但し、本実施の形態の場合、第2操作検出部14、第1操作検出部13及び位置特定部12は、タッチパネル40で実現される。
The block configuration of the apparatus in the present embodiment can be represented in FIG. However, in the case of the present embodiment, the second
以上、各実施の形態において4つのタイプのユーザインタフェースについて説明した。実施の形態1で示したスイッチタイプに限っては、液晶画面3のユーザ操作領域自体が指先と共に移動することになるが、いずれのタイプも指先が第1のユーザアクセスの検出位置から更に液晶画面3のユーザ操作領域方向に移動を伴う操作を第2のユーザアクセスとして検出した。このように、液晶画面3に向かったユーザ操作を2段階で検出するようにし、1段目で操作内容を確認させ、2段目で入力確定させるようなユーザインタフェースとしたので、操作の確認を容易にし、かつ誤操作を防止することができる。
As described above, the four types of user interfaces have been described in the respective embodiments. For the switch type shown in the first embodiment, the user operation area itself of the
なお、上記説明では、4タイプのユーザインタフェースについて説明したが、上記4タイプに限定されることなく、例えば指先の接触によるタッチパネルの温度変化を検出する感温式タイプを採用するなど本発明には種々の検出手段を適用することができる。 In the above description, four types of user interfaces have been described. However, the present invention is not limited to the above four types. For example, a temperature-sensitive type that detects a temperature change of the touch panel due to a fingertip contact is employed in the present invention. Various detection means can be applied.
1 携帯電話、2,3 液晶画面、4 ボタン、5,40 タッチパネル、6 液晶パネル、7 スイッチ、8 隙間、10 表示部、11 表示制御部、12 位置特定部、13 第1操作検出部、14 第2操作検出部、15 制御部、16 通知部、17 検出手段、20 発光素子、21 受光素子、22 赤外線、30 接触面、31 接触面。
DESCRIPTION OF
Claims (2)
前記第1表示手段に近接され、表示領域が設定された第2の表示手段と、
ユーザ操作領域に対する第1のユーザアクセスを検出すると共に、第1のユーザアクセスより更にユーザ操作領域方向への移動を伴うユーザ操作領域に対する第2のユーザアクセスを検出する検出手段と、
前記検出手段により検出された第2のユーザアクセスを、ユーザによる確定操作と判定する制御手段と、
前記第1の表示手段に表示する操作項目の表示形態を制御する表示制御手段と、
前記検出手段により第1のユーザアクセスが検出されたときに、ユーザ操作領域上における第1のユーザアクセス位置を特定する位置特定手段と、
を有し、
前記制御手段は、前記位置特定手段により特定された第1のユーザアクセス位置に対応した操作項目を特定し、
前記表示制御手段は、前記検出手段により第1のユーザアクセスが検出されたときに、第1のユーザアクセス検出時点からの経過時間に応じて前記制御手段により特定された操作項目のみを前記第2の表示手段に設定された表示領域まで拡大表示することを特徴とするユーザインタフェース装置。 First display means in which a user operation area for displaying operation items operated by a user is set;
A second display means in proximity to the first display means and having a display area set;
Detecting means for detecting a first user access to the user operation area, and detecting a second user access to the user operation area accompanied by movement in the direction of the user operation area further than the first user access;
Control means for determining the second user access detected by the detection means as a confirmation operation by the user;
Display control means for controlling the display mode of the operation items displayed on the first display means;
A position specifying means for specifying a first user access position on the user operation area when a first user access is detected by the detecting means;
Have
The control means specifies an operation item corresponding to the first user access position specified by the position specifying means,
When the first user access is detected by the detection unit, the display control unit displays only the operation item specified by the control unit according to the elapsed time from the first user access detection time . user interface device, characterized in that the display area is set to the display means or in enlarging the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004174782A JP5132028B2 (en) | 2004-06-11 | 2004-06-11 | User interface device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004174782A JP5132028B2 (en) | 2004-06-11 | 2004-06-11 | User interface device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005352924A JP2005352924A (en) | 2005-12-22 |
JP5132028B2 true JP5132028B2 (en) | 2013-01-30 |
Family
ID=35587339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004174782A Expired - Fee Related JP5132028B2 (en) | 2004-06-11 | 2004-06-11 | User interface device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5132028B2 (en) |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7694231B2 (en) * | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US10521022B2 (en) * | 2006-03-17 | 2019-12-31 | Conversant Wireless Licensing S.a.r.l. | Mobile communication terminal and method therefor |
JP4489719B2 (en) * | 2006-03-28 | 2010-06-23 | 株式会社エヌ・ティ・ティ・ドコモ | User interface |
JP4929807B2 (en) | 2006-04-13 | 2012-05-09 | Nok株式会社 | Vulcanized adhesive composition |
JP2007334747A (en) * | 2006-06-16 | 2007-12-27 | Miyake Design Jimusho:Kk | Information processor, portable telephone set, contact input picture forming apparatus, information processing program, and recording medium recording information processing program |
CN101490641A (en) * | 2006-07-20 | 2009-07-22 | 夏普株式会社 | User interface device, computer program, and its recording medium |
JP2008033120A (en) * | 2006-07-31 | 2008-02-14 | Xanavi Informatics Corp | Map display device |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US7940250B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Web-clip widgets on a portable multifunction device |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US9304675B2 (en) | 2006-09-06 | 2016-04-05 | Apple Inc. | Portable electronic device for instant messaging |
US8689132B2 (en) | 2007-01-07 | 2014-04-01 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying electronic documents and lists |
US8788954B2 (en) | 2007-01-07 | 2014-07-22 | Apple Inc. | Web-clip widgets on a portable multifunction device |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
JP2008305174A (en) * | 2007-06-07 | 2008-12-18 | Sony Corp | Information processor, information processing method, and program |
US20080309519A1 (en) * | 2007-06-15 | 2008-12-18 | Sony Ericsson Mobile Communications Ab | Device having precision input capability |
US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
JP5119763B2 (en) * | 2007-06-25 | 2013-01-16 | 日本電気株式会社 | Information device provided with touch panel, icon selection method and program used therefor |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US9043725B2 (en) | 2007-07-27 | 2015-05-26 | Sony Corporation | User interface with enlarged icon display of key function |
KR101403079B1 (en) | 2007-08-22 | 2014-06-02 | 엘지전자 주식회사 | method for zooming in touchscreen and terminal using the same |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
JP4958005B2 (en) * | 2007-09-20 | 2012-06-20 | 株式会社デンソー | In-vehicle display device |
TW200923758A (en) * | 2007-11-27 | 2009-06-01 | Wistron Corp | A key-in method and a content display method of an electronic device, and the application thereof |
WO2009069392A1 (en) * | 2007-11-28 | 2009-06-04 | Nec Corporation | Input device, server, display management method, and recording medium |
JP5030748B2 (en) * | 2007-11-30 | 2012-09-19 | アルパイン株式会社 | Video display system |
JP5025450B2 (en) * | 2007-12-21 | 2012-09-12 | 三菱電機株式会社 | Character input device |
KR101387218B1 (en) | 2008-02-29 | 2014-04-21 | 주식회사 케이티 | Method of adjusting screen magnification ratio of mobile terminal using multi-touch input device and mobile terminal performing the same |
US10983665B2 (en) | 2008-08-01 | 2021-04-20 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for implementing user interface |
JP5160337B2 (en) * | 2008-08-11 | 2013-03-13 | ソニーモバイルコミュニケーションズ, エービー | INPUT PROCESSING DEVICE, INPUT PROCESSING METHOD, INPUT PROCESSING PROGRAM, AND PORTABLE TERMINAL DEVICE |
JP4752887B2 (en) | 2008-09-12 | 2011-08-17 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
JP5280800B2 (en) * | 2008-10-29 | 2013-09-04 | 京セラ株式会社 | Portable device, operation detection method, and operation detection program |
JP5248985B2 (en) * | 2008-11-05 | 2013-07-31 | オリンパスイメージング株式会社 | Image display device |
KR101542495B1 (en) | 2008-12-02 | 2015-08-06 | 엘지전자 주식회사 | Method for displaying information for mobile terminal and apparatus thereof |
JP5217980B2 (en) * | 2008-12-04 | 2013-06-19 | セイコーエプソン株式会社 | Data processing apparatus and data processing system |
US20100149100A1 (en) * | 2008-12-15 | 2010-06-17 | Sony Ericsson Mobile Communications Ab | Electronic Devices, Systems, Methods and Computer Program Products for Detecting a User Input Device Having an Optical Marker Thereon |
US8289286B2 (en) * | 2008-12-19 | 2012-10-16 | Verizon Patent And Licensing Inc. | Zooming keyboard/keypad |
JP4683126B2 (en) * | 2008-12-26 | 2011-05-11 | ブラザー工業株式会社 | Input device |
JP2010186254A (en) * | 2009-02-10 | 2010-08-26 | Panasonic Corp | Display controller |
JP5476790B2 (en) * | 2009-05-13 | 2014-04-23 | 富士通株式会社 | Electronic device, display method, and display program |
JP5627212B2 (en) * | 2009-10-08 | 2014-11-19 | 京セラ株式会社 | Input device |
JP2011107804A (en) * | 2009-11-13 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | Information processor |
JP5177765B2 (en) * | 2009-11-13 | 2013-04-10 | 株式会社コナミデジタルエンタテインメント | Input device, input method, and program |
US8736561B2 (en) | 2010-01-06 | 2014-05-27 | Apple Inc. | Device, method, and graphical user interface with content display modes and display rotation heuristics |
WO2011108650A1 (en) * | 2010-03-05 | 2011-09-09 | 日本電気株式会社 | Portable terminal device |
JP2011232988A (en) * | 2010-04-28 | 2011-11-17 | Brother Ind Ltd | Input device and input control program |
CN102906675B (en) | 2010-06-03 | 2015-09-09 | 松下电器(美国)知识产权公司 | Message input device, data inputting method |
JP2012014519A (en) * | 2010-07-01 | 2012-01-19 | Canon Inc | Display control device |
US20130311945A1 (en) * | 2011-03-15 | 2013-11-21 | Panasonic Corporation | Input device |
JP2012248061A (en) * | 2011-05-30 | 2012-12-13 | Ntt Docomo Inc | Information processing device, key input method, and program |
JP2013149049A (en) * | 2012-01-19 | 2013-08-01 | Kyocera Corp | Touch panel type input device |
JP5661056B2 (en) * | 2012-02-13 | 2015-01-28 | レノボ・イノベーションズ・リミテッド(香港) | Information processing apparatus and program |
JP5794937B2 (en) * | 2012-03-13 | 2015-10-14 | 株式会社Nttドコモ | Communication apparatus and communication control method |
JP6483438B2 (en) * | 2012-06-05 | 2019-03-13 | ソニー株式会社 | Information processing apparatus, information processing method, and recording medium recording computer program |
JP2013033553A (en) * | 2012-11-19 | 2013-02-14 | Hitachi Solutions Ltd | Character data input device |
JP2014191545A (en) * | 2013-03-27 | 2014-10-06 | Nec Commun Syst Ltd | Input device, input method, and program |
JP5695693B2 (en) * | 2013-04-09 | 2015-04-08 | オリンパスイメージング株式会社 | Image display device and image display method |
JP6525504B2 (en) * | 2014-04-20 | 2019-06-05 | アルパイン株式会社 | Input device and operation input method |
DK179492B1 (en) | 2016-10-25 | 2019-01-08 | Apple Inc. | Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display |
US11237709B2 (en) | 2016-10-25 | 2022-02-01 | Apple Inc. | Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display |
WO2018081112A1 (en) * | 2016-10-25 | 2018-05-03 | Apple Inc. | Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display |
KR102057566B1 (en) * | 2016-11-24 | 2019-12-19 | 주식회사 하이딥 | Touch input method for providing uer interface and apparatus |
JP6409948B2 (en) * | 2017-11-30 | 2018-10-24 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04278627A (en) * | 1991-03-06 | 1992-10-05 | Oki Electric Ind Co Ltd | Touch panel device |
JP2772153B2 (en) * | 1991-04-12 | 1998-07-02 | アルパイン株式会社 | Data input device |
JPH0950235A (en) * | 1995-08-10 | 1997-02-18 | Zanavy Informatics:Kk | On-vehicle information device |
JPH0991093A (en) * | 1995-09-20 | 1997-04-04 | Toshiba Corp | Contact type input device and station service equipment |
JP3235480B2 (en) * | 1996-08-01 | 2001-12-04 | 日本電気株式会社 | Touch panel input device |
JP2000322169A (en) * | 1999-04-30 | 2000-11-24 | Internatl Business Mach Corp <Ibm> | Hot spot selection method in graphical user interface |
JP2003177848A (en) * | 2001-12-12 | 2003-06-27 | Hitachi Kokusai Electric Inc | Key display method of software keyboard and character input device |
JP2003271294A (en) * | 2002-03-15 | 2003-09-26 | Canon Inc | Data input device, data input method and program |
JP4177046B2 (en) * | 2002-08-26 | 2008-11-05 | ポリマテック株式会社 | Composite pushbutton switch and computer program for its input control |
-
2004
- 2004-06-11 JP JP2004174782A patent/JP5132028B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005352924A (en) | 2005-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5132028B2 (en) | User interface device | |
EP2820511B1 (en) | Classifying the intent of user input | |
CN102257459B (en) | Input device | |
US20110138275A1 (en) | Method for selecting functional icons on touch screen | |
TWI420889B (en) | Electronic apparatus and method for symbol input | |
US9465533B2 (en) | Character input method and apparatus in portable terminal having touch screen | |
US20120154315A1 (en) | Input apparatus | |
US20110157028A1 (en) | Text entry for a touch screen | |
US20160018911A1 (en) | Touch pen | |
KR20080041809A (en) | Display control method and device in portable terminal | |
JP2011221640A (en) | Information processor, information processing method and program | |
EP2553558A1 (en) | Apparatus and method for proximity based input | |
WO2011118602A1 (en) | Mobile terminal with touch panel function and input method for same | |
JP5556398B2 (en) | Information processing apparatus, information processing method, and program | |
CN102741794A (en) | Handling tactile inputs | |
US20110025718A1 (en) | Information input device and information input method | |
KR20110104620A (en) | Character input method and device in portable terminal | |
KR20130097331A (en) | Apparatus and method for selecting object in device with touch screen | |
WO2012086133A1 (en) | Touch panel device | |
US9588584B2 (en) | System and method for processing touch input | |
US20070262956A1 (en) | Input method with a large keyboard table displaying on a small screen | |
KR20090049153A (en) | Terminal with Touch Screen and Character Input Method | |
JP2012164047A (en) | Information processor | |
JP2006085218A (en) | Touch panel operating device | |
JP2012185703A (en) | Input device, input method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111212 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20111220 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20120323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121019 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121106 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151116 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |