[go: up one dir, main page]

JP5370259B2 - Portable electronic devices - Google Patents

Portable electronic devices Download PDF

Info

Publication number
JP5370259B2
JP5370259B2 JP2010107591A JP2010107591A JP5370259B2 JP 5370259 B2 JP5370259 B2 JP 5370259B2 JP 2010107591 A JP2010107591 A JP 2010107591A JP 2010107591 A JP2010107591 A JP 2010107591A JP 5370259 B2 JP5370259 B2 JP 5370259B2
Authority
JP
Japan
Prior art keywords
contact
display
outer edge
area
occurred
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010107591A
Other languages
Japanese (ja)
Other versions
JP2011237945A (en
Inventor
憲一 益田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Mobile Communications Ltd
Original Assignee
Fujitsu Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Mobile Communications Ltd filed Critical Fujitsu Mobile Communications Ltd
Priority to JP2010107591A priority Critical patent/JP5370259B2/en
Publication of JP2011237945A publication Critical patent/JP2011237945A/en
Application granted granted Critical
Publication of JP5370259B2 publication Critical patent/JP5370259B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a portable electronic device that can prevent erroneous detection of user operation. <P>SOLUTION: A portable electronic device comprises: display means for displaying visual information; contact detection means for detecting contact on an input area, which is on a display area where the display means displays the information and larger than the display area; contact position detection means for detecting a contact position by distinguishing the outer edge part of the input area from the inner part inside of the outer edge part based on detection results obtained by the contact detection means; and control means which executes processing in accordance with the contact position and does not execute any processing if the contact is on both the inner part and the outer edge part and if the inner part and the outer edge part are connected, based on detection results obtained by the contact position detection means. <P>COPYRIGHT: (C)2012,JPO&amp;INPIT

Description

この発明の実施形態は、例えば携帯電話機や携帯音楽プレーヤなどの携帯型電子機器に関する。   Embodiments described herein relate generally to a portable electronic device such as a mobile phone or a portable music player.

周知のように、携帯電話機や携帯音楽プレーヤなどの携帯型電子機器は、ディスプレイに対する操作を検出するタッチパネルを備えるものがある。
しかしながら、タッチパネルを備える携帯型電子機器は、ユーザの持ち方によっては、保持している手がタッチパネルに触れてしまい、操作として誤検出する場合があるという問題があった。
As is well known, some portable electronic devices such as a mobile phone and a portable music player include a touch panel that detects an operation on a display.
However, a portable electronic device provided with a touch panel has a problem that, depending on how the user holds the portable electronic device, the hand held may touch the touch panel and may be erroneously detected as an operation.

特開2009−80683号公報JP 2009-80683 A

従来の携帯型電子機器では、ユーザの持ち方によっては、保持している手がタッチパネルに触れてしまい、操作として誤検出する場合があるという問題があった。
この発明は上記の問題を解決すべくなされたもので、ユーザ操作の誤検出を防止可能な携帯型電子機器を提供することを目的とする。
In the conventional portable electronic device, depending on how the user holds, there is a problem that the hand held may touch the touch panel and may be erroneously detected as an operation.
The present invention has been made to solve the above-described problems, and an object thereof is to provide a portable electronic device that can prevent erroneous detection of a user operation.

上記の目的を達成するために、この発明の実施形態の携帯型電子機器は、情報を視覚的に表示する表示手段と、この表示手段が情報を表示する表示領域上で、この表示領域よりも広い入力領域について接触を検出する接触検出手段と、この接触検出手段の検出結果に基づいて、入力領域の外縁部と、この外縁部よりも内側の内側部を区別して、接触があった位置を検出する接触位置検出手段と、この接触位置検出手段の検出結果に基づいて、接触があった位置に応じた処理を実行するものであって、接触が内側部と外縁部にあり、かつこれら内側部と外縁部が連結している場合には、処理を実行しない制御手段とを具備して構成するようにした。   In order to achieve the above object, a portable electronic device according to an embodiment of the present invention includes a display means for visually displaying information, and a display area on which the display means displays information. Based on the detection result of the contact detection means for the wide input area and the detection result of the contact detection means, the outer edge of the input area is distinguished from the inner side of the outer edge to determine the position where the contact has occurred. Based on the detection result of the contact position detection means to be detected and the detection result of the contact position detection means, the processing corresponding to the position where the contact has occurred is executed, the contact is in the inner part and the outer edge part, and these When the portion and the outer edge portion are connected, a control means that does not execute processing is provided.

第1の実施形態に係わる携帯型電子機器の外観を示す図。1 is a diagram illustrating an external appearance of a portable electronic device according to a first embodiment. 図1に示した携帯型電子機器の構成を示す回路ブロック図。FIG. 2 is a circuit block diagram illustrating a configuration of the portable electronic device illustrated in FIG. 1. 図1に示した携帯型電子機器のタッチパネル制御機能の動作を説明するためのフローチャート。6 is a flowchart for explaining an operation of a touch panel control function of the portable electronic device shown in FIG. 1. 図3に示した動作によって設定される不感帯エリアとスクロールバーの表示位置を例示した図。The figure which illustrated the dead zone area set by the operation | movement shown in FIG. 3, and the display position of a scroll bar. 図3に示した動作によって設定される不感帯エリアとスクロールバーの表示位置を例示した図。The figure which illustrated the dead zone area set by the operation | movement shown in FIG. 3, and the display position of a scroll bar. 図3に示した動作によって設定される不感帯エリアとスクロールバーの表示位置を例示した図。The figure which illustrated the dead zone area set by the operation | movement shown in FIG. 3, and the display position of a scroll bar. 図3に示した動作によって設定される不感帯エリアとスクロールバーの表示位置を例示した図。The figure which illustrated the dead zone area set by the operation | movement shown in FIG. 3, and the display position of a scroll bar. 図3に示した動作によって設定される不感帯エリアとスクロールバーの表示位置を例示した図。The figure which illustrated the dead zone area set by the operation | movement shown in FIG. 3, and the display position of a scroll bar. 図3に示した動作によって設定される不感帯エリアとスクロールバーの表示位置を例示した図。The figure which illustrated the dead zone area set by the operation | movement shown in FIG. 3, and the display position of a scroll bar.

以下、図面を参照して、この発明の一実施形態について説明する。
この発明の一実施形態に係わる携帯端末装置は、例えば、携帯電話機やPDA(Personal Digital Assistants)、携帯型ゲーム機などであって、以下の説明では、携帯電話機を例に挙げて説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
The mobile terminal device according to an embodiment of the present invention is, for example, a mobile phone, a PDA (Personal Digital Assistants), a portable game machine, and the like. In the following description, a mobile phone is taken as an example.

図1は、この発明の一実施形態に係わる携帯電話機の外観を示すものである。すなわち、この携帯電話機は、平板状の筐体を有し、その1面にタッチパネル式の入力部を備えている。なお、タッチパネル式の入力部を備えるものであれば、折りたたみ構造やスライド機構を有する筐体であってもよい。   FIG. 1 shows the appearance of a mobile phone according to an embodiment of the present invention. That is, this mobile phone has a flat housing and has a touch panel type input unit on one surface thereof. Note that a casing having a folding structure or a slide mechanism may be used as long as it has a touch panel type input unit.

図2は、図1に示した携帯電話機の構成を示すブロック図である。この図に示すように、主な構成要素として、無線通信部10と、表示入力部20と、通話部30と、操作部40と、カメラ部41と、記憶部50と、赤外線通信部60と、GPS受信部70と、モーションセンサ部80と、電源部90と、主制御部100とを備え、主な機能として基地局装置BSおよび移動通信網NWを介した移動無線通信を行う無線通信機能を備える。   FIG. 2 is a block diagram showing a configuration of the mobile phone shown in FIG. As shown in this figure, the main components are a wireless communication unit 10, a display input unit 20, a call unit 30, an operation unit 40, a camera unit 41, a storage unit 50, and an infrared communication unit 60. A wireless communication function including a GPS receiving unit 70, a motion sensor unit 80, a power supply unit 90, and a main control unit 100, and performing mobile wireless communication via the base station device BS and the mobile communication network NW as main functions. Is provided.

無線通信部10は、主制御部100の指示にしたがって、移動通信網NWに収容された基地局装置BSと無線通信を行うものであって、これにより、音声データや電子メールデータなどの送受信、Webデータやストリーミングデータなどの受信を行う。   The radio communication unit 10 performs radio communication with the base station apparatus BS accommodated in the mobile communication network NW according to the instruction of the main control unit 100, and thereby transmits and receives voice data, e-mail data, etc. Web data and streaming data are received.

表示入力部20は、主制御部100の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル21と、操作パネル22を備える。   Under the control of the main control unit 100, the display input unit 20 displays images (still images and moving images), character information, etc., visually transmits information to the user, and detects user operations on the displayed information. A so-called touch panel, which includes a display panel 21 and an operation panel 22.

表示パネル21は、LCD(Liquid Crystal Display)などを表示デバイスとして用いたものである。操作パネル22は、表示パネル21に表示される画像を視認可能な透明素材からなり、表示パネル21の表示面上に載置され、ユーザの指や尖筆によって操作された座標を検出するためのデバイスである。このデバイスによって検出された検出信号は、主制御部100に出力され、主制御部100は、上記検出信号に基づいて、表示パネル21上の操作された位置(座標)を検出する。   The display panel 21 uses an LCD (Liquid Crystal Display) or the like as a display device. The operation panel 22 is made of a transparent material capable of visually recognizing an image displayed on the display panel 21, is placed on the display surface of the display panel 21, and detects coordinates operated by a user's finger or stylus. It is a device. The detection signal detected by this device is output to the main control unit 100, and the main control unit 100 detects the operated position (coordinates) on the display panel 21 based on the detection signal.

操作パネル22は、図1に示すように、表示パネル21よりも広い面積を有し、表示パネル21を完全に覆っている。つまり、操作パネル22は、表示パネル21外の領域についても、ユーザ操作を検出する機能を備える。言い換えれば、操作パネル22は、表示パネル21に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル21に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備える。   As illustrated in FIG. 1, the operation panel 22 has a larger area than the display panel 21 and completely covers the display panel 21. That is, the operation panel 22 has a function of detecting a user operation even in an area outside the display panel 21. In other words, the operation panel 22 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 21 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 21. And).

なお、表示領域の大きさと表示パネル21の大きさは完全に一致する必要は無く、操作パネル22が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていればよい。また、外縁部分の幅は、筐体の大きさなどにより適宜設計される。操作パネル22で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などがあり、いずれの方式であってもよい。   Note that the size of the display area and the size of the display panel 21 do not have to coincide completely, and the operation panel 22 only needs to include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed depending on the size of the housing. As a position detection method employed in the operation panel 22, there are a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like, and any method may be used.

通話部30は、スピーカ31やマイクロホン32を備え、マイクロホン32を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力したり、無線通信部10あるいは赤外線通信部60により受信された音声データを復号してスピーカ31から出力するものである。そして例えば、図1に示すように、スピーカ31は、表示入力部20と同じ面に搭載される。またマイクロホン32は、例えば、図1に示すように、当該携帯電話機の筐体側面に搭載される。   The call unit 30 includes a speaker 31 and a microphone 32, converts user's voice input through the microphone 32 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100, or a wireless communication unit. 10 or the audio data received by the infrared communication unit 60 is decoded and output from the speaker 31. For example, as shown in FIG. 1, the speaker 31 is mounted on the same surface as the display input unit 20. The microphone 32 is mounted on the side surface of the casing of the mobile phone, for example, as shown in FIG.

操作部40は、キースイッチなどを用いたハードウェアキーであって、これを通じてユーザから指示を受け付けるものである。例えば、図1に示すように、当該携帯電話機の筐体側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。   The operation unit 40 is a hardware key using a key switch or the like, and receives an instruction from the user through this. For example, as shown in FIG. 1, a push button type switch that is mounted on the side surface of the mobile phone case and is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released. is there.

カメラ部41は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであって、主制御部100の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、後述する記憶部50に記録する。そして例えば、図1に示すように、カメラ部41は、表示入力部20と同じ面に搭載される。   The camera unit 41 is a digital camera that performs electronic photography using an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device), and image data obtained by imaging under the control of the main control unit 100. Is converted into compressed image data such as JPEG (Joint Photographic coding Experts Group) and recorded in the storage unit 50 described later. For example, as shown in FIG. 1, the camera unit 41 is mounted on the same surface as the display input unit 20.

記憶部50は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。なお、記憶部50は、RAM、ROM、NAND型フラッシュメモリなどの記憶媒体を用いて実現される。   The storage unit 50 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of the communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored. Note that the storage unit 50 is realized by using a storage medium such as a RAM, a ROM, or a NAND flash memory.

赤外線通信部60は、赤外線通信機能を有する対向機器(例えば、他の携帯電話機MS)と赤外線通信を行うものであって、主制御部100によって動作設定がなされ、主制御部100から与えられる送信データを赤外線光で送信したり、対向機器から赤外線光で送信されるデータを受信し、これを受信データとして主制御部100に出力する。   The infrared communication unit 60 performs infrared communication with an opposite device (for example, another mobile phone MS) having an infrared communication function, and is set for operation by the main control unit 100 and transmitted from the main control unit 100. Data is transmitted by infrared light, or data transmitted by infrared light from the opposite device is received, and this is output to the main control unit 100 as received data.

GPS受信部70は、主制御部100の指示にしたがって、GPS(Global Positioning System)衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該携帯電話機の緯度、経度、高度からなる位置情報を検出する。   The GPS receiving unit 70 receives GPS signals transmitted from GPS (Global Positioning System) satellites ST1 to STn in accordance with instructions from the main control unit 100, and executes positioning calculation processing based on the received plurality of GPS signals. Detects position information including the latitude, longitude, and altitude of the mobile phone.

モーションセンサ部80は、例えば3軸の加速度センサなどを備え、主制御部100の指示にしたがって、当該携帯電話機の物理的な動きを検出する。これにより、当該携帯電話機が動く方向や速さが検出される。この検出結果は、主制御部100に出力される。
電源部90は、主制御部100の指示にしたがって、当該携帯電話機の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
The motion sensor unit 80 includes, for example, a triaxial acceleration sensor, and detects the physical movement of the mobile phone according to an instruction from the main control unit 100. Thereby, the moving direction and speed of the mobile phone are detected. This detection result is output to the main control unit 100.
The power supply unit 90 supplies power stored in a battery (not shown) to each unit of the mobile phone in accordance with an instruction from the main control unit 100.

主制御部100は、マイクロプロセッサを備え、記憶部50が記憶する制御プログラムや制御データにしたがって動作し、当該携帯電話機の各部を統括して制御するものであって、無線通信部10を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。   The main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 50, and controls each part of the mobile phone in an integrated manner. In order to perform communication and data communication, a mobile communication control function for controlling each part of the communication system and an application processing function are provided.

アプリケーション処理機能は、記憶部50が記憶するアプリケーションソフトウェアにしたがって主制御部100が動作することにより実現するものであって、例えば、赤外線通信部60を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を電子メール機能、Webページを閲覧するWebブラウジング機能などがある。   The application processing function is realized by the main control unit 100 operating in accordance with application software stored in the storage unit 50. For example, infrared communication that controls the infrared communication unit 60 to perform data communication with the opposite device. There are functions, e-mail functions for sending and receiving e-mails, and web browsing functions for browsing web pages.

また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部20に表示したりする画像処理機能を備える。この画像処理機能は、主制御部100が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部20に表示する。   The main control unit 100 also has an image processing function for displaying video on the display input unit 20 based on image data (still image data or moving image data) such as received data or downloaded streaming data. In this image processing function, the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 20.

そして、主制御部100は、表示パネル21に対する表示制御と、操作部40、操作パネル22を通じたユーザ操作を検出する操作検出制御を有する。
上記表示制御により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル21の表示領域に収まりきれない大きな画像などについて、表示部分を移動する指示を受け付けるためのソフトウェアキーである。
The main control unit 100 includes display control for the display panel 21 and operation detection control for detecting a user operation through the operation unit 40 and the operation panel 22.
By the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail. Note that the scroll bar is a software key for accepting an instruction to move the display portion of a large image that cannot fit in the display area of the display panel 21.

また上記操作検出制御により、主制御部100は、操作部40を通じたユーザ操作を検出したり、操作パネル22を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、上記スクロールバーを通じた表示画像のスクロール要求を受け付ける。   Further, by the operation detection control, the main control unit 100 detects a user operation through the operation unit 40, receives an operation on the icon or an input of a character string in the input field of the window through the operation panel 22, Alternatively, a display image scroll request through the scroll bar is accepted.

そしてまた操作検出制御において主制御部100は、操作パネル22に対する操作位置が、表示パネル21に重なる重畳部分(表示領域)か、それ以外の表示パネル21に重ならない外縁部分(非表示領域)かを判定し、操作パネル22の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。   In the operation detection control, the main control unit 100 determines whether the operation position with respect to the operation panel 22 is an overlapping part (display area) overlapping the display panel 21 or an outer edge part (non-display area) not overlapping the other display panel 21. And a touch panel control function for controlling the sensitive area of the operation panel 22 and the display position of the software key.

また主制御部100は、操作パネル22に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行する。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。   The main control unit 100 detects a gesture operation on the operation panel 22 and executes a preset function in accordance with the detected gesture operation. Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.

次に、上記構成の携帯電話機の動作について説明する。以下の説明では特に、発着信制御、音声通信やデータ通信、アプリケーションソフトウェアに基づく動作などの説明は省略し、これらの動作中、あるいは着信待受時に並行して実行されるタッチパネル制御機能についての動作を説明する。図3は、この動作を説明するためのフローチャートであって、その制御プログラムは記憶部50に記憶される。そして主制御部100は、この制御プログラムにしたがって動作することにより実現する。なお、この動作は、当該携帯電話機の電源が投入されると開始され、原則的には、電源が切られるまで切り返し実行される。   Next, the operation of the mobile phone configured as described above will be described. In the following description, explanations of operations based on outgoing / incoming control, voice communication, data communication, application software, etc. are omitted, and operations related to the touch panel control function executed in parallel with these operations or when receiving incoming calls are omitted. Will be explained. FIG. 3 is a flowchart for explaining this operation, and the control program is stored in the storage unit 50. The main control unit 100 is realized by operating according to this control program. This operation is started when the mobile phone is turned on and, in principle, is repeatedly executed until the power is turned off.

まずステップ3aにおいて主制御部100は、操作パネル22の検出結果に基づいて、操作パネル22の検出領域のうち、表示領域に対する操作が行われたか否かを判定する。ここで、表示領域に対する操作を操作パネル22が検出した場合には、ステップ3bに移行し、一方、検出しない場合には、再びステップ3aに、同じ判定を行う。   First, in step 3 a, the main control unit 100 determines whether or not an operation has been performed on the display area in the detection area of the operation panel 22 based on the detection result of the operation panel 22. If the operation panel 22 detects an operation on the display area, the process proceeds to step 3b. If not detected, the same determination is performed again in step 3a.

ステップ3bにおいて主制御部100は、ステップ3aで操作されたと判定した表示領域に連結する非表示領域に対しても、操作が行われたか否かを判定する。ここで、上記表示領域に対する操作を操作パネル22が検出した場合には、ステップ3dに移行し、一方、検出しない場合には、ステップ3cに移行する。   In step 3b, the main control unit 100 determines whether or not an operation has been performed on the non-display area connected to the display area determined to have been operated in step 3a. If the operation panel 22 detects an operation on the display area, the process proceeds to step 3d. If not detected, the process proceeds to step 3c.

なお、表示領域と非表示領域の連結についての判定は、例えば以下のような処理により実現できる。すなわち、主制御部100は、ステップ3aで操作されたと判定した表示領域内から第1代表点を決定するとともに、操作された非表示領域内から第2代表点を決定する。代表点は、領域内の重心が目標とされる。そして主制御部100は、第1代表点と第2代表点の距離が予め設定した所定の距離以内であるか否かを判定し、所定の距離以内の場合に、両領域が連結していると判定する。   Note that the determination about the connection between the display area and the non-display area can be realized by the following processing, for example. That is, the main control unit 100 determines the first representative point from the display area determined to have been operated in step 3a, and determines the second representative point from the operated non-display area. The representative point is targeted at the center of gravity within the region. Then, the main control unit 100 determines whether or not the distance between the first representative point and the second representative point is within a predetermined distance set in advance. If the distance is within the predetermined distance, both areas are connected. Is determined.

なお、上記所定の距離は、一般的な大人の指によって操作パネル22を操作した場合に、操作パネル22に接触する面積を考慮して決定した距離である。このような処理によれば、操作された表示領域と非表示領域の全座標を比較して連結を判定しなくても、連結しているか否かを判定することができる。ただし、全座標を比較して、連結を判定するようにしてもよい。   The predetermined distance is a distance determined in consideration of an area in contact with the operation panel 22 when the operation panel 22 is operated with a general adult finger. According to such processing, it is possible to determine whether or not the display area is connected without comparing the coordinates of the operated display area and the non-display area and determining the connection. However, connection may be determined by comparing all coordinates.

すなわち、ステップ3aとステップ3bにより、例えば図4乃至図9に例示するように、当該携帯電話機を手で持って保持する場合に、表示入力部20の表示面上にまで及んだ指などが、非表示領域とこれに連結する表示領域とに、同時に接触している状態か否かを判定する。   That is, in step 3a and step 3b, as shown in FIGS. 4 to 9, for example, when the mobile phone is held by hand, a finger or the like reaching the display surface of the display input unit 20 It is determined whether or not the non-display area and the display area connected to the non-display area are in contact with each other at the same time.

ステップ3cにおいて主制御部100は、ステップ3aで操作されたと判定した表示領域の座標を検出し、この座標に表示パネル21で表示しているソフトウェアキーやアイコンなどを検出する。そして、ステップ3aで検出した操作を、このソフトウェアキーやアイコンなどに対する操作としてみなし、ソフトウェアキーに割り当てられた機能の実行や、アイコンに対応づけられた機能(アプリケーションソフトウェアの起動)の実行を行い、ステップ3aに移行する。   In step 3c, the main control unit 100 detects the coordinates of the display area determined to have been operated in step 3a, and detects software keys and icons displayed on the display panel 21 at these coordinates. Then, the operation detected in step 3a is regarded as an operation for the software key or icon, and the function assigned to the software key or the function associated with the icon (activation of application software) is performed. Control goes to step 3a.

ステップ3dにおいて主制御部100は、ステップ3aおよびステップ3bで操作を検出した領域とその近傍の領域を不感帯エリアNSと見なし、ステップ3eに移行する。以後、主制御部100は、この不感帯エリアNSにおいて検出した操作については、無視し、なんら処理を実行しない。すなわち、不感帯エリアNSは、ユーザの持ち手の位置と見なすことができ、ユーザの利き手(持ち手)を判定することができる。
なお、この実施形態で例示するように、端末装置が片手でわしづかみにできるサイズを想定した携帯電話機の場合、利き手(持ち手)の判定は、例えば、以下のような処理(第1判定アルゴリズムまたは第2判定アルゴリズム)を主制御部100が実行することにより実現できる。背面(表示入力部20の無い面)からわしづかみにすると、図4乃至図9に例示するように、表示パネル21の左右方向の側面に指がはみ出すことがある。一方の側面は、親指がはみ出し、他方の側面は、それ以外の指がはみ出す。親指だけがはみ出すこともある。
In step 3d, the main control unit 100 regards the area where the operation is detected in steps 3a and 3b and the area in the vicinity thereof as the dead zone NS, and proceeds to step 3e. Thereafter, the main control unit 100 ignores the operation detected in the dead zone NS and performs no processing. That is, the dead zone area NS can be regarded as the position of the user's handle, and the user's dominant hand (handle) can be determined.
As exemplified in this embodiment, in the case of a mobile phone that assumes a size that allows the terminal device to be held with one hand, the determination of the dominant hand (hand) is, for example, the following process (first determination) This can be realized by the main control unit 100 executing the algorithm or the second determination algorithm. If it is held from the back surface (surface without the display input unit 20), as shown in FIGS. 4 to 9, a finger may protrude from the lateral side surface of the display panel 21. One side protrudes from the thumb, and the other side protrudes from the other finger. Only the thumb may protrude.

(第1判定アルゴリズム)
主制御部100は、ステップ3dで不感帯エリアNSと見なした領域が左右の各側面において、生じた数(代表点の数)を検出し、その数に応じて、持ち手が右手か左手かを判定する。すなわち、数が少ない方の側面に親指が存在し、数が多い方の側面にはそれ以外の指が存在するものと見なす。このため、左側面に親指が存在すると見なした場合には、左手で保持していると判定し、一方、右側面に親指が存在すると見なした場合には、右手で保持していると判定する。
(First judgment algorithm)
The main control unit 100 detects the number (number of representative points) generated in the left and right sides of the area considered as the dead zone NS in step 3d, and determines whether the handle is a right hand or a left hand depending on the number. Determine. That is, it is considered that the thumb is present on the side having the smaller number and the other fingers are present on the side having the larger number. For this reason, when it is assumed that the thumb is present on the left side, it is determined that the hand is held with the left hand. On the other hand, when it is assumed that the thumb is present on the right side, the hand is held with the right hand. judge.

(第2判定アルゴリズム)
主制御部100は、ステップ3dで不感帯エリアNSと見なした領域が左右の各側面において、生じた面積を検出し、その面積に応じて、持ち手が右手か左手かを判定する。すなわち、面積が小さい方の側面に親指が存在し、面積が大きい方の側面にはそれ以外の指が存在するものと見なす。このため、左側面に親指が存在すると見なした場合には、左手で保持していると判定し、一方、右側面に親指が存在すると見なした場合には、右手で保持していると判定する。
(Second determination algorithm)
The main control unit 100 detects the generated area on each of the left and right sides of the area considered as the dead zone NS in step 3d, and determines whether the handle is the right hand or the left hand according to the area. That is, it is assumed that the thumb is present on the side surface having the smaller area and the other fingers are present on the side surface having the larger area. For this reason, when it is assumed that the thumb is present on the left side, it is determined that the hand is held with the left hand. On the other hand, when it is assumed that the thumb is present on the right side, the hand is held with the right hand. judge.

なお、端末装置がわしづかみできないほど大きいなど、わしづかみできない形状の場合には、主制御部100は、片側に生じた不感帯エリアNSの数や面積に基づいて、保持している手が右手か左手かを判定する。すなわち、片側に生じた不感帯エリアNSの数が2以上の場合や、片側に生じた不感帯エリアNSの面積が親指によって生じうる予め設定した所定の面積以上の場合には、親指以外の指があるものと見なす。そして、主制御部100は、右側に親指以外の指があると判定した場合には、左手で保持していると判定し、反対に、左側に親指以外の指があると判定した場合には、右手で保持していると判定する。   In the case where the terminal device has a shape that cannot be gripped, such as a terminal device that is too large to be gripped, the main control unit 100 has a hand that is held based on the number and area of the dead zone NS that has occurred on one side. Determine whether right hand or left hand. That is, when the number of dead zone areas NS generated on one side is 2 or more, or when the area of the dead zone area NS generated on one side is larger than a predetermined area that can be generated by the thumb, there is a finger other than the thumb. Consider it a thing. When the main control unit 100 determines that there is a finger other than the thumb on the right side, the main control unit 100 determines that the finger is held with the left hand. It is determined that it is held with the right hand.

また不感帯エリアNSに対応する表示パネル21の表示域にアイコンなどのオブジェクトを表示していても、このオブジェクトに対する操作と見なさない。なお、ステップ3a、3bいずれか一方の条件を満たさなくなった場合には、主制御部100は、ステップ3dにて設定した不感帯エリアNSを、即座に解除する。   Even if an object such as an icon is displayed in the display area of the display panel 21 corresponding to the dead zone NS, it is not regarded as an operation on this object. Note that when either one of the conditions of Steps 3a and 3b is not satisfied, the main control unit 100 immediately releases the dead zone NS set in Step 3d.

このようにして設定された不感帯エリアNSは、表示領域とこれに連結する非表示領域とに対する同時操作が解除されるまで、解除しない。すなわち、図4乃至図9に例示したように、指などによって接触した状態が継続する限り、不感帯エリアNSは解除しない。なお、不感帯エリアNSは、操作パネル22が接触を検出している領域と、その外周から所定の画素数分だけの領域とを合わせた領域であり、このように実際に検出している領域よりも広い領域を不感帯エリアNSとして設定することで、指などが微妙に動いても誤検出することを防止する。   The dead zone area NS set in this way is not released until the simultaneous operation on the display area and the non-display area connected thereto is released. That is, as illustrated in FIGS. 4 to 9, the dead zone NS is not released as long as the state of contact with a finger or the like continues. Note that the dead zone NS is a region where the region where the operation panel 22 detects contact and the region corresponding to a predetermined number of pixels from the outer periphery are combined. By setting a wide area as the dead zone NS, it is possible to prevent erroneous detection even if a finger moves slightly.

ステップ3eにおいて主制御部100は、ステップ3dで設定した不感帯エリアNSに対応する座標に、表示パネル21でスクロールバーを表示しているか否かを判定する。ここで、スクロールバーを表示している場合には、ステップ3fに移行し、一方、表示していない場合には、ステップ3aに移行する。   In step 3e, the main control unit 100 determines whether or not a scroll bar is displayed on the display panel 21 at the coordinates corresponding to the dead zone NS set in step 3d. If the scroll bar is displayed, the process proceeds to step 3f. If not, the process proceeds to step 3a.

ステップ3fにおいて主制御部100は、不感帯エリアNSに表示しているスクロールバーの表示位置を、不感帯エリアNS外に変更し、ステップ3aに移行する。例えば、図4乃至図6に示すように、表示パネル21の表示領域の左辺に不感帯エリアNSの存在する場合には、スクロールバーSBを右辺近傍に変更して表示する。同様に、例えば、図7乃至図9に示すように、表示パネル21の表示領域の右辺に不感帯エリアNSの存在する場合には、スクロールバーSBを左辺近傍に変更して表示する。そして、このように表示位置を変更したスクロールバーSBに対する操作を操作パネル22によって検出し、画面のスクロール表示処理を行う。   In step 3f, the main control unit 100 changes the display position of the scroll bar displayed in the dead zone area NS to outside the dead zone area NS, and proceeds to step 3a. For example, as shown in FIGS. 4 to 6, when the dead zone NS exists on the left side of the display area of the display panel 21, the scroll bar SB is changed to the vicinity of the right side and displayed. Similarly, for example, as shown in FIGS. 7 to 9, when the dead zone NS exists on the right side of the display area of the display panel 21, the scroll bar SB is changed to the vicinity of the left side and displayed. Then, an operation on the scroll bar SB whose display position has been changed in this way is detected by the operation panel 22, and a screen scroll display process is performed.

以上のように、上記構成の携帯電話機では、非表示領域とこれに連結する表示領域とに対する操作を検出すると、不感帯エリアNSを設定し、このエリアに対する操作を検出してもそれを無視し、処理を実行しないようにしている。すなわち、ユーザが意図しないと推定される操作については、無視することができる。
したがって、上記構成の携帯電話機によれば、ユーザが意図しない操作を判別できるので、保持によって操作パネル22に接触した指などを、ユーザ操作として誤検出することを防止できる。
As described above, in the cellular phone configured as described above, when an operation on a non-display area and a display area connected thereto is detected, a dead zone area NS is set, and even if an operation on this area is detected, it is ignored. The processing is not executed. That is, an operation that is estimated to be unintended by the user can be ignored.
Therefore, according to the mobile phone configured as described above, an operation unintended by the user can be determined, so that it is possible to prevent erroneous detection of a finger or the like that touches the operation panel 22 by holding as a user operation.

また、不感帯エリアNSを設定した領域に、スクロールバーSBが表示されている場合には、その表示位置を不感帯エリアNS外に移動させて表示するようにしている。このため、不感帯エリアNSの設定により、操作性が損なわれることを防止できる。   Further, when the scroll bar SB is displayed in the area where the dead band area NS is set, the display position is moved outside the dead band area NS and displayed. For this reason, it is possible to prevent the operability from being impaired by the setting of the dead zone NS.

そしてまた、ステップ3aにより、表示領域に対する操作があったことを検出した場合にだけ、ステップ3bにより、ステップ3aで操作されたと判定した表示領域に連結する非表示領域に対しても、操作が行われたか否かを判定するようにしている。すなわち、表示領域に対する操作を検出した場合にだけ、非表示領域に対する操作について判定を行うようにしているので、非表示領域に対する操作が、表示領域に対する操作よりも先に行われても、この操作は無視されることになる。   Further, only when it is detected in step 3a that an operation has been performed on the display area, the operation is performed on the non-display area connected to the display area determined to have been operated in step 3a. It is determined whether or not it has been received. That is, only when an operation on the display area is detected, the operation on the non-display area is determined. Therefore, even if the operation on the non-display area is performed before the operation on the display area, this operation is performed. Will be ignored.

なお、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. Further, for example, a configuration in which some components are deleted from all the components shown in the embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.

その一例として例えば、上記実施の形態では、ステップ3aおよびステップ3bにより、非表示領域とこれに連結する表示領域とに対する操作を検出し、不感帯エリアNSを設定するようにしたが、これに代わり、もしくはこれに加えて例えば、操作パネル22の検出結果に基づき、主制御部100が、操作された座標が非表示領域からこれに連結する表示領域に移動した場合や、操作された座標が非表示領域内に限られる場合には、これらの操作をユーザが意図しない操作とみなし、その座標にソフトウェアキーなどが表示されていたり、あるいはジェスチャー操作であっても、これらの操作を無視する。すなわち、操作された座標が、表示領域内に限られる場合や、表示領域から非表示領域に移動した場合のみをユーザ操作として、主制御部100が検出するようにしてもよい。   For example, in the above-described embodiment, the operation for the non-display area and the display area connected to the non-display area is detected and the dead zone area NS is set in step 3a and step 3b. Or in addition to this, for example, based on the detection result of the operation panel 22, when the main control unit 100 moves the operated coordinates from the non-display area to the display area connected thereto, or the operated coordinates are not displayed. When it is limited to the area, these operations are regarded as operations not intended by the user, and these operations are ignored even if software keys are displayed at the coordinates or gesture operations are performed. In other words, the main control unit 100 may detect a user operation only when the operated coordinates are limited within the display area or when the coordinate is moved from the display area to the non-display area.

また上記実施の形態では、表示パネル21の表示領域の形状を方形で例示し、ステップ3fにおいて、スクロールバーSBの表示位置を、不感帯エリアNSの無い対向辺に移動させるものとして説明したが、対向辺には移動させず、単に不感帯エリアNSを避ける位置(不感帯エリアNSの近傍)に移動させて表示させてもよい。この場合、主制御部100は、他のオブジェクトに重ならない位置を検出して、その位置にスクロールバーSBを表示したり、あるいは、不感帯エリアNSの設定が解除されるまで、他のオブジェクト上に重ねて表示してもよい。   Further, in the above embodiment, the shape of the display area of the display panel 21 is illustrated as a square, and in step 3f, the display position of the scroll bar SB is described as being moved to the opposite side without the dead zone NS. Instead of moving to the side, it may be displayed by simply moving it to a position avoiding the dead zone NS (in the vicinity of the dead zone NS). In this case, the main control unit 100 detects a position that does not overlap another object and displays the scroll bar SB at that position, or until the setting of the dead zone NS is canceled, It may be displayed in an overlapping manner.

そしてまた、ステップ3fにおいて表示位置を変更するオブジェクトとして、スクロールバーSBを例に挙げて説明したが、これに限定されるものではなく、アイコンやウィンドウなどのオブジェクトであってもよい。すなわち、ステップ3dで不感帯エリアNSを設定し、このエリアに対応する座標に、アイコンやウィンドウなどのオブジェクトを表示していることを主制御部100が検出した場合には、主制御部100は、その表示位置を不感帯エリアNS外に移動させて表示させるようにしてもよい。これによれば、不感帯エリアNSの設定により操作できなくなるオブジェクトが生じることを防止できる。   In addition, although the scroll bar SB has been described as an example of the object whose display position is changed in step 3f, the object is not limited to this and may be an object such as an icon or a window. That is, when the dead zone NS is set in step 3d and the main control unit 100 detects that an object such as an icon or window is displayed at the coordinates corresponding to this area, the main control unit 100 The display position may be displayed outside the dead zone area NS. According to this, it is possible to prevent an object that cannot be operated due to the setting of the dead zone NS.

またステップ3fの処理によって移動させて表示したオブジェクト(スクロールバーSB、アイコン、ウィンドウ)は、不感帯エリアNSが解除された場合には、元の位置に移動させて再表示する。このため、主制御部100は、ステップ3fにおいて、移動させる前に表示していた位置の座標を保持する。
その他、この発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。
The objects (scroll bar SB, icon, window) moved and displayed by the process of step 3f are moved to their original positions and redisplayed when the dead zone NS is released. For this reason, the main control unit 100 holds the coordinates of the position displayed before the movement in step 3f.
In addition, it goes without saying that the present invention can be similarly implemented even if various modifications are made without departing from the gist of the present invention.

10…無線通信部、20…表示入力部、21…表示パネル、22…操作パネル、30…通話部、31…スピーカ、32…マイクロホン、40…操作部、41…カメラ部、50…記憶部、60…赤外線通信部、70…GPS受信部、80…モーションセンサ部、90…電源部、100…主制御部、BS…基地局装置、MS…携帯電話機、NW…移動通信網、ST1〜STn…GPS衛星。   DESCRIPTION OF SYMBOLS 10 ... Wireless communication part, 20 ... Display input part, 21 ... Display panel, 22 ... Operation panel, 30 ... Communication part, 31 ... Speaker, 32 ... Microphone, 40 ... Operation part, 41 ... Camera part, 50 ... Memory | storage part, DESCRIPTION OF SYMBOLS 60 ... Infrared communication part, 70 ... GPS receiving part, 80 ... Motion sensor part, 90 ... Power supply part, 100 ... Main control part, BS ... Base station apparatus, MS ... Mobile telephone, NW ... Mobile communication network, ST1-STn ... GPS satellite.

Claims (8)

情報を視覚的に表示する表示手段と、
この表示手段が情報を表示する表示領域上で、この表示領域よりも広い入力領域について接触を検出する接触検出手段と、
この接触検出手段の検出結果に基づいて、前記入力領域の外縁部と、この外縁部よりも内側の内側部を区別して、接触があった位置を検出する接触位置検出手段と、
この接触位置検出手段の検出結果に基づいて、接触があった位置に応じた処理を実行するものであって、接触が内側部と外縁部にあり、かつこれら内側部と外縁部が連結している場合には、前記処理を実行しない制御手段とを具備することを特徴とする携帯型電子機器。
Display means for visually displaying information;
On the display area where the display means displays information, contact detection means for detecting contact for an input area wider than the display area;
Based on the detection result of the contact detection means, the outer edge portion of the input region and the inner edge portion inside the outer edge portion are distinguished, and a contact position detection means for detecting a position where contact has occurred,
Based on the detection result of the contact position detecting means, a process corresponding to the position where the contact has occurred is executed, the contact is in the inner part and the outer edge part, and the inner part and the outer edge part are connected. A portable electronic device, comprising: a control unit that does not execute the process.
情報を視覚的に表示する表示手段と、
この表示手段が情報を表示する表示領域上で、この表示領域よりも広い入力領域について接触を検出する接触検出手段と、
この接触検出手段の検出結果に基づいて、前記入力領域の外縁部と、この外縁部よりも内側の内側部を区別して、接触があった位置を検出する接触位置検出手段と、
この接触位置検出手段の検出結果に基づいて、接触があった位置に応じた処理を実行するものであって、接触があった位置が、外縁部から内側部に移動した場合には、前記処理を実行しない制御手段とを具備することを特徴とする携帯型電子機器。
Display means for visually displaying information;
On the display area where the display means displays information, contact detection means for detecting contact for an input area wider than the display area;
Based on the detection result of the contact detection means, the outer edge portion of the input region and the inner edge portion inside the outer edge portion are distinguished, and a contact position detection means for detecting a position where contact has occurred,
Based on the detection result of the contact position detection means, a process corresponding to the position where the contact has occurred is executed, and if the position where the contact has moved moves from the outer edge to the inner part, the process is performed. And a control means that does not execute the above.
情報を視覚的に表示する表示手段と、
この表示手段が情報を表示する表示領域上で、この表示領域よりも広い入力領域について接触を検出する接触検出手段と、
この接触検出手段の検出結果に基づいて、前記入力領域の外縁部と、この外縁部よりも内側の内側部を区別して、接触があった位置を検出する接触位置検出手段と、
この接触位置検出手段の検出結果に基づいて、接触があった位置に応じた処理を実行するものであって、接触があった位置が、外縁部である場合には、前記処理を実行しない制御手段とを具備することを特徴とする携帯型電子機器。
Display means for visually displaying information;
On the display area where the display means displays information, contact detection means for detecting contact for an input area wider than the display area;
Based on the detection result of the contact detection means, the outer edge portion of the input region and the inner edge portion inside the outer edge portion are distinguished, and a contact position detection means for detecting a position where contact has occurred,
Based on the detection result of the contact position detection means, a process corresponding to the position where the contact has occurred is executed, and when the position where the contact has occurred is an outer edge, the control is not performed. And a portable electronic device.
前記接触位置検出手段は、前記表示手段の表示領域に対応する入力領域を内側部とし、それ以外の入力領域を外縁部として区別して、接触があった位置を検出することを特徴とする請求項1乃至請求項3のいずれかに記載の携帯型電子機器。   The contact position detecting unit detects a position where contact has occurred by distinguishing an input region corresponding to a display region of the display unit as an inner portion and other input regions as outer edges. The portable electronic device according to any one of claims 1 to 3. 前記制御手段は、
前記接触位置検出手段の検出結果に基づいて、接触があった位置が内側部であるか否かを判定する第1手段と、
この第1手段により内側部であると判定した場合に、前記内側部に連結する外縁部に接触があるか否かを判定する第2手段と、
前記接触位置検出手段の検出結果に基づいて、接触があった位置に応じた処理を実行するものであって、前記第2手段により接触があると判定した場合には、前記処理を実行しないことを特徴とする第3手段とを備えることを特徴とする請求項1に記載の携帯型電子機器。
The control means includes
First means for determining whether or not the position where the contact has occurred is an inner part based on the detection result of the contact position detecting means;
A second means for determining whether or not there is a contact with the outer edge connected to the inner part when the first means determines that the inner part is an inner part;
Based on the detection result of the contact position detection means, a process corresponding to the position where the contact has occurred is executed, and if the second means determines that there is a contact, the process is not executed. The portable electronic device according to claim 1, further comprising: third means characterized by the above.
前記制御手段は、前記接触位置検出手段の検出結果に基づいて、接触があった位置に応じた処理を実行するものであって、接触が内側部と外縁部にあり、かつこれら内側部と外縁部が連結している場合には、これら内側部と外縁部を含む入力領域に不感領域を設定し、不感領域についての接触に基づく処理を実行しないことを特徴とする請求項1に記載の携帯型電子機器。   The control means executes processing according to the position where contact has occurred based on the detection result of the contact position detection means, and the contact is in the inner part and the outer edge part, and these inner part and outer edge part. 2. The mobile phone according to claim 1, wherein when the parts are connected, a dead area is set in the input area including the inner part and the outer edge part, and processing based on contact with the dead area is not executed. Type electronic equipment. さらに、前記制御手段によって設定された不感領域に対応する前記表示領域に、オブジェクトを表示している場合には、このオブジェクトを前記不感領域外の位置に表示する表示制御手段を備えることを特徴とする請求項6に記載の携帯型電子機器。   Further, when an object is displayed in the display area corresponding to the insensitive area set by the control means, the display control means for displaying the object at a position outside the insensitive area is provided. The portable electronic device according to claim 6. さらに、前記制御手段によって設定された不感領域に対応する前記表示領域に、表示画像をスクロールさせるための操作を受け付けるために表示したオブジェクトを表示している場合には、このオブジェクトを前記不感領域に対向する辺の近傍に表示する表示制御手段を備えることを特徴とする請求項6に記載の携帯型電子機器。   Further, when an object displayed for receiving an operation for scrolling a display image is displayed in the display area corresponding to the insensitive area set by the control means, the object is displayed in the insensitive area. 7. The portable electronic device according to claim 6, further comprising display control means for displaying in the vicinity of the opposing sides.
JP2010107591A 2010-05-07 2010-05-07 Portable electronic devices Expired - Fee Related JP5370259B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010107591A JP5370259B2 (en) 2010-05-07 2010-05-07 Portable electronic devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010107591A JP5370259B2 (en) 2010-05-07 2010-05-07 Portable electronic devices

Publications (2)

Publication Number Publication Date
JP2011237945A JP2011237945A (en) 2011-11-24
JP5370259B2 true JP5370259B2 (en) 2013-12-18

Family

ID=45325868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010107591A Expired - Fee Related JP5370259B2 (en) 2010-05-07 2010-05-07 Portable electronic devices

Country Status (1)

Country Link
JP (1) JP5370259B2 (en)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5793337B2 (en) * 2011-04-28 2015-10-14 Kii株式会社 Computing device, content display method and program
JP5813991B2 (en) 2011-05-02 2015-11-17 埼玉日本電気株式会社 Portable terminal, input control method and program
WO2013128911A1 (en) * 2012-03-02 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 Mobile terminal device, method for preventing operational error, and program
JP2013186858A (en) * 2012-03-12 2013-09-19 Pioneer Electronic Corp Input device, setting method for input device, program for input device, and recording medium
JP2013196474A (en) * 2012-03-21 2013-09-30 Sharp Corp Touch panel input device, portable terminal device, and touch panel input processing method
JP2013196582A (en) * 2012-03-22 2013-09-30 Sharp Corp Touch panel input device, input method of touch panel and program
JP2013235468A (en) * 2012-05-10 2013-11-21 Fujitsu Ltd Mobile terminal and mobile terminal cover
JP5987474B2 (en) * 2012-05-25 2016-09-07 富士ゼロックス株式会社 Image display apparatus, image control apparatus, image forming apparatus, and program
JP2013250900A (en) 2012-06-01 2013-12-12 Sony Corp Information processing apparatus and method of manufacturing the same
JP5970280B2 (en) * 2012-07-24 2016-08-17 シャープ株式会社 Portable information display device and malfunction prevention method
JP2014049027A (en) * 2012-09-03 2014-03-17 Sharp Corp Portable information device, program for portable information device and recording medium having program for portable information device stored therein, and operation method of portable information device
JP5904062B2 (en) * 2012-09-06 2016-04-13 富士通株式会社 Information processing apparatus and program
JP6027373B2 (en) * 2012-09-11 2016-11-16 任天堂株式会社 Information processing program, display control apparatus, display control system, and display method
JP6000035B2 (en) * 2012-09-18 2016-09-28 シャープ株式会社 Information processing apparatus, information processing apparatus control method, control program, and recording medium
JP5922000B2 (en) * 2012-09-27 2016-05-24 京セラ株式会社 Mobile device
JP6139846B2 (en) * 2012-10-09 2017-05-31 シャープ株式会社 Touch panel input device
JP2014085738A (en) * 2012-10-22 2014-05-12 Tokai Rika Co Ltd Operation device
JP5965339B2 (en) * 2013-03-11 2016-08-03 シャープ株式会社 Portable device
CN105103110B (en) * 2013-03-27 2018-07-27 日本电气株式会社 information terminal, display control method and program
JP6155872B2 (en) 2013-06-12 2017-07-05 富士通株式会社 Terminal device, input correction program, and input correction method
WO2015029172A1 (en) * 2013-08-28 2015-03-05 株式会社東芝 Information processing apparatus, information processing method, and program
JP6135413B2 (en) 2013-09-09 2017-05-31 富士通株式会社 Electronic device and program
JP2015179381A (en) * 2014-03-19 2015-10-08 株式会社東芝 Input device, display device and terminal device
WO2015178094A1 (en) * 2014-05-23 2015-11-26 シャープ株式会社 Portable terminal, and operation processing method implemented by portable terminal
JP6497941B2 (en) * 2015-01-09 2019-04-10 キヤノン株式会社 Electronic device, control method and program thereof, and recording medium
JP6319238B2 (en) * 2015-09-08 2018-05-09 日本電気株式会社 Portable terminal, invalid area specifying method and program
JP2017097393A (en) * 2015-11-18 2017-06-01 京セラドキュメントソリューションズ株式会社 Operation input device and operation input method
JP2016207228A (en) * 2016-08-31 2016-12-08 日本電気株式会社 Input device and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039964A (en) * 1998-07-22 2000-02-08 Sharp Corp Handwriting inputting device
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
WO2009147870A1 (en) * 2008-06-03 2009-12-10 シャープ株式会社 Input detection device, input detection method, program, and storage medium
JP4670970B2 (en) * 2009-01-28 2011-04-13 ソニー株式会社 Display input device

Also Published As

Publication number Publication date
JP2011237945A (en) 2011-11-24

Similar Documents

Publication Publication Date Title
JP5370259B2 (en) Portable electronic devices
US10521111B2 (en) Electronic apparatus and method for displaying a plurality of images in a plurality of areas of a display
US20210216184A1 (en) Electronic device
US10048845B2 (en) Mobile electronic apparatus, display method for use in mobile electronic apparatus, and non-transitory computer readable recording medium
KR101331346B1 (en) Electronic apparatus
TWI420078B (en) Mehtod for adjusting navigation frame, navigation apparatus and computer program product
JP5925655B2 (en) Image display control device, image display device, program, and image display method
JP5805503B2 (en) Portable terminal, display direction control program, and display direction control method
JP5844707B2 (en) Image display control device, image display device, program, and image display method
JP6046064B2 (en) Mobile device, touch position correction method and program
JP2010181940A (en) Apparatus and method for processing image
US20170068418A1 (en) Electronic apparatus, recording medium, and operation method of electronic apparatus
JP2014071377A (en) Image display control device, image display device, program and image display method
WO2021109961A1 (en) Method for generating shortcut icon, electronic apparatus, and medium
CN109085968B (en) Screen capturing method and terminal equipment
JP5207297B2 (en) Display terminal device and program
US20160147313A1 (en) Mobile Terminal and Display Orientation Control Method
CN106372076B (en) Method and device for switching web pages in browser
US9996186B2 (en) Portable device and method for defining restricted area within touch panel
WO2017032180A1 (en) Method and device for shifting angle of image captured by electronic terminal
US20160077551A1 (en) Portable apparatus and method for controlling portable apparatus
JP5748959B2 (en) Portable electronic devices
JP2006135794A (en) Information terminal
JP6580903B2 (en) Portable electronic devices
JP5510008B2 (en) Mobile terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees