[go: up one dir, main page]

JP6478094B2 - Mobile terminal, switching method, and program - Google Patents

Mobile terminal, switching method, and program Download PDF

Info

Publication number
JP6478094B2
JP6478094B2 JP2014218747A JP2014218747A JP6478094B2 JP 6478094 B2 JP6478094 B2 JP 6478094B2 JP 2014218747 A JP2014218747 A JP 2014218747A JP 2014218747 A JP2014218747 A JP 2014218747A JP 6478094 B2 JP6478094 B2 JP 6478094B2
Authority
JP
Japan
Prior art keywords
unit
input unit
input
proximity
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014218747A
Other languages
Japanese (ja)
Other versions
JP2016086320A (en
Inventor
佐寄 新井
佐寄 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014218747A priority Critical patent/JP6478094B2/en
Publication of JP2016086320A publication Critical patent/JP2016086320A/en
Application granted granted Critical
Publication of JP6478094B2 publication Critical patent/JP6478094B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Telephone Function (AREA)

Description

本発明は、携帯端末に関する。   The present invention relates to a mobile terminal.

従来より、複数の撮像部のような入力部を備える携帯端末が普及している。このような携帯端末に関連し、特許文献1には、表示部を備えた携帯端末において、表示部側にインカメラを備え、表示部とは反対の背面側にアウトカメラを備える携帯端末が開示されている。   Conventionally, portable terminals including an input unit such as a plurality of imaging units have been widely used. In relation to such a portable terminal, Patent Document 1 discloses a portable terminal that includes an in camera on the display unit side and an out camera on the back side opposite to the display unit in the portable terminal that includes the display unit. Has been.

この特許文献1には、インカメラで撮像して得た画像からユーザの視線方向を検出し、ユーザの視線方向が携帯端末の表示部を向いている場合には、インカメラで撮像されたユーザの画像を通信回路およびアンテナを介して相手方に伝送し、ユーザの視線方向がアウトカメラで撮像中の被写体を向いている場合には、アウトカメラで撮像された被写体の画像を相手方に伝送するようにし、もって相手側に伝送するインカメラとアウトカメラの画像データを迅速に切り替え得ることが記載されている。   In this patent document 1, when a user's line-of-sight direction is detected from an image captured by an in-camera, and the user's line-of-sight direction faces the display unit of the mobile terminal, the user captured by the in-camera When the user's line-of-sight direction is directed to the subject being imaged by the out-camera, the image of the subject imaged by the out-camera is transmitted to the other-party. Therefore, it is described that the image data of the in-camera and the out-camera transmitted to the other party can be switched quickly.

特開2010−161655号公報JP 2010-161655 A

しかしながら、特許文献1に開示された携帯端末では、アウトカメラで撮像された画像を表示部で見ながら被写体を撮像することができず、うまく役立たないという問題があった。   However, the portable terminal disclosed in Patent Document 1 has a problem that the subject cannot be imaged while the image captured by the out-camera is viewed on the display unit, which is not useful.

このように、複数の入力部を有する従来の携帯端末におけるユーザの操作性はよいものではなかった。   Thus, the operability of the user in the conventional portable terminal having a plurality of input units has not been good.

本発明は、このような事情に鑑みてなされたもので、その目的は、ユーザの操作性を向上させた携帯端末を提供することにある。   This invention is made | formed in view of such a situation, The objective is to provide the portable terminal which improved the operativity of the user.

上述した課題を解決するために、本発明は、複数の入力部のうち少なくとも一の入力部に対応して設けられ、対応する前記入力部への近接または接触を検出する検出部と、前記検出部により近接または接触が検出された場合には、処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える切り替え部とを有することを特徴とする。   In order to solve the above-mentioned problem, the present invention is provided corresponding to at least one input unit among a plurality of input units, and detects a proximity or contact to the corresponding input unit, and the detection And a switching unit that switches the input unit that obtains information to be processed by the process execution unit from the one input unit to the other input unit when proximity or contact is detected by the unit. And

以上説明したように、この発明によれば、ユーザの操作性を向上させた携帯端末を提供することができる。   As described above, according to the present invention, it is possible to provide a mobile terminal with improved user operability.

本発明の実施形態に係る携帯端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the portable terminal which concerns on embodiment of this invention. 本発明の実施形態に係る携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable terminal which concerns on embodiment of this invention. 表示部に表示されている画像の切り替えを示す図である。It is a figure which shows switching of the image currently displayed on the display part. 第1の実施形態に係る処理を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the process which concerns on 1st Embodiment. 第1の実施形態に係る他の処理を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the other process which concerns on 1st Embodiment. 第2の実施形態に係る処理を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the process which concerns on 2nd Embodiment. 第3の実施形態に係る処理を示すフローチャートである。It is a flowchart which shows the process which concerns on 3rd Embodiment. 第3の実施形態に係る他の処理を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the other process which concerns on 3rd Embodiment. 第4の実施形態に係る処理を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the process which concerns on 4th Embodiment.

図1は、本発明の実施形態に係る携帯端末1のハードウェア構成を概念的に示す図である。
携帯端末1は、CPU10、ROM11、RAM12、複数の入力部401(第1入力部21、第2入力部22、第3入力部23)、複数のセンサ402(第1センサ13、第2センサ14、第3センサ15)、スピーカ16、タッチパネル17、キー18、マイク30、及びディスプレイ19を含んで構成され、これらはバス20で接続される。ROM11、RAM12は記憶装置の例示である。
FIG. 1 is a diagram conceptually illustrating a hardware configuration of a mobile terminal 1 according to an embodiment of the present invention.
The mobile terminal 1 includes a CPU 10, a ROM 11, a RAM 12, a plurality of input units 401 (first input unit 21, second input unit 22, third input unit 23), and a plurality of sensors 402 (first sensor 13, second sensor 14. , Third sensor 15), speaker 16, touch panel 17, key 18, microphone 30, and display 19, which are connected by a bus 20. ROM 11 and RAM 12 are examples of storage devices.

CPU10は、携帯端末1全体を制御し、後述するフローチャートに示される処理は、CPU10により実行される。例えば、ROM11には、携帯端末1を制御するための各種プログラムや各種データなどが記憶される。
RAM12には、上述した各種プログラムや、画像データまたは音声データなどの各種データなどが展開される。また、RAM12は、CPU10のワーク領域として用いられる。
CPU10 controls the portable terminal 1 whole, and the process shown by the flowchart mentioned later is performed by CPU10. For example, the ROM 11 stores various programs and various data for controlling the mobile terminal 1.
In the RAM 12, the above-described various programs and various data such as image data or audio data are developed. The RAM 12 is used as a work area for the CPU 10.

複数の入力部401の各々は、後述する実施形態において、カメラもしくはマイクとなっている。また、複数の入力部401の数は3つとは限らず、後述する実施形態によっては、2つの入力部が設けられることがある。
なお、複数の入力部401の各々がカメラの場合、複数の入力部401の各々には、カメラで撮像した被写体像が入力され、被写体像を示す画像データが生成されて情報として得ることができる。また、本実施形態の場合、各々のカメラの撮像方向は異なる。例えば、第1入力部21は、ディスプレイ19側の携帯端末1の上部に備えられたカメラであり、ディスプレイ19の正面方向の被写体を撮像する。第2入力部22は、携帯端末1の背面上部に設けられたカメラであり、携帯端末1の背面方向の被写体を撮像する。
Each of the plurality of input units 401 is a camera or a microphone in an embodiment described later. Further, the number of the plurality of input units 401 is not limited to three, and two input units may be provided depending on an embodiment described later.
When each of the plurality of input units 401 is a camera, a subject image captured by the camera is input to each of the plurality of input units 401, and image data indicating the subject image can be generated and obtained as information. . In the case of this embodiment, the imaging direction of each camera is different. For example, the first input unit 21 is a camera provided on the top of the mobile terminal 1 on the display 19 side, and images a subject in the front direction of the display 19. The second input unit 22 is a camera provided at the upper back of the mobile terminal 1 and images a subject in the back direction of the mobile terminal 1.

また、複数の入力部401の各々がマイクの場合は、複数の入力部401の各々には、音声が入力され、音声を示す音声データが生成されて情報として得ることができる。また、本実施形態の場合、各々のマイクの集音方向は異なる。例えば、第1入力部21は、上記ディスプレイ19側に備えられたマイクであり、ディスプレイ19の正面方向が集音方向となっている。第2入力部22は、携帯端末1の背面に設けられたマイクであり、携帯端末1の背面方向が集音方向となっている。なお、複数の入力部401の各々がマイクの場合は、図1に示されたマイク30は不要となる。   When each of the plurality of input units 401 is a microphone, a sound is input to each of the plurality of input units 401, and sound data indicating the sound is generated and obtained as information. In the case of this embodiment, the sound collection directions of the microphones are different. For example, the first input unit 21 is a microphone provided on the display 19 side, and the front direction of the display 19 is the sound collection direction. The second input unit 22 is a microphone provided on the back surface of the mobile terminal 1, and the back direction of the mobile terminal 1 is the sound collection direction. When each of the plurality of input units 401 is a microphone, the microphone 30 illustrated in FIG. 1 is not necessary.

複数のセンサ402は、少なくとも一つの入力部に対応して設けられ、対応する入力部への近接または接触を検出する。本実施形態において、複数のセンサ402は近接センサであって、複数の入力部401の各々に対応して設けられ、対応する入力部への手や顔などの物体の近接を検出する。
このように、本実施形態において複数のセンサ402の各々は近接を検出するが、入力部に接触する場合には、当然にセンサ402に近接することとなるため、複数のセンサ402の各々は接触する操作も検出できることとなる。従って、本実施形態おいて近接と接触の両方を検出できることとなる。近接するユーザ操作の検出には、例えば検出体の電気的な容量の変化を捉える方式を用いることができる。
The plurality of sensors 402 are provided corresponding to at least one input unit, and detect proximity or contact to the corresponding input unit. In the present embodiment, the plurality of sensors 402 are proximity sensors, provided corresponding to each of the plurality of input units 401, and detect the proximity of an object such as a hand or a face to the corresponding input unit.
As described above, in the present embodiment, each of the plurality of sensors 402 detects proximity. However, when the sensor touches the input unit, the sensor 402 naturally approaches the sensor 402. Therefore, each of the plurality of sensors 402 is in contact. The operation to be performed can also be detected. Therefore, in the present embodiment, both proximity and contact can be detected. For example, a method of capturing a change in the electric capacity of a detection body can be used for detecting a user operation that is in close proximity.

複数のセンサ402の各々は、近接または接触が検出されている状態では、例えばハイレベルの信号をCPU10に出力し、近接または接触が検出されていない状態では、ローレベルの信号をCPU10に出力する。   Each of the plurality of sensors 402 outputs, for example, a high level signal to the CPU 10 when proximity or contact is detected, and outputs a low level signal to the CPU 10 when proximity or contact is not detected. .

本実施形態において、第1入力部21の携帯端末1での位置の近傍には第1センサ13が対応して設置されており、第1センサ13は、第1入力部21へのユーザの近接または接触を検出する。同様に、第2入力部22の携帯端末1での位置の近傍には第2センサ14が対応して設置されており、第2センサ14は、第2入力部22へのユーザの近接または接触を検出する。また、第3入力部23の携帯端末1での位置の近傍には、第3センサ15が対応して設置されており、第3センサ15は、第3入力部23へのユーザの近接または接触を検出する。   In this embodiment, the 1st sensor 13 is installed corresponding to the position in the portable terminal 1 of the 1st input part 21, and the 1st sensor 13 is a user's proximity to the 1st input part 21 Or detect contact. Similarly, the 2nd sensor 14 is correspondingly installed in the vicinity of the position in the portable terminal 1 of the 2nd input part 22, and the 2nd sensor 14 approaches or touches the 2nd input part 22 by a user. Is detected. In addition, a third sensor 15 is correspondingly installed in the vicinity of the position of the third input unit 23 on the mobile terminal 1, and the third sensor 15 is close to or in contact with the third input unit 23 by the user. Is detected.

スピーカ16は音声を出力する。タッチパネル17は、ディスプレイ19と一体的に設けられており、ユーザのタッチ操作などを検出し、検出した操作内容をCPU10に出力する。キー18は、ハードキーであり、本実施形態ではキーのオンオフを検出して検出結果をCPU10に出力する。   The speaker 16 outputs sound. The touch panel 17 is provided integrally with the display 19, detects a user's touch operation and the like, and outputs the detected operation content to the CPU 10. The key 18 is a hard key, and in this embodiment, the key is detected on and off, and the detection result is output to the CPU 10.

ディスプレイ19は、画像や動画、各種アプリケーションの画面などを表示する。なお、複数の入力部401の各々がカメラの場合、ディスプレイ19は、各々のカメラで撮像された画像や映像を表示することができる。以下の説明では、画像と映像をまとめて画像と表現する。また、複数の入力部401の各々がマイクの場合、ディスプレイ19は、録音機能を提供するためのメニューなどを表示する。
以上説明した構成に、さらに携帯電話回線や無線LANと無線通信を行う通信部を設けるようにしてもよい。次に、上述したハードウェア構成を備える携帯端末の各実施形態について説明する。
The display 19 displays images, moving images, various application screens, and the like. When each of the plurality of input units 401 is a camera, the display 19 can display an image or video captured by each camera. In the following description, an image and a video are collectively expressed as an image. When each of the plurality of input units 401 is a microphone, the display 19 displays a menu for providing a recording function.
In the configuration described above, a communication unit that performs wireless communication with a mobile phone line or a wireless LAN may be further provided. Next, each embodiment of a portable terminal provided with the hardware configuration described above will be described.

図2は、携帯端末1を機能の面から見直した場合の構成を示すブロック図である。
携帯端末1は、第1近接/接触検出部113、第2近接/接触検出部114、第3近接/接触検出部115、第1入力部21、第2入力部22、第3入力部23、切り替え制御部105、制御部107、記憶部106、操作部108、表示部109、音声入力部110、及び音声出力部111で構成される。
制御部107はCPU10(図1)を含み、携帯端末1全体を制御する。切り替え制御部105は、制御部107の指示により、制御部107が処理を実行する情報を得る第1入力部21、第2入力部22、第3入力部23のうちのいずれかの入力部を、一つの入力部(例えば第1入力部21)から他の入力部(例えば第2入力部22)に切り替える。
第1近接/接触検出部113、第2近接/接触検出部114、第3近接/接触検出部115は、それぞれ第1センサ13、第2センサ14、第3センサ15に対応し、近接または接触を検出する。
FIG. 2 is a block diagram showing a configuration when the mobile terminal 1 is reviewed from the viewpoint of functions.
The mobile terminal 1 includes a first proximity / contact detection unit 113, a second proximity / contact detection unit 114, a third proximity / contact detection unit 115, a first input unit 21, a second input unit 22, a third input unit 23, The switching control unit 105, the control unit 107, the storage unit 106, the operation unit 108, the display unit 109, the voice input unit 110, and the voice output unit 111 are configured.
The control unit 107 includes a CPU 10 (FIG. 1) and controls the entire mobile terminal 1. In response to an instruction from the control unit 107, the switching control unit 105 selects any one of the first input unit 21, the second input unit 22, and the third input unit 23 that obtains information for the control unit 107 to execute processing. , Switching from one input unit (for example, the first input unit 21) to another input unit (for example, the second input unit 22).
The first proximity / contact detection unit 113, the second proximity / contact detection unit 114, and the third proximity / contact detection unit 115 correspond to the first sensor 13, the second sensor 14, and the third sensor 15, respectively. Is detected.

記憶部106は、ROM11(図1)、RAM12(図1)に対応し、撮像された画像データなどが記憶される。操作部108は、タッチパネル17(図1)、及びキー18(図1)に対応し、ユーザの操作入力を受け付ける。表示部109は、ディスプレイ19(図1)に対応する。音声入力部110は、入力された音声をAD変換し、デジタルデータとして音声データを出力する。音声出力部111は、スピーカ16(図1)を含み、音声のデジタルデータをDA変換したアナログデータをスピーカ16に出力することで、スピーカから音声を出力する。以下で説明する各実施形態における携帯端末1の構成は、基本的に図1,2で説明したものとなっている。   The storage unit 106 corresponds to the ROM 11 (FIG. 1) and the RAM 12 (FIG. 1) and stores captured image data and the like. The operation unit 108 corresponds to the touch panel 17 (FIG. 1) and the key 18 (FIG. 1) and accepts user operation input. The display unit 109 corresponds to the display 19 (FIG. 1). The voice input unit 110 performs AD conversion on the input voice and outputs voice data as digital data. The audio output unit 111 includes the speaker 16 (FIG. 1), and outputs audio from the speaker by outputting analog data obtained by DA-converting audio digital data to the speaker 16. The configuration of the mobile terminal 1 in each embodiment described below is basically the same as that described in FIGS.

(第1の実施形態)
第1の実施形態は、携帯端末1が、一例としてカメラ機能付きの携帯電話端末であって、複数の入力部401(図1)を複数のカメラとした形態である。上述した図2において、第1の実施形態の構成に、第1入力部21、第2入力部22、及び第3入力部23のうち、背面カメラとしての第1入力部21、前面カメラとしての第2入力部22が含まれ、第3入力部23は含まれない。さらに、第1の実施の形態の構成に、第1近接/接触検出部113、第2近接/接触検出部114、及び第3近接/接触検出部115のうち、背面近接/接触検出部としての第1近接/接触検出部113、前面近接/接触検出部としての第2近接/接触検出部114が含まれ、第3近接/接触検出部115は含まれない。
(First embodiment)
In the first embodiment, the mobile terminal 1 is a mobile phone terminal with a camera function as an example, and a plurality of input units 401 (FIG. 1) are a plurality of cameras. In FIG. 2 described above, the first input unit 21, the second input unit 22, and the third input unit 23 in the configuration of the first embodiment are the first input unit 21 as the rear camera and the front camera. The second input unit 22 is included, and the third input unit 23 is not included. Further, the first proximity / contact detection unit 113, the second proximity / contact detection unit 114, and the third proximity / contact detection unit 115 as the back proximity / contact detection unit in the configuration of the first embodiment. A first proximity / contact detection unit 113 and a second proximity / contact detection unit 114 as a front proximity / contact detection unit are included, and a third proximity / contact detection unit 115 is not included.

本実施形態において、単にカメラと表現されている場合には、背面カメラ及び前面カメラのうちのいずれか1つのカメラを示し、単に検出部と表現されている場合には、背面近接/接触検出部及び前面近接/接触検出部のうちのいずれか1つのセンサを示す。
本実施形態において、制御部107は、複数の入力部401のうち、一の入力部により得られた画像データに対して、当該画像データが示す画像を表示部109に表示する処理を実行する。
In the present embodiment, when it is simply expressed as a camera, it indicates either one of the rear camera and the front camera, and when it is simply expressed as a detection unit, it is a back proximity / contact detection unit. And any one of the front proximity / contact detection unit.
In the present embodiment, the control unit 107 executes a process of displaying an image indicated by the image data on the display unit 109 with respect to the image data obtained by one input unit among the plurality of input units 401.

切り替え制御部105は、制御部107の指示により、検出部により近接または接触が検出された場合には、制御部107が処理を実行する情報を得る入力部を、一つの入力部から他の入力部に切り替える。具体的に、本実施形態において、切り替え制御部105は、撮像するカメラを背面カメラ、及び前面カメラのうちのいずれかに切り替える制御を行う。   When the proximity or contact is detected by the detection unit in response to an instruction from the control unit 107, the switching control unit 105 selects an input unit that obtains information on which the control unit 107 performs processing from one input unit to another input unit. Switch to the department. Specifically, in the present embodiment, the switching control unit 105 performs control to switch a camera to be imaged to one of a rear camera and a front camera.

この制御により、表示部109に表示されている画像を出力しているカメラに対応する検出部が近接または接触を検出すると、表示部109に表示される画像を他のカメラが撮像している画像が切り替わることとなる。
本実施形態において、表示部109に表示されている画像を撮像しているカメラを「有効なカメラ」と表現する。例えば、表示部109に背面カメラにより撮像された画像が表示されている場合には、有効なカメラは背面カメラとなる。
By this control, when a detection unit corresponding to the camera outputting the image displayed on the display unit 109 detects proximity or contact, an image captured by another camera on the image displayed on the display unit 109 Will be switched.
In the present embodiment, a camera that captures an image displayed on the display unit 109 is expressed as an “effective camera”. For example, when an image captured by the rear camera is displayed on the display unit 109, the effective camera is the rear camera.

図3は、表示部109に表示されている画像の切り替えを示す図である。
図3に示されるように、携帯端末1の表示部109には、背面カメラとしての第1入力部21により撮像された画像(ビルと樹木)が表示されている(図3の左側の図)。この状態で、第1入力部21に指を近接または接触させると(図3の中央の図)、切り替え制御部105の複数のセンサ402のうちの第1近接/接触検出部113(背面近接/接触検出部)がこの近接または接触を検出し、他のカメラである前面カメラとしての第2入力部22により撮像された画像(ユーザの像)が表示部109に表示される(図3の右側の図)。こうして有効なカメラが切り替わることとなる。
FIG. 3 is a diagram illustrating switching of images displayed on the display unit 109.
As shown in FIG. 3, an image (a building and a tree) captured by the first input unit 21 serving as a rear camera is displayed on the display unit 109 of the mobile terminal 1 (the left diagram in FIG. 3). . In this state, when a finger is brought close to or in contact with the first input unit 21 (the middle diagram in FIG. 3), the first proximity / contact detection unit 113 (rear side proximity / The contact detection unit) detects this proximity or contact, and an image (user image) captured by the second input unit 22 as a front camera as another camera is displayed on the display unit 109 (right side in FIG. 3). Figure). In this way, an effective camera is switched.

図4は、第1の実施形態に係る処理を示すフローチャートを示す図である。
この図4に示されるフローチャートは、ユーザの操作によりカメラアプリケーション(以下、「カメラアプリ」という)の実行が指示された際に実行される処理を示している。
図4において、カメラアプリを起動し(ステップS101)、有効なカメラに対応するその近傍への検出部による近接または接触の検出を開始する(ステップS102)。次いで、検出部により近接または接触が検出されると(ステップS103でYES)、現在撮像しているカメラとは異なる他のカメラに有効なカメラを切り替える(ステップS104)。そして、近接または接触を検出する検出部を、有効となったカメラに対応する検出部に切り替えて(ステップS105)、ステップS102に戻る。
FIG. 4 is a flowchart illustrating processing according to the first embodiment.
The flowchart shown in FIG. 4 shows processing executed when an instruction to execute a camera application (hereinafter referred to as “camera application”) is given by a user operation.
In FIG. 4, the camera application is activated (step S101), and detection of proximity or contact to the vicinity corresponding to an effective camera is started (step S102). Next, when proximity or contact is detected by the detection unit (YES in step S103), a valid camera is switched to another camera different from the camera that is currently imaging (step S104). And the detection part which detects proximity | contact or a contact is switched to the detection part corresponding to the camera which became effective (step S105), and it returns to step S102.

以上説明した図4の処理では、近接または接触が検出されるたびに有効なカメラが切り替わるようになっているが、例えば1回など予め定められた回数だけ切り替えが行われた場合には、それ以降切り替えを行わないようにしてもよい。このようにすることにより、誤動作を防止できる。
第1の実施形態によれば、例えばユーザの指の携帯端末1の所定箇所への単なる接近または接触により、有効なカメラの切り替えを簡便に行うことができる。
In the process of FIG. 4 described above, an effective camera is switched every time proximity or contact is detected. However, when switching is performed a predetermined number of times, for example, once, Thereafter, switching may not be performed. By doing so, malfunction can be prevented.
According to the first embodiment, for example, effective camera switching can be easily performed by simply approaching or contacting a user's finger to a predetermined portion of the mobile terminal 1.

(変形例)
図5は、第1の実施形態に係る他の処理を示すフローチャートを示す図である。
この図5に示されるフローチャートは、ユーザの操作によりカメラアプリの実行が指示された際に実行される処理を示している。
図5において、カメラアプリを起動する(ステップS201)。そして、予め定められた時間を計測するために、時間の計測を開始し(ステップS202)、この予め定められた時間が経過したか否か判定する(ステップS203)。予め定められた時間が経過した場合には(ステップS203でYES)、本処理を終了する。
(Modification)
FIG. 5 is a flowchart illustrating another process according to the first embodiment.
The flowchart shown in FIG. 5 shows processing executed when an instruction to execute a camera application is given by a user operation.
In FIG. 5, the camera application is activated (step S201). Then, in order to measure a predetermined time, time measurement is started (step S202), and it is determined whether or not the predetermined time has elapsed (step S203). If the predetermined time has elapsed (YES in step S203), this process ends.

一方、予め定められた時間が経過していない場合には(ステップS203でNO)、有効なカメラに対応するその近傍への検出部により近接または接触が検出されたか否か判定する(ステップS204)。   On the other hand, if the predetermined time has not elapsed (NO in step S203), it is determined whether or not proximity or contact is detected by the detection unit for the vicinity corresponding to the valid camera (step S204). .

近接または接触が検出されていない場合には(ステップS204でNO)、ステップS203に戻る。一方、近接または接触が検出された場合には(ステップS204でYES)、現在撮像しているカメラとは異なる他のカメラに有効なカメラを切り替える(ステップS205)。そして、近接または接触を検出する検出部を、有効となったカメラに対応する検出部に切り替えて(ステップS206)、計測された時間をリセットし(ステップS207)、ステップS202に戻る。   If proximity or contact is not detected (NO in step S204), the process returns to step S203. On the other hand, when proximity or contact is detected (YES in step S204), a valid camera is switched to another camera different from the camera that is currently imaging (step S205). And the detection part which detects proximity | contact or a contact is switched to the detection part corresponding to the camera which became effective (step S206), the measured time is reset (step S207), and it returns to step S202.

以上説明した図5の処理は、予め定められた時間が経過する間に、検出部により近接または接触が検出された場合には、制御部107が処理を実行する情報を得るカメラを、一のカメラから他のカメラに切り替えるようになっている。
このように、切り替えが行われる時間を予め定められた時間のみとすることで、誤動作を防止できるので、ユーザの操作性を向上させることができる。なお、予め定められた時間は、ユーザにより設定可能な時間にしてもよいし、記憶部106に予め記憶されている時間にしてもよい。
The above-described processing of FIG. 5 is performed when a camera that obtains information on which the control unit 107 executes processing is detected when proximity or contact is detected by the detection unit while a predetermined time elapses. Switch from one camera to another.
In this way, by setting the time for switching to be a predetermined time only, it is possible to prevent malfunctions, thereby improving user operability. Note that the predetermined time may be a time that can be set by the user, or may be a time that is stored in advance in the storage unit 106.

以上説明した第1の実施形態では、有効なカメラに対応する検出部が近接または接触を検出した場合に有効なカメラを切り替えるように制御しているが、有効ではないカメラに対応する検出部が近接または接触を検出した場合に有効なカメラを切り替えるようにしてもよい。
この場合、例えば有効なカメラが背面カメラであるときは、背面近接/接触検出部ではなく前面近接/接触検出部が近接または接触を検出した際に、有効なカメラが前面カメラに切り替わることとなる。
In the first embodiment described above, the detection unit corresponding to the effective camera is controlled to switch the effective camera when proximity or contact is detected, but the detection unit corresponding to the camera that is not effective An effective camera may be switched when proximity or contact is detected.
In this case, for example, when the effective camera is a rear camera, the effective camera is switched to the front camera when the front proximity / contact detection unit detects proximity or contact instead of the rear proximity / contact detection unit. .

(第2の実施形態)
第2の実施形態を実現するための携帯端末1の構成は、第1の実施形態で説明した構成と実質的に同じである。第2の実施形態では、近接または接触が検出されている状態が予め定められた時間だけ継続した場合に、有効なカメラを切り替える。
(Second Embodiment)
The configuration of the mobile terminal 1 for realizing the second embodiment is substantially the same as the configuration described in the first embodiment. In the second embodiment, an effective camera is switched when a state in which proximity or contact is detected continues for a predetermined time.

図6は、第2の実施形態に係る処理を示すフローチャートを示す図である。
この図6に示されるフローチャートは、ユーザの操作によりカメラアプリの実行が指示された際に実行される処理を示している。
図6において、カメラアプリを起動する(ステップS301)。次いで、検出部により有効なカメラに対応するその近傍へのユーザの近接または接触が検出されたか否か判定する(ステップS302)。
FIG. 6 is a flowchart illustrating the processing according to the second embodiment.
The flowchart shown in FIG. 6 shows processing executed when an instruction to execute a camera application is given by a user operation.
In FIG. 6, the camera application is activated (step S301). Next, it is determined whether or not the detection unit detects the proximity or contact of the user to the vicinity corresponding to the valid camera (step S302).

近接または接触が検出されていない場合には(ステップS302でNO)、タイマーが起動しているか否か判定する(ステップS303)。このタイマーとは、近接または接触している状態が継続している時間を計測するためのタイマーである。タイマーが起動している場合には(ステップS303でYES)、タイマーを停止し、タイマーのカウントをリセットして(ステップS304)、ステップS302に戻る。一方、タイマーが起動していない場合には(ステップS303でNO)、そのままステップS302に戻る。   If proximity or contact has not been detected (NO in step S302), it is determined whether or not the timer is activated (step S303). This timer is a timer for measuring the time during which the proximity or contact state continues. If the timer is activated (YES in step S303), the timer is stopped, the timer count is reset (step S304), and the process returns to step S302. On the other hand, if the timer has not been started (NO in step S303), the process directly returns to step S302.

上記ステップS302に戻り、ステップS302において、近接または接触が検出されている場合には(ステップS302でYES)、タイマーが起動しているか否か判定する(ステップS305)。タイマーが起動していない場合には(ステップS305でNO)、タイマーを起動して(ステップS306)、ステップS307に進む。一方、タイマーが起動している場合には(ステップS305でYES)、そのままステップS307に進む。   Returning to step S302, if proximity or contact is detected in step S302 (YES in step S302), it is determined whether or not the timer is activated (step S305). If the timer is not activated (NO in step S305), the timer is activated (step S306), and the process proceeds to step S307. On the other hand, if the timer is activated (YES in step S305), the process proceeds directly to step S307.

次いで、予め定められた時間が経過したか否か判定する(ステップS307)。予め定められた時間が経過していない場合には(ステップS307でNO)、ステップS302に戻る。一方、予め定められた時間が経過した場合には(ステップS307でYES)、現在撮像しているカメラとは異なる他のカメラに有効なカメラを切り替えて(ステップS308)、本処理を終了する。   Next, it is determined whether or not a predetermined time has elapsed (step S307). If the predetermined time has not elapsed (NO in step S307), the process returns to step S302. On the other hand, when a predetermined time has elapsed (YES in step S307), a valid camera is switched to another camera different from the camera that is currently capturing an image (step S308), and this process ends.

以上説明した第2の実施形態は、検出部による近接または接触が検出されてから、物体が検出された状態が予め定められた時間が継続した場合に、制御部107が処理を実行する情報を得るカメラを、一のカメラから他のカメラに切り替えるようになっている。   In the second embodiment described above, the information that the control unit 107 executes when the state in which the object is detected continues for a predetermined time after the proximity or contact by the detection unit is detected. The camera to obtain is switched from one camera to another.

このように、第2の実施形態では、近接または接触している状態で予め定められた時間が経過した場合に切り替わるので、ユーザによる不注意な誤作動を防止してユーザの操作性を向上することができる。なお、予め定められた時間は、ユーザにより設定可能な時間としてもよいし、記憶部106に予め記憶されている時間としてもよい。
また、第2の実施形態では、1回切り替わるとそれ以降切り替えを行わないようなっているが、2回以上の予め定められた回数または何回でも切り替えを行うようにしてもよい。
As described above, in the second embodiment, the switching is performed when a predetermined time elapses in the proximity or contact state, so that an inadvertent malfunction by the user is prevented and the operability of the user is improved. be able to. Note that the predetermined time may be a time that can be set by the user or may be a time that is stored in advance in the storage unit 106.
In the second embodiment, once switching is performed, switching is not performed thereafter. However, switching may be performed at a predetermined number of times of two or more times or any number of times.

(第3の実施形態)
第3の実施形態では、携帯端末1は、一例としてICレコーダであって、第1、第2の実施形態のカメラに代えて、マイクを用いた実施形態となっており、マイクに入力された音声を録音する機能を実施する。また、携帯端末1には、2つのマイクと、各々に対応するセンサとしての検出部が設けられている。
(Third embodiment)
In the third embodiment, the mobile terminal 1 is an IC recorder as an example, and is an embodiment using a microphone instead of the camera of the first and second embodiments, and is input to the microphone. Implement the function to record audio. In addition, the mobile terminal 1 is provided with two microphones and a detection unit as a sensor corresponding to each.

従って、第3の実施形態の構成に、携帯端末1の背面マイクとしての第1入力部21(図2)、携帯端末1の前面マイクとしての第2入力部22(図2)が含まれる。さらに、第3の実施形態の構成に、背面近接/接触検出部として第1近接/接触検出部113(図2)、前面近接/接触検出部として第2近接/接触検出部114(図2)を含む。このようにマイクが用いられるため、第3の実施形態での構成は、図2に示された構成から音声入力部110を除いたものとなる。また、第2の実施形態と同じく、第3の実施形態の構成に、第3入力部23及び第3近接/接触検出部115は含まれない。   Therefore, the configuration of the third embodiment includes the first input unit 21 (FIG. 2) as the back microphone of the mobile terminal 1 and the second input unit 22 (FIG. 2) as the front microphone of the mobile terminal 1. Furthermore, the configuration of the third embodiment includes a first proximity / contact detection unit 113 (FIG. 2) as a back proximity / contact detection unit and a second proximity / contact detection unit 114 (FIG. 2) as a front proximity / contact detection unit. including. Since the microphone is used in this way, the configuration in the third embodiment is obtained by removing the voice input unit 110 from the configuration shown in FIG. Similarly to the second embodiment, the third input unit 23 and the third proximity / contact detection unit 115 are not included in the configuration of the third embodiment.

なお、本実施形態において、単にマイクと表現されている場合には、背面マイク及び前面マイクのうちのいずれか1つのマイクを示し、単に検出部と表現されている場合には、背面近接/接触検出部及び前面近接/接触検出部のうちのいずれか1つのセンサを示す。   In the present embodiment, when it is simply expressed as a microphone, any one of a rear microphone and a front microphone is shown, and when it is simply expressed as a detection unit, it is close to the back / contact. 1 shows one of a sensor and a front proximity / contact detector.

また、本実施形態において、制御部107は、複数の入力部401のうち、一つの入力部により得られた音声データを記憶部106に記憶する処理を実行する。また、切り替え制御部105は、制御部107の指示により、音声を入力するマイクを背面マイク、及び前面マイクのうちのいずれかに切り替える制御を行うものある。記憶部106には、デジタル化された音声データが記憶される。   In the present embodiment, the control unit 107 executes a process of storing audio data obtained by one input unit among the plurality of input units 401 in the storage unit 106. Further, the switching control unit 105 performs control to switch the microphone for inputting the sound to either the back microphone or the front microphone according to an instruction from the control unit 107. The storage unit 106 stores digitized audio data.

上述した構成において、本実施形態では、録音している音声データを出力しているマイクに対応する検出部が近接または接触を検出すると、録音する音声データを出力するマイクを他のマイクに切り替える。本実施形態において、録音している音声データを出力しているマイクを「有効なマイク」と表現する。例えば、背面マイクが出力している音声データを記憶している場合には、有効なマイクは背面マイクとなる。   In the configuration described above, in this embodiment, when the detection unit corresponding to the microphone that outputs the recorded voice data detects proximity or contact, the microphone that outputs the recorded voice data is switched to another microphone. In the present embodiment, a microphone that outputs recorded audio data is expressed as an “effective microphone”. For example, when the audio data output from the rear microphone is stored, the effective microphone is the rear microphone.

図7は、第3の実施形態に係る処理を示すフローチャートである。
この図7に示されるフローチャートは、ユーザの操作により録音開始が指示された際に実行される処理を示している。
図7において、ユーザの指示により録音を開始すると(ステップS401)、有効なマイクに対応する検出部による近接または接触の検出を開始する(ステップS402)。次いで、検出部により近接または接近が検出されると(ステップS403でYES)、現在録音しているマイクとは異なる他のマイクに有効なマイクを切り替える(ステップS404)。また、近接または接触を検出する検出部を、有効となったマイクに対応する検出部に切り替えて(ステップS405)、ステップS402に戻る。
FIG. 7 is a flowchart illustrating processing according to the third embodiment.
The flowchart shown in FIG. 7 shows processing executed when recording start is instructed by a user operation.
In FIG. 7, when recording starts according to a user instruction (step S401), detection of proximity or contact by a detection unit corresponding to an effective microphone is started (step S402). Next, when proximity or approach is detected by the detection unit (YES in step S403), an effective microphone is switched to another microphone different from the currently recorded microphone (step S404). Moreover, the detection part which detects proximity | contact or a contact is switched to the detection part corresponding to the validated microphone (step S405), and it returns to step S402.

以上説明した図7の処理では、近接または接触が検出されるたびに有効なマイクが切り替わるようになっているが、例えば1回など予め定められた回数だけ切り替えが行われた場合には、それ以降切り替えを行わないようにしてもよい。このようにすることにより、誤動作を防止できる。
第3の実施形態によれば、例えばユーザの指の携帯端末1の所定箇所への単なる接近または接触により、有効なマイクの切り替えを簡便に行うことができる。
In the process of FIG. 7 described above, an effective microphone is switched every time proximity or contact is detected. However, when switching is performed a predetermined number of times, for example, once, the change is made. Thereafter, switching may not be performed. By doing so, malfunction can be prevented.
According to the third embodiment, for example, effective microphone switching can be easily performed by simply approaching or touching a user's finger to a predetermined portion of the mobile terminal 1.

(変形例)
図8は、第3の実施形態に係る他の処理を示すフローチャートを示す図である。
この図8に示されるフローチャートは、ユーザの操作により録音開始が指示された際に実行される処理を示している。
(Modification)
FIG. 8 is a flowchart illustrating another process according to the third embodiment.
The flowchart shown in FIG. 8 shows processing executed when recording start is instructed by a user operation.

図8において、ユーザの指示により録音を開始し、有効なマイクに対応する検出部による近接または接触の検出を開始する(ステップS501)。そして、予め定められた時間を計測するために、時間の計測を開始し(ステップS502)、この予め定められた時間が経過したか否か判定する(ステップS503)。予め定められた時間が経過した場合には(ステップS503でYES)、本処理を終了する。
一方、予め定められた時間が経過していない場合には(ステップS503でNO)、有効なマイクに対応する検出部により近接または接触が検出されたか否か判定する(ステップS504)。
In FIG. 8, recording is started in accordance with a user instruction, and detection of proximity or contact is started by a detection unit corresponding to an effective microphone (step S501). Then, in order to measure a predetermined time, time measurement is started (step S502), and it is determined whether or not the predetermined time has passed (step S503). If the predetermined time has elapsed (YES in step S503), the process ends.
On the other hand, if the predetermined time has not elapsed (NO in step S503), it is determined whether proximity or contact has been detected by the detection unit corresponding to the effective microphone (step S504).

近接または接触が検出されていない場合には(ステップS504でNO)、ステップS503に戻る。一方、近接または接触が検出された場合には(ステップS504でYES)、現在録音しているマイクとは異なる他のマイクに有効なマイクを切り替える(ステップS505)。そして、近接または接触を検出する検出部を、有効となったマイクに対応する検出部に切り替えて(ステップS506)、計測された時間をリセットし(ステップS507)、ステップS502に戻る。   If proximity or contact is not detected (NO in step S504), the process returns to step S503. On the other hand, when proximity or contact is detected (YES in step S504), the effective microphone is switched to another microphone different from the currently recorded microphone (step S505). And the detection part which detects proximity | contact or a contact is switched to the detection part corresponding to the validated microphone (step S506), the measured time is reset (step S507), and it returns to step S502.

上述した処理によれば、切り替えが行われる時間を予め定められた時間のみとすることで、誤動作を防止できるので、ユーザの操作性を向上させることができる。なお、予め定められた時間は、ユーザにより設定可能な時間としてもよいし、記憶部106に予め記憶されている時間としてもよい。   According to the processing described above, since the time for switching is set to a predetermined time only, malfunction can be prevented, so that user operability can be improved. Note that the predetermined time may be a time that can be set by the user or may be a time that is stored in advance in the storage unit 106.

以上説明した第3の実施形態では、有効なマイクに対応する検出部が近接または接触を検出した場合に有効なマイクを切り替えるように制御しているが、有効ではないマイクに対応する検出部が近接または接触を検出した場合に有効なマイクを切り替えるようにしてもよい。
この場合、例えば有効なマイクが背面マイクであるときは、背面近接/接触検出部ではなく前面近接/接触検出部が近接または接触を検出した際に、有効なマイクが前面マイクに切り替わることとなる。
In the third embodiment described above, the detection unit corresponding to the effective microphone is controlled to switch the effective microphone when proximity or contact is detected, but the detection unit corresponding to the ineffective microphone is An effective microphone may be switched when proximity or contact is detected.
In this case, for example, when the effective microphone is a rear microphone, the effective microphone is switched to the front microphone when the front proximity / contact detection unit detects proximity or contact instead of the rear proximity / contact detection unit. .

(第4の実施形態)
第4の実施形態は、携帯端末1が、一例としてカメラ機能付きの携帯電話端末であって、入力部としてのカメラが3つ設けられ、各々に対応してセンサとしての検出部が3つ設けられた形態となっている。従って、第4の実施形態の構成に、背面カメラとしての第1入力部21(図2)、前面カメラとしての第2入力部22(図2)、側面カメラとしての第3入力部23(図2)が含まれる。また、第4の実施形態の構成に、背面近接/接触検出部としての第1近接/接触検出部113(図2)、前面近接/接触検出部としての第2近接/接触検出部114(図2)、側面近接/接触検出部としての第3近接/接触検出部115(図2)を含む。
(Fourth embodiment)
In the fourth embodiment, the mobile terminal 1 is, for example, a mobile phone terminal with a camera function, provided with three cameras as input units, and provided with three detection units as sensors corresponding to each. It has become a form. Accordingly, the configuration of the fourth embodiment includes a first input unit 21 (FIG. 2) as a rear camera, a second input unit 22 (FIG. 2) as a front camera, and a third input unit 23 (FIG. 2) as a side camera. 2) is included. In addition, the configuration of the fourth embodiment includes a first proximity / contact detection unit 113 (FIG. 2) as a back proximity / contact detection unit, and a second proximity / contact detection unit 114 (FIG. 2) as a front proximity / contact detection unit. 2) A third proximity / contact detection unit 115 (FIG. 2) as a side proximity / contact detection unit is included.

本実施形態において、単にカメラと表現されている場合には、背面カメラ、前面カメラ、及び側面カメラのうちのいずれか1つのカメラを示し、単に検出部と表現されている場合には、背面近接/接触検出部、前面近接/接触検出部、及び側面近接/接触検出部のうちのいずれか1つのセンサを示す。   In this embodiment, when it is simply expressed as a camera, it indicates any one of a rear camera, a front camera, and a side camera, and when it is simply expressed as a detection unit, it is close to the rear surface. 1 shows a sensor of any one of a contact detection unit, a front proximity / contact detection unit, and a side proximity / contact detection unit.

制御部107(図2)は、複数の入力部401(図1)のうち、一つの入力部により得られた画像データに対して、当該画像データが示す画像を表示部109に表示する処理を実行する。また、切り替え制御部105は、制御部107の指示により、撮像するカメラを背面カメラ、前面カメラ、及び側面カメラのうちのいずれかに切り替える制御を行うものである。記憶部106は、撮像された画像データなどが記憶される。   The control unit 107 (FIG. 2) performs a process of displaying the image indicated by the image data on the display unit 109 for the image data obtained by one input unit among the plurality of input units 401 (FIG. 1). Run. Further, the switching control unit 105 performs control to switch the camera to be imaged to one of a rear camera, a front camera, and a side camera in accordance with an instruction from the control unit 107. The storage unit 106 stores captured image data and the like.

本実施形態において、表示部109(図2)に表示されている画像を撮像しているカメラを「有効なカメラ」と表現する。例えば、表示部109に背面カメラにより撮像された画像が表示されている場合には、有効なカメラは背面カメラとなる。
上述した構成において、本実施形態では、近接または接触が検出された検出部に対応するカメラに有効なカメラを切り替えるとともに、2つ以上の検出部が同時に近接または接触を検出した場合には、予め定められたカメラを有効なカメラとして切り替える。
In the present embodiment, a camera that captures an image displayed on the display unit 109 (FIG. 2) is expressed as an “effective camera”. For example, when an image captured by the rear camera is displayed on the display unit 109, the effective camera is the rear camera.
In the configuration described above, in the present embodiment, when a camera corresponding to a detection unit in which proximity or contact is detected is switched to an effective camera, and two or more detection units detect proximity or contact at the same time, Switch the specified camera as a valid camera.

図9は、第4の実施形態に係る処理を示すフローチャートを示す図である。
この図9に示されるフローチャートは、ユーザの操作によりカメラアプリの実行が指示された際に実行される処理を示している。
FIG. 9 is a flowchart illustrating the process according to the fourth embodiment.
The flowchart shown in FIG. 9 shows processing executed when an instruction to execute a camera application is given by a user operation.

図9において、カメラアプリが起動すると(ステップS601)、有効なカメラに対応しない検出部による物体の検出を開始する(ステップS602)。例えば、背面カメラが有効となっていれば、前面近接/接触検出部及び側面近接/接触検出部で検出を開始する。
次いで、有効なカメラに対応しないカメラの近傍に位置する検出部により近接または接触が検出されると(ステップS603でYES)、有効なカメラに対応しない検出部で同時に近接または接触が検出されたか否かさらに判定する(ステップS604)。
In FIG. 9, when the camera application is activated (step S601), detection of an object by a detection unit that does not correspond to an effective camera is started (step S602). For example, if the rear camera is enabled, detection is started at the front proximity / contact detection unit and the side proximity / contact detection unit.
Next, when proximity or contact is detected by a detection unit located in the vicinity of a camera that does not correspond to an effective camera (YES in step S603), whether or not proximity or contact is simultaneously detected by a detection unit that does not correspond to an effective camera. Further determination is made (step S604).

有効なカメラに対応しない検出部で同時に近接または接触が検出されていない場合には(ステップS604でNO)、近接または接触が検出された検出部に対応するカメラに有効なカメラを切り替える(ステップS605)。
一方、有効なカメラに対応しない検出部で同時に近接または接触が検出された場合には(ステップS604でYES)、予め定められたカメラに有効なカメラを切り替える(ステップS606)。
次いで、近接または接触を検出する検出部を、有効なカメラに対応しない検出部に切り替えて(ステップS607)、ステップS602に戻る。
If proximity or contact is not detected at the same time by a detection unit that does not correspond to an effective camera (NO in step S604), the effective camera is switched to the camera corresponding to the detection unit from which proximity or contact is detected (step S605). ).
On the other hand, when proximity or contact is detected simultaneously by a detection unit that does not correspond to an effective camera (YES in step S604), the effective camera is switched to a predetermined camera (step S606).
Next, the detection unit that detects proximity or contact is switched to a detection unit that does not correspond to an effective camera (step S607), and the process returns to step S602.

以上説明した第4の実施形態は、制御部107が処理を実行する情報を得るカメラに対応する検出部以外の2つ以上の検出部により、同時に物体が検出された場合には、制御部107が処理を実行する情報を得るカメラを、一のカメラから予め定められたカメラに切り替えるようになっている。なお、予め定められたカメラとは、一意にカメラを指定してもよいし、優先順位を設定してもよく、これらの設定は、ユーザにより設定可能にしてもよいし、記憶部106に予め記憶させておいてもよい。   In the fourth embodiment described above, when an object is detected simultaneously by two or more detection units other than the detection unit corresponding to the camera from which the control unit 107 obtains information to be processed, the control unit 107 is used. The camera that obtains the information for executing the process is switched from one camera to a predetermined camera. It should be noted that the predetermined camera may be uniquely specified, a priority order may be set, and these settings may be set by the user or stored in the storage unit 106 in advance. It may be memorized.

同時に物体が検出された場合には、ユーザが1つの入力部を指定したとは考えにくいので、予め定められた入力部を有効とすることにより、ユーザの操作性を向上させることができる。   If an object is detected at the same time, it is unlikely that the user has designated one input unit. Therefore, the user's operability can be improved by enabling a predetermined input unit.

このように、第4の実施形態では、近接または接触が検出されるたびに有効なカメラが切り替わるようになっているが、例えば1回など予め定められた回数だけ切り替えが行われた場合には、それ以降切り替えを行わないようにしてもよい。このようにすることにより、誤動作を防止できる。
また、3つのカメラの場合を例にしたが、第4の実施形態に示された処理は、4つ以上のカメラの場合にも適用することができる。更に、カメラをマイクに置き換えてもよい。
As described above, in the fourth embodiment, an effective camera is switched every time proximity or contact is detected. However, when switching is performed a predetermined number of times, for example, once. Thereafter, switching may not be performed. By doing so, malfunction can be prevented.
Further, although the case of three cameras has been taken as an example, the processing shown in the fourth embodiment can be applied to the case of four or more cameras. Furthermore, the camera may be replaced with a microphone.

また、各実施形態において、ユーザがカメラやマイクを例えば指でふさぐ行為や触れる行為によっても近接または接触が検出される。従って、近接または接触が検出されたセンサに対応するカメラまたはマイクを有効なカメラまたはマイクとする処理では、触れることによって有効となるので、極めて自然な操作をユーザに提供することができる。   Moreover, in each embodiment, proximity | contact or a contact is detected also by the action which a user closes a camera and a microphone with a finger | toe, for example, or the touching action. Therefore, in the process in which the camera or microphone corresponding to the sensor in which proximity or contact is detected is used as an effective camera or microphone, it becomes effective by touching, so that a very natural operation can be provided to the user.

一方、近接または接触が検出されたセンサに対応するカメラまたはマイクを有効なカメラまたはマイクとしない処理では、ふさぐことによって有効ではなくなるので、これも極めて自然な操作をユーザに提供することができる。   On the other hand, in the process in which the camera or microphone corresponding to the sensor in which proximity or contact is detected is not used as an effective camera or microphone, it becomes ineffective by blocking it, and this can also provide the user with a very natural operation.

なお、本発明は次の態様で実施することができる。
(1)複数の入力部のうち少なくとも一の入力部に対応して設けられ、対応する前記入力部への近接または接触を検出する検出部と、前記検出部により近接または接触が検出された場合には、処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える切り替え部とを有することを特徴とする携帯端末。
(2)前記切り替え部は、予め定められた時間が経過する間に、前記検出部により近接または接触が検出された場合に、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替えることを特徴とする(1)記載の携帯端末。
(3)前記切り替え部は、前記検出部による近接または接触が検出されてから、物体が検出された状態が予め定められた時間が継続した場合に、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替えることを特徴とする(1)記載の携帯端末。
(4)前記切り替え部は、前記処理実行部が処理を実行する情報を得る前記入力部に対応する前記検出部以外の2つ以上の前記検出部により、同時に物体が検出された場合には、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から予め定められた前記入力部に切り替えることを特徴とする(1)記載の携帯端末。
(5)前記入力部はカメラであり、前記処理実行部は、前記携帯端末に設けられた表示部に前記カメラで撮像することにより得られた画像データを示す画像を表示する処理を実行することを特徴とする(1)から(4)のいずれか1項に記載の携帯端末。
(6)前記入力部はマイクであり、前記処理実行部は、前記携帯端末に設けられた記憶部に前記マイクにより得られた音声データを記憶する処理を実行することを特徴とする(1)から(4)のいずれか1項に記載の携帯端末。
In addition, this invention can be implemented with the following aspect.
(1) A case where a detection unit is provided corresponding to at least one input unit among a plurality of input units and detects proximity or contact to the corresponding input unit, and proximity or contact is detected by the detection unit The portable terminal further comprising: a switching unit that switches the input unit that obtains information to be processed by the process execution unit from the one input unit to the other input unit.
(2) The switching unit may include the input unit that obtains information for the processing execution unit to execute processing when proximity or contact is detected by the detection unit while a predetermined time elapses. The portable terminal according to (1), wherein the one input unit is switched to another input unit.
(3) The switching unit is configured to provide information for the processing execution unit to execute a process when a predetermined time continues for a state in which the object is detected after proximity or contact is detected by the detection unit. The portable terminal according to (1), wherein the input unit to be obtained is switched from the one input unit to another input unit.
(4) When the object is detected at the same time by two or more detection units other than the detection unit corresponding to the input unit that obtains information on which the processing execution unit performs processing, the switching unit is (1) The portable terminal according to (1), wherein the input unit that obtains information for the processing execution unit to perform processing is switched from the one input unit to the predetermined input unit.
(5) The input unit is a camera, and the processing execution unit executes a process of displaying an image indicating image data obtained by imaging with the camera on a display unit provided in the portable terminal. The mobile terminal according to any one of (1) to (4), characterized in that:
(6) The input unit is a microphone, and the process execution unit executes a process of storing voice data obtained by the microphone in a storage unit provided in the portable terminal (1) The mobile terminal according to any one of (4) to (4).

上述した実施形態における携帯端末をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
You may make it implement | achieve the portable terminal in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1 携帯端末、10 CPU、11 ROM、12 RAM、
13 第1センサ(検出部)、14 第2センサ(検出部)、
15 第3センサ(検出部)、21 第1入力部(入力部)、
22 第2入力部(入力部)、23 第3入力部(入力部)、
105 切り替え制御部(切り替え部)、106 記憶部、
107 制御部(処理実行部)、109 表示部、401 複数の入力部(入力部)、
402 複数のセンサ(検出部)
1 mobile terminal, 10 CPU, 11 ROM, 12 RAM,
13 1st sensor (detection part), 14 2nd sensor (detection part),
15 3rd sensor (detection part), 21 1st input part (input part),
22 2nd input part (input part), 23 3rd input part (input part),
105 switching control unit (switching unit), 106 storage unit,
107 control unit (processing execution unit), 109 display unit, 401 multiple input units (input unit),
402 Multiple sensors (detection units)

Claims (7)

複数の入力部のうち少なくとも一の入力部に対応して設けられ、対応する前記入力部への近接または接触を検出する検出部と、
前記検出部により近接または接触が検出された場合には、処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える切り替え部と
備え、
前記切り替え部は、前記処理実行部が処理を実行する情報を得る前記入力部に対応する前記検出部以外の2つ以上の前記検出部により、同時に物体が検出された場合には、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から予め定められた前記入力部に切り替える、
携帯端末。
A detection unit that is provided corresponding to at least one of the plurality of input units, and detects proximity or contact with the corresponding input unit;
When proximity or contact is detected by the detection unit, a switching unit that switches the input unit that obtains information that the processing execution unit executes processing from the one input unit to the other input unit ;
Equipped with a,
The switching unit executes the process when an object is detected at the same time by two or more detection units other than the detection unit corresponding to the input unit that obtains information on which the process execution unit performs processing. The input unit for obtaining information on which the unit performs processing is switched from the one input unit to the predetermined input unit.
Mobile device.
前記切り替え部は、予め定められた時間が経過する間に、前記検出部により近接または接触が検出された場合に、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える
請求項1記載の携帯端末。
The switching unit may include the input unit that obtains information for the processing execution unit to execute processing when proximity or contact is detected by the detection unit while a predetermined time elapses. Switch from the input unit to the other input unit ,
The mobile terminal according to claim 1.
前記切り替え部は、前記検出部による近接または接触が検出されてから、物体が検出された状態が予め定められた時間が継続した場合に、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える
請求項1記載の携帯端末。
The switching unit is configured to obtain the information for the processing execution unit to perform processing when a predetermined time continues for a state in which the object is detected after proximity or contact is detected by the detection unit. Switching the part from the one input part to the other input part ,
The mobile terminal according to claim 1.
前記入力部はカメラであり、前記処理実行部は、前記携帯端末に設けられた表示部に前記カメラで撮像することにより得られた画像データを示す画像を表示する処理を実行する
請求項1から請求項のいずれか1項に記載の携帯端末。
The input unit is a camera, and the process execution unit executes a process of displaying an image indicating image data obtained by imaging with the camera on a display unit provided in the mobile terminal .
The portable terminal of any one of Claims 1-3 .
複数の入力部のうち少なくとも一の入力部に対応して設けられ、対応する前記入力部への近接または接触を検出する検出部と、  A detection unit that is provided corresponding to at least one of the plurality of input units, and detects proximity or contact with the corresponding input unit;
前記検出部により近接または接触が検出された場合には、処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える切り替え部と、  When proximity or contact is detected by the detection unit, a switching unit that switches the input unit that obtains information that the processing execution unit executes processing from the one input unit to the other input unit;
を備え、  With
前記切り替え部は、前記入力部の切り替えに応じて、一の前記検出部から他の前記検出部に切り替える、  The switching unit switches from one detection unit to another detection unit according to the switching of the input unit,
請求項1から請求項4のいずれか1項に記載の携帯端末。  The portable terminal of any one of Claims 1-4.
処理実行部と、複数の入力部のうち少なくとも一の入力部に対応して設けられ、対応する前記入力部への近接または接触を検出する検出部を備える携帯端末のコンピュータが、  A computer of a mobile terminal provided with a processing execution unit and a detection unit that is provided corresponding to at least one input unit among a plurality of input units and detects proximity or contact to the corresponding input unit,
前記検出部により近接または接触が検出された場合には、処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える切り替え過程と、  When proximity or contact is detected by the detection unit, a switching process of switching the input unit to obtain information on which the process execution unit executes processing from the one input unit to the other input unit,
を有し、  Have
前記切り替え過程において、前記処理実行部が処理を実行する情報を得る前記入力部に対応する前記検出部以外の2つ以上の前記検出部により、同時に物体が検出された場合には、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から予め定められた前記入力部に切り替える、  In the switching process, when an object is detected at the same time by two or more detection units other than the detection unit corresponding to the input unit that obtains information for the processing execution unit to execute processing, the processing execution is performed. The input unit for obtaining information on which the unit performs processing is switched from the one input unit to the predetermined input unit.
切り替え方法。  Switching method.
処理実行部と、複数の入力部のうち少なくとも一の入力部に対応して設けられ、対応する前記入力部への近接または接触を検出する検出部を備える携帯端末のコンピュータが、  A computer of a mobile terminal provided with a processing execution unit and a detection unit that is provided corresponding to at least one input unit among a plurality of input units and detects proximity or contact to the corresponding input unit,
前記検出部により近接または接触が検出された場合には、処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から他の前記入力部に切り替える切り替えステップ、  A switching step of switching the input unit from which the process execution unit obtains information for executing a process from the one input unit to the other input unit when proximity or contact is detected by the detection unit;
を実行し、  Run
前記切り替えステップにおいて、前記処理実行部が処理を実行する情報を得る前記入力部に対応する前記検出部以外の2つ以上の前記検出部により、同時に物体が検出された場合には、前記処理実行部が処理を実行する情報を得る前記入力部を、前記一の入力部から予め定められた前記入力部に切り替える、  In the switching step, if an object is detected at the same time by two or more detection units other than the detection unit corresponding to the input unit that obtains information for the processing execution unit to execute processing, the processing execution is performed. The input unit for obtaining information on which the unit performs processing is switched from the one input unit to the predetermined input unit.
プログラム。  program.
JP2014218747A 2014-10-27 2014-10-27 Mobile terminal, switching method, and program Active JP6478094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014218747A JP6478094B2 (en) 2014-10-27 2014-10-27 Mobile terminal, switching method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014218747A JP6478094B2 (en) 2014-10-27 2014-10-27 Mobile terminal, switching method, and program

Publications (2)

Publication Number Publication Date
JP2016086320A JP2016086320A (en) 2016-05-19
JP6478094B2 true JP6478094B2 (en) 2019-03-06

Family

ID=55973892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014218747A Active JP6478094B2 (en) 2014-10-27 2014-10-27 Mobile terminal, switching method, and program

Country Status (1)

Country Link
JP (1) JP6478094B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113365012B (en) * 2020-03-06 2025-02-25 华为技术有限公司 Audio processing method and device
CN114640756A (en) * 2020-12-16 2022-06-17 花瓣云科技有限公司 Camera switching method and electronic equipment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003427A (en) * 2007-05-18 2009-01-08 Sanyo Electric Co Ltd Image display device and portable terminal device
CN102638646A (en) * 2011-02-10 2012-08-15 国基电子(上海)有限公司 Electronic device with lens switching function, and method
JP2013176002A (en) * 2012-02-27 2013-09-05 Xacti Corp Electronic camera
JP6151482B2 (en) * 2012-05-24 2017-06-21 京セラ株式会社 Communication system, communication terminal, communication method, and reception method
US10051396B2 (en) * 2012-09-10 2018-08-14 Nokia Technologies Oy Automatic microphone switching
KR101992189B1 (en) * 2012-09-19 2019-06-24 엘지전자 주식회사 Mobile terminal and method for controlling thereof
US9584642B2 (en) * 2013-03-12 2017-02-28 Google Technology Holdings LLC Apparatus with adaptive acoustic echo control for speakerphone mode
KR101992306B1 (en) * 2013-01-03 2019-06-24 삼성전자주식회사 Method for operating for camera an electronic device thereof
US9912853B2 (en) * 2014-07-31 2018-03-06 Microsoft Technology Licensing, Llc Switching between cameras of an electronic device

Also Published As

Publication number Publication date
JP2016086320A (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP6790259B2 (en) Methods and terminals to prevent accidental touches
US9250790B2 (en) Information processing device, method of processing information, and computer program storage device
US10055081B2 (en) Enabling visual recognition of an enlarged image
JP6023780B2 (en) Method and apparatus for performing voice control operations on a terminal
US8730367B2 (en) Image pickup apparatus that displays images in parallel on display unit having touch panel function and other display unit, control method therefor, and storage medium
JP2013070303A (en) Photographing device for enabling photographing by pressing force to screen, photographing method and program
CN105103536A (en) Imaging device, imaging method and program
CN107807772A (en) Image processing method, device and mobile terminal
WO2017018043A1 (en) Electronic device, electronic device operation method, and control program
CN112749590A (en) Object detection method, device, computer equipment and computer readable storage medium
CN106293370A (en) Mobile terminal
JP6478094B2 (en) Mobile terminal, switching method, and program
KR101817620B1 (en) Method and device for activating operation state of mobile terminal, Program and Recording Medium
CN105335061A (en) Information display method and apparatus and terminal
CN109922203A (en) Terminal puts out screen method and apparatus
JP2011227828A (en) Information processor, information processing method and information processing program
JP6541497B2 (en) Communication system, control method thereof and program
KR20140005688A (en) User interface method and apparatus
JP5976166B2 (en) Shooting device, shooting method and program capable of shooting by pressing on screen
US9536526B2 (en) Electronic device with speaker identification, method and storage medium
CN107357616B (en) Method for starting anti-shake mode and mobile terminal
JP2007004660A (en) Equipment
JP2010062706A (en) Imaging device
JP2017034645A (en) Imaging apparatus, program, and imaging method
JP2019141530A (en) Action monitoring system and action monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190123

R150 Certificate of patent or registration of utility model

Ref document number: 6478094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150