WO2013115370A1 - 電子機器、その制御方法及びプログラム - Google Patents
電子機器、その制御方法及びプログラム Download PDFInfo
- Publication number
- WO2013115370A1 WO2013115370A1 PCT/JP2013/052362 JP2013052362W WO2013115370A1 WO 2013115370 A1 WO2013115370 A1 WO 2013115370A1 JP 2013052362 W JP2013052362 W JP 2013052362W WO 2013115370 A1 WO2013115370 A1 WO 2013115370A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- display
- input detection
- detection unit
- electronic device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 66
- 238000001514 detection method Methods 0.000 claims abstract description 116
- 230000008569 process Effects 0.000 claims description 42
- 230000008859 change Effects 0.000 claims description 15
- 238000002834 transmittance Methods 0.000 claims description 6
- 230000035699 permeability Effects 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 239000002131 composite material Substances 0.000 description 13
- 230000010365 information processing Effects 0.000 description 12
- 238000002156 mixing Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Definitions
- the present invention is based on the priority claim of Japanese patent application: Japanese Patent Application No. 2012-020477 (filed on February 2, 2012), the entire contents of which are incorporated herein by reference. Shall.
- the present invention relates to an electronic device, a control method thereof, and a program.
- the present invention relates to an electronic device including a touch panel, a control method thereof, and a program.
- An electronic device such as a smartphone, a tablet, or a touch-compatible personal computer equipped with a touch panel can be operated by a user touching the touch panel.
- the following literature discloses a technique for detecting the movement of a finger touching the touch panel and realizing intuitive and quick processing.
- Patent Document 1 in order to operate a portable terminal equipped with a touch screen with one hand, the user holds one side of the portable terminal and moves the thumb left and right on the touch screen. A technique for operating a portable terminal is disclosed.
- Patent Document 2 discloses a user interface device that can search for content based on the direction and speed of the drag operation on the touch panel in order to search for content from a large amount of content with a small number of operations.
- Patent Document 3 discloses a technique for displaying a menu corresponding to a hand gesture when a predetermined touch operation (hand gesture) is performed on the touch panel in order to improve menu operability.
- An electronic device equipped with a touch panel can be operated by a user touching the touch panel.
- the movement of the finger cannot be detected smoothly, and the process intended by the user may not be executed. This will reduce the operability of the electronic device provided with the touch panel.
- an electronic device that contributes to improving the operability without depending on the surface state of the touch panel, the finger state, and the application, and a control method and program thereof are desired.
- the display unit displays an image, an input detection unit that detects a contact operation by a user, and the display unit based on the first contact operation detected by the input detection unit.
- a control unit that displays an operation information image and changes an image displayed on the display unit based on the second contact operation when the input detection unit detects a second contact operation on the operation information image.
- a method for controlling an electronic device comprising: a display unit that displays an image; and an input detection unit that detects a contact operation by a user, wherein the input detection unit detects the first A step of displaying an operation information image on the display unit based on the first contact operation; and when the input detection unit detects a second contact operation corresponding to the operation information, based on the second contact operation.
- a method of controlling an electronic device including a step of changing an image displayed on the display unit. Note that this method is associated with a specific machine, which is an electronic device including a display unit that displays an image and an input detection unit that detects a contact operation by a user.
- a program that is executed by a computer that controls an electronic device including a display unit that displays an image and an input detection unit that detects a contact operation by a user, the input detection A process of displaying an operation information image on the display unit based on the first contact operation detected by the unit, and when the input detection unit detects a second contact operation corresponding to the operation information image, And a process for changing an image to be displayed on the display unit based on the contact operation of No. 2.
- This program can be recorded on a computer-readable storage medium.
- the storage medium may be non-transient such as a semiconductor memory, hard disk, magnetic recording medium, optical recording medium, or the like.
- the present invention can also be embodied as a computer program product.
- an electronic device that contributes to improving operability without depending on the surface state of a touch panel, the state of a finger, and an application, and a control method and program thereof are provided.
- FIG. 1 is a diagram illustrating an example of an internal configuration of an electronic device 1.
- 4 is a diagram illustrating an example of an operation information image 40.
- FIG. 6 is a diagram illustrating an example of display on the display unit 30.
- FIG. 4 is a flowchart of a display process of an operation information image 40. It is a figure which shows an example of the display of the division mark 103.
- FIG. 5 is a diagram illustrating an example of display in an arrow image display area 102.
- FIG. It is a figure which shows an example of a display of the arrow image.
- FIG. 4 is a flowchart of a scroll display process of the display screen 101.
- 6 is a diagram illustrating an example of scroll display of a display screen 101.
- FIG. 5 is a flowchart of enlargement / reduction processing of the display screen 101 and scroll display processing.
- 5 is a diagram illustrating an example of an enlarged / reduced display on a display screen 101.
- FIG. 6 is a diagram illustrating an example of scroll display of a display screen 101.
- FIG. 6 is a diagram illustrating an example of display on the display unit 30.
- FIG. 6 is a diagram illustrating an example of scroll display of a display screen 101.
- FIG. 6 is a diagram illustrating an example of scroll display of a display screen 101.
- FIG. It is a figure which shows an example of the pattern of the division mark 103.
- the process intended by the user may not be executed depending on the surface state of the touch panel and the finger state.
- an electronic device 1 shown in FIG. 1 displays an operation information image on a display unit based on a display unit that displays an image, an input detection unit that detects a contact operation by a user, and a first contact operation detected by the input detection unit. And a control unit that changes the image displayed on the display unit based on the second contact operation when the input detection unit detects the second contact operation on the operation information image.
- the input detection unit 10 detects a contact operation by the user.
- the control unit 20 displays the operation information image 40 on the display unit 30 based on the first contact operation of the user detected by the input detection unit 10.
- the operation information image 40 is an image corresponding to the operation information detected by the input detection unit 10.
- the control part 20 judges what contact operation the input detection part 10 detected.
- the control part 20 changes the image displayed on the display part 30 based on the contact operation by the user which the input detection part 10 detected.
- control unit 20 does not consider the locus of the contact detection position detected by the input detection unit 10. Therefore, the electronic device 1 can perform processing only by detecting a contact operation at one place such as a tap operation. Therefore, it is possible to provide an electronic device that contributes to improving the operability without depending on the surface state of the touch panel, the finger state, and the application, and a control method and program thereof.
- FIG. 2 is a plan view showing an example of the overall configuration of the electronic apparatus 1 according to the present embodiment.
- the electronic device 1 includes an input detection unit 10 and a display unit 30. It is assumed that the input detection unit 10 and the display unit 30 are integrated as a touch panel display. There are various types of display units 30 such as a liquid crystal panel and an organic EL (Electro Luminescence) panel, but the method is not limited.
- display units 30 such as a liquid crystal panel and an organic EL (Electro Luminescence) panel, but the method is not limited.
- the input detection unit 10 included in the electronic device 1 is a touch panel that detects a user's contact operation using a flat plate sensor.
- touch panel methods including a capacitance method, but any method can be used.
- FIG. 3 is a diagram illustrating an example of the internal configuration of the electronic device 1.
- the electronic device 1 includes an input detection unit 10, a control unit 20, and a display unit 30.
- the control unit 20 includes a display screen processing unit 21, an operation information processing unit 22, an image generation unit 23, and an input determination unit 24.
- FIG. 3 shows only modules related to the electronic apparatus 1 according to the present embodiment. Since the input detection unit 10 and the display unit 30 are as described above, further description is omitted.
- the operation information image 40 includes at least one image of a division mark or a symbol.
- the classification mark is a mark for presenting the detection range of the input detection unit 10 to the user.
- the symbol representing the operation information image is an interface for allowing the user to operate the electronic device 1.
- the symbol or pattern representing the operation information image 40 has an area sufficient for the user to touch.
- the symbol or pattern representing the operation information image 40 is a symbol or pattern that presents the operation direction of the display screen to the user.
- the symbol or pattern representing the operation information image 40 is preferably a symbol or pattern with a clear pointing direction.
- FIG. 4A is an example in which the operation information image 40 is displayed as an arrow image.
- FIG. 4B is an example in which the operation information image 40 is displayed as a triangle.
- FIG. 4C is an example in which the operation information image 40 is displayed as a pentagon.
- the shapes of the operation information images 40 shown in FIGS. 4A, 4B, and 4C are different.
- any operation information image 40 can be easily recognized as a symbol indicating the vertical direction of the display unit 30.
- the display screen processing unit 21 controls the display screen.
- the display screen is an image related to application content or the like.
- the display screen processing unit 21 Based on the contact operation by the user detected by the input detection unit 10, the display screen processing unit 21 performs a display screen operation process.
- the display screen operation processing may include display screen scroll display processing, enlargement / reduction display processing, rotation display processing, and the like.
- the display screen operation processing of the electronic device 1 may include other display screen operation processing for designating the position or direction in addition to the above-described operation processing.
- the process of selecting a rectangle may be included in the operation process of the display screen of the electronic device 1. This is because the rectangular area can be determined by determining the two diagonal vertices of the rectangle.
- the operation information processing unit 22 generates an operation information image 40 based on a contact operation by the user.
- the operation information processing unit 22 also performs display change processing for the generated image. Examples of the display change process include an image shape change process, a non-display process, a display position change process, a size change process, and a rotation display process.
- the image generation unit 23 generates an image to be displayed on the display unit 30. Specifically, the image generation unit 23 generates an image in which an image corresponding to the operation information image 40 is superimposed on the display screen by a transmission process (alpha blending process). Thereafter, the image generation unit 23 causes the display unit 30 to display the composite image.
- the input determination unit 24 determines the user's contact operation detected by the input detection unit 10. Specifically, the input determination unit 24 determines which process the input detection unit 10 has detected a contact operation corresponding to.
- FIG. 5 is a diagram showing an example of display on the display unit 30.
- FIG. 5 (A) of FIG. 5 is a figure which shows an example of the display of the division
- FIG. The division mark 103 is a set of division lines that divides the display unit 30 into two or more areas. As shown in FIG. 5A, in the electronic device 1 according to the present embodiment, two diagonal lines are displayed as the division mark 103.
- FIG. 5B is a diagram showing an example of symbol display representing the operation information image 40.
- an arrow image 104 is shown as a symbol representing the operation information image 40.
- the electronic device 1 displays an arrow image 104 in each area partitioned by the division mark 103.
- a maximum of four arrow images 104 are displayed.
- Each arrow indicates one of the vertical and vertical directions of the display unit 30 and the horizontal and horizontal directions.
- an arrow image 104 is used as a symbol representing the operation information image 40.
- the input determination unit 24 determines whether or not the input detection unit 10 detects a contact operation by the user at a predetermined number that is equal to or greater than two. Thereafter, the input determination unit 24 determines whether or not the input detection unit 10 has detected contact release at a plurality of locations (step S01). This corresponds to the fact that the input detection unit 10 has detected that the user has performed multi-tap operations at a plurality of locations.
- the multi-tap operation is an operation in which all the fingers touching the surface of the input detection unit 10 are released at the same time immediately after the user simultaneously touches a plurality of locations on the surface of the input detection unit 10.
- step S01 when the condition of step S01 is satisfied, the operation information processing unit 22 creates the classification mark 103. Then, the image generation unit 23 generates an image in which the division mark 103 is superimposed on the application content display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (see step S02, FIG. 7).
- the input determination unit 24 determines whether or not the input detection unit 10 has simultaneously detected a new contact by the user in at least one region partitioned by the division mark 103 (step S03). This is equivalent to the input detection unit 10 detecting a user's multi-touch operation.
- the multi-touch operation is an operation in which the user simultaneously touches a plurality of locations on the surface of the input detection unit 10.
- step S03 an area where multi-touch is detected is set as an arrow image display area 102. And when satisfy
- the input detection part 10 is the state which continues detecting the contact detected by step S03. That is, this corresponds to a state where the user continues to multi-touch the input detection unit 10.
- step S04 it is assumed that the composite image generated in step S04 is displayed on the display unit 30.
- the input detection unit 10 detects a plurality of contact cancellations. This corresponds to the user releasing the multi-touched finger from the input detection unit 10.
- the operation information processing unit 22 generates an arrow image 104 in each region where contact release is detected.
- the image generation unit 23 generates an image in which the generated arrow image 104 is superimposed on the application content display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (see step S05, FIG. 9).
- the length and width of the arrow image 104 may vary depending on the number of arrow images 104.
- the division mark 103 and the arrow image display area 102 may not be displayed in the step S05.
- the electronic device 1 according to the present embodiment transparently displays the operation information image 40 on the application content display screen 101. Therefore, the user can perform an operation while viewing the application content display screen 101. Therefore, the electronic device 1 according to the present embodiment can present operation information to the user without disturbing the user.
- the input determination unit 24 determines whether or not the input detection unit 10 has detected contact by the user at one place other than on the arrow image 104 (steps S11 and S12). And when satisfy
- a point P101 shown in FIG. 11A represents a contact detection position.
- the point P101 is not on the arrow image 104.
- the input detection unit 10 detects contact by the user at only one point P101. In that case, the conditions of step S11 and step S12 are satisfied. Therefore, the process proceeds to step S12. Therefore, the arrow image 104 is not displayed on the display unit 30 (see FIG. 11B).
- the electronic apparatus 1 according to the present embodiment does not allow the user to operate the menu multiple times in order to hide the operation information image 40.
- the electronic device 1 according to the present embodiment can hide the operation information image 40 only by the user touching the input detection unit 10 once.
- the input determination unit 24 determines whether or not the input detection unit 10 has simultaneously detected contact by a predetermined number of users equal to or greater than 2 (step S21). Then, the input determination unit 24 determines whether at least one of the contact detection positions in step S21 is on the arrow image 104. In addition, the input determination unit 24 determines whether or not at least one of the contact detection positions in step S21 is a position that is not on the arrow image 104 (step S22).
- the input determination unit 24 determines whether or not the input detection unit 10 has continued to detect contact by a user that satisfies the conditions of step S21 and step S22 for a time equal to or greater than a predetermined threshold (step S23).
- the operation information processing unit 22 hides the arrow image 104 (step S24).
- the image generation unit 23 generates an image in which the division mark 103 is superimposed on the application content display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S25).
- step S25 is equivalent to the internal state of step S02. Therefore, the user can redetermine the display position of the arrow image 104 by performing an operation that satisfies the condition of step S03 again.
- step S21 and step S23 are illustrated in FIG.
- four points from point P111 to point P114 in FIG. 13A represent the contact detection positions.
- the point P 112, the point P 113, and the point P 114 are on the arrow image 104.
- the point P111 is not on the arrow image 104.
- the input detection unit 10 continues to detect contact at the position from the point P111 to the point P114 for a time longer than a predetermined threshold.
- the input detection unit 10 detects contact by the user at only four points P111 to P114.
- the number of contact points that satisfy the condition of step S21 is four. In that case, the conditions of step S21 and step S23 are satisfied. Therefore, the process of step S24 and step S25 is performed. Accordingly, the arrow image 104 is not displayed, and the division mark 103 is displayed on the display unit 30 (see FIG. 13B).
- the electronic device 1 according to the present embodiment does not allow the user to perform menu operations a plurality of times in order to change the operation stage.
- the electronic device 1 according to the present embodiment can change the operation stage only by the user touching the input detection unit 10 once.
- the input determination unit 24 determines whether or not the input detection unit 10 has detected contact by the user at one location (step S31). Then, the input determining unit 24 determines whether or not the contact detection position in step S31 is the start point or end point of the arrow (step S32).
- step S33 the input determining unit 24 determines whether or not the contact detection position is moving while maintaining the contact detection state.
- the operation information processing unit 22 moves the arrow image 104 following the contact detection position.
- the image generation unit 23 generates an image obtained by superimposing the moved arrow image 104 on the application content display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S34).
- the operation information processing unit 22 expands or contracts the length and width of the arrow image 104. Then, the image generation unit 23 generates an image in which the arrow image 104 with the adjusted length and width is superimposed on the application content display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S35).
- the movable range of the arrow image 104 is the entire display unit 30. That is, the user can place the arrow image 104 at an arbitrary position on the display unit 30.
- a point P121 shown in FIG. 15 represents a contact detection position.
- the point P121 is on the starting point of the arrow image 104A.
- the input detection unit 10 detects contact by the user at only one point P121. In that case, the conditions of step S31 and step S32 are satisfied.
- a point P121 shown in FIG. 15 represents a contact detection position before movement, and a point P122 represents a contact detection position after movement. Further, it is assumed that the movement from the position of the point P121 to the position of the point P122 satisfies the condition of step S33.
- step S34 the arrow image 104 is moved from the arrow image 104A to the arrow image 104B and displayed in accordance with the movement from the point P121 to the point P122. Further, by the processing in step S35, an arrow image shorter than the arrow image 104A is displayed at the position of the point P122, as in the arrow image 104B.
- step S33 the input detection unit 10 detects a contact by a user that satisfies the conditions of step S31 and step S32, but the contact detection position is fixed.
- step S36 the input determination unit 24 determines whether or not the input detection unit 10 detects contact release.
- step S36 the operation information processing unit 22 reverses the direction of the arrow image 104.
- the image generation unit 23 generates an image in which the inverted arrow image 104 is superimposed on the application content display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S37).
- step S36 determines the condition of step S33 until the condition of step S33 or step S36 is satisfied.
- the electronic device 1 according to the present embodiment does not allow the user to perform menu operations a plurality of times in order to switch the operation information image 40.
- the electronic device 1 according to the present embodiment can switch the operation information image 40 only by the user touching the input detection unit 10 once.
- the input determination unit 24 determines whether or not the input detection unit 10 has detected contact by the user at one location (step S41). And the input determination part 24 judges whether the contact detection position of step S41 is on the arrow image 104 (step S42). In addition, when the condition of step S42 is satisfied, the input determination unit 24 determines whether or not the contact detection position of step S41 is a position that is neither the start point nor the end point of the arrow (step S43).
- step S41 to step S43 the display screen processing unit 21 scrolls the application content display screen 101 in the direction indicated by the arrow image 104 at the contact detection position. Then, the image generation unit 23 generates an image in which the arrow image 104 is superimposed on the scrolled display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S44).
- step S41 to step S43 the scroll display of the display screen 101 continues until contact release is detected. Therefore, in the electronic device 1 according to the present embodiment, the user can continue scroll display while fixing the finger to the input detection unit 10.
- a point P141 in FIG. 18A represents a contact detection position.
- the point P141 is on the arrow image 104 and is neither the start point nor the end point of the arrow.
- the input detection unit 10 detects contact by the user at only one point P141. In that case, the conditions from step S41 to step S43 are satisfied. Therefore, the process proceeds to step S44. Accordingly, the application content display screen 101 is scroll-displayed in the direction indicated by the arrow image 104 at the position of the point P141 (see FIG. 18B).
- the input determination unit 24 determines whether or not the input detection unit has detected contact by the user at two locations (step S51). When the condition of step S51 is satisfied, the input determining unit 24 determines whether the two contact detection positions of step S51 are positions that are neither the start point nor the end point of the arrow (step S52). . Next, when the condition of step S52 is satisfied, the input determining unit 24 determines whether or not the two contact detection positions of step S51 are on two different arrow images 104 (step S53). Further, when the condition of step S53 is satisfied, the input determining unit 24 determines whether or not the two contact detection positions of step S51 are on different arrow images 104 on the same straight line (step S54).
- step S55 the input determining unit 24 further determines whether or not the two arrows are outward.
- the display screen processing unit 21 enlarges the application content display screen 101.
- the image generation unit 23 generates an image in which the arrow image 104 is superimposed on the enlarged display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S56).
- step S51 to step S54 are satisfied and the condition of step S55 is not satisfied. That is, it is a case where two arrows are inward.
- the display screen processing unit 21 reduces the display screen 101 for application content.
- the image generation unit 23 generates an image in which the arrow image 104 is superimposed on the reduced display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S57).
- step S51 to step S54 the enlarged / reduced display on the display screen 101 continues until contact release is detected. Therefore, in the electronic device 1 according to the present embodiment, the user can continue the enlarged / reduced display while the finger is fixed to the input detection unit 10.
- points P151 and P152 shown in FIG. 20A represent contact detection positions.
- the arrow image 104 at the position of the point P151 and the arrow image 104 at the position of the point P152 are different arrow images 104 on the same straight line. And the two arrows are outward.
- the input detection unit 10 detects contact by the user at only two points of the point P151 and the point 152. In that case, the conditions from step S51 to step S55 are satisfied. Therefore, the process proceeds to step S56. Accordingly, the application content display screen 101 is enlarged and displayed (see FIG. 20B).
- step S54 not satisfied.
- the display screen processing unit 21 scrolls the application content display screen 101 in the direction of the sum of the vectors indicated by the two arrows.
- the image generation unit 23 generates an image in which the arrow image 104 is superimposed on the scrolled display screen 101 by alpha blending processing. Thereafter, the image generation unit 23 displays the generated composite image on the display unit 30 (step S58).
- the user can continue scroll display while fixing the finger to the input detection unit 10.
- points P161 and P162 shown in FIG. 21A represent contact detection positions.
- the point P161 and the point P162 are on two different arrow images 104.
- the two arrow images 104 are not on the same straight line.
- the input detection unit 10 detects contact by the user at only two points of the points P161 and P162.
- the condition of step S54 is not satisfied while the conditions of steps S51 to S53 are satisfied. Therefore, the process proceeds to step S58. Accordingly, the application content display screen 101 is scroll-displayed in the direction of the sum of the vectors indicated by the two arrows (see FIG. 21B).
- the first effect of the electronic device 1 according to the present embodiment is that the user can operate the display screen 101 without having to slide his / her finger on the touch panel. Therefore, the operability of the electronic device 1 according to the present embodiment does not deteriorate depending on the surface state of the touch panel and the finger state. Therefore, the electronic device 1 according to the present embodiment can execute the process intended by the user only with the tap operation even in a situation where it is difficult to operate with the slide operation or the flick operation. However, the electronic device 1 according to the present embodiment does not limit the operation to be detected to the tap operation.
- the second effect of the electronic apparatus 1 according to the present embodiment is that the user can operate the display screen by using the operation information image 40 independent of the application content display screen. Therefore, in the electronic device 1 according to the present embodiment, the user can operate the display screen even in an application that does not include an interface for operating the display screen. Therefore, an operation expecting the first effect can be provided regardless of the application.
- This embodiment is an embodiment in which the detection range of the input detection unit 10 is partitioned in a grid pattern.
- the description of the same parts as those in the first embodiment is omitted.
- the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
- FIG. 22 is a diagram showing an example of display on the display unit 30 in the present embodiment.
- FIG. 22 is a figure which shows an example of the display of the division
- FIG. 22B is a diagram showing an example of the display of the arrow image 104 in the present embodiment. Also in this embodiment, the arrow image 104 is displayed in each area partitioned by the division mark 103. In the present embodiment, each arrow indicates one of the upper right, lower right, upper left, and lower left directions of the display unit 30.
- the scroll display process in the direction indicated by the arrow image 104 is as shown in the flowchart of FIG. Therefore, details are omitted.
- a point P171 shown in FIG. 23A represents a contact detection position.
- the point P171 is on the arrow image 104 and is neither the start point nor the end point of the arrow.
- the input detection unit 10 detects contact by the user at only one point P171. In that case, the conditions from step S41 to step S43 are satisfied. Therefore, the process proceeds to step S44.
- the direction indicated by the arrow image 104 at the position of the point P171 is the upper right. Therefore, the application content display screen 101 is scroll-displayed in the upper right direction by the process of step S44 (see FIG. 23B).
- the scroll display processing in directions other than the direction indicated by the arrow image 104 is as shown in the flowchart of FIG. Therefore, details are omitted.
- step S51 to step S54 in this embodiment are illustrated in FIG.
- points P181 and P182 shown in FIG. 24A represent contact detection positions.
- the point P181 and the point P181 are on two different arrow images 104.
- the two arrow images 104 are not on the same straight line.
- the input detection unit 10 detects contact by the user at only two points of the point P181 and the point P182.
- the directions indicated by the arrow images at the positions of the points P181 and P182 are the upper right and the upper left, respectively. Accordingly, the direction of the sum of the vectors of the two arrows is the vertical upper direction of the display unit 30. Therefore, the application content display screen 101 is scroll-displayed in the vertical upper direction by the process of step S58 (see FIG. 24B).
- the pattern of the division mark 103 may be a pattern other than the division mark of the first and second embodiments.
- FIG. 25A is an example showing four lines as the division marks 103.
- the division mark 103 in FIG. 25A is a division mark 103 that is a combination of the division mark 103 of the first embodiment and the division mark 103 of the second embodiment.
- eight arrow images 104 are displayed on the display unit 30. Therefore, the embodiment displaying the division mark 103 in FIG. 25A is an embodiment in which the direction can be selected at a finer angle than in the first and second embodiments.
- FIG. 25B is an example in which the division mark 103 is indicated by a rectangle.
- the arrow image 104 is displayed inside the rectangle of the division mark 103.
- the embodiment shown in FIG. 25B is useful when operating the display screen 101 only in a specific area.
- the electronic device 1 can easily switch the operation method only by switching the pattern of the division mark 103.
- the operation information image has a closed area having a sufficient area for a user to touch, and a symbol for presenting a direction to the user, or a partition line that divides the display unit into two or more areas
- An electronic device including at least one of division marks that are a set.
- the operation information image further includes at least one pattern of a division mark in which the direction or shape change of each division line of the division mark is changed.
- the control unit is an electronic device that performs at least one of a change, a non-display, a change of a display position, and a change of a rotation angle of the operation information image displayed on the display unit.
- Mode 6 An electronic device that generates an image to be displayed on the display unit by changing the transmittance of the operation information image and superimposing it on a display screen created by an application.
- the input detection unit is an electronic device that detects at least one of the number of contacts, the contact position, and the contact time of the input detection unit.
- a method for controlling an electronic device comprising: at least one of a step of changing a shape of the operation information image displayed on a display unit, a step of not displaying, a step of changing a display position, and a step of changing a rotation angle.
- (Mode 11) The step of changing the transmittance of the operation information image, the image generation step of superimposing the image with the changed transmittance on the display screen created by the application, and the image generation step And a step of displaying an image on the display unit.
- Mode 12 A step of changing at least one of the shape, display position, and rotation angle of the symbol in accordance with the pattern of the division mark whose shape or direction of each division line of the division mark has been changed. Including electronic device control method.
- Mode 14 Processing for changing the transmittance of the operation information image, image generation processing for superimposing the image with the changed transmittance on a display screen created by an application, and superimposing by the image generation processing
- Mode 15 When the input detection unit detects a third contact operation different from the first and second contact operations corresponding to the operation information image, based on the third contact operation, A program that executes at least one of a shape changing process, a non-displaying process, a display position changing process, and a rotation angle changing process of the operation information image displayed on the display unit.
- Module 16 Processing for changing at least one of the shape, display position, and rotation angle of the symbol in accordance with the pattern of the division mark whose shape or direction of each division line of the division mark is changed The program to execute.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
タッチパネルの表面状態、指の状態によっては、指の動きを滑らかに検出できず、ユーザの意図した処理が実行されない場合がある。そのため、タッチパネルの表面状態、指の状態、アプリケーションに依存せず、操作性を向上させる電子機器が、望まれる。画像を表示する表示部と、ユーザによる接触操作を検出する入力検出部と、前記入力検出部が検出した第1の接触操作に基づき、前記表示部に操作情報画像を表示させると共に、前記入力検出部が前記操作情報画像に対する第2の接触操作を検出した場合に、前記第2の接触操作に基づき、前記表示部が表示する画像を変更する制御部と、を備える。
Description
[関連出願についての記載]
本発明は、日本国特許出願:特願2012-020477号(2012年 2月 2日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、電子機器、その制御方法及びプログラムに関する。特にタッチパネルを備える電子機器、その制御方法及びプログラムに関する。
本発明は、日本国特許出願:特願2012-020477号(2012年 2月 2日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、電子機器、その制御方法及びプログラムに関する。特にタッチパネルを備える電子機器、その制御方法及びプログラムに関する。
タッチパネルを備えるスマートフォンやタブレット、タッチ対応パーソナルコンピュータ等の電子機器は、ユーザがタッチパネルに接触することで操作が可能である。タッチパネルに接触する指の動きを検出し、直感的で素早い処理を実現する技術が以下の文献で開示されている。
ここで、特許文献1において、タッチスクリーンを備えた携帯用端末機を片手で操作するために、携帯用端末機の一辺をユーザが握ったままで、親指をタッチスクリーン上で左右に動かすことにより、携帯用端末機を操作する技術が開示されている。
また、特許文献2において、大量のコンテンツから少ない操作回数でコンテンツを検索するために、タッチパネルのドラッグ操作の方向と速さに基づき、コンテンツを検索できるユーザインターフェース装置が開示されている。
また、特許文献3において、メニュー操作性を改善するために、タッチパネル上で、所定のタッチ操作(ハンドジェスチャー)が行なわれると、ハンドジェスチャーに対応するメニューを表示する技術が開示されている。
なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。
タッチパネルを備える電子機器は、ユーザがタッチパネルに接触することで操作が可能である。しかし、タッチパネルの表面状態、指の状態によっては、指の動きを滑らかに検出できず、ユーザの意図した処理が実行されない場合がある。これはタッチパネルを備える電子機器の操作性を低下させることとなる。
特許文献1乃至3で開示する技術では、いずれもタッチパネル表面に触れた指の軌跡を検出する必要がある。そのため、タッチパネルの表面状態や指の状態によっては、滑らかな指の動きを検出できず、ユーザの意図した処理を実行できない場合がある。一方、タッチパネル表面に触れて、直後に離す操作(タップ操作)であれば、タッチパネル表面の瞬間的な接触を検出するのみである。そのため、タッチパネルの表面状態や指の状態が操作性に影響を与えることは少ない。しかし、タップ操作によるスクロール表示に対応していないアプリケーションもある。つまり、タップ操作では実現できる機能に制限がある。
そのため、タッチパネルの表面状態、指の状態、アプリケーションに依存せず、操作性を向上させることに貢献する電子機器、その制御方法及びプログラムが、望まれる。
本発明の第1の視点によれば、画像を表示する表示部と、ユーザによる接触操作を検出する入力検出部と、前記入力検出部が検出した第1の接触操作に基づき、前記表示部に操作情報画像を表示させると共に、前記入力検出部が前記操作情報画像に対する第2の接触操作を検出した場合に、前記第2の接触操作に基づき、前記表示部が表示する画像を変更する制御部と、を備える電子機器が提供される。
本発明の第2の視点によれば、画像を表示する表示部と、ユーザによる接触操作を検出する入力検出部と、を備える電子機器の制御方法であって、前記入力検出部が検出した第1の接触操作に基づき、前記表示部に操作情報画像を表示させる工程と、前記入力検出部が前記操作情報に対応する第2の接触操作を検出した場合に、前記第2の接触操作に基づき、前記表示部に表示する画像を変更する工程と、を含む電子機器の制御方法が提供される。
なお、本方法は、画像を表示する表示部と、ユーザによる接触操作を検出する入力検出部と、を備える電子機器という、特定の機械に結び付けられている。
なお、本方法は、画像を表示する表示部と、ユーザによる接触操作を検出する入力検出部と、を備える電子機器という、特定の機械に結び付けられている。
本発明の第3の視点によれば、画像を表示する表示部と、ユーザによる接触操作を検出する入力検出部と、を備える電子機器を制御するコンピュータに実行させるプログラムであって、前記入力検出部が検出した第1の接触操作に基づき、前記表示部に操作情報画像を表示させる処理と、前記入力検出部が前記操作情報画像に対応する第2の接触操作を検出した場合に、前記第2の接触操作に基づき、前記表示部に表示する画像を変更する処理と、を実行するプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
本発明の各視点によれば、タッチパネルの表面状態、指の状態、アプリケーションに依存せず、操作性を向上させることに貢献する電子機器、その制御方法及びプログラムが、提供される。
初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図したものではない。
上述のように、タッチパネルの表面状態や指の状態によっては、ユーザの意図した処理を実行できない場合がある。一方、タップ操作によるスクロール表示に対応していないアプリケーションもある。つまり、タップ操作では実現できる機能に制限がある。そのため、タッチパネルの表面状態、指の状態、アプリケーションに依存せず、操作性を向上させることに貢献する電子機器、その制御方法及びプログラムが、望まれる。
そこで、一例として図1に示す電子機器1を提供する。図1に示す電子機器1は、画像を表示する表示部と、ユーザによる接触操作を検出する入力検出部と、入力検出部が検出した第1の接触操作に基づき、表示部に操作情報画像を表示させると共に、入力検出部が操作情報画像に対する第2の接触操作を検出した場合に、第2の接触操作に基づき、前記表示部が表示する画像を変更する制御部と、を備える。
まず、ユーザによる接触操作を入力検出部10が検出する。制御部20は、入力検出部10が検出した、ユーザの第1の接触操作に基づき、操作情報画像40を表示部30に表示する。操作情報画像40は、入力検出部10が検出した操作情報に対応する画像である。かつ、制御部20は、入力検出部10がユーザによる接触操作を検出するたびに、どのような接触操作を入力検出部10が検出したかを判断する。そして、制御部20は、入力検出部10が検出したユーザによる接触操作に基づき、表示部30に表示する画像を変更する。
ここで、制御部20は、入力検出部10で検出する接触検出位置の軌跡を考慮しない。従って、タップ操作のような1箇所での接触操作を検出するだけで、電子機器1は処理を行なうことができる。そのため、タッチパネルの表面状態、指の状態、アプリケーションに依存せず、操作性を向上させることに貢献する電子機器、その制御方法及びプログラムを提供できる。
以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
第1の実施形態について、図面を用いてより詳細に説明する。
図2は、本実施形態に係る電子機器1の全体構成の一例を示す平面図である。
電子機器1は、入力検出部10及び表示部30を備えている。なお、入力検出部10及び表示部30はタッチパネルディスプレイとして一体化されているとする。表示部30として液晶パネル、及び有機EL(Electro Luminescence)パネル等、各種存在するがその方式は問わない。
さらに、電子機器1が備える入力検出部10は、平板状のセンサによりユーザの接触操作を検出するタッチパネルである。ここで、タッチパネルの方式には、静電容量方式を初めとして各種存在するが、その方式は問わない。
図3は、電子機器1の内部構成の一例を示す図である。電子機器1は、入力検出部10、制御部20、表示部30から構成されている。そして、制御部20は、表示画面処理部21、操作情報処理部22、画像生成部23、入力判断部24から構成されている。図3には、簡単のため、本実施形態に係る電子機器1に関係するモジュールのみを記載する。入力検出部10、表示部30は上述のとおりであるので、さらなる説明を省略する。
操作情報画像40は、区分マーク又は記号の少なくともいずれか一の画像を含む。ここで、区分マークは、ユーザに入力検出部10の検出範囲を提示するためのマークである。また、操作情報画像を表す記号は、ユーザに電子機器1を操作させるためのインターフェースである。かつ、操作情報画像40を表す記号ないしパターンは、ユーザが接触するのに十分な面積を有する。さらに、操作情報画像40を表す記号ないしパターンは、表示画面の操作方向をユーザに提示する記号ないしパターンである。なお、操作情報画像40を表す記号ないしパターンは、指し示す方向が明確な記号ないしパターンであることが、好ましい。
ここで、操作情報画像40の記号表示の一例を図4で示す。
ここで、図4の(a)図は、操作情報画像40を矢印画像で表示する一例である。また、図4の(b)図は、操作情報画像40を三角形で表示する一例である。次に図4の(c)図は、操作情報画像40を五角形で表示する一例である。ここで、図4の(a)図、(b)図、(c)図で示す操作情報画像40の形状は、それぞれ異なる。しかし、いずれの操作情報画像40も、表示部30の垂直上下方向を指し示す記号であることを容易に認識できる。
表示画面処理部21は表示画面を制御する。表示画面は、アプリケーションのコンテンツ等に係る画像である。入力検出部10が検出するユーザによる接触操作に基づき、表示画面処理部21は、表示画面の操作処理を行なう。ここで、表示画面の操作処理には、表示画面のスクロール表示処理、拡大縮小表示処理、回転表示処理などが考えられる。
ただし、電子機器1の表示画面の操作処理には、上述の操作処理以外に、位置又は方向を指定する他の表示画面の操作処理を含んでもよい。例えば、矩形選択する処理は、電子機器1の表示画面の操作処理に含んでもよい。なぜなら、矩形の対角2頂点を決定することで、矩形領域を決定できるためである。
操作情報処理部22は、ユーザによる接触操作に基づく操作情報画像40を生成する。かつ、操作情報処理部22は、生成した画像の表示変更処理も行なう。ここでの表示変更処理としては、画像の形状の変更処理、非表示処理、表示位置の変更処理、大きさの変更処理、回転表示処理などが考えられる。
画像生成部23は、表示部30に表示する画像を生成する。具体的には、画像生成部23は、透過処理(アルファブレンディング処理)によって、表示画面の上に、操作情報画像40に対応した画像を重ね合わせた画像を生成する。その後、画像生成部23は、その合成画像を表示部30に表示させる。
入力判断部24は、入力検出部10が検出したユーザの接触操作について判断する。具体的には、入力検出部10が、どの処理に対応する接触操作を検出したかを、入力判断部24は判断する。
次に、電子機器1の動作について説明する。
図5は、表示部30の表示の一例を示す図である。
図5の(a)図は、区分マーク103の表示の一例を示す図である。区分マーク103は、表示部30を2以上の領域に区画する区画線の集合である。図5の(a)図で示すように、本実施形態に係る電子機器1では、区分マーク103として、2本の対角線を表示する。
一方、図5の(b)図は、操作情報画像40を表す記号表示の一例を示す図である。図5の(b)図では、操作情報画像40を表す記号として、矢印画像104を示す。本実施形態に係る電子機器1は、区分マーク103で区画したそれぞれの領域内に、矢印画像104を表示する。図5の(b)図の場合には、最大4つの矢印画像104が表示される。そして、それぞれの矢印は、表示部30の垂直上下方向、水平左右方向のいずれかの方向を指す。
なお、以下の説明では、操作情報画像40を表す記号として、矢印画像104を用いて、説明する。
次に、図6のフローチャートを用いて、区分マーク103及び矢印画像104を表示する処理について説明する。
最初に、図6のフローチャートを用いて、区分マーク103を表示する処理を説明する。
ここで、操作情報画像40が、表示部30に表示されていない状態とする。その状態で、まず、入力検出部10が、2以上の所定の数であり、かつ任意の箇所でユーザによる接触操作を検出したか否かを、入力判断部24は判断する。その後、入力検出部10が、複数箇所の接触解除を検出したか否かを、入力判断部24は判断する(ステップS01)。これは、ユーザが複数箇所のマルチタップ操作をしたことを、入力検出部10が検出したことに相当する。なお、マルチタップ操作とは、ユーザが、入力検出部10表面の複数箇所に同時に触れた直後に、入力検出部10の表面に触れた全ての指を同時に離す操作である。ここで、ステップS01の条件を満たすために、入力検出部の検出する接触の数を4点以上と設定することが好ましい。4点以上のマルチタップ操作を必要とするアプリケーションは少ないためである。
次に、ステップS01の条件を満たす場合には、操作情報処理部22は、区分マーク103を作成する。そして、画像生成部23は、アルファブレンディング処理によって、アプリケーションコンテンツの表示画面101の上に、区分マーク103を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS02、図7参照)。
そして、区分マーク103で区画した少なくとも1つ以上の領域で、入力検出部10がユーザによる新たな接触を同時に検出したか否かを、入力判断部24は判断する(ステップS03)。これは、入力検出部10が、ユーザのマルチタッチ操作を検出したことに相当する。なお、マルチタッチ操作とは、入力検出部10表面の複数箇所に、ユーザが同時に触れる操作である。
ここで、ステップS03の状態で、マルチタッチの検出された領域を矢印画像表示領域102とする。そして、ステップS03の条件を満たす場合には、操作情報処理部22は、矢印画像表示領域102を着色した画像を生成する。次に、画像生成部23は、アルファブレンディング処理によって、アプリケーションコンテンツの表示画面101の上に、区分マーク、及び着色した矢印画像表示領域102を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS04、図8参照)。なお、ステップS04の状態では、入力検出部10が、ステップS03で検出した接触を検出し続けている状態である。つまり、ユーザが入力検出部10にマルチタッチし続けている状態に相当する。
続いて、同様に図6のフローチャートを用いて、矢印画像104を表示する処理について説明する。
ここで、ステップS04で生成した合成画像が、表示部30に表示されている状態とする。その状態で、入力検出部10が、複数の接触解除を検出したとする。これは、ユーザが、マルチタッチした指を入力検出部10から離したことに相当する。その場合には、操作情報処理部22は、接触解除を検出したそれぞれの領域に、矢印画像104を生成する。そして、画像生成部23は、アルファブレンディング処理によって、アプリケーションコンテンツの表示画面101の上に、生成した矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS05、図9参照)。なお、矢印画像104の長さ及び幅は、矢印画像104の数に依存して変化してもよい。また、区分マーク103と矢印画像表示領域102は、ステップS05の段階では表示しなくてもよい。
以上より、本実施形態に係る電子機器1は、アプリケーションコンテンツの表示画面101の上に、操作情報画像40を透過表示する。そのため、ユーザはアプリケーションコンテンツの表示画面101を視認しながら操作を行なうことができる。従って、本実施形態に係る電子機器1は、ユーザの邪魔にならずに、操作情報をユーザに提示することができる。
次に、図10のフローチャートを用いて、矢印画像104を非表示とする処理について説明する。
ここで、矢印画像104が表示部30に表示されている状態とする。その状態で、まず、入力検出部10が、矢印画像104上以外の1箇所で、ユーザによる接触を検出したか否かを、入力判断部24は判断する(ステップS11、ステップS12)。そして、ステップS11及びステップS12の条件を満たす場合には、操作情報処理部22は、矢印画像104を非表示とする(ステップS13)。その後、画像生成部23は、表示部30にアプリケーションコンテンツの表示画面101を表示させる。
ここで、ステップS11からステップS13に示す動作について、図11で例示する。まず、図11の(a)図に示す点P101は、接触検出位置を表す。ここで、点P101は、矢印画像104上ではない。さらに、入力検出部10が、点P101の1箇所のみで、ユーザによる接触を検出したとする。その場合、ステップS11及びステップS12の条件を満たす。よって、ステップS12に遷移する。従って、表示部30では、矢印画像104が非表示となる(図11の(b)図参照)。
以上より、本実施形態に係る電子機器1は、操作情報画像40を非表示とするために、ユーザに複数回のメニュー操作させることはない。本実施形態に係る電子機器1は、ユーザが入力検出部10に1回触れるだけで、操作情報画像40を非表示とすることができる。
次に、図12のフローチャートを用いて、矢印画像104が表示された状態から、矢印画像104の表示位置を決定する状態に戻す処理について説明する。
ここで、矢印画像104が表示部30に表示されている状態とする。その状態で、まず、入力検出部10が、2以上の所定の数のユーザによる接触を同時に検出したか否かを、入力判断部24は判断する(ステップS21)。そして、ステップS21の接触検出位置の少なくとも1箇所が、矢印画像104上であるか否かを、入力判断部24は判断する。かつ、ステップS21の接触検出位置の少なくとも1箇所が、矢印画像104の上ではない位置であるか否かを、入力判断部24は判断する(ステップS22)。ここで、ステップS21の条件を満たすために、入力検出部10が検出する接触の数を4点以上と設定することが、好ましい。4点以上のマルチタッチ操作を必要とするアプリケーションは少ないためである。
さらに、入力検出部10が、所定の閾値以上の時間、ステップS21及びステップS22の条件を満たすユーザによる接触を検出し続けたか否かを、入力判断部24は判断する(ステップS23)。ステップS21からステップS23の条件を満たす場合には、操作情報処理部22は、矢印画像104を非表示とする(ステップS24)。一方、画像生成部23は、アルファブレンディング処理によって、アプリケーションコンテンツの表示画面101の上に、区分マーク103を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS25)。
ここで、ステップS25の内部状態は、ステップS02の内部状態と同等である。従って、ユーザは、再びステップS03の条件を満たす操作を行なうことにより、矢印画像104の表示位置を再決定することができる。
ここで、ステップS21及びステップS23に示す動作について、図13で例示する。まず図13の(a)図の点P111から点P114の4点は、接触検出位置を表す。ここで点P112、点P113、点P114の3点は、矢印画像104の上である。かつ、点P111は、矢印画像104の上ではない。なおかつ、所定の閾値以上の時間、点P111から点P114の位置で、入力検出部10が接触を検出し続けたとする。さらに、入力検出部10が、点P111からP114の4箇所のみで、ユーザによる接触を検出したとする。さらに、ステップS21の条件を満たす接触点の数は、4点であるとする。その場合、ステップS21及びステップS23の条件を満たす。よって、ステップS24及びステップS25の処理が行なわれる。従って、矢印画像104が非表示となり、区分マーク103が表示部30に表示される(図13の(b)図参照)。
以上より、本実施形態に係る電子機器1は、操作段階を変更するために、ユーザに、複数回のメニュー操作をさせることはない。本実施形態に係る電子機器1は、ユーザが入力検出部10に1回触れるだけで、操作段階を変更することができる。
次に、図14のフローチャートを用いて、矢印画像104の方向の表示位置を移動し、伸縮する処理について説明する。
ここで、矢印画像104が表示部30に表示されている状態とする。その状態で、まず、入力検出部10が、1箇所でユーザによる接触を検出したか否かを、入力判断部24は判断する(ステップS31)。そして、ステップS31の接触検出位置が、矢印の始点または終点であるか否かを、入力判断部24は判断する(ステップS32)。
続いて、ステップS31及びステップS32の条件を満たす場合には、さらに接触検出状態を維持したままで、接触検出位置が移動しているか否かを、入力判断部24は判断する(ステップS33)。上述のステップS31からステップS33の条件を満たす場合には、接触検出位置に追従して、操作情報処理部22は矢印画像104を移動させる。そして、画像生成部23は、アルファブレンディング処理によって、アプリケーションコンテンツの表示画面101の上に、移動後の矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS34)。
また、移動後の矢印画像104が表示部30に収まらない場合には、操作情報処理部22は、矢印画像104の長さ及び幅を伸縮する。そして、画像生成部23は、アルファブレンディング処理によって、アプリケーションコンテンツの表示画面101の上に、長さ及び幅を調整した矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS35)。
なお、矢印画像104の移動可能範囲は、表示部30の全体である。つまり、表示部30上の任意の位置に、ユーザは矢印画像104を配置することができる。
ここで、ステップS31及びステップS32に示す動作について、図15で例示する。まず、図15に示す点P121は接触検出位置を表す。ここで、点P121は矢印画像104Aの始点上である。さらに、入力検出部10が、点P121の1箇所のみで、ユーザによる接触を検出したとする。その場合、ステップS31及びステップS32の条件を満たす。そして、図15に示す点P121は移動前の接触検出位置、点P122は移動後の接触検出位置を表すとする。また、点P121の位置から点P122の位置への移動は、ステップS33の条件を満たすとする。その場合には、ステップS34により、点P121から点P122への移動に伴い、矢印画像104は、矢印画像104Aから矢印画像104Bに移動して表示される。また、ステップS35の処理により、点P122の位置では、矢印画像104Bのように、矢印画像104Aより短い矢印画像が表示される。
次に、図14のフローチャートを用いて、矢印画像104の方向を反転する処理について説明する。
ここでは、ステップS31及びステップS32の条件を満たしながら、ステップS33の条件を満たさない場合を考える。つまり、入力検出部10が、ステップS31及びステップS32の条件を満たすユーザによる接触を検出したが、接触検出位置が固定している場合である。この場合には、まず、ステップS32の後に、入力検出部10が接触解除を検出するか否かを、入力判断部24は判断する(ステップS36)。ステップS36の条件を満たす場合には、操作情報処理部22は、矢印画像104の方向を反転する。そして、画像生成部23は、アルファブレンディング処理によって、アプリケーションコンテンツの表示画面101の上に、反転した矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS37)。
ステップS36に遷移しながら、ステップS36の条件を満たさない場合を考える。その場合、ステップS33又はステップS36の条件を満たすまで、入力判断部24は、ステップS33の条件を判断する。
以上より、本実施形態に係る電子機器1は、操作情報画像40を切り替えるために、ユーザに、複数回のメニュー操作をさせることはない。本実施形態に係る電子機器1は、ユーザが入力検出部10に1回触れるだけで、操作情報画像40を切り替えることができる。
次に、図17のフローチャートを用いて、アプリケーションコンテンツの表示画面101のスクロール表示処理について説明する。
ここで、矢印画像104が、表示部30に表示されている状態とする。その状態で、まず、入力検出部10が、1箇所でユーザによる接触を検出したか否かを、入力判断部24は判断する(ステップS41)。かつ、ステップS41の接触検出位置が、矢印画像104上であるか否かを、入力判断部24は判断する(ステップS42)。なおかつ、ステップS42の条件を満たす場合に、ステップS41の接触検出位置が、矢印の始点及び終点のいずれでもない位置であるか否かを、入力判断部24は判断する(ステップS43)。
ステップS41からステップS43の条件を満たす場合には、表示画面処理部21は、接触検出位置の矢印画像104で示す方向に、アプリケーションコンテンツの表示画面101をスクロールする。そして、画像生成部23は、アルファブレンディング処理によって、スクロールした表示画面101の上に、矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS44)。
なお、ステップS41からステップS43の条件を満たした後、接触解除が検出されるまで、表示画面101のスクロール表示は続く。従って、本実施形態にかかる電子機器1では、ユーザは、指を入力検出部10に固定したままで、スクロール表示を継続できる。
ここで、ステップS41からステップS44に示す動作について、図18で例示する。まず、図18の(a)図の点P141は接触検出位置を表す。ここで、点P141は、矢印画像104上であり、矢印の始点及び終点のいずれでもない。さらに、入力検出部10が、点P141の1箇所のみで、ユーザによる接触を検出したとする。その場合、ステップS41からステップS43の条件を満たす。よって、ステップS44に遷移する。従って、点P141の位置の矢印画像104の示す方向に、アプリケーションコンテンツの表示画面101がスクロール表示される(図18の(b)図参照)。
次に、図19のフローチャートを用いて、アプリケーションコンテンツの表示画面101を拡大縮小表示する処理について説明する。
ここで、矢印画像104が、表示部30に表示されている状態とする。その状態で、まず、入力検出部が、2箇所でユーザによる接触を検出したか否かを、入力判断部24は判断する(ステップS51)。そして、ステップS51の条件を満たす場合に、ステップS51の2箇所の接触検出位置が、矢印の始点及び終点のいずれでもない位置であるか否かを、入力判断部24は判断する(ステップS52)。次に、ステップS52の条件を満たす場合に、ステップS51の2箇所の接触検出位置が、2つの異なる矢印画像104上であるか否かを、入力判断部24は判断する(ステップS53)。さらに、ステップS53の条件を満たす場合に、ステップS51の2箇所の接触検出位置が、同一直線上の異なる矢印画像104上であるか否かを、入力判断部24は判断する(ステップS54)。
ここで、ステップS51からステップS54までの条件を満たす場合には、さらに、2つの矢印が外向きであるか否かを、入力判断部24は判断する(ステップS55)。ステップS55の条件を満たす場合には、表示画面処理部21は、アプリケーションコンテンツの表示画面101を拡大する。そして、画像生成部23は、アルファブレンディング処理によって、拡大した表示画面101の上に、矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS56)。
一方、ステップS51からステップS54までの条件を満たし、ステップS55の条件を満たさない場合を考える。つまり、2つの矢印が内向きである場合である。その場合には、表示画面処理部21は、アプリケーションコンテンツの表示画面101を縮小する。そして、画像生成部23は、アルファブレンディング処理によって、縮小した表示画面101の上に、矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS57)。
なお、ステップS51からステップS54の条件を満たした後、接触解除が検出されるまで、表示画面101の拡大縮小表示は続く。従って、本実施形態にかかる電子機器1では、ユーザは、指を入力検出部10に固定したままで、拡大縮小表示を継続できる。
ここで、ステップS51からステップS56までに示す動作について、図20で例示する。まず、図20の(a)図に示す点P151、点P152は接触検出位置を表す。ここで、点P151の位置の矢印画像104、及び点P152の位置の矢印画像104は、同一直線上の異なる矢印画像104である。かつ、2つの矢印は外向きである。さらに、入力検出部10が、点P151及び点152の2箇所のみで、ユーザによる接触を検出したとする。その場合、ステップS51からステップS55の条件を満たす。よって、ステップS56に遷移する。従って、アプリケーションコンテンツの表示画面101が拡大表示される(図20の(b)図参照)。
次に、図19のフローチャートを用いて、矢印画像104の示す方向以外への、アプリケーションコンテンツの表示画面101のスクロール表示処理について説明する。
ここで、上述のステップS51からステップS53の条件を満たし、ステップS54の条件を満たさない場合を考える。ステップS54の条件を満たさないということは、ユーザによる接触検出位置が、同一直線上ではない、2つの異なる矢印画像104上であるということである。その場合には、表示画面処理部21は、2つの矢印が示すベクトルの和の方向に、アプリケーションコンテンツの表示画面101をスクロールする。そして、画像生成部23は、アルファブレンディング処理によって、スクロールした表示画面101の上に、矢印画像104を重ね合わせた画像を生成する。その後、画像生成部23は、この生成した合成画像を表示部30に表示させる(ステップS58)。
なお、ステップS44のスクロール表示処理と同様に、本実施形態にかかる電子機器1では、ユーザは、指を入力検出部10に固定したままで、スクロール表示を継続できる。
ここで、ステップS58に示す動作について、図21で例示する。まず、図21の(a)図に示す点P161、点P162は接触検出位置を表す。ここで、点P161、点P162は2つの異なる矢印画像104上である。かつ、その2つの矢印画像104は、同一直線上ではない。さらに、入力検出部10が、点P161及び点P162の2箇所のみで、ユーザによる接触を検出したとする。その場合、ステップS51からS53の条件を満たしながら、ステップS54の条件を満たしていない。よって、ステップS58に遷移する。従って、アプリケーションコンテンツの表示画面101は、2つの矢印が示すベクトルの和の方向にスクロール表示される(図21の(b)図参照)。
以上より、本実施形態に係る電子機器1の第1の効果は、ユーザがタッチパネル上で指を滑らす必要なく、表示画面101を操作できることである。従って、タッチパネルの表面状態、指の状態に依存して、本実施形態に係る電子機器1の操作性は低下しない。そのため、本実施形態に係る電子機器1であれば、スライド操作やフリック操作では操作しにくい状況でも、タップ操作のみで、ユーザの意図した処理を実行できる。ただし、本実施形態に係る電子機器1は、検出対象とする操作をタップ操作に限定するわけではない。
次に、本実施形態に係る電子機器1の第2の効果は、アプリケーションコンテンツの表示画面とは独立した操作情報画像40により、ユーザが表示画面を操作できることである。そのため、本実施形態に係る電子機器1であれば、表示画面を操作するインターフェースを備えていないアプリケーションにおいても、ユーザは表示画面を操作できる。従って、アプリケーションを問わず、上記第1の効果を期待した操作を提供することができる。
[第2の実施形態]
続いて、第2の実施形態について、図面を参照して、詳細に説明する。
続いて、第2の実施形態について、図面を参照して、詳細に説明する。
本実施形態は、入力検出部10の検出範囲を格子状に区画する実施形態である。なお、本実施形態における説明では、第1の実施形態と重複する部分の説明は省略する。さらに、本実施形態における説明では、第1の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。
まず、図22は、本実施形態における表示部30の表示の一例を示す図である。
図22の(a)図は、区分マーク103の表示の一例を示す図である。本実施形態では、区分マーク103は、上記の第1の操作の検出範囲を格子状に区画する。
一方、図22の(b)図は、本実施形態における矢印画像104の表示の一例を示す図である。本実施形態でも、区分マーク103で区画したそれぞれの領域に、矢印画像104を表示させる。本実施形態では、それぞれの矢印は、表示部30の右上、右下、左上、左下のいずれかの方向を指す。
次に、図23を用いて、矢印画像104で示す方向へのスクロール表示処理について説明する。
本実施形態においても、矢印画像104の示す方向へのスクロール表示処理は、上述の図17のフローチャートのとおりである。従って、詳細は省略する。
ここで、本実施形態におけるステップS41からステップS43までに示す動作について、図23の(a)図で例示する。まず、図23の(a)図に示す点P171は、接触検出位置を表す。ここで、点P171は、矢印画像104上であり、矢印の始点及び終点のいずれでもない。さらに、入力検出部10が、点P171の1箇所のみで、ユーザによる接触を検出したとする。その場合、ステップS41からステップS43の条件を満たす。よって、ステップS44に遷移する。ここで、点P171の位置の矢印画像104の示す方向は、右上である。そのため、ステップS44の処理により、アプリケーションコンテンツの表示画面101は、右上方向にスクロール表示される(図23の(b)図参照)。
次に、図24を用いて、アプリケーションコンテンツの表示画面101を、矢印画像104の示す方向以外へスクロール表示する処理について説明する。
本実施形態においても、矢印画像104の示す方向以外へのスクロール表示処理は、上述の図19のフローチャートのとおりである。従って、詳細は省略する。
ここで、本実施形態におけるステップS51からステップS54までについて、図24で例示する。まず、図24の(a)図に示す点P181と点P182は、接触検出位置を表す。ここで、点P181、点P181は2つの異なる矢印画像104上である。かつ、その2つの矢印画像104は、同一直線上ではない。さらに、入力検出部10が、点P181及び点P182の2箇所のみで、ユーザによる接触を検出したとする。その場合、ステップS51からS53までの条件を満たし、かつステップS54の条件は満たさない。よって、ステップS58に遷移する。ここで、点P181と点P182の位置の矢印画像の示す方向は、それぞれ右上、左上である。従って、2つの矢印のベクトルの和の方向は、表示部30の垂直上部方向となる。そのため、ステップS58の処理によって、アプリケーションコンテンツの表示画面101は、垂直上部方向にスクロール表示される(図24の(b)図参照)。
なお、区分マーク103のパターンは、実施形態1及び実施形態2の区分マーク以外のパターンも考えられる。
まず、図25の(a)図は、4本の線を区分マーク103として示す一例である。なお、図25の(a)図の区分マーク103は、実施形態1の区分マーク103と、実施形態2の区分マーク103を組み合わせた区分マーク103である。ここで、図25(a)図では、8つの矢印画像104を表示部30に表示している。従って、図25の(a)図の区分マーク103を表示する実施形態は、実施形態1及び実施形態2の場合以上に、細かい角度での方向選択が可能な実施形態である。
次に、図25の(b)図は、区分マーク103を矩形で示す一例である。ここで、図25の(b)図では、区分マーク103の矩形内部に矢印画像104を表示する。図25(b)で示す実施形態は、特定の領域内でのみ、表示画面101の操作処理を行なう場合に有用である。
以上のように、電子機器1は、区分マーク103のパターンを切り替えるだけで、操作方法を容易に切り替えることができる。
最後に、好ましい形態を要約する。
(形態1)上記第1の視点に係る電子機器の通りである。
(形態2)前記操作情報画像は、ユーザが接触するのに十分な面積の閉じた領域を有し、ユーザに方向を提示する記号、又は前記表示部を2以上の領域に区画する区画線の集合である区分マークの少なくともいずれか一を含む電子機器。
(形態3)前記操作情報画像は、さらに、前記区分マークのそれぞれの区画線の方向、又は形状の変更を変更した区分マークの少なくとも一のパターンを含む電子機器。
(形態4)前記制御部は、前記第2の操作に基づき、前記表示部が表示する画像の形状の変更、表示位置の変更、回転角の変更の少なくともいずれか一の処理をする電子機器。
(形態5)前記入力検出部が、前記操作情報画像に対応する前記第1及び第2の接触操作とは異なる第3の接触操作を検出した場合に、前記第3の接触操作に基づき、前記制御部は、前記表示部に表示する前記操作情報画像の形状の変更、非表示、表示位置の変更、回転角の変更の少なくともいずれか一の処理をする電子機器。
(形態6)前記制御部は、前記操作情報画像の透過率を変更し、アプリケーションが作成する表示画面の上に重ね合わせることで、前記表示部に表示する画像を生成する電子機器。
(形態7)前記入力検出部は、前記入力検出部への接触の数、接触位置、接触時間の少なくともいずれか一の情報を検出する電子機器。
(形態8)前記制御部は、前記区分マークのパターンに対応して、前記記号の形状、表示位置、回転角の少なくともいずれか一を変更する電子機器。
(形態9)上記第2の視点に係る電子機器の制御方法の通りである。
(形態10)前記入力検出部が、前記操作情報画像に対応する前記第1及び第2の接触操作とは異なる第3の接触操作を検出した場合に、前記第3の接触操作に基づき、前記表示部に表示する前記操作情報画像の形状の変更工程、非表示工程、表示位置の変更工程、回転角の変更工程の少なくともいずれか一の工程と、を含む電子機器の制御方法。
(形態11)前記操作情報画像の透過率を変更する工程と、アプリケーションが作成する表示画面の上に、透過率を変更した前記画像を重ね合わせる画像生成工程と、前記画像生成工程で重ね合わせた画像を前記表示部に表示する工程と、を含む電子機器の制御方法。
(形態12)前記区分マークのそれぞれの区画線の方向、又は形状を変更した前記区分マークのパターンに対応して、前記記号の形状、表示位置、回転角の少なくともいずれか一を変更する工程を含む電子機器の制御方法。
(形態13)上記第3の視点に係るプログラムの通りである。
(形態14)前記操作情報画像の透過率を変更する処理と、アプリケーションが作成する表示画面の上に、透過率を変更した前記画像を重ね合わせる画像生成処理と、前記画像生成処理で重ね合わせた画像を前記表示部に表示する処理と、を実行するプログラム。
(形態15)前記入力検出部が、前記操作情報画像に対応する前記第1及び第2の接触操作とは異なる第3の接触操作を検出した場合に、前記第3の接触操作に基づき、前記表示部に表示する前記操作情報画像の形状の変更処理、非表示処理、表示位置の変更処理、回転角の変更処理の少なくともいずれか一の処理を実行するプログラム。
(形態16)前記区分マークのそれぞれの区画線の方向、又は形状を変更した前記区分マークのパターンに対応して、前記記号の形状、表示位置、回転角の少なくともいずれか一を変更する処理を実行するプログラム。
なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
1 電子機器
10 入力検出部
20 制御部
21 表示画面処理部
22 操作情報処理部
23 画像生成部
24 入力判断部
30 表示部
40 操作情報画像
101 表示画面
102 矢印画像表示領域
103 区分マーク
104 矢印画像
10 入力検出部
20 制御部
21 表示画面処理部
22 操作情報処理部
23 画像生成部
24 入力判断部
30 表示部
40 操作情報画像
101 表示画面
102 矢印画像表示領域
103 区分マーク
104 矢印画像
Claims (10)
- 画像を表示する表示部と、
ユーザによる接触操作を検出する入力検出部と、
前記入力検出部が検出した第1の接触操作に基づき、前記表示部に操作情報画像を表示させると共に、前記入力検出部が前記操作情報画像に対する第2の接触操作を検出した場合に、前記第2の接触操作に基づき、前記表示部が表示する画像を変更する制御部と、
を備えることを特徴とする電子機器。 - 前記操作情報画像は、ユーザが接触するのに十分な面積の閉じた領域を有し、ユーザに方向を提示する記号、又は前記表示部を2以上の領域に区画する区画線の集合である区分マークの少なくともいずれか一を含む請求項1に記載の電子機器。
- 前記操作情報画像は、さらに、前記区分マークのそれぞれの区画線の方向、又は形状を変更した区分マークの少なくとも一のパターンを含む請求項1又は2に記載の電子機器。
- 前記制御部は、前記第2の操作に基づき、前記表示部が表示する画像の形状の変更、表示位置の変更、回転角の変更の少なくともいずれか一の処理をする請求項1乃至3のいずれか一に記載の電子機器。
- 前記入力検出部が、前記操作情報画像に対応する前記第1及び第2の接触操作とは異なる第3の接触操作を検出した場合に、前記第3の接触操作に基づき、前記制御部は、前記表示部に表示する前記操作情報画像の形状の変更、非表示、表示位置の変更、回転角の変更の少なくともいずれか一の処理をする請求項1乃至4のいずれか一に記載の電子機器。
- 前記制御部は、前記操作情報画像の透過率を変更し、アプリケーションが作成する表示画面の上に重ね合わせることで、前記表示部に表示する画像を生成する請求項1乃至5のいずれか一に記載の電子機器。
- 前記入力検出部は、前記入力検出部への接触の数、接触位置、接触時間の少なくともいずれか一の情報を検出する請求項1乃至6のいずれか一に記載の電子機器。
- 前記制御部は、前記区分マークのパターンに対応して、前記記号の形状、表示位置、回転角の少なくともいずれか一を変更する請求項3乃至7のいずれか一に記載の電子機器。
- 画像を表示する表示部と、
ユーザによる接触操作を検出する入力検出部と、
を備える電子機器の制御方法であって、
前記入力検出部が検出した第1の接触操作に基づき、前記表示部に操作情報画像を表示させる工程と、
前記入力検出部が前記操作情報に対応する第2の接触操作を検出した場合に、前記第2の接触操作に基づき、前記表示部に表示する画像を変更する工程と、
を含むことを特徴とする電子機器の制御方法。 - 画像を表示する表示部と、
ユーザによる接触操作を検出する入力検出部と、
を備える電子機器を制御するコンピュータに実行させるプログラムであって、
前記入力検出部が検出した第1の接触操作に基づき、前記表示部に操作情報画像を表示させる処理と、
前記入力検出部が前記操作情報画像に対応する第2の接触操作を検出した場合に、前記第2の接触操作に基づき、前記表示部に表示する画像を変更する処理と、
を実行するプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012020477 | 2012-02-02 | ||
JP2012-020477 | 2012-02-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013115370A1 true WO2013115370A1 (ja) | 2013-08-08 |
Family
ID=48905397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/052362 WO2013115370A1 (ja) | 2012-02-02 | 2013-02-01 | 電子機器、その制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2013115370A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000292194A (ja) * | 1999-03-31 | 2000-10-20 | Tokai Rika Co Ltd | カーナビゲーションの画面スクロール方法 |
JP2011201497A (ja) * | 2010-03-26 | 2011-10-13 | Aisin Aw Co Ltd | 操作受付装置、方法およびプログラム |
JP2012007829A (ja) * | 2010-06-25 | 2012-01-12 | Sharp Corp | 加熱調理器 |
-
2013
- 2013-02-01 WO PCT/JP2013/052362 patent/WO2013115370A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000292194A (ja) * | 1999-03-31 | 2000-10-20 | Tokai Rika Co Ltd | カーナビゲーションの画面スクロール方法 |
JP2011201497A (ja) * | 2010-03-26 | 2011-10-13 | Aisin Aw Co Ltd | 操作受付装置、方法およびプログラム |
JP2012007829A (ja) * | 2010-06-25 | 2012-01-12 | Sharp Corp | 加熱調理器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220221971A1 (en) | Method of adjusting an ui and user terminal using the same | |
JP6381032B2 (ja) | 電子機器、その制御方法及びプログラム | |
JP5970086B2 (ja) | タッチスクリーンホバリング入力処理 | |
KR102255830B1 (ko) | 복수 개의 윈도우를 디스플레이하는 방법 및 장치 | |
EP2637089A2 (en) | Handheld devices and controlling methods using the same | |
KR20130005300A (ko) | 정보처리 시스템, 조작입력장치, 정보처리장치, 정보처리방법, 프로그램 및 정보기억매체 | |
US11435870B2 (en) | Input/output controller and input/output control program | |
JP2012226520A (ja) | 電子機器、表示方法及びプログラム | |
US8762840B1 (en) | Elastic canvas visual effects in user interface | |
JP2012203644A (ja) | 電子機器 | |
US9244564B2 (en) | Information processing apparatus touch panel display and control method therefor | |
CN106325490A (zh) | 控制电子设备的方法及电子设备 | |
CN108139847A (zh) | 显示装置 | |
JP2015138360A (ja) | オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法 | |
JP5628991B2 (ja) | 表示装置、表示方法、及び表示プログラム | |
WO2013047023A1 (ja) | 表示装置、表示方法およびプログラム | |
US20170205967A1 (en) | Display and interaction method in a user interface | |
JP6096100B2 (ja) | 電子機器、制御方法、及び制御プログラム | |
US20180173411A1 (en) | Display device, display method, and non-transitory computer readable recording medium | |
JP2015153083A (ja) | 表示制御プログラム、装置、及び方法 | |
JP6197559B2 (ja) | オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法 | |
WO2013115370A1 (ja) | 電子機器、その制御方法及びプログラム | |
US20180173362A1 (en) | Display device, display method used in the same, and non-transitory computer readable recording medium | |
JP6941976B2 (ja) | ユーザインターフェース処理プログラム、記録媒体、ユーザインターフェース処理方法 | |
JP5482696B2 (ja) | 表示制御装置、表示制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13743579 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 13743579 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |