JP7187737B2 - Method, program and electronic device for providing a user interface - Google Patents
Method, program and electronic device for providing a user interface Download PDFInfo
- Publication number
- JP7187737B2 JP7187737B2 JP2016563526A JP2016563526A JP7187737B2 JP 7187737 B2 JP7187737 B2 JP 7187737B2 JP 2016563526 A JP2016563526 A JP 2016563526A JP 2016563526 A JP2016563526 A JP 2016563526A JP 7187737 B2 JP7187737 B2 JP 7187737B2
- Authority
- JP
- Japan
- Prior art keywords
- flick
- action
- moving image
- video
- playback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 48
- 238000001514 detection method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 8
- 238000010079 rubber tapping Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、画面を指によってタッチすることで操作する電子機器においてユーザーインタフェースを提供する方法、プログラム及び電子機器に関する。 The present invention relates to a method, a program, and an electronic device for providing a user interface in an electronic device operated by touching the screen with a finger.
電子機器(例、スマートフォン及びタブレット端末)で表示される動画や画像は、テキストと違って視覚的な伝達手段として有効な手法である。特に動画においては、視覚的な効果だけでなく、音を利用することでその視覚体験をよりリアルなものにすることができる。 Unlike text, videos and images displayed on electronic devices (eg, smartphones and tablet terminals) are effective means of visual communication. Especially in moving images, not only visual effects but also sound can be used to make the visual experience more realistic.
一般的に、電子機器上で表示される画像をタップすると別のページに遷移されることは、バナー広告と呼ばれる広告手法でも利用されている。また、主に写真などは対象の画像を一定時間タッチすることでその画像をコピーすることができる。動画においては、YouTube(登録商標)(http://www.youtube.com)に代表される動画サイト/アプリで電子機器で閲覧できるが、動画の操作やページ遷移は、オブジェクトタップ領域でのタップ操作によって一つのアクションが実行されるものが一般的である。 In general, tapping an image displayed on an electronic device to transition to another page is also used in an advertising method called banner advertisement. In addition, you can copy an image, mainly a photograph, by touching the target image for a certain period of time. Videos can be viewed on electronic devices on video sites/apps such as YouTube (registered trademark) (http://www.youtube.com), but video operations and page transitions are performed by tapping in the object tap area Generally, one action is executed by an operation.
一方で、電子機器における、日本語のテキスト入力では、タッチして水平方向に動かすフリック操作が使用されており、片手で操作できる快適な使用体験が提供されている。しかし、動画や画像を直接タッチして操作するというものはあるが、フリックで操作を行うというものは実現できておらず、世の中に存在しない。 On the other hand, Japanese text input on electronic devices uses a flick operation that touches and moves horizontally, providing a comfortable one-handed operation experience. However, although there are devices that operate by directly touching videos and images, those that operate by flicking have not been realized and do not exist in the world.
従来の電子機器上で表示される動画や画像は、対象の動画や画像自体をタップする(動画上であれば再生ボタンや一時停止ボタン、画像上であればタップすることで別ページに遷移する等)、もしくは同一ページ上に表示されるオブジェクトをタップすることで端末側にアクションを実行させて操作するものがほとんどである。 For videos and images displayed on conventional electronic devices, tap the target video or image itself (play button or pause button on the video, tap on the image to transition to another page) etc.), or by tapping an object displayed on the same page, most of which are operated by causing the terminal to perform an action.
表示されている対象の動画や画像に対してタップして操作する技術だけでは、そのアクション行為の数が限られてしまう。つまり、表示されている動画や画像に対しての操作は単一のタップ領域に対して単一のアクションという1対1の関係であるため、複数のアクションを実行させるためには、動画上、並びに同一ページ内にアクションを実行するためのタップ可能なオブジェクトを複数設けることが求められる。タップ可能なオブジェクトが増えるほど、利用するユーザーにとっては情報量が増えて操作が難解になるだけでなく、見た目にも支障が出る可能性がある。また、特にスマートフォンにおいては、両手を使ってアクションを起こす必要性も出てくるためユーザーにとって操作しづらい状況が生まれる。 The number of actions that can be performed is limited only by the technique of tapping and operating a displayed target video or image. In other words, there is a one-to-one relationship between a single tap area and a single action for operations on displayed videos and images. Also, it is required to provide a plurality of tappable objects for executing actions within the same page. As the number of objects that can be tapped increases, the amount of information increases for the user, which not only makes the operation difficult, but also may cause visual problems. In addition, especially with smartphones, it is necessary to use both hands to perform actions, creating situations that make it difficult for users to operate.
本発明は、画面を指によってタッチすることで操作する電子機器において動画を再生するユーザーに優れたインタフェースを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an excellent interface for a user who reproduces a moving image in an electronic device operated by touching the screen with a finger.
本発明は、電子機器上で表示される動画に対しての操作を、対象の動画自体をフリックすることで、限られたタッチ/タップ領域で、複数のアクションを実行可能にするものである。 The present invention enables a plurality of actions to be performed in a limited touch/tap area by flicking a moving image displayed on an electronic device.
具体的には、特許請求の範囲に記載の構成を有する。電子機器で表示される動画や画像に直接タッチすると、複数のオブジェクトを同時に表示させる。複数のオブジェクトが表示された状態で、対象のオブジェクトにフリックすることで、それぞれのオブジェクトのアクションを端末内で実行することができるようになる。 Specifically, it has the configuration described in the claims. Multiple objects can be displayed at the same time by directly touching a video or image displayed on an electronic device. By flicking a target object while multiple objects are displayed, the action of each object can be executed within the terminal.
本明細書で使われる用語について簡略に説明し、本発明について具体的に説明する。 The terms used in this specification will be briefly explained, and the present invention will be specifically explained.
明細書全体として「オブジェクト」は、ユーザーが選択できる対象を意味する。アイコン、ポップアップ画像、リンク、絵、テキスト、インデックス項目などがオブジェクトの一例である。「ページ」はコンテンツ、情報またはオブジェクトが含まれた空間を意味する。例えば、ウェプページ、コンテンツリスト、サムネイルリスト、写真の配列されたトレー、アイコンの配列されたトレーなどがページの一例である。 By "object" throughout the specification is meant a user-selectable object. Icons, pop-up images, links, pictures, text, index items, etc. are examples of objects. "Page" means a space containing content, information or objects. For example, a web page, a content list, a thumbnail list, a tray in which photos are arranged, a tray in which icons are arranged, etc. are examples of pages.
「タッチ」とは、ユーザーが指やタッチ道具(スタイラス)を用いてタッチ対応画面に触れる動作を示す。 "Touch" refers to the action of a user using a finger or a touch tool (stylus) to touch a touch-enabled screen.
「フリック操作」は、ユーザーが指やタッチ道具を用いて「タッチ」してから、タッチした指やタッチ道具を画面から離すことなく特定の指示をするためにタッチ面に対して水平方向に動かす操作をいう。したがって、単に素早く画面上で指を滑らす操作もフリック操作に含まれる。なお、「タッチ」した後に、水平方向に指やタッチ道具を動かさずに指が離れる動作は、「タップ」であって、「フリック操作」とは区別される。なお、「画面から離す」というのは、実際には、画面からの特定の範囲から離れることをいう。 A "flick operation" is when a user "touches" with a finger or touch tool, and then moves the touched finger or touch tool in a horizontal direction to the touch surface to give a specific instruction without leaving the screen. say operation. Therefore, the operation of simply sliding a finger on the screen quickly is also included in the flick operation. It should be noted that the action of releasing the finger after "touching" without moving the finger or the touch tool in the horizontal direction is a "tapping" and is distinguished from a "flicking operation". Note that "moving away from the screen" actually means moving away from a specific range from the screen.
本発明によれば、電子機器で表示される動画や画像上でのフリック操作を可能にすることで、限られた単一のオブジェクトのタップ領域で複数のアクションを行うことができる。オブジェクトの情報量が減らせることで、見た目も整理されるだけでなく、ユーザーにとっては分かりやすく、より直感的な操作でアクションを実行することができるようになる。特にスマートフォンであれば、片手で操作できる快適な使用体験を提供できる。また、フリックした後に、画面タッチしている指やタッチ道具を離す時間によって、その効果を変えることもできるなど、単一のオブジェクトタップ領域で、より多くのアクションパターンを用意することが可能となる。 According to the present invention, a plurality of actions can be performed in a single limited tap area of an object by enabling flick operations on moving images and images displayed on an electronic device. Reducing the amount of information on objects not only makes them look more organized, but also makes them easier for users to understand and allows them to perform actions with more intuitive operations. In particular, smartphones can provide a comfortable usage experience that can be operated with one hand. In addition, after flicking, it is possible to prepare more action patterns in a single object tap area, such as changing the effect depending on the finger that touches the screen or the time you release the touch tool. .
図1Aは、本発明の一実施形態に係る電子機器の概要を示す正面図である。図1Bは、本発明の一実施形態に係る電子機器の通信の様子を示すブロック図である。図1Cは、動画再生アプリにおいて、動画を再生している状況を示す電子機器の正面図である。
図2Aは、動画再生中にユーザーがタッチした時点における状況を示す電子機器の正面図である。図2Bは、ユーザーがタッチした後で指を横に動かした状況を示す電子機器の正面図である。
図3A~3D、図4E~4H、図5I~5Kは、本発明の実施形態に係るユーザーインタフェースを提供する方法のフローチャートである。FIG. 1A is a front view showing an outline of an electronic device according to one embodiment of the invention. FIG. 1B is a block diagram showing how the electronic device communicates according to one embodiment of the present invention. FIG. 1C is a front view of the electronic device showing a situation in which a moving image is being reproduced in the moving image reproducing application.
FIG. 2A is a front view of the electronic device showing the situation when the user touches during video playback. FIG. 2B is a front view of the electronic device showing a situation in which the user moves the finger sideways after touching.
3A-3D, 4E-4H, and 5I-5K are flowcharts of methods for providing a user interface according to embodiments of the present invention.
図1Aは、本発明の一実施形態に係る電子機器の概要を示す正面図である。図1Bは、本発明の一実施形態に係る電子機器の通信の様子を示すブロック図である。電子機器10は、タッチ対応画面20、スピーカー30、物理的ボタン50を有する。本実施形態において、電子機器10は、マイクロホン、電池88、CPU83、メモリー84、通信ユニット86をさらに有する通信機能付きのユーザーが携帯可能な電子機器であり、電話機能も有するスマートフォンである。電池88を有し小型であること(1kg以下であり好ましくは0.5kg以下)によってユーザーは電気機器10を携行することが現実的に可能になる。電子機器10は、通信機能を使用して動画配信を行っている外部サーバー70にアクセスして画面20上で動画を再生することができ、また、電子機器10内部のメモリーに保存された動画ファイルの動画を画面20上で再生することができる。通信ユニット86は、W-CDMA、LTE、WiFi(例、IEEE802.11n)などの通信規格に対応している。
FIG. 1A is a front view showing an outline of an electronic device according to one embodiment of the invention. FIG. 1B is a block diagram showing how the electronic device communicates according to one embodiment of the present invention.
電子機器10では、iOSやAndroidのような携帯機器用のオペレーションシステムが動作しており、これの上で、又はこれの上で動作するウェブブラウザー等のアプリの上で、アプリケーションソフトウェア(アプリ)が動作する。図1Aは、本発明に係るプログラムである動画再生アプリの初期画面を示している。この初期画面は、例えば、特定のアドレスにアクセスした際に表示される。画面20上には、動画再生領域22があり、再生ボタン40、現在位置表示44、プログレスバー45、時間表示46が、動画再生領域22の内部ないし近傍に配置されている。この状況で、再生ボタン40をタッチすると、動画の再生が開始する。あるいは、特定のアドレスにアクセスした際に動画の再生が自動的に開始される。
In the
図1Cは、この動画再生アプリにおいて、動画を再生している状況を示す図である。動画の再生を開始してから12秒が経過しており、プログレスバー45上の現在位置表示44が横に移動しており、図1Aの再生ボタン40は、表示されていない。通話用スピーカー30ではない別のスピーカー(図示せず)からは動画の音が出ている。
FIG. 1C is a diagram showing a situation in which a moving image is being reproduced in this moving image reproduction application. Twelve seconds have passed since the video playback started, the
図2Aは、動画再生中にユーザーが指90でタッチした時点における状況を示す図である。図2Aでは、図1Aにおいて再生ボタン40が表示されていた画面中央の位置に一時停止ボタン43が表示されており、その周りの上下左右に4つのフリック補助表示60~63が表示されている。「フリック補助表示」は、ユーザーのフリック操作を補助するための表示のことであり、好ましくは、それぞれ枠を有し、内部には、関連づけられた動作を表すような文字、アイコン、画像、動画が表示されている。この枠は、略四角形であることが好ましいが、中央部分からの吹き出しを描いたような略五角形の吹き出し状であってもよい。後者の場合、ユーザーに対してフリック操作をより促進することができる。フリック補助表示60は、「前の動画の再生」、フリック補助表示62は、「次の動画の再生」に対応するものである。フリック補助表示61の内部を図において描いていないが、実際には文字などが表示される。同時に表示されるフリック補助表示の数は、1以上8以下がよく、4つであることが好ましい。4つであると、上下左右に配置されることになって、操作誤りを防ぎつつ、多く表示することができるからである。また、2つにすると、操作誤りを更に減らすことができ、8つにすると、操作誤りを適度に防ぎつつ、多く表示することができる。また、下の位置のフリック補助表示はユーザーにとって見づらいので、上左右の3つ、上、左、右、左上、右上の5つ、8方向のうち下以外の7つも、好ましい。
FIG. 2A is a diagram showing the situation when the user touches with the
図2Aの状況から、ユーザーは指90をタッチ面から離さずに(ないし所定範囲を超えて離さずに)、フリック補助表示60~63に対応する水平方向の方向(この場合は、上、下、左、右)に指を滑らせ、ユーザーは指90を画面から離す。これによって、ユーザーのフリック操作が完了する。なお、この際の指90を滑らせる速さに応じて、速い場合は、フリック操作であって、遅い場合はフリック操作ではないというように、判断することができる。
From the situation in FIG. 2A, the user moves the
図2Bは、ユーザーがタッチした後で指90を水平方向右に動かした状況を示す図である。ユーザーは、図2Aで指90で画面をタッチした後で、タッチ面から離さずに水平方向右に滑らせて、その後で指90を画面から離して、「右フリック」というフリック操作を完了させている。これによって、「右フリック」に対応するフリック補助表示62が選択されたことになり、これに関連づけられた「次の動画の再生」という動作が実行されることとなる。
FIG. 2B illustrates the situation where the user has moved the
別の実施形態において、図2Aでフリック補助表示60~63が表示される段階で、フリック補助表示60には、「再生関連動作」、フリック補助表示62には、「アドレス関連動作」に対応する文字やアイコンが内部に表示され、「左フリック」を完了させた場合は、さらに、再生を停止させる動作、動画の再生位置を選択する動作、次の動画の再生に移る動作、前の動画の再生に移る動作、動画の先頭に移る動作などに対応する別の4つの「第2の補助表示」が表示される。第2の補助表示は、図2Aのようにフリック補助表示60~63と同じ位置、あるいは「フリック操作」に対応するようにずれた位置(この場合、左フリックなので左にずれた位置)に、表示される。前者の場合は、ユーザーに補助表示の位置の一貫性を与えて、操作をわかりやすくすることができる。一方、後者の場合、第2の補助表示を最初のフリック補助表示と区別しやすくなる。ユーザーは、第2の補助表示に対して、単にタッチして選択を完了する。あるいは、ユーザーは、前回のフリック操作時に、指90を画面から離さずないし一旦離した後にすぐにタッチして、第2の補助表示に対して、二度目のフリック操作を完了することによって、選択を完了する。
In another embodiment, when the flick assistance displays 60 to 63 are displayed in FIG. 2A, the
図3A~4Kは、本発明の一実施形態に係るユーザーインタフェースを提供する方法のフローチャートである。以下、図3A~4Kのフローチャートに基づいて動作を説明する。図3AのS102で、ユーザーの操作などに基づいて、画面に動画を再生する。この後で、ユーザーが画面20上の動画再生領域22を指でタッチする。S104で、そのユーザーの指によるタッチを検出する。S106で、動画を引き続き再生させながら、画面20上にフリック補助表示60~63を表示する。図2A、5の例においては、フリック補助表示60、62はそれぞれ、「前の動画の再生」、「次の動画の再生」に対応するものである。フリック補助表示60~63は、アイコンであっても、文字列であっても、音を発生する領域であっても、これらの組み合わせであってもよい。フリック補助表示60~63によって、ユーザーが操作内容を把握することが容易になる。
3A-4K are flowcharts of a method for providing a user interface according to one embodiment of the invention. The operation will be described below based on the flow charts of FIGS. 3A to 4K. In S102 of FIG. 3A, a moving image is reproduced on the screen based on the user's operation or the like. After this, the user touches the moving
その後、ユーザーは、「次の動画の再生」の操作をしたいと欲し、図2Bに示すようにユーザーが指を画面20から離さず(実際は特定の程度以上離さないという意味。以下、同じ。)に右に素早く動かして指を画面20から離して、「右への素早いフリック」の操作を完了させる。S108で、このフリック操作の完了を検出する。
After that, the user wants to operate "play next video", and the user does not lift his finger from the
この時点でも、再生していた動画を引き続き再生させている。S110で、フリック補助表示62に関連づけられた「次の動画の再生」という動作を実行する。S104~S108において、動画を引き続き再生させており、これによって、ユーザーがどのフリック補助表示60~63に対応する操作を行おうか考えている時間においても、動作再生をユーザーに提供することができ、もしユーザーが引き続き動画再生を鑑賞したいと欲した場合には、フリック操作を完了しないことによって、S104から進んだ動画再生位置にて動画を再生することができる。これによって、ユーザーの利便性が向上する。
Even at this point, the video that was being played continues to be played. At S110, the action "play next video" associated with the flick assist
図3Bは、図3Aの方法と比べて、S104の後で動画再生を停止する場合の方法のフローチャートである。S104でタッチを検出した後、S107で、動画再生を停止して、フリック補助表示60~63を表示する。この際、図3Aの方法では、一時停止ボタン43が表示されていたが、この位置に、再生ボタン40が表示される。そして、S109で、引き続き動画再生を停止させながら、フリック操作の完了を検出する。
FIG. 3B is a flowchart of a method for stopping video playback after S104 compared to the method of FIG. 3A. After the touch is detected in S104, the moving image reproduction is stopped and the flick assist displays 60 to 63 are displayed in S107. At this time, the
このように、動画再生を停止することによって、ユーザーがフリック補助表示60~63に集中することが容易になり、また、ユーザーが上記の取り消し操作を行った場合においても、S104にてタッチした時点での動画再生位置から動画再生を再開することができるようになって、ユーザーにとって、見たい場面を逃すことを防ぐことができる。図3Aの方法のように、タッチ(S104)の後に動画を引き続き再生する方法と、図3Bの方法のように、タッチ(S104)の後に動画再生を停止する方法とは、ユーザーによって設定できるようにするのが好ましい。 By stopping the video playback in this way, it becomes easier for the user to concentrate on the flick auxiliary displays 60 to 63, and even if the user performs the above-described cancel operation, the touch in S104 Since the video playback can be resumed from the video playback position in , the user can be prevented from missing a desired scene. A method of continuing to play the video after the touch (S104), like the method of FIG. 3A, and a method of stopping the video playback after the touch (S104), like the method of FIG. 3B, can be set by the user. It is preferable to
図3Cの方法では、タッチの後に、S202で、動画の再生速度を変化させる。具体的には、動画の再生速度を通常の再生速度よりも遅くすることが好ましい。これによって、ユーザーがフリック補助表示60~63を見ながらどの操作をするかどうか考えることを容易にする。なお、S106の後にS202を行ってもよい。また、図3Cの方法では、タッチ(S104)の後に動画を引き続き再生するのではなく、図3Bの方法のように、タッチ(S104)の後に動画再生を停止してもよい。 In the method of FIG. 3C, after the touch, the playback speed of the moving image is changed in S202. Specifically, it is preferable to make the playback speed of the moving image slower than the normal playback speed. This makes it easy for the user to consider which operation to perform while looking at the flick auxiliary displays 60-63. Note that S202 may be performed after S106. Also, in the method of FIG. 3C, instead of continuing to play the video after the touch (S104), the video playback may be stopped after the touch (S104) as in the method of FIG. 3B.
図3Dの方法では、タッチの後に、S204で、動画領域の明るさを変化させる。具体的には、動画領域の明るさを暗くすることが好ましい。これによって、ユーザーに対してフリック補助表示60~63に関連する操作をすることができる状態であることを容易に把握させることができるようになり、また、フリック補助表示60~63を目立たせたり、フリック補助表示60~63の操作を促す効果を発揮する。なお、S106の後にS204を行ってもよい。また、図3Dの方法では、タッチ(S104)の後に動画を引き続き再生するのではなく、図3Bの方法のように、タッチ(S104)の後に動画再生を停止してもよい。 In the method of FIG. 3D, after the touch, at S204, the brightness of the moving image area is changed. Specifically, it is preferable to darken the brightness of the moving image area. This makes it possible for the user to easily grasp that the user can perform operations related to the flick auxiliary displays 60 to 63, and to make the flick auxiliary displays 60 to 63 stand out. , has the effect of prompting the operation of the flick auxiliary displays 60-63. Note that S204 may be performed after S106. Also, in the method of FIG. 3D, instead of continuing to play the video after the touch (S104), the video playback may be stopped after the touch (S104) as in the method of FIG. 3B.
図4Eの方法では、S104でタッチを検出した後に、S208で、早送りをさせる動作、巻き戻しをさせる動作に対応するフリック補助表示を表示する。そして、S108でフリック操作の完了を検出する。そして、ユーザーは、早送りをさせる動作、巻き戻しをさせる動作に対応するフリック補助表示をタッチしつづける。S210で、タッチの間、対応する早送りをさせる動作又は巻き戻しをさせる動作を実行し、その際、早送り又は巻き戻しに対応した動画を動画再生領域22上に表示する。これによって、ユーザーは早送り又は巻き戻しの状況を把握することができるようになり、その時点においてタッチを止めたときの動画再生位置を把握することができるようになる。なお、図4Eの方法では、タッチ(S104)の後に動画を引き続き再生するのではなく、図3Bの方法のように、タッチ(S104)の後に動画再生を停止してもよい。
In the method of FIG. 4E, after detecting a touch in S104, in S208, a flick assist display corresponding to a fast-forwarding action and a rewinding action is displayed. Then, in S108, the completion of the flick operation is detected. Then, the user continues to touch the flick assist display corresponding to the action of fast-forwarding and the action of rewinding. At S<b>210 , the corresponding fast-forwarding or rewinding action is executed during the touch, and the moving image corresponding to the fast-forwarding or rewinding is displayed on the moving
S110のフリック補助表示に関連づけられた動作には、動画の保存又は登録の動作が含まれていると好ましい。図4Fは、この場合の方法を示している。「動画の保存」とは、動画を電子機器10のメモリー84や外部サーバー上で保存する行為をいい、「動画の登録」とは、当該動画を再び呼び出すことが容易なように、お気に入り設定(ブックマーク設定)のような登録をすることをいう。
The action associated with the flick assist display in S110 preferably includes an action of saving or registering a moving image. FIG. 4F shows a method for this case. "Save a moving image" refers to an act of saving a moving image in the
S110のフリック補助表示に関連づけられた動作には、再生を停止させる動作、動画の再生位置を選択する動作、次の動画の再生に移る動作、前の動画の再生に移る動作、及び動画の先頭に移る動作などの再生関連動作を含むのが好ましい。図4Gの方法では、この場合を示した。動画に関連するユーザーの操作は多数にわたり、これらを常に画面上に表示するのではなく、S104のタッチがあった際にのみ表示するようにした方が、画面を有効活用できるから有利である。 The actions associated with the flick assist display in S110 include an action to stop playing, an action to select the playing position of the video, an action to play the next video, an action to play the previous video, and the beginning of the video. It preferably includes play-related actions such as moving to. The method of FIG. 4G illustrates this case. There are many user operations related to moving images, and it is advantageous to display them only when touched in S104, instead of always displaying them on the screen, because the screen can be used effectively.
また、S110のフリック補助表示に関連づけられた動作には、特定のアドレスへとアクセスする動作、動画に関連づけられたアドレスをコピーする動作、及び動画に関連づけられたアドレスを使用して特定のプログラムの特定の機能を実行させる動作などのアドレス関連動作が含まれることが好ましい。動画に関連するユーザーの操作は、上記の再生関連動作に限られず、特に、携帯可能な通信機能付きの電子機器10においては、アドレス関連操作を容易に行うことができるようにすることが非常に便利だからである。「特定のアドレスへとアクセスする動作」とは、例えば、ブラウザで特定のURLにHTTPプロトコルで引数付きでアクセスすることが含まれる。「動画に関連づけられたアドレスをコピーする」とは、動画に関連づけられたURLや連絡先などのアドレスを仮想的なクリップボードに入れて、貼り付け操作によってテキスト編集領域などで貼りつけることができるようにするオペレーションシステムのコピー機能を行うことをいう。「動画に関連づけられたアドレスを使用して特定のプログラムの特定の機能を実行させる動作」とは、動画に関連づけられたアドレスを特定のプログラムに情報として渡して特定の機能を実行させることをいう。例えば、現況登録サービスの評価操作(例、http://facebook.comが提供するfacebookでの「いいね(Like)」操作)をする動作、投稿サービスでの自動的な投稿(例、http://twitter.comが提供するtwitterでのつぶやき)を発する動作などがある。
Further, the operations associated with the flick assist display in S110 include an operation of accessing a specific address, an operation of copying the address associated with the video, and an operation of executing a specific program using the address associated with the video. Preferably, address-related operations are included, such as those that cause specific functions to be performed. User operations related to moving images are not limited to the above-described playback-related operations. In particular, in the portable
図4Hの方法では、S104でタッチを検出した後に、S230で、再生中の動画に関連する別の動画の代表画像をフリック補助表示に表示する。この代表画像は、サムネール画像とも呼ばれ、動画であっても静止画であってもよい。S232で、フリック補助表示内の代表画像に対応する別の動画を再生する動作を実行する。この方法によって、ユーザーが再生中の動画に関連する別の動画の提供を受けて、その中身の一部を知ることができ、その別の動画の再生を選択することが容易になる。 In the method of FIG. 4H, after detecting a touch in S104, in S230, a representative image of another moving image related to the moving image being played is displayed in the flick assist display. This representative image is also called a thumbnail image, and may be a moving image or a still image. At S232, an operation of reproducing another moving image corresponding to the representative image in the flick assist display is performed. By this method, the user is provided with another moving image related to the moving image being reproduced, can know a part of the contents thereof, and can easily select reproduction of the other moving image.
図5Iの方法では、S104でタッチを検出した後に、S240で、タッチ時ないしタッチ時の近傍の動画のスクリーンショット画像をメモリーに一時的に取得する。動画のスクリーンショット画像とは、動画の特定場面における静止画画像のことである。S242で、スクリーンショット画像を取得する動作に対応するフリック補助表示を表示する。S108でのフリック操作の完了の検出の後、S244で、スクリーンショット画像をメモリー84に取得(保存)する動作を実行する。別の実施形態においては、S240はなく、S244でフリック操作の完了の検出時のスクリーンショット画像をメモリー84に取得(保存)する動作を実行する。この方法によって、ユーザーが所望の動画再生位置の動画のスクリーンショットを取得することが容易になる。
In the method of FIG. 5I, after detecting a touch in S104, in S240, a screen shot image of a moving image at or near the time of the touch is temporarily acquired in memory. A screen shot image of a moving image is a still image in a specific scene of the moving image. At S242, a flick assist display corresponding to the action of acquiring a screenshot image is displayed. After detecting completion of the flick operation in S108, an operation of acquiring (saving) a screenshot image in the
図5Jの方法では、ユーザーが動画再生位置の選択を容易にできるようなユーザーインタフェースを提供する。S104でタッチを検出した後に、S250で、動画再生位置の選択に対応するフリック補助表示を表示する。動画再生位置とは動画内の始めから終わりまでの位置であって時間で表されるもののことである。S108でフリック操作の完了を検出した後、ユーザーは所定のムーブ動作をする。ムーブ動作とは、指を画面上で動かす動作である。このムーブ動作に応じて、プログレスバー45上の現在位置表示44を動かすようにすることが好ましい。これによって、全体におけるどの位置なのかを把握しやすくなる。また、動画再生領域全体又はそれよりも小さい現在位置表示44に応じて移動する枠内に、その時点での画像を表示することが好ましい。これによって、画像でも位置を認識できるようになる。そして、S252で、検出したユーザーのムーブ動作に応じた動画の再生位置の選択を受け付ける動作を実行する。そして、S254で、受け付けた再生位置から動画を再生する。この方法によって、ユーザーが再生位置を選択することが容易になる。
The method of FIG. 5J provides a user interface that allows the user to easily select the video playback position. After detecting the touch in S104, in S250, a flick assist display corresponding to the selection of the video playback position is displayed. The moving image playback position is the position from the beginning to the end within the moving image and is represented by time. After detecting the completion of the flick operation in S108, the user performs a predetermined move operation. A move action is an action of moving a finger on the screen. It is preferable to move the
図5Kの方法では、フリック補助表示を表示してフリック操作が行われた後に、新たに複数の第2の補助表示を表示して選択できるようにするようなユーザーインタフェースを提供する。S306では、複数のフリック補助表示のうちの一部(又は全部)において、動作群に対応するフリック補助表示を表示する。例えば、上記の再生関連動作やアドレス関連動作である。S110にて、フリック補助表示に対応する動作が実行された後に、S308にて、新たに複数の第2の補助表示を表示する。この様子は、例えば、図2Aのようにである。あるいは、行われたフリック操作に対応するようにずらして第2の補助表示を表示することもできる。その後、ユーザーがタッチなどによって第2の補助表示の1つを選択し、S310にて、ユーザーによる第2の補助表示の選択操作を検出し、S312にて、選択された第2の補助表示に関連づけられた動作を実行する。この方法によって、入れ子のようなユーザーインタフェースを提供することができ、ユーザーに多くの選択肢を提供することができる。 The method of FIG. 5K provides a user interface that allows a user to select a plurality of second auxiliary displays newly displayed after a flick operation is performed by displaying the flick auxiliary display. In S306, a flick assist display corresponding to the action group is displayed in some (or all) of the plurality of flick assist displays. For example, the reproduction-related operation and the address-related operation described above. After the operation corresponding to the flick auxiliary display is executed in S110, a plurality of second auxiliary displays are newly displayed in S308. This state is, for example, as shown in FIG. 2A. Alternatively, the second auxiliary display can be displayed by being shifted so as to correspond to the performed flick operation. After that, the user selects one of the second auxiliary displays by touch or the like, and in S310, the user's selection operation of the second auxiliary display is detected, and in S312, the selected second auxiliary display is displayed. Execute the associated action. By this method, a nested user interface can be provided, and the user can be provided with many options.
なお、図面及び明細書において、いくつもの実施形態を示し、いくつもの特徴について説明したが、これらは組み合わさっていてもよく、これらの組み合わせも本明細書に組み込む。例えば、図3Bの方法のS104の後からS110の前において、動画を停止するが、これは図3C~4Jの方法のS104の後からS110の前において「動画を引き続き再生する」ことと置き換えて、この区間において「動画を停止」させる。 It should be noted that although several embodiments have been shown and several features have been described in the drawings and specification, these may be combined, and these combinations are also incorporated herein. For example, after S104 and before S110 of the method of FIG. 3B, the animation is stopped, but this is replaced by "continue playing the animation" after S104 and before S110 of the method of FIGS. 3C-4J. , to "stop the animation" in this section.
Claims (12)
ことを特徴とする請求項1に記載の方法。 The actions associated with the flick assist display include an action of accessing a specific address, an action of copying an address associated with a video, and a specific function of a specific program using the address associated with a video. 2. The method of claim 1 , comprising an address-related operation selected from the group consisting of an operation that causes a .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014252545 | 2014-12-13 | ||
JP2014252545 | 2014-12-13 | ||
PCT/JP2015/006210 WO2016092864A1 (en) | 2014-12-13 | 2015-12-11 | Method for providing user interface, program, and electronic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016092864A1 JPWO2016092864A1 (en) | 2017-11-24 |
JP7187737B2 true JP7187737B2 (en) | 2022-12-13 |
Family
ID=56107073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016563526A Active JP7187737B2 (en) | 2014-12-13 | 2015-12-11 | Method, program and electronic device for providing a user interface |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7187737B2 (en) |
WO (1) | WO2016092864A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7079242B2 (en) * | 2017-04-25 | 2022-06-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Image display method and image display device |
JP7078845B2 (en) * | 2018-04-03 | 2022-06-01 | 株式会社ミクシィ | Information processing device, function display method and function display program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006139615A (en) | 2004-11-12 | 2006-06-01 | Access Co Ltd | Display device, menu display program, and tab display program |
JP2011113469A (en) | 2009-11-30 | 2011-06-09 | Jvc Kenwood Holdings Inc | Touch panel processing device, touch panel processing method, and program |
JP2011187130A (en) | 2010-03-10 | 2011-09-22 | Panasonic Corp | Disk playback device |
JP2013126192A (en) | 2011-12-15 | 2013-06-24 | I-O Data Device Inc | Receiver of streaming content, registration method of streaming content |
JP2013156923A (en) | 2012-01-31 | 2013-08-15 | Canon Inc | Electronic apparatus, control method thereof, program, and recording medium |
JP2013214842A (en) | 2012-03-31 | 2013-10-17 | Axell Corp | Moving image reproduction processing method, and mobile information terminal adopting the same method |
WO2013157330A1 (en) | 2012-04-20 | 2013-10-24 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2014168154A (en) | 2013-02-28 | 2014-09-11 | Nec Casio Mobile Communications Ltd | Information processor, information processing method and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009033583A (en) * | 2007-07-30 | 2009-02-12 | Hitachi Ltd | Playback device, video playback system |
JP5433375B2 (en) * | 2009-10-23 | 2014-03-05 | 楽天株式会社 | Terminal device, function execution method, function execution program, and information processing system |
JP2011107823A (en) * | 2009-11-13 | 2011-06-02 | Canon Inc | Display controller and display control method |
JP5976417B2 (en) * | 2012-06-25 | 2016-08-23 | 株式会社日立製作所 | X-ray diagnostic imaging equipment |
JP2014238621A (en) * | 2013-06-06 | 2014-12-18 | カルソニックカンセイ株式会社 | Input receiving device |
-
2015
- 2015-12-11 JP JP2016563526A patent/JP7187737B2/en active Active
- 2015-12-11 WO PCT/JP2015/006210 patent/WO2016092864A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006139615A (en) | 2004-11-12 | 2006-06-01 | Access Co Ltd | Display device, menu display program, and tab display program |
JP2011113469A (en) | 2009-11-30 | 2011-06-09 | Jvc Kenwood Holdings Inc | Touch panel processing device, touch panel processing method, and program |
JP2011187130A (en) | 2010-03-10 | 2011-09-22 | Panasonic Corp | Disk playback device |
JP2013126192A (en) | 2011-12-15 | 2013-06-24 | I-O Data Device Inc | Receiver of streaming content, registration method of streaming content |
JP2013156923A (en) | 2012-01-31 | 2013-08-15 | Canon Inc | Electronic apparatus, control method thereof, program, and recording medium |
JP2013214842A (en) | 2012-03-31 | 2013-10-17 | Axell Corp | Moving image reproduction processing method, and mobile information terminal adopting the same method |
WO2013157330A1 (en) | 2012-04-20 | 2013-10-24 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2014168154A (en) | 2013-02-28 | 2014-09-11 | Nec Casio Mobile Communications Ltd | Information processor, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2016092864A1 (en) | 2017-11-24 |
WO2016092864A1 (en) | 2016-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102245736B1 (en) | Device, method, and graphical user interface for navigating media content | |
US9361284B2 (en) | Causing display of comments associated with an object | |
JP5942978B2 (en) | Information processing apparatus, information processing method, and program | |
US11693535B2 (en) | Display apparatus, user terminal, control method, and computer-readable medium | |
WO2017088406A1 (en) | Video playing method and device | |
WO2017101374A1 (en) | Method and system for video switching | |
EP2306307A2 (en) | Terminal apparatus, server apparatus, display control method, and program | |
WO2018112928A1 (en) | Method for displaying information, apparatus and terminal device | |
JP6004756B2 (en) | Display control apparatus and control method thereof | |
JP2006018794A (en) | Mobile electronic apparatus, display method, program and graphical interface thereof | |
WO2018113065A1 (en) | Information display method, device and terminal device | |
KR20150066129A (en) | Display appratus and the method thereof | |
WO2014125403A2 (en) | Method of video interaction using poster view | |
JP2014130590A (en) | Display apparatus and method for controlling the same | |
JP5873182B2 (en) | Information processing apparatus and information processing method | |
JP2009093356A (en) | Information processor and scroll method | |
JP7187737B2 (en) | Method, program and electronic device for providing a user interface | |
JP2013250772A (en) | Program, information processing device, image display method and display system | |
KR102317619B1 (en) | Electronic device and Method for controling the electronic device thereof | |
WO2021044601A1 (en) | Application expansion program, information processing device, and method | |
JP5882923B2 (en) | Portable information terminal, control method, and program | |
US20140075391A1 (en) | Display control device, display control system, storing medium, and display method | |
CN104615434B (en) | Display method and display system of file list interface | |
KR20140089069A (en) | user terminal device for generating playable object and method thereof | |
JP2014154908A (en) | Moving image reproducing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181211 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200818 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20200831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201109 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201108 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20210112 |
|
C12 | Written invitation by the commissioner to file intermediate amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C12 Effective date: 20210112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210123 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210215 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210305 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210326 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210621 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210830 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20210921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211120 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220502 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220607 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220802 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220927 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20221005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7187737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |