[go: up one dir, main page]

WO2014208673A1 - 画像表示方法およびシステム - Google Patents

画像表示方法およびシステム Download PDF

Info

Publication number
WO2014208673A1
WO2014208673A1 PCT/JP2014/067011 JP2014067011W WO2014208673A1 WO 2014208673 A1 WO2014208673 A1 WO 2014208673A1 JP 2014067011 W JP2014067011 W JP 2014067011W WO 2014208673 A1 WO2014208673 A1 WO 2014208673A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
date
unit
display screen
Prior art date
Application number
PCT/JP2014/067011
Other languages
English (en)
French (fr)
Inventor
光隆 岡崎
真史 上田
典彦 直野
Original Assignee
リプレックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リプレックス株式会社 filed Critical リプレックス株式会社
Priority to CN201480034956.1A priority Critical patent/CN105324747A/zh
Publication of WO2014208673A1 publication Critical patent/WO2014208673A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to an image display method and the like.
  • the present invention relates to a method of displaying a photograph on a mobile terminal such as a smartphone.
  • a large number of photographs taken in this way are stored in a storage device in a smartphone, a memory card, a storage device in a personal computer, or a server device in a network.
  • the total number of photographs that a general photographer stores in these apparatuses often ranges from several thousand to several tens of thousands.
  • a technology that uses position information stored in association with image information of a photo (Patent Document 2) and a technology that uses semantic information (patent) in order to assist a photographer in selecting a photo that he or she wants to browse from a large number of photos Document 3), a technique (patent document 4) for classifying photographs by combining a plurality of attribute information has been proposed.
  • a method of searching by extracting character information included in the image Patent Document 5
  • a method of extracting and searching the face information included in the image Patent Document 5
  • Patent Document 6 Patent Document 7, Patent Document 8
  • Patent Document 9 that supports browsing by browsing by extracting relevance between multiple images and collecting them for each event have been proposed.
  • the attribute information of the photo that the user wants to browse is often not accurately stored, and it is not easy to search for and find the photo that the user wants to browse.
  • many users search for photos that they want to view based on vague information such as “photos of a trip about two years ago in the spring”. It is not easy to find a photo that you want to browse based on such vague information.
  • a practical image search support means has not been provided to the viewer due to low extraction accuracy.
  • Patent Document 10 Patent Document 11
  • Patent Document 12 Patent Document 12
  • the first image is represented from an image list display screen that displays the first image and the second image on the display unit.
  • a method of screen transition to a calendar display screen including a shooting date represented by first date information stored in a storage unit of the information terminal in association with first image information, wherein the storage unit includes the first image information.
  • the processing unit When the second date information is stored in association with the second image information representing the second image, and the input unit selects the second image displayed on the image list display screen, the processing of the information terminal The first date information and the second date information, and if there is a portion that matches the first date information and the second date information, the processing unit Composite image information in which one image and the second image are superimposed Generated, wherein the display unit is to provide a method and displaying the combined image information as the recording date in the calendar display screen.
  • the first image is represented from an image list display screen that displays the first image and the second image on the display unit.
  • a method of screen transition to a calendar display screen including a shooting date represented by first date information stored in a storage unit of the information terminal in association with first image information, wherein the storage unit includes the first image information.
  • the processing unit When the second date information is stored in association with the second image information representing the second image, and the input unit selects the second image displayed on the image list display screen, the processing of the information terminal The first date information and the second date information, and if there is a portion that matches the first date information and the second date information, the processing unit Composite that superimposes one image and part of the second image It generates image information, the display unit, provides a method and displaying the combined image information as the recording date in the calendar display screen.
  • the first image is represented from an image list display screen that displays the first image and the second image on the display unit.
  • a method of screen transition to a calendar display screen including a shooting date represented by first date information stored in a storage unit of the information terminal in association with first image information, wherein the storage unit includes the first image information.
  • the processing unit When the second date information is stored in association with the second image information representing the second image, and the input unit selects the second image displayed on the image list display screen, the processing of the information terminal The first date information and the second date information, and if the first date information and the second date information have a matching part, the processing unit And a composite image in which a part of the second date information is superimposed It generates information, the display unit, provides a method and displaying the combined image information as the recording date in the calendar display screen.
  • the first image is represented from an image list display screen that displays the first image and the second image on the display unit.
  • the processing of the information terminal The first date information and the second date information, and if there is a portion that matches the first date information and the second date information, the processing unit A combined image and a part of the first date information. It generates the image information, the display unit, provides a method and displaying the combined image information as the recording date in the calendar display screen.
  • an information terminal including a display unit and an input unit, from a first image list display screen that displays a first image, a second image, and a third image on the display unit , Transition to a second image list display screen for displaying the first image and the second image on the display unit, and further associating with the first image information representing the first image of the information terminal
  • the first album ID and the second album ID are stored in association with each other, and the storage unit stores second date information in association with the second image information representing the second image, and the information
  • the processing unit of the terminal displays the first on the display unit.
  • An image list display screen is displayed, and the processing unit displays a selection screen for selecting a first album name represented by the first album ID and a second album name represented by the second album ID on the display unit.
  • the processing unit selects the first image stored in association with the first album ID from the storage unit, and the processing unit displays the display
  • the second image list display screen is displayed on the part and the input unit selects the second image displayed on the first image list display screen, the processing unit displays the first date.
  • the processing unit is configured to display the first image and the second date information.
  • Generating composite image information in which an image is superimposed, and the display unit The serial composite image information to provide a method and displaying as the recording date by the calendar display screen.
  • a user of an information terminal having a small display screen such as a smartphone can efficiently narrow down photos to be browsed from a large number of photos based on an approximate date and easily find a desired photo. it can.
  • FIG. 1 An example figure of an information terminal for realizing an image display system concerning one embodiment of the present invention
  • FIG. 1 An example figure of a touch screen 1 is a schematic configuration diagram of an information terminal according to an embodiment of the present invention.
  • FIG. 1 An example figure of an image information table
  • FIG. 1 An example figure of a display image information table
  • FIG. 1 An example figure of a screen display concerning one embodiment of the present invention.
  • An example figure of a display of a screen concerning one embodiment of the present invention Flowchart of processing according to an embodiment of the present invention
  • An example figure of the album selection screen concerning one embodiment of the present invention An example figure of a display of an image list screen concerning one embodiment of the present invention
  • FIG. 1 shows a schematic diagram of an image display system according to an embodiment of the present invention.
  • Fig.1 (a) is an example figure of an information terminal for implement
  • the information terminal 101 has a touch screen 220 and input means 102.
  • the touch screen 220 has two functions of an input function for the information terminal 101 and a display function.
  • FIG. 1B is an example of a schematic configuration diagram of the touch screen 220.
  • the touch screen 220 has a structure in which a liquid crystal display unit 111, a touch detection unit 112, and a transparent protective panel 113 are stacked.
  • the liquid crystal display unit 111 provides a display function
  • the touch position detection unit 112 provides an input function.
  • the user of the information terminal 101 detects the position where the touch position detection unit 112 is touched on the touch screen by touching the transparent protective panel with the finger 100 or the like in accordance with the graphic displayed on the liquid crystal display unit. This is used as input information
  • FIG. 2 shows an example of a schematic configuration diagram of the information terminal 101 according to an embodiment of the present invention.
  • the information terminal 101 includes a processing unit 210, a touch screen 220, an input unit 102, an external storage unit 231, and a communication unit 241.
  • the processing unit 210 includes a calculation unit 211 and a storage unit 212
  • the touch screen 220 includes a display unit 223, an input unit 222, and a position detection unit 221.
  • the liquid crystal display unit 111 is used as the display unit 223 and the touch position detection unit 112 is used as the input unit 222, but the present invention is not limited to this configuration.
  • liquid crystal display unit 111 has been described as an example of the display unit 223 here, a display device using a principle other than liquid crystal may be used as an embodiment of the present invention.
  • a display device using a self-luminous element using organic EL or the like may be used.
  • the external storage means 231 has an image information table 232, and the image information table 232 stores a plurality of pieces of image information and shooting date / time information of each image in association with each other.
  • FIG. 3A shows an example of the image information table 232.
  • the image information table 232 has columns of image information column 310, shooting date / time information 320, and album ID 350.
  • the image information is represented by an image ID “IMG2301.jpg” 311 that identifies the image.
  • the information stored in the column of the image information 310 and the column of the display image information 330 may be any information as long as it can be displayed on the display unit 223 in step S405.
  • an album ID 350 is stored in association with each of the image information 310.
  • the image information table 232 may store other meta information such as an image ID, shooting position information, and shooting condition information in addition to the shooting date and time information in association with the image information.
  • the processing unit 210 stores the image information, shooting date / time information, and album ID in the storage unit 212 (step S401).
  • the calculation unit 211 creates a display image information table 213 from the image information and the shooting date / time information called to the storage unit 212.
  • the display image information table 213 is created according to the following procedure. First, the calculation unit 211 groups image information stored in the storage unit 212 in the image information table 232 into groups of image information having the same shooting date. Next, the computing means generates shooting date expression image information that represents the shooting date of each group (step S402). Next, the computing means associates representative shooting date information indicating the shooting date with the generated shooting date expression image information (step S403). The representative photographing date information and the photographing date expression image information are associated with each other and added to the image information table called to the processing unit in step S401. When there are a plurality of shooting dates of image information called from the image information table 232 in the processing unit 210, the above steps S402 and S403 are repeated for each shooting date, and this is used as the display image information table 213 (step S404).
  • FIG. 3B shows an example of the display image information table 213 created by the computing unit 211 in the storage unit 212 in step S404.
  • the calculation unit 211 generates shooting date expression image information 331 (step S402).
  • a row associated with the shooting date expression image information 331 and the representative shooting date information 341 is added adjacent to the group 301 of images having shooting date information on July 12, 2013 (step S404).
  • the calculation unit 211 generates the shooting date expression image information 332 (step S402).
  • a row in which this is associated with the representative shooting date information 342 is added adjacent to the group 302 of images having shooting date information of July 11, 2013 (step S404).
  • FIG. 3 illustrates a shooting date expression image displayed on the display unit 223 based on the shooting date expression image information generated in step S402.
  • the shooting date expression image 501 is an example of an object in which shooting date expression image information 331 is displayed on the display unit 223.
  • the shooting date expression image 502 is an example of an object in which shooting date expression image information 332 is displayed on the display unit 223.
  • the shooting date expression image includes all or part of the corresponding representative shooting date information.
  • the calculation unit 211 displays the display image information 330 of the display image information table 213 on the display unit 223 as an image list screen (step S405).
  • FIG. 6 shows an example of an image list screen in the present invention.
  • the image list screen according to the embodiment of the present invention uses the display image information table 213 generated in step S404 to display the image and the shooting date expression image in association with each other.
  • a shooting date expression image 501 is displayed on the touch screen 220 in association with the images 602 to 606.
  • the user of the information terminal 101 touches an arbitrary place on the touch screen 220 with a finger or a pen, and moves the finger 630 in the upward direction 632 while keeping the contact state (hereinafter swipe). 6), the image group and the shooting date expression image group shown in FIG. 6 are also moved upward, and the touch screen 220 is externally associated with the shooting date and time older than the image displayed in FIG.
  • the image group stored in the storage unit 231 is displayed.
  • an image group stored in the external storage unit 231 is associated with the shooting date and time newer than the image displayed in FIG. 6 above the touch screen 220. And a shooting date expression image is displayed.
  • the image list screen may include a slider object 620 as shown in FIG.
  • the user touches the slider object 620 displayed on the touch screen 220 with the finger 630 and swipes upward, so that the shooting date and time older than the image displayed in FIG.
  • a group of images stored in the external storage unit 231 in association with each other and a corresponding captured date expression image are displayed.
  • the external storage means is associated with the shooting information newer than the image displayed in FIG. 6 above the touch screen 220.
  • the image group stored in 231 and the corresponding captured date expression image are displayed.
  • an image with a new shooting date and time is displayed above the touch screen 220 and an image with an old shooting date and time is displayed below the touch screen 220, but the new image is displayed downward and the old image is displayed upward. It may be displayed.
  • the image information of the image displayed on the image list screen is acquired by the processing unit 210 from the external storage unit 231, but is acquired from a server or other information terminal via the communication unit 241 and the network 200.
  • the display image information table 213 may be created from the acquired image information and shooting date / time information and displayed on the touch screen 220.
  • the user touches the captured date expression image displayed on the touch screen 220 with a finger or the like (step S406).
  • the user touches the captured date expression image 501 displayed on the touch screen 220 with a finger 630 or a pointing device.
  • the position detection unit 221 detects that the shooting date expression image 501 has been selected, and notifies the processing unit 210 of this.
  • the processing unit 210 receives information in which the shooting date expression image 501 is selected in step S406.
  • the calculation unit 211 stores the display date / time information having the same date as the representative shooting date information 341 stored in association with the shooting date expression image information 331 corresponding to the shooting date expression image 501 in the display image table 213 in a row 340. Search from. As a result of the search, the group 301 whose shooting date is July 12, 2013 is searched (step S407).
  • the computing means 211 selects one of the display image information of the group 301. (Step S408).
  • the display image information selected here is referred to as representative image information. In the example shown in FIG.
  • the display image information 333 having the latest display date / time information in the group 301 is selected as the representative image information.
  • the image information 333 corresponds to the image 602 shown in FIG. However, in the present invention, any image in any group 301 may be selected as representative image information.
  • the calculating unit 211 calculates the selected shooting date expression image information 331 and the representative image information 333, thereby combining the shooting date expression image 501 and the image information 602 to generate combined image information 810 (step S409).
  • the processing unit 210 determines whether there is a shooting date expression image having the same year and month as the shooting date expression image selected by the user in step S406 (step S410). If there are other shooting date representation images of the same year and month, repeat steps S411, S407, S408, S409, and S410 for all of them, so that all of the same year and month as the shooting date representation image selected in step S406 are obtained.
  • Composite image information is generated from the shooting date expression image.
  • composite image information 820, 830 obtained by combining each of the shooting date representation images 502, 730, 740, and 750 with the representative images 721, 731, 741, and 751.
  • 840 and 850 are generated.
  • all image information and shooting date / time information of the same month as the shooting date expression image selected in step S406 are stored in the storage unit 212 of the processing unit 210 from the image information table 232 of the external storage unit 231 in step S401. I explained that it was.
  • processing is performed in the middle of steps S407 to S411.
  • the above processing may be executed after being stored in the display image information table 213 of the unit 210. Further, if there is image information of the same month as the captured date representation image selected in step S406 and stored in an external device such as a server and not stored in the display image table 213, the communication unit 241 and the network 200 are displayed. The above processing may be executed after being stored in the display image information table 213 via.
  • the combined image information of two pieces of image information means that when one image information is displayed, the other image information is made transparent or semi-transparent and superimposed on one image information so that both image information can be recognized.
  • Image information when one image information is displayed, the other image information is made transparent or semi-transparent and superimposed on one image information so that both image information can be recognized.
  • the processing unit 210 extracts the year and month represented by the representative shooting date information 341 associated with the shooting date expression image 331 selected by the user in step S406 (step S412), and then displays the calendar of this year and month. Generate display calendar information for.
  • the display calendar information uses the composite image information generated in step S409 as the object of the date indicated by each representative shooting date information.
  • the processing unit 210 displays the display calendar information on the touch screen 220 (step S413).
  • the calculation unit 211 generates calendar display image information including the composite image information 810, 820, 830, 840, and 850, and the display unit 223 displays it (step S413).
  • composite image information is obtained by superimposing corresponding representative images and captured date representation images.
  • the representative image group and the shooting date expression image group may be both superimposed on the touch screen without being erased.
  • the image 602 and the shooting date expression image 501 are not erased on the display unit 223, but are moved while being reduced to the position of the image 810 shown in FIG. You may change to calendar display by the procedure of displaying the image information 810.
  • the composite image information in the present invention is not limited to the superimposition of the representative image and the shooting date expression image.
  • the user of the information terminal 101 uses the method of associating the representative image with the shooting date expression image such as connecting the representative image and the shooting date expression image adjacent to each other on the calendar display, or connecting them with a line. Any method can be used as long as it can explicitly recognize the association.
  • FIG. 9 shows an example of a calendar display for providing the user with long-term listing as an example of the embodiment of the present invention.
  • FIG. 9A shows a state in which the screen shown in FIG. 8 is displayed on the touch screen 220, and the user of the information terminal 101 touches the touch screen 220 with a finger 630 or the like, and the touch screen 220 is kept in that state. It is an example of the display screen of the touch screen 220 when swiping 920 rightward.
  • the processing unit 210 generates a display image information table by repeating the processing of steps S407 to S411 according to the present invention for the captured date representation image group of June 2013, which is the previous month of July 2013. Then, the processing unit 210 displays a calendar 910 including a group of June 2013 composite image information generated from the new display image information table on the left side of the touch screen 220.
  • a calendar including a group of composite image information for June 2013 is displayed on the entire touch screen 220.
  • FIG. 9B shows a state in which the screen shown in FIG. 8 is displayed on the touch screen 220, and the user of the information terminal 101 touches the touch screen 220 with a finger 630 or the like, and the touch screen 220 remains in that state. It is an example of a display screen of the touch screen 220 when swiping 921 downward.
  • a calendar screen 800 shown in FIG. 8 moves downward on the touch screen 220.
  • the processing unit 210 generates a display image information table by repeating the processes of steps S407 to S411 according to the present invention for the shooting date expression image group of July 2012, which is the same month of July 2013.
  • the processing unit 210 displays a calendar 920 including a group of composite image information for July 2012 generated from the new display image information table above the touch screen 220.
  • a calendar including a group of composite image information for July 2012 is displayed on the entire touch screen 220.
  • the shooting date representation image of June 20, 2013, the shooting date and time of the same day The image group associated with the information and the captured date expression image and the image group near June 20, 2013 are displayed as an image list screen as shown in FIG. 7, for example.
  • the shooting date expression image of July 31, 2012 the shooting date and time of the same day
  • An image group associated with the information, and a captured date expression image and an image group near July 31, 2012 are displayed as an image list screen as shown in FIG.
  • the calendar display is switched by swipe, but the present invention is not limited to this.
  • the calendar display can be performed by selecting a button displayed on the touch screen 220 with a finger or the like.
  • the date may be changed.
  • FIG. 8 and FIG. 10 an example of transition from calendar display to image display is shown.
  • the user selects the overlapping image 820 displayed on the touch screen 220 with a finger or the like.
  • the computing unit 211 searches the display image information table 213 for representative shooting date information 342 associated with the shooting date expression image 820.
  • the processing unit 210 includes display image information 332 including display date information image 332, display image information group of the group 302 whose shooting date is July 11, 2013, and display date information 340 in the vicinity of July 11, 2013.
  • the group is displayed on the touch screen 220 as an image list display.
  • FIG. 10 shows an example of the image list display screen displayed again as described above.
  • a list display of images having the shooting date of July 11, 2013 and the vicinity thereof represented by the shooting date expression image 502 is displayed on the touch screen 220.
  • the user can transition between the image list display and the related calendar display only by touching the touch screen once.
  • the user while browsing a picture in the image list display, it is possible to transition to a calendar in the vicinity of the date specified by the shooting date expression image by simply touching the touch screen once.
  • the user needs to switch to the calendar display, and then search for and switch to the calendar display at the time when the user wants to browse. For this reason, in the conventional method, it is difficult to easily find an image that the user wants to browse from among a large number of images taken over a long period of time.
  • the user can easily search for an image to be displayed while reciprocating the image list display and the calendar display with fewer steps than the conventional method.
  • the calculation means 211 stores the image information table 232 in the storage means 212 (step S1101).
  • the image information table 232 has an album ID column 350, and the album ID is tagged to each image information.
  • the album ID is also stored in the storage unit 212 in association with the image information and the shooting date / time information.
  • FIG. 12 shows an example of the album selection screen.
  • the album selection screen 1200 includes an all-photo display button 1201, a “cooking” album display button 1202, and an “animal” album display button 1203.
  • the “cooking” album is an album having the album ID “A” in FIG. 3
  • the “animal” album is an album having the album ID “B” in FIG. 6 to 10 described so far, all the photos are displayed regardless of the album ID associated with each image information. This corresponds to the all photo display button 1201 being selected on the album selection screen 1200.
  • the album selection screen 1200 is displayed when the input unit other than the touch screen is pressed down. However, the album selection may be displayed by an input to the input unit 222 of the touch screen.
  • the user selects the “animal” album display button 1203 displayed on the touch screen 220 with a finger or the like 630 (step S1103).
  • the processing unit 210 receives a signal indicating that the album display button 1203 is selected from the position detection unit 221.
  • the computing unit 211 searches the image information table called to the storage unit 212 in step S1101 with the album ID “B” of the “animal” album selected in step S1103, and associates it with the album ID “B”.
  • a record is extracted (step S1104).
  • the display image information table 213 is generated by the processing after step S402 in FIG. 4, and only the image group tagged with the “animal” album is displayed on the touch screen 220 in the form of image list display and calendar display. .
  • the photo list display and calendar display according to the present invention will be described with reference to FIGS. Detailed processing steps are the same as in FIG.
  • FIG. 13 shows an example of the “animal” album photo list display 1300 displayed on the touch screen 220 as a result of step S405.
  • all the display images and shooting date expression images of the display image information table 213 are displayed on the touch screen 220 as an image list display.
  • the display image information table 213 in the display image information table 213, only the image information associated with the album ID “B” representing the “animal” album and the shooting date expression image associated therewith are touched as an image list display. It is displayed on the screen 220.
  • the album IDs 362 to 365 and 367 all have the album ID “A”.
  • the album ID 366 is “NULL”, and the image 334 is not tagged to any album.
  • the shooting date expression image 501 and the images 602 to 606 in FIG. 6 and the image 721 in FIG. 7 are excluded from the extraction in step S1104. Therefore, they are not displayed in the image list display 1300 of the animal album in FIG.
  • the images 722, 723, 724, 741, 764 and 765 in FIG. 7 are displayed in FIG. 13 because they are associated with the album ID “B” representing the “animal” album in the display image information table 213. .
  • FIG. 14 shows an example of a calendar display 1400 of the “animal” album.
  • the finger 630 or the like selects the captured date expression image 740.
  • the processes in steps S407 to S413 are executed only for the image information extracted in step S1104.
  • the composite image information 850, 830, and 810 displayed in FIG. 8 is not displayed in FIG. 14, but objects 1450, 1430, and 1410 representing the respective dates are displayed instead.
  • the present invention when a part of a large number of images is arranged in an album, it is possible to easily search for an image to be viewed while transitioning between an image list display and a calendar display in the album. Can do. For example, in the past, it was possible to use a vague search condition such as “a photo of a dessert when eating at a restaurant six months ago”, “a photo of a lion taken at the zoo in the fall of 2010”, or “a photo of today's child five years ago”. In order to find exactly the images you want to view, you had to tag the albums in detail. However, according to the present invention, if the album is roughly divided, it is possible to easily search for an image to be browsed by reciprocating between the image list display and the calendar display in the album.
  • the information terminal is a kind of computer in which a CPU (Central Processing Unit), a temporary storage device, a secondary storage device, a display unit, an input unit, and the like are connected by a bus.
  • a CPU Central Processing Unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Position Input By Displaying (AREA)

Abstract

 第一の画像および第二の画像を表示部に表示する画像一覧表示画面から、第一の画像を表す第一の画像情報に関連づけて情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、記憶部が、第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、入力部が、画像一覧表示画面に表示された第二の画像を選択すると、情報端末の処理部が、第一の日付情報と第二の日付情報を比較し、第一の日付情報および第二の日付情報に一致する部分がある場合には、処理部が、第一の画像と第二の画像を重畳した合成画像情報を生成し、表示部が、合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法を提供する。

Description

画像表示方法およびシステム
 本発明は、画像表示方法などに関する。特に、写真をスマートフォンなどの携帯端末に表示する方法などに関する。
 デジタルカメラやスマートフォンが普及している。撮影される写真の枚数は以下の理由により急激に増加している。第一に、多くの利用者がスマートフォンを携帯し、いつでも撮影可能になったことである。第二に、SNS(Social Networking Service)などのネットワークサービスが発達して写真を他人と共有する機会が増えたことである。第三に、撮影した大量の写真を保存するためのストレージコストが低下していることである。
 このようにして大量に撮影された写真は、スマートフォン内の記憶装置や、メモリカード、パーソナルコンピュータ内の記憶装置、さらにはネットワーク内のサーバ装置などに保存される。一般的な写真の撮影者が、これらの装置群に保存する写真の総枚数は、数千乃至数万枚に及ぶことも多い。
 これら大量の写真は、従来パーソナルコンピュータの表示画面で閲覧されることが多かったが、近年はスマートフォンの表示画面で閲覧されることが増えた。これは、利用者がスマートフォンを常に携帯していることに加えて、スマートフォンの通信機能を利用してネットワークを通じて他所に保存された写真をも、スマートフォンで簡単に閲覧することが可能になったためである。スマートフォン、パーソナルコンピュータ、メモリカードやサーバなどの各種記憶装置に分散した写真をネットワーク経由で集約し、簡便に閲覧・利用する方法およびシステムが提案されている(特許文献1)。
特許第4717963号公報 特開2005-039702号公報 特開2004-102792号公報 特開2007-266902号公報 特許第5108841号公報 特開2007-310813号公報 特許第5037627号公報 特開2006-338620号公報 特許4976036号公報 特開2006-135430号公報 特開2005-136673号公報 特開2008-225562号公報
 前記のとおり、利用者は数多くの写真を様々な記憶装置に有し、かつそれらを頻繁にスマートフォンで閲覧するようになった。この結果、スマートフォンの画面に表示される数多くの写真の中から、閲覧したい写真を検索した上、選ぶことが困難になっている。特にスマートフォンの表示画面が、従来写真の閲覧に用いられていたパーソナルコンピュータの表示画面に比べて小さいこと、さらにさまざまな記憶装置に保存された写真を一括してスマートフォンで閲覧できるようになったことにより、閲覧したい写真を選ぶことの困難さは、増加の一途をたどっている。
 写真の閲覧者が、多数の写真から閲覧したい写真を選択することを支援するために、写真の画像情報に関連づけて記憶した位置情報を用いる技術(特許文献2)、意味情報を用いる技術(特許文献3)、複数の属性情報を総合して写真を分類する技術(特許文献4)などが提案されている。これら写真の属性情報によっては有効に検索ができない場合については、画像に含まれる文字情報を抽出して検索する方法(特許文献5)、画像に含まれる顔情報を抽出して検索する方法(特許文献6、特許文献7、特許文献8)、さらに複数画像間の関連性を抽出してイベントごとにまとめることで、閲覧者の検索を支援する技術(特許文献9)などが提案されている。
 しかし、位置や時刻などの属性情報を検索キーとして用いる方法の場合、利用者が閲覧したい写真の属性情報を正確に記憶していない場合が多く、閲覧したい写真を検索し見つけることは簡単ではない。たとえば、多くの利用者は「二年前の春くらいの旅行の写真」のような曖昧な情報をもとに、閲覧したい写真を検索する。このような曖昧な情報をもとに、閲覧をしたい写真を見つけ出すことは容易ではない。文字認識や顔認識などの技術によって画像情報から属性情報を抽出する方法についても、抽出精度の低さから実用的な画像検索支援の手段を閲覧者に提供するに至っていない。
 多数の画像からの検索支援については、写真閲覧者にとって、上記公知例のように精度の低い検索手段を利用するよりも、写真が撮影された日時を俯瞰的に表現したカレンダー表示画面からの選択画像絞り込みが有効である。カレンダー表示を利用する方法が提案されている(特許文献10、特許文献11、特許文献12)。しかしながら従来の方法には次のような課題があった。
 最大の問題は、カレンダー表示と写真表示の間の関連を、表示画面に明示的に表現することの困難さである。カレンダー表示画面では、日付の一覧が表示される。有効な検索支援機能を提供するためには、カレンダー表示画面上の個々の日付表示に、各々の日に撮影された画像を関連づけて表示する必要がある。ただし多くの場合、ひとつの日に撮影された写真は複数存在する。すなわち、カレンダー表示で必要な多数の日付情報を表示し、さらに各々の日付情報と関連づけて、それぞれ複数の画像情報を表示する必要がある。そのため表示画面上の要素数が多くなり、日付情報と複数の画像情報との関連づけを直感的に表現することが難しかった。前記特許文献10、特許文献11などはこの問題を解決するための試みであるが、利用者に広く受け入れられているとは言い難い。
 この問題は、スマートフォンのような小さな画面ではさらに深刻である。小さな画面に表示可能な、限られた数のオブジェクトを用いて、多数の写真から閲覧したい写真を絞り込むための、効率的かつ直感的な方法が強く求められるようになった。本発明は、このような状況に鑑みてなされたものであり、スマートフォンのような小さな表示画面を用いる利用者が、おおよその日付をもとに多数の写真から閲覧したい写真を効率よく検索し閲覧が可能となる方法およびシステムを提供する。
 本発明の一実施形態として、表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、前記処理部が、前記第一の画像と前記第二の画像を重畳した合成画像情報を生成し、前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法を提供する。
 本発明の一実施形態として、表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、前記処理部が、前記第一の画像と、前記第二の画像の一部を重畳した合成画像情報を生成し、前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法を提供する。
 本発明の一実施形態として、表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、前記第一の日付情報および前記第二の日付情報に一致部分のある場合には、前記処理部が、前記第一の画像と前記第二の日付情報の一部を重畳した合成画像情報を生成し、前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法を提供する。
 本発明の一実施形態として、表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、前記処理部が、前記第一の画像と前記第一の日付情報の一部を重畳した合成画像情報を生成し、前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法を提供する。
 本発明の一実施形態として、表示部と入力部とを備えた情報端末において、第一の画像、第二の画像および第三の画像を前記表示部に表示する第一の画像一覧表示画面から、前記第一の画像、前記第二の画像を前記表示部に表示する第二の画像一覧表示画面へ遷移し、さらに前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された第一の日付情報の表す撮影日を含むカレンダー表示画面に遷移する、画面遷移の方法であって、前記記憶部が、前記第一の画像情報および前記第三の画像情報に各々関連づけて第一のアルバムIDおよび第二のアルバムIDを記憶し、前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、前記情報端末の処理部が、前記表示部に前記第一の画像一覧表示画面を表示し、前記処理部が、前記第一のアルバムIDの表す第一のアルバム名と前記第二のアルバムIDの表す第二のアルバム名の選択画面を前記表示部に表示し、前記入力部が前記第一のアルバム名を選択すると、前記処理部が前記記憶部より前記第一のアルバムIDに関連づけて記憶された前記第一の画像を選択し、前記処理部が前記表示部に前記第二の画像一覧表示画面を表示し、前記入力部が、前記第一の画像一覧表示画面に表示された前記第二の画像を選択すると、前記処理部が、前記第一の日付情報と前記第二の日付情報を比較し、前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、前記処理部が、前記第一の画像と前記第二の画像を重畳した合成画像情報を生成し、前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法を提供する。
 本発明によれば、スマートフォンのような小さな表示画面を有する情報端末の利用者が、おおよその日付をもとに多数の写真から閲覧したい写真を効率よく絞り込み、簡単に所望の写真を見つけることができる。
(a)本発明の一実施形態に係る画像表示システムを実現するための、情報端末の一例図、(b)タッチスクリーンの一例図 本発明の一実施形態に係る情報端末の概略構成図 (a)画像情報テーブルの一例図、(b)表示画像情報テーブルの一例図 本発明の一実施形態に係る処理のフローチャート 撮影日表現画像の一例図 本発明の一実施形態に係る画像一覧画面の一例図 本発明の一実施形態に係る画像一覧画面の表示の一例図 本発明の一実施形態に係る画面の表示の一例図 (a)本発明の一実施形態に係る画面の表示の一例図、(b)本発明の一実施形態に係る画面の表示の一例図 本発明の一実施形態に係る画面の表示の一例図 本発明の一実施形態に係る処理のフローチャート 本発明の一実施形態に係るアルバム選択画面の一例図 本発明の一実施形態に係る画像一覧画面の表示の一例図 本発明の一実施形態に係る画面の表示の一例図
 以下に本発明を実施するための、現在考えられる最善の形態について説明する。本発明の範囲は、添付特許請求の範囲によって明確に定義されているため、この説明は限定的な意味に解釈すべきではなく、単に発明の一般原理を例示する目的で行う。
 図1に、本発明の一実施形態に係る画像表示システムの概略図を示す。図1(a)は、本発明の一実施形態である画像表示システムを実現するための、情報端末の一例図である。情報端末101は、タッチスクリーン220および入力手段102を有する。タッチスクリーン220は、情報端末101に対する入力機能と表示機能の2つの機能を有する。図1(b)は、タッチスクリーン220の概略構成図の一例図である。タッチスクリーン220は、液晶表示ユニット111、タッチ検出ユニット112および透明保護パネル113を積層した構造を有する。液晶表示ユニット111は表示機能を提供し、タッチ位置検出ユニット112が入力機能を提供する。情報端末101の利用者は、液晶表示ユニットで表示された図形に応じて、透明保護パネルを指100などで接触することにより、タッチ位置検出ユニット112がタッチスクリーン上で接触された位置を検出し、これを入力情報として利用する。
 図2に、本発明の一実施形態に係る情報端末101の概略構成図の一例を示す。情報端末101は、処理部210、タッチスクリーン220、入力手段102、外部記憶手段231および通信手段241を有する。処理部210は演算手段211および記憶手段212から、またタッチスクリーン220は、表示手段223、入力手段222および位置検出手段221より成る。ここでは、本発明の実施形態の一例として、表示手段223として液晶表示ユニット111、入力手段222としてタッチ位置検出ユニット112が使われるとして説明するが、本発明はこの構成に限定されない。またここでは、表示手段223として液晶表示ユニット111を例にとって説明したが、本発明の実施形態としては、液晶以外の原理を用いた表示装置であってもよい。有機ELなどを用いた自発光素子を用いる表示装置であってもよい。
 外部記憶手段231は画像情報テーブル232を有し、画像情報テーブル232では複数の画像情報と、各々の画像の撮影日時情報が関連づけて記憶されている。図3(a)に、画像情報テーブル232の一例を示す。画像情報テーブル232は、画像情報の列310、撮影日時情報320およびアルバムID350の各列を有する。図3では画像情報を、画像を特定する画像ID「IMG2301.jpg」311などで表現している。画像情報310の列および表示画像情報330の列に記憶される情報は、後のステップS405で表示手段223に画像表示可能な情報であればどのような情報でもよい。図3(a)に示す一例では、画像情報310の各々に、アルバムID350が関連づけて記憶されている。画像情報テーブル232には、画像情報に関連づけて撮影日時情報の他に、画像ID、撮影位置情報、撮影条件情報など、他のメタ情報が関連づけて記憶されていてもよい。
 次に、図4に示すフロー図を用いて、本発明の実施形態の一例を説明する。処理部210が画像情報テーブル232に記憶された画像情報テーブルのうち、画像情報、撮影日時情報およびアルバムIDを、記憶手段212に記憶させる(ステップS401)。次に、演算手段211が、記憶手段212に呼び出した画像情報および撮影日時情報から表示画像情報テーブル213を作成する。
 表示画像情報テーブル213の作成は以下の手順でおこなう。まず、演算手段211が画像情報テーブル232のうち記憶手段212に記憶された画像情報を、同じ撮影日を有する画像情報をグループにまとめる。次に演算手段は、各グループの撮影日を表現する撮影日表現画像情報を生成する(ステップS402)。次に演算手段は、生成した撮影日表現画像情報にその撮影日を指し示す代表撮影日情報を関連づける(ステップS403)。この代表撮影日情報と撮影日表現画像情報を関連づけて、ステップS401で処理部に呼び出した画像情報テーブルに追加する。処理部210に画像情報テーブル232から呼び出した画像情報の撮影日が複数ある場合には、各撮影日について上記ステップS402およびステップS403を繰り返し、これを表示画像情報テーブル213とする(ステップS404)。
 図3(b)に、演算手段211がステップS404で記憶手段212に作成した表示画像情報テーブル213の一例を示す。この一例において、演算手段211は、撮影日表現画像情報331を生成する(ステップS402)。そして撮影日表現画像情報331と代表撮影日情報341と関連づけた行を、2013年7月12日の撮影日時情報を持つ画像のグループ301に隣接して追加する(ステップS404)。図3(b)に示す一例では同様に、演算手段211が、撮影日表現画像情報332を生成する(ステップS402)。そしてこれを、代表撮影日情報342と関連づけた行を、2013年7月11日の撮影日情報を持つ画像のグループ302に隣接して追加する(ステップS404)。
 図3では、撮影日2013年7月12日および2013年7月11日に相当する撮影日表現画像情報および代表撮影日情報が例示されているが、これ以外の撮影日を有する画像情報についても同様にステップS402およびステップS403を実行することで表示画像情報テーブルを生成する(ステップS403)。図5には、ステップS402で生成された撮影日表現画像情報をもとに、表示手段223に表示した撮影日表現画像を例示する。撮影日表現画像501は、撮影日表現画像情報331を表示手段223に表示したオブジェクトの一例である。同様に、撮影日表現画像502は、撮影日表現画像情報332を表示手段223に表示したオブジェクトの一例である。図5に例示するとおり、撮影日表現画像は、対応する代表撮影日時情報の全部または一部を含む。
 次に演算手段211が、表示画像情報テーブル213の表示画像情報330を、表示手段223に画像一覧画面として表示する(ステップS405)。図6に、本発明における画像一覧画面の一例を示す。本発明の一実施形態に係る画像一覧画面は、ステップS404で生成した表示画像情報テーブル213を利用して、画像と撮影日表現画像を関連づけて表示する。図6に示す一例では、たとえばタッチスクリーン220に、画像602乃至画像606と関連づけて、撮影日表現画像501が関連づけて表示されている。
 本発明の一実施形態である情報端末101の利用者は、指やペンなどでタッチスクリーン220の任意の場所に接触し、接触した状態を保ったまま上方向632に指630を移動(以下スワイプと呼ぶ)すると、図6に示した画像群および撮影日表現画像群も上方向へと移動し、タッチスクリーン220下方には、図6に表示されている画像より古い撮影日時に関連づけられて外部記憶手段231に記憶された画像群が表示される。同様に図6の一例において、指630を下方633にスワイプすると、タッチスクリーン220上方には、図6に表示されている画像より新しい撮影日時に関連づけられて外部記憶手段231に記憶された画像群および撮影日表現画像が表示される。
 また、本発明の実施形態の一例においては、図6に示すように、画像一覧画面はスライダーオブジェクト620を備えることもできる。利用者は、指630でタッチスクリーン220上に表示されたスライダーオブジェクト620に接触の上、上方にスワイプすることでタッチスクリーン220の下方には、図6に表示されている画像より古い撮影日時に関連付けて外部記憶手段231に記憶された画像群および対応する撮影日表現画像が表示される。同様に、利用者は指630でスライダーオブジェクト620に接触の上、下方にスワイプすることで、タッチスクリーン220の上方には、図6に表示されている画像より新しい撮影情報に関連付けて外部記憶手段231に記憶された画像群および対応する撮影日表現画像が表示される。
 なお、図6に示す一例では、新しい撮影日時の画像をタッチスクリーン220上方に、古い撮影日時の画像をタッチスクリーン220下方に表示したが、逆に新しい画像を下方に、また古い画像を上方に表示してもよい。またここでは、画像一覧画面に表示する画像の画像情報は、処理部210が外部記憶手段231より取得すると述べたが、通信手段241およびネットワーク200を経由して、サーバや他の情報端末より取得した画像情報および撮影日時情報から表示画像情報テーブル213を作成の上、タッチスクリーン220に表示してもよい。
 次に利用者は、指などでタッチスクリーン220に表示された撮影日表現画像に接触する(ステップS406)。たとえば図7に示す一例で、利用者が指630やポインティングデバイスでタッチスクリーン220に表示された撮影日表現画像501に接触する。これを入力手段222が検知すると、位置検出手段221は、撮影日表現画像501が選択されたことを検出し、これを処理部210に通知する。
 再び図3(b)を参照する。処理部210がステップS406により撮影日表現画像501が選択された情報を受け取る。次に演算手段211は、表示画像テーブル213において、撮影日表現画像501に対応する撮影日表現画像情報331に関連づけて記憶された、代表撮影日情報341と同じ日付を持つ表示日時情報を行340から検索する。その検索の結果、撮影日が2013年7月12日であるグループ301が検索される(ステップS407)。次に、演算手段211がグループ301の表示画像情報の中からひとつを選択する。(ステップS408)。ここで選択された表示画像情報は代表画像情報と呼ぶ。図3(b)に示す一例では、代表画像情報として、グループ301の中でもっとも新しい表示日時情報を有する表示画像情報333が選択されたものとした。画像情報333は図7に示す画像602に対応する。しかし本発明においては、どのグループ301の中でどの画像を代表画像情報として選択してもよい。
 次に、図7および図8を参照する。演算手段211は、選択された撮影日表現画像情報331と代表画像情報333を演算することで、撮影日表現画像501および画像情報602を合成し、合成画像情報810を生成する(ステップS409)。また、処理部210は、ステップS406で利用者が選択した撮影日表現画像と同じ年月の撮影日表現画像があるかどうかを判断する(ステップS410)。同じ年月の撮影日表現画像が他にある場合、それらすべてについて、ステップS411、S407、S408、S409およびS410を繰り返すことで、ステップS406で選択された撮影日表現画像と同じ年月のすべての撮影日表現画像から合成画像情報を生成する。
 図7に示す一例においては、合成画像情報810に加えて、撮影日表現画像502、730、740および750の各々と代表画像721、731、741および751を各々合成した、合成画像情報820、830、840および850を生成する。ここでは、ステップS406で選択された撮影日表現画像と同じ月のすべての画像情報および撮影日時情報が、ステップS401で外部記憶手段231の画像情報テーブル232から処理部210の記憶手段212に記憶されていると仮定して説明した。もし、ステップS406で選択された撮影日表現画像と同じ月の画像情報で、処理部210の表示画像情報テーブル213に記憶されていないものがある場合は、ステップS407乃至ステップS411の途中で、処理部210の表示画像情報テーブル213に記憶した上で上記処理を実行してもよい。さらに、ステップS406で選択された撮影日表現画像と同じ月の画像情報で、サーバなど外部の機器に記憶され、表示画像テーブル213に記憶されていないものがあれば、通信手段241およびネットワーク200を経由して表示画像情報テーブル213に記憶した上で上記処理を実行してもよい。
 なお、2つの画像情報の合成画像情報とは、一方の画像情報が表示された状態で他方の画像情報を透明乃至半透明として一方の画像情報の上に重ねて、両方の画像情報を認識可能とする画像情報をいう。
 次に、処理部210はステップS406で利用者に選択された撮影日表現画像331に関連づけられた代表撮影日情報341の表現する年月を抽出(ステップS412)した後、この年月のカレンダー表示のための表示カレンダー情報を生成する。本発明においては、この表示カレンダー情報は、各々の代表撮影日情報の指し示す日付のオブジェクトとして、ステップS409で生成した合成画像情報を用いる。次に、処理部210は前記表示カレンダー情報をタッチスクリーン220に表示する(ステップS413)。図8に示す一例では、演算手段211が、合成画像情報810、820、830、840および850を含むカレンダー表示画像情報を生成し、これを表示手段223が表示している(ステップS413)。
 図8に示す一例では、各々対応する代表画像と撮影日表現画像を重畳したものを合成画像情報とした。本発明では、画像一覧表示から例示のカレンダー表示への遷移において、タッチスクリーン上で代表画像群と撮影日表現画像群を消去することなく双方移動した後で上に重畳してもよい。たとえば、図7に例示する画像一覧表示において、画像602と撮影日表現画像501が表示手段223上で消去されることなく、図8に示す画像810の位置まで縮小しながら移動した上で、合成画像情報810を表示する、という手順でカレンダー表示に遷移してもよい。また本発明における合成画像情報は、代表画像と撮影日表現画像の重畳に限定されない。たとえば、カレンダー表示上で代表画像と撮影日表現画像を隣接させる、線で繋ぐなどの代表画像と撮影日表現画像とを関連づける方法により、情報端末101の利用者が、代表画像と撮影日表現画像との関連づけを明示的に認識できる方法であればよい。
 図8に例示したカレンダー表示は、図7のような写真一覧表示よりも高い一覧性を有する。しかし、図8に例示したカレンダー表示のみで、数年以上の長期にわたり撮影された写真の充分な一覧性を提供できない場合がある。図9には、本発明の実施形態の一例として、長期にわたる一覧性を利用者に提供するためのカレンダー表示の一例を示す。図9(a)は、タッチスクリーン220に図8に示す画面が表示された状態で、情報端末101の利用者が指630などでタッチスクリーン220に接触し、その状態を保ったままタッチスクリーン220の右方へとスワイプ920した際の、タッチスクリーン220の表示画面の一例である。図8に示すカレンダー画面800が、タッチスクリーン220の右方へと移動する。そして、処理部210は2013年7月の前月となる2013年6月の撮影日表現画像群について、本発明によるステップS407乃至S411の処理を繰り返すことにより表示画像情報テーブルを生成する。そして、処理部210がタッチスクリーン220の左方に、この新しい表示画像情報テーブルより生成される2013年6月の合成画像情報の群を含むカレンダー910を表示する。図9(a)に示す状態からさらに指など630でタッチスクリーン220を右方にスワイプすると、タッチスクリーン220全面に2013年6月の合成画像情報の群を含むカレンダーが表示される。
 図9(b)は、タッチスクリーン220に図8に示す画面が表示された状態で、情報端末101の利用者が指630などでタッチスクリーン220に接触し、その状態を保ったままタッチスクリーン220の下方へとスワイプ921した際の、タッチスクリーン220の表示画面の一例である。図8に示すカレンダー画面800が、タッチスクリーン220の下方へと移動する。そして、処理部210は、2013年7月の前年同月である2012年7月の撮影日表現画像群について、本発明によるステップS407乃至S411の処理を繰り返すことにより表示画像情報テーブルを生成する。そして処理部210がタッチスクリーン220の上方に、この新しい表示画像情報テーブルより生成される2012年7月の合成画像情報の群を含むカレンダー920を表示する。図9(b)に示す状態からさらに指など630でタッチスクリーン220を下方にスワイプすると、タッチスクリーン220全面に2012年7月の合成画像情報の群を含むカレンダーが表示される。
 図9(a)に示す一例においてたとえば、利用者が指630などで、タッチスクリーン220に表示された合成画像情報913に接触すると、2013年6月20日の撮影日表現画像、同日の撮影日時情報に関連づけられた画像群、および2013年6月20日近傍の撮影日表現画像および画像群が、たとえば図7に示すような画像一覧画面として表示される。図9(b)に示す一例においてたとえば、利用者が指630などで、タッチスクリーン220に表示された合成画像情報924に接触すると、2012年7月31日の撮影日表現画像、同日の撮影日時情報に関連づけられた画像群、および2012年7月31日近傍の撮影日表現画像および画像群が、たとえば図7に示すような画像一覧画面として表示される。図9に示す一例では、カレンダー表示の年月の切り替えをスワイプによって行ったが、本発明ではこれに限定されず、たとえばタッチスクリーン220に表示されたボタンを指などで選択することで、カレンダー表示の年月切り替えが行われてもよい。
 図8および図10を参照して、カレンダー表示から画像表示へ遷移の一例を示す。いまたとえば、カレンダー表示の一例である図8において、利用者がタッチスクリーン220に表示された重複画像820を指などで選択する。すると演算手段211が、表示画像情報テーブル213より、撮影日表現画像820に関連づけられた代表撮影日情報342を検索する。次に処理部210が、撮影日表現画像情報332、撮影日が2013年7月11日のグループ302の表示画像情報群、および2013年7月11日近傍の表示日時情報340を有する表示画像情報群を、画像一覧表示としてタッチスクリーン220に表示する。
 図10には、以上のように再度表示された画像一覧表示画面を例示する。図10の一例では、撮影日表現画像502の表す2013年7月11日およびその近傍の撮影日を有する画像の一覧表示が、タッチスクリーン220に表示されている。
 このように本発明によれば、利用者が画像一覧表示と関連するカレンダー表示の間を、タッチスクリーンに一度接触するだけで遷移可能となる。特に本発明の一実施形態では、画像一覧表示で写真を閲覧中に、撮影日表現画像で指定される日付の近傍のカレンダーに、タッチスクリーンに一度タッチするだけで遷移することができる。従来の方法によれば、利用者はカレンダー表示に切り替え、続いて閲覧したい時期のカレンダー表示を探して切り替える操作が必要であった。このため、従来の方法では、長期にわたって撮影された数多くの画像の中から、利用者が閲覧したい画像を簡単に探すことが困難であった。本発明の一実施形態においては、従来の方法より少ないステップ数で画像一覧表示とカレンダー表示を往復しながら、利用者が表示したい画像を簡単に探すことができる。
 次に、画像がアルバムにタグ付けされた状態で、本発明の一実施形態により、利用者が閲覧したい画像を探す処理について説明する。一般に、多数の画像を有する利用者は、画像をアルバムにタグ付けして、情報端末などに記憶している。本発明は、このような場合に特に有効である。以下では図11および図4に示すフロー図を用いて、アルバムにタグ付けされた画像を簡単に検索する方法について説明する。
 まず、演算手段211が画像情報テーブル232を記憶手段212に記憶する(ステップS1101)。再び図3を参照する。図3に示す一例では、画像情報テーブル232がアルバムIDの列350を有し、個々の画像情報にアルバムIDがタグ付けされている。ステップS1101では、画像情報、撮影日時情報に関連づけてアルバムIDも記憶手段212に記憶する。
 次に利用者が入力手段102のボタンを下押しすると、処理部210はタッチスクリーン220に、アルバム選択画面を表示する(ステップS1102)。図12に、アルバム選択画面の一例を示す。図12に示す一例では、アルバム選択画面1200は、全写真表示ボタン1201、「料理」アルバム表示ボタン1202および「動物」アルバム表示ボタン1203を有する。本実施形態において、「料理」アルバムは、図3におけるアルバムID「A」を有するアルバムであり、「動物」アルバムは、図3におけるアルバムID「B」を有するアルバムであるとする。これまで説明した図6乃至図10は、各画像情報に関連づけられたアルバムIDを問わず、すべての写真が表示されていた。これは、アルバム選択画面1200において全写真表示ボタン1201が選択されていたことに対応する。ここで、アルバム選択が画面1200は、タッチスクリーン以外の入力手段の下押しによって表示されるとしたが、タッチスクリーンの入力手段222への入力によって表示されてもよい。
 次に、利用者が指など630でタッチスクリーン220に表示された「動物」アルバム表示ボタン1203を選択する(ステップS1103)。処理部210は位置検出手段221よりアルバム表示ボタン1203が選択された信号を受信する。演算手段211は、ステップS1101で記憶手段212に呼び出した、画像情報テーブルを、ステップS1103で選択された「動物」アルバムのアルバムIDである「B」で検索し、アルバムID「B」と関連づけられたレコードを抽出する(ステップS1104)。
 続いて図4のステップS402以下の処理によって、表示画像情報テーブル213を生成し、「動物」アルバムにタグ付けされた画像群のみを、画像一覧表示およびカレンダー表示の形式でタッチスクリーン220に表示する。図13および図14を参照して、本発明による写真一覧表示とカレンダー表示について説明する。詳細の処理ステップは図4と同じなので、再度の説明は省略する。
 図13は、ステップS405の結果タッチスクリーン220に表示された「動物」アルバムの写真一覧表示1300の一例である。図7では、表示画像情報テーブル213の表示画像および撮影日表現画像すべてが、画像一覧表示としてタッチスクリーン220上で表示されている。これに対して図13は、表示画像情報テーブル213において、「動物」アルバムを表すアルバムID「B」に関連づけられた画像情報およびこれに関連づけられた撮影日表現画像のみが、画像一覧表示としてタッチスクリーン220上で表示されている。再び図3(b)を参照する。アルバムID362乃至365および367はすべてアルバムIDが「A」である。また、アルバムID366は「NULL」であり、画像334はどのアルバムにもタグ付けされていない。したがって、このため図6の撮影日表現画像501および画像602乃至画像606および図7の画像721はステップS1104における抽出からは除外される。このためこれらは、図13における動物アルバムの画像一覧表示1300には表示されない。他方、図7における画像722、723、724、741、764および765は、表示画像情報テーブル213において「動物」アルバムを表すアルバムID「B」に関連づけられているため、図13に表示されている。
 次に図14には、「動物」アルバムのカレンダー表示1400の一例を示す。図13において、ステップS406のとおり、指など630が撮影日表現画像740を選択する。すると、ステップS1104で抽出された画像情報のみについて、ステップS407乃至S413の処理が実行される。この結果、図8では表示されていた合成画像情報850、830および810が、図14では表示されず代わりに各々の日付を表すオブジェクト1450、1430および1410が表示されている。
 以上のように、本発明によれば多数の画像のうちの一部が、アルバムに整理されている場合、アルバム内で画像一覧表示およびカレンダー表示を遷移しながら、閲覧したい画像を簡単に探すことができる。たとえば従来の、「半年前に、レストランで食事した時のデザートの写真」、「2010年秋ごろに動物園で撮ったライオンの写真」「5年前の今日の子供の写真」といったあいまいな検索条件で閲覧したい画像を的確に探すためには、詳細なアルバムへのタグ付けをおこなう必要があった。しかし、本発明によれば、おおよそのアルバム分けがなされている状況であれば、アルバム内での画像一覧表示とカレンダー表示との間の往復によって、簡単に閲覧したい画像を探すことができる。
 なお、以上説明した実施形態を情報端末で実行するためのプログラムを提供することも可能である。情報端末は、CPU(Central Processing Unit)、一時記憶装置、二次記憶装置、表示部、入力部などがバスにより接続された計算機の一種であるからである。

Claims (8)

  1.  表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、
     前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、
     前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、
     前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、
     前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、
     前記処理部が、前記第一の画像と前記第二の画像を重畳した合成画像情報を生成し、
     前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法。
  2.  表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、
     前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、
     前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、
     前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、
     前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、
     前記処理部が、前記第一の画像と、前記第二の画像の一部を重畳した合成画像情報を生成し、
     前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法。
  3.  表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、
     前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、
     前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、
     前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、
     前記第一の日付情報および前記第二の日付情報に一致部分のある場合には、
     前記処理部が、前記第一の画像と前記第二の日付情報の一部を重畳した合成画像情報を生成し、
     前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法。
  4.  表示部と入力部とを備えた情報端末において、第一の画像および第二の画像を前記表示部に表示する画像一覧表示画面から、前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された、第一の日付情報の表す撮影日を含むカレンダー表示画面への画面遷移の方法であって、
     前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、
     前記入力部が、前記画像一覧表示画面に表示された前記第二の画像を選択すると、
     前記情報端末の処理部が、前記第一の日付情報と前記第二の日付情報を比較し、
     前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、
     前記処理部が、前記第一の画像と前記第一の日付情報の一部を重畳した合成画像情報を生成し、
     前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法。
  5.  表示部と入力部とを備えた情報端末において、第一の画像、第二の画像および第三の画像を前記表示部に表示する第一の画像一覧表示画面から、前記第一の画像、前記第二の画像を前記表示部に表示する第二の画像一覧表示画面へ遷移し、さらに前記第一の画像を表す第一の画像情報に関連づけて前記情報端末の記憶部に記憶された第一の日付情報の表す撮影日を含むカレンダー表示画面に遷移する、画面遷移の方法であって、
     前記記憶部が、前記第一の画像情報および前記第三の画像情報に各々関連づけて第一のアルバムIDおよび第二のアルバムIDを記憶し、
     前記記憶部が、前記第二の画像を表す第二の画像情報に関連づけて第二の日付情報を記憶し、
     前記情報端末の処理部が、前記表示部に前記第一の画像一覧表示画面を表示し、
     前記処理部が、前記第一のアルバムIDの表す第一のアルバム名と前記第二のアルバムIDの表す第二のアルバム名の選択画面を前記表示部に表示し、
     前記入力部が前記第一のアルバム名を選択すると、前記処理部が前記記憶部より前記第一のアルバムIDに関連づけて記憶された前記第一の画像を選択し、
     前記処理部が前記表示部に前記第二の画像一覧表示画面を表示し、
     前記入力部が、前記第一の画像一覧表示画面に表示された前記第二の画像を選択すると、
     前記処理部が、前記第一の日付情報と前記第二の日付情報を比較し、
     前記第一の日付情報および前記第二の日付情報に一致する部分がある場合には、
     前記処理部が、前記第一の画像と前記第二の画像を重畳した合成画像情報を生成し、
     前記表示部が、前記合成画像情報を前記カレンダー表示画面内で前記撮影日として表示することを特徴とする方法。
  6.  前記一致する部分があることは、前記第一の日付情報に含まれる月を表す第一の月情報と前記第二の日付情報に含まれる月を表す第二の月情報とが一致することであることを特徴とする請求項1乃至請求項5のいずれか一に記載の方法。
  7.  前記一致する部分があることは、前記第一の日付情報に含まれる年を表す第一の年情報と前記第二の日付情報に含まれる年を表す第二の年情報とが一致することであることを特徴とする請求項1乃至請求項5のいずれか一に記載の方法。
  8.  前記合成画像情報は、前記表示部に表示された画像および情報を非表示にすることなく移動させ、重畳させることで生成することを特徴とする請求項1乃至請求項7のいずれか一に記載の方法。
PCT/JP2014/067011 2013-06-27 2014-06-26 画像表示方法およびシステム WO2014208673A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201480034956.1A CN105324747A (zh) 2013-06-27 2014-06-26 图像显示方法及系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-135198 2013-06-27
JP2013135198A JP5813703B2 (ja) 2013-06-27 2013-06-27 画像表示方法およびシステム

Publications (1)

Publication Number Publication Date
WO2014208673A1 true WO2014208673A1 (ja) 2014-12-31

Family

ID=52141999

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/067011 WO2014208673A1 (ja) 2013-06-27 2014-06-26 画像表示方法およびシステム

Country Status (3)

Country Link
JP (1) JP5813703B2 (ja)
CN (1) CN105324747A (ja)
WO (1) WO2014208673A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11297242B2 (en) * 2017-02-23 2022-04-05 Maxell, Ltd. Imaging apparatus which generates title images for classifying a plurality of captured images and inserts the title images as separate images within the plurality of captured images
CN110830766B (zh) * 2019-10-15 2021-05-04 许昌许继软件技术有限公司 一种变电站监控系统间隔画面自动配置、修正方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302196A (ja) * 2005-04-25 2006-11-02 Sony Ericsson Mobilecommunications Japan Inc 表示制御装置、表示制御方法、携帯端末装置及び表示制御プログラム
JP2007011861A (ja) * 2005-07-01 2007-01-18 Canon Inc 画像検索装置および画像検索方法
JP2008245108A (ja) * 2007-03-28 2008-10-09 Olympus Imaging Corp デジタルカメラ
JP2008263457A (ja) * 2007-04-12 2008-10-30 Sony Corp 情報提示装置及び情報提示方法、並びにコンピュータ・プログラム
JP2010033132A (ja) * 2008-07-25 2010-02-12 Sony Corp 表示制御装置、表示制御方法およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102792A (ja) * 2002-09-11 2004-04-02 Canon Inc 画像検索装置及びその方法、並びにプログラム及び媒体
JP4182857B2 (ja) * 2003-10-24 2008-11-19 カシオ計算機株式会社 画像表示装置、画像表示装置の制御方法、及びプログラム
JP2005136673A (ja) * 2003-10-30 2005-05-26 Konica Minolta Holdings Inc 画像再生装置
JP4380494B2 (ja) * 2004-10-07 2009-12-09 ソニー株式会社 コンテンツ・マネジメント・システム及びコンテンツ・マネジメント方法、並びにコンピュータ・プログラム
JP2006135430A (ja) * 2004-11-02 2006-05-25 Olympus Corp カレンダー表示機能を有する電子アルバム及びカメラ
JP2007018352A (ja) * 2005-07-08 2007-01-25 Olympus Imaging Corp 画像表示装置、画像表示プログラム、画像表示方法及び記録媒体
JP4901258B2 (ja) * 2006-03-28 2012-03-21 オリンパスイメージング株式会社 カメラ及びデータ表示方法
JP2007310813A (ja) * 2006-05-22 2007-11-29 Nikon Corp 画像検索装置およびカメラ
JP2008225562A (ja) * 2007-03-08 2008-09-25 Sharp Corp 電子カレンダー
JP5282632B2 (ja) * 2009-04-01 2013-09-04 ソニー株式会社 表示制御装置、表示制御方法、プログラム
JP2011118696A (ja) * 2009-12-03 2011-06-16 Hitachi Ltd データ表示装置、データの表示方法及びプログラム
JP2011205562A (ja) * 2010-03-26 2011-10-13 Sony Corp 画像表示装置および画像表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302196A (ja) * 2005-04-25 2006-11-02 Sony Ericsson Mobilecommunications Japan Inc 表示制御装置、表示制御方法、携帯端末装置及び表示制御プログラム
JP2007011861A (ja) * 2005-07-01 2007-01-18 Canon Inc 画像検索装置および画像検索方法
JP2008245108A (ja) * 2007-03-28 2008-10-09 Olympus Imaging Corp デジタルカメラ
JP2008263457A (ja) * 2007-04-12 2008-10-30 Sony Corp 情報提示装置及び情報提示方法、並びにコンピュータ・プログラム
JP2010033132A (ja) * 2008-07-25 2010-02-12 Sony Corp 表示制御装置、表示制御方法およびプログラム

Also Published As

Publication number Publication date
CN105324747A (zh) 2016-02-10
JP5813703B2 (ja) 2015-11-17
JP2015011450A (ja) 2015-01-19

Similar Documents

Publication Publication Date Title
US10579187B2 (en) Display control apparatus, display control method and display control program
US9811245B2 (en) Systems and methods for displaying an image capturing mode and a content viewing mode
US20180246978A1 (en) Providing actions for onscreen entities
US11025582B1 (en) Systems and methods for creating multiple renditions of a social media composition from inputs to a single digital composer
CN103902640B (zh) 可携式电子装置、内容推荐方法及计算机可读媒体
US8910076B2 (en) Social media platform
US20120151398A1 (en) Image Tagging
EP3005055B1 (en) Apparatus and method for representing and manipulating metadata
US20130318437A1 (en) Method for providing ui and portable apparatus applying the same
US10067657B2 (en) User configurable quick groups
US20120266103A1 (en) Method and apparatus of scrolling a document displayed in a browser window
CN104346037B (zh) 信息处理设备和信息处理方法
CN113841138A (zh) 在媒体库的多个缩放层级中显示资产
KR20160023412A (ko) 전자 장치에서 화면을 표시하는 방법 및 이를 위한 전자 장치
US9201900B2 (en) Related image searching method and user interface controlling method
US10162507B2 (en) Display control apparatus, display control system, a method of controlling display, and program
JP2010165117A (ja) 検索対象コンテンツの特徴を利用したコンテンツ表示方法
KR20120026836A (ko) 데이터 객체 디스플레이 방법 및 장치와 컴퓨터로 읽을 수 있는 저장 매체
US20140181712A1 (en) Adaptation of the display of items on a display
JP5813703B2 (ja) 画像表示方法およびシステム
WO2013144428A1 (en) Method, apparatus and computer program product for visually grouping relationships from databases
JP6335146B2 (ja) 画面遷移の方法およびプログラム
US20140279255A1 (en) System and method for layered visualization of points of interest data
JP2013206332A (ja) 仮想三次元空間上の操作オブジェクトを用いたコンテンツ表示プログラム、装置及び方法
KR101421726B1 (ko) 사진 브라우징 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480034956.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14818115

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14818115

Country of ref document: EP

Kind code of ref document: A1