[go: up one dir, main page]

JP6647039B2 - Image processing apparatus, image processing method, and computer program - Google Patents

Image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JP6647039B2
JP6647039B2 JP2015255235A JP2015255235A JP6647039B2 JP 6647039 B2 JP6647039 B2 JP 6647039B2 JP 2015255235 A JP2015255235 A JP 2015255235A JP 2015255235 A JP2015255235 A JP 2015255235A JP 6647039 B2 JP6647039 B2 JP 6647039B2
Authority
JP
Japan
Prior art keywords
image data
image
layout
unit
cover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015255235A
Other languages
Japanese (ja)
Other versions
JP2017117403A (en
JP2017117403A5 (en
Inventor
寛康 國枝
寛康 國枝
後藤 文孝
文孝 後藤
正明 大林
正明 大林
真耶 黒川
真耶 黒川
慶範 溝口
慶範 溝口
加藤 真夫
真夫 加藤
池田 徹
徹 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015255235A priority Critical patent/JP6647039B2/en
Publication of JP2017117403A publication Critical patent/JP2017117403A/en
Publication of JP2017117403A5 publication Critical patent/JP2017117403A5/ja
Application granted granted Critical
Publication of JP6647039B2 publication Critical patent/JP6647039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像表示技術に関するものである。   The present invention relates to an image display technique.

デジタルカメラの普及に加え、近年ではスマートデバイスの普及及びスマートデバイスのカメラ性能の向上により、ユーザの写真撮影枚数が急激に増加している。撮影した写真をまとめる一手段としてフォトブックが注目されている。しかし、フォトブックの作成には、大量の写真群からよい写真を選別し、レイアウトを試行錯誤するため手間がかかる。近年ではこのような問題を解決するために、自動で写真を解析してレイアウトを提案するサービスが登場しつつある。   In recent years, in addition to the spread of digital cameras, the spread of smart devices and the improvement of camera performance of smart devices have led to a rapid increase in the number of photographed photos by users. Photo books are attracting attention as a means of organizing photographed pictures. However, creating a photo book is troublesome because good photos are selected from a large number of photos and the layout is determined by trial and error. In recent years, in order to solve such a problem, a service for automatically analyzing a photograph and proposing a layout has appeared.

特許文献1では、電子アルバム内の大量画像群からアルバムの表紙画像を自動的に選択する方法として、撮影頻度、画像データの解像度に基づいて画像データをグループ分けし、グループごとに画像を選択する手法が提案されている。   In Patent Literature 1, as a method of automatically selecting a cover image of an album from a large number of images in an electronic album, image data is divided into groups based on shooting frequency and resolution of image data, and images are selected for each group. An approach has been proposed.

特開2003−58867号公報JP 2003-58867 A

しかしながら、特許文献1に記載の画像選択では、画像データをグループ化し、グループごとに表紙画像を自動選択しているため、表紙レイアウトの表示までに時間がかかり、編集を含む表紙レイアウトの完了までを効率よく行うことができない。   However, in the image selection described in Patent Literature 1, image data is grouped, and a cover image is automatically selected for each group. Therefore, it takes time to display the cover layout, and it takes time to complete the cover layout including editing. It cannot be done efficiently.

本発明はこのような問題に鑑みてなされたものであり、フォトアルバムの作成において、表紙レイアウトの完了までを効率よく行うための技術を提供する。   The present invention has been made in view of such a problem, and provides a technique for efficiently performing a cover layout in creating a photo album.

本発明の一様態は、画像データ群から選択された画像データに基づく画像をレイアウトしたレイアウト画像データを生成する生成手段と、前記生成手段により生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御手段と、を備え、前記生成手段は、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、前記生成手段が表紙に対応するレイアウト画像データを生成した場合、前記表示制御手段は、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、前記生成手段は、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする。   One embodiment of the present invention is a generation unit that generates layout image data in which an image is laid out based on image data selected from an image data group, and a display unit that displays a layout image based on the layout image data generated by the generation unit. Display generating means for generating layout image data corresponding to the cover and layout image data corresponding to the book body, and the generating means generating layout image data corresponding to the cover. The display control means displays a layout image of the cover on the display unit based on the layout image data corresponding to the cover, and the generating means sets the main body in a background of the display of the layout image of the cover. Is generated.

本発明の構成によれば、フォトアルバムの作成において、表紙レイアウトの完了までを効率よく行うことができる。   According to the configuration of the present invention, in creating a photo album, it is possible to efficiently perform until the cover layout is completed.

画像処理装置100のハードウェア構成例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus. 自動レイアウト機能に係る機能部の構成例を示すブロック図。FIG. 2 is a block diagram illustrating a configuration example of a functional unit related to an automatic layout function. GUIの構成例を示す図。FIG. 3 is a diagram illustrating a configuration example of a GUI. 画像処理装置100が行う処理のフローチャート。5 is a flowchart of a process performed by the image processing apparatus 100. 画像解析情報の一例を示す図。The figure which shows an example of image analysis information. グループ分けの一例を示す図。The figure which shows an example of grouping. シーン分類基準データの一例を示す図。The figure which shows an example of scene classification reference data. ステップS410を説明する図。The figure explaining step S410. ステップS421を説明する図。The figure explaining step S421. テンプレート及び撮像画像を示す図。The figure which shows a template and a picked-up image. 選択部210の機能構成例を示すブロック図。FIG. 3 is a block diagram showing a functional configuration example of a selection unit 210. 選択部210が行う画像選択処理のフローチャート。5 is a flowchart of an image selection process performed by a selection unit 210. 第3の実施形態に係る補正タイミングを説明するフローチャート。9 is a flowchart illustrating a correction timing according to the third embodiment. 判定部2206及びトリミング部2207の動作を説明する図。FIG. 4 is a diagram for explaining operations of a determination unit 2206 and a trimming unit 2207. 画面の推移のフローチャート。9 is a flowchart of screen transition. S1503において表示されるGUIの表示例を示す図。FIG. 14 is a view showing a display example of a GUI displayed in S1503. GUI1701の表示例を示す図。FIG. 9 is a diagram illustrating a display example of a GUI 1701. GUIの表示例を示す図。FIG. 9 is a view showing a display example of a GUI. 表紙用撮像画像の選択方法を説明する図。The figure explaining the selection method of the captured image for covers. テンプレート及び撮像画像を示す図。The figure which shows a template and a picked-up image. 処理の進行の度合いを表したウィンドウ2101の表示例を示す図。FIG. 9 is a view showing a display example of a window 2101 indicating the degree of progress of processing. レイアウト部217の構成例を示す図。FIG. 3 is a diagram illustrating a configuration example of a layout unit 217. レイアウト部217の動作を示すフローチャート。9 is a flowchart showing the operation of the layout unit 217.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The embodiment described below shows an example in which the present invention is specifically implemented, and is one specific example of the configuration described in the claims.

[第1の実施形態]
本実施形態では、画像処理装置の一例について説明する。この画像処理装置は、画像データ群から選択された画像データに基づく画像をフォトアルバムの表紙にレイアウトすることにより表紙のレイアウト画像を生成する。また、画像データ群から選択された画像データに基づく画像をフォトアルバムの本身にレイアウトすることにより本身のレイアウト画像を生成する。本身のレイアウト画像の生成は、表紙レイアウト画像の表示のバックグラウンドで動作する。
[First Embodiment]
In the present embodiment, an example of an image processing device will be described. The image processing apparatus generates a cover layout image by laying out an image based on image data selected from an image data group on a cover of a photo album. Further, a layout image of the main body is generated by laying out an image based on the image data selected from the image data group in the main body of the photo album. The generation of the main body layout image operates in the background of the display of the cover layout image.

以下では、電子アルバム(フォトアルバム)の表紙及び裏表紙、並びに本身の各ページに画像を自動的にレイアウトするアプリケーションソフトウェアを画像処理装置において実行するケースについて説明する。   In the following, a case will be described in which the image processing apparatus executes application software for automatically laying out images on the front and back covers of an electronic album (photo album) and on each page of a book.

先ず、本実施形態に係る画像処理装置100のハードウェア構成例について、図1のブロック図を用いて説明する。CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU101は、画像処理装置100全体の動作制御を行うと共に、画像処理装置100が行うものとして後述する表示制御を含む各処理を実行若しくは制御する。なお、CPU101は単数であっても良いし複数であっても良い。ROM102には、書き換え不要な本装置の設定データや、書き換え不要の本装置のコンピュータプログラム(ブートプログラムなど)が格納されている。   First, an example of a hardware configuration of the image processing apparatus 100 according to the present embodiment will be described with reference to the block diagram of FIG. The CPU 101 executes processing using computer programs and data stored in the ROM 102 and the RAM 103. Accordingly, the CPU 101 controls the operation of the entire image processing apparatus 100 and executes or controls various processes including the display control described later as the processing performed by the image processing apparatus 100. The number of CPUs 101 may be one or more. The ROM 102 stores setting data of the apparatus that does not require rewriting, and computer programs (such as boot programs) of the apparatus that do not require rewriting.

RAM103は、HDD(ハードディスクドライブ装置)104やROM102からロードされたコンピュータプログラムやデータ、データ通信装置108を介して外部から受信したデータを格納するためのエリアを有する。更にRAM103は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM103は、各種のエリアを適宜提供することができる。   The RAM 103 has an area for storing computer programs and data loaded from the HDD (hard disk drive) 104 and the ROM 102, and data received from the outside via the data communication device 108. Further, the RAM 103 has a work area used when the CPU 101 executes various processes. As described above, the RAM 103 can appropriately provide various areas.

HDD104は、大容量情報記憶装置の一例である。HDD104には、OS(オペレーティングシステム)や、画像処理装置100が行うものとして後述する各処理をCPU101に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、上記のアプリケーションソフトウェアが含まれている。なお、アプリケーションソフトウェアは、例えば、外部装置からダウンロードして、HDD104等に保存される。また、このデータには、以下の説明において予め作成されているもの(既知の情報)として登場する情報が含まれている。HDD104に保存されているコンピュータプログラムやデータは、CPU101による制御に従ってRAM103にロードされ、CPU101による処理対象となる。   The HDD 104 is an example of a large-capacity information storage device. The HDD 104 stores an OS (Operating System) and computer programs and data for causing the CPU 101 to execute or control each process to be described later that is performed by the image processing apparatus 100. This computer program includes the above application software. The application software is downloaded from, for example, an external device and stored in the HDD 104 or the like. Further, this data includes information appearing as information (known information) created in advance in the following description. The computer programs and data stored in the HDD 104 are loaded into the RAM 103 under the control of the CPU 101, and are processed by the CPU 101.

ディスプレイ105は、表示部の一例であり、CPU101による処理結果を画像や文字などでもって表示する。キーボード106及びマウス107は、ユーザインターフェースの一例であり、ユーザが操作することで各種の指示をCPU101に対して入力することができる。なお、ディスプレイ105、キーボード106、マウス107の代わりにタッチパネル画面を用いても構わない。   The display 105 is an example of a display unit, and displays a processing result of the CPU 101 as an image, characters, or the like. The keyboard 106 and the mouse 107 are examples of a user interface, and various instructions can be input to the CPU 101 by operating the user. Note that a touch panel screen may be used instead of the display 105, the keyboard 106, and the mouse 107.

データ通信装置108は、外部機器とのデータ通信を行うためのものである。例えば、データ通信装置108は、インターネットやLANを介して端末装置、プリンタ、複合機との間のデータ通信を行う。   The data communication device 108 is for performing data communication with an external device. For example, the data communication device 108 performs data communication with a terminal device, a printer, and a multifunction peripheral via the Internet or a LAN.

CPU101、ROM102、RAM103、HDD104、ディスプレイ105、キーボード106、マウス107、データ通信装置108は何れも、バス109に接続されている。なお、上述したような構成の画像処理装置100には、例えば、PC(パーソナルコンピュータ)、タブレット端末装置、スマートフォン等を適用することができる。   The CPU 101, the ROM 102, the RAM 103, the HDD 104, the display 105, the keyboard 106, the mouse 107, and the data communication device 108 are all connected to the bus 109. Note that, for example, a PC (personal computer), a tablet terminal device, a smartphone, or the like can be applied to the image processing apparatus 100 having the above-described configuration.

次に、上記のアプリケーションソフトウェアにおいて、後述する自動レイアウト機能に係る機能部について、図2のブロック図を用いて説明する。このアプリケーションソフトウェアは様々な機能を持つが、図2では、特に自動レイアウト機能に係る機能部を示している。図2に示す如く、アプリケーションソフトウェアは、指定部201と、自動レイアウト処理部218と、を含む。自動レイアウト機能は、撮像された複数の写真から所定枚数の写真を選択してレイアウトし、ディスプレイ105に表示する、フォトアルバム作成用の機能である。   Next, a functional unit related to an automatic layout function described later in the above application software will be described with reference to the block diagram of FIG. Although this application software has various functions, FIG. 2 particularly shows functional units related to the automatic layout function. As shown in FIG. 2, the application software includes a designation unit 201 and an automatic layout processing unit 218. The automatic layout function is a function for creating a photo album in which a predetermined number of photos are selected from a plurality of captured photos, laid out, and displayed on the display 105.

図2に示す如く、自動レイアウト処理部218は、複数の機能部により構成されており、該複数の機能部によって自動レイアウト処理部218の機能が実現される。なお、図2では、指定部201は自動レイアウト処理部218とは別個の機能部として示しているが、指定部201は自動レイアウト処理部218内に含めても構わない。   As shown in FIG. 2, the automatic layout processing unit 218 includes a plurality of functional units, and the functions of the automatic layout processing unit 218 are realized by the plurality of functional units. In FIG. 2, the specifying unit 201 is shown as a functional unit separate from the automatic layout processing unit 218, but the specifying unit 201 may be included in the automatic layout processing unit 218.

このアプリケーションソフトウェアは、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動する。   The application software is activated when, for example, the user double-clicks the application icon displayed on the display 105 using the mouse 107.

なお、以降の説明では、図2に示した機能部を処理の主体として説明する場合があるが、実際には、該機能部に対応するコンピュータプログラムをCPU101が実行することで該機能部の機能が実現される。   In the following description, the functional unit illustrated in FIG. 2 may be mainly described as a processing entity. However, in practice, the CPU 101 executes a computer program corresponding to the functional unit to execute the function of the functional unit. Is realized.

また、後述するそれぞれの機能部の機能は、その一部若しくは全部を他の機能部に任せても構わないし、他の機能部と協調動作を行うことで実現させるようにしても構わない。つまり、複数の機能部によって自動レイアウト処理部218の機能が実現されるのであれば、個々の機能部がどのような動作を行うのかについては特定の形態に限らない。   In addition, some or all of the functions of each of the functional units described below may be left to another functional unit, or may be realized by performing a cooperative operation with another functional unit. In other words, as long as the function of the automatic layout processing unit 218 is realized by a plurality of functional units, the operation of each functional unit is not limited to a specific form.

指定部201は、「フォトアルバムの作成条件を構成する様々な情報」を取得し、該取得した情報を自動レイアウト処理部218に供給する。「フォトアルバムの作成条件を構成する様々な情報」は、例えば、ユーザがキーボード106やマウス107を操作して、ディスプレイ105に表示されたGUI(グラフィカルユーザインターフェース)上で設定した情報である。ユーザがGUI上でこれらの情報の設定を行った後で完了指示を入力すると、指定部201は、該GUI上で設定された「フォトアルバムの作成条件を構成する様々な情報」を取得する。もちろん、予めGUI上で作成してHDD104に保存した「フォトアルバムの作成条件を構成する様々な情報」を指定部201がHDD104から取得するようにしても構わない。設定される条件には、たとえば対象となる画像や主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件等の指定が含まれる。画像の指定は、たとえば撮像日時など個別の画像の付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像を含むファイルシステムの構造に基づく指定であってもよい。なお、本実施形態において、「見開き」とは、たとえば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。   The specifying unit 201 acquires “various information constituting the conditions for creating a photo album” and supplies the acquired information to the automatic layout processing unit 218. The “various information constituting the conditions for creating a photo album” is, for example, information set on a GUI (graphical user interface) displayed on the display 105 by the user operating the keyboard 106 and the mouse 107. When the user inputs the completion instruction after setting these pieces of information on the GUI, the specifying unit 201 acquires “various information constituting the conditions for creating a photo album” set on the GUI. Of course, the designation unit 201 may acquire, from the HDD 104, “various information forming the conditions for creating a photo album” that has been created in advance on the GUI and stored in the HDD 104. The conditions to be set include, for example, designation of a target image or a hero ID, the number of facing pages of an album, template information, ON / OFF conditions for image correction, and the like. The specification of an image may be, for example, a specification based on accompanying information or attribute information of an individual image, such as an imaging date and time, or may be a specification based on a file system structure including an image, such as a device or a directory. In the present embodiment, the “spread pages” correspond to, for example, one display window in display, and correspond to a pair of adjacent pages printed on different sheets in printing.

画像取得部202は、HDD104から撮像画像データ群(1つのフォトアルバムを作成する際に各ページにレイアウトする候補となる撮像画像データ群)を読み出す。なお、指定部201が取得した情報の中に、画像取得部202が読み出す撮像画像データの条件が含まれているような場合には、画像取得部202は、この条件に従った撮像画像データをHDD104から読み出す。例えば、指定部201が取得した情報の中に「撮像日時がXX年1月1日〜XX年12月31日の撮像画像」という条件が含まれていたとする。この場合、画像取得部202は、XX年1月1日〜XX年12月31日の期間内の撮像日時の撮像画像データ(例えば、この期間内の撮像日時を示す付加情報が添付された撮像画像データ)をHDD104から読み出す。   The image acquisition unit 202 reads a group of captured image data (group of captured image data that is a candidate to be laid out on each page when one photo album is created) from the HDD 104. When the information acquired by the specifying unit 201 includes a condition of the captured image data read by the image acquiring unit 202, the image acquiring unit 202 converts the captured image data according to the condition. Read from HDD 104. For example, it is assumed that the information acquired by the specifying unit 201 includes a condition that “the imaged date and time is a captured image from January 1, XX to December 31, XX”. In this case, the image acquisition unit 202 determines that the captured image data of the imaging date and time within the period from January 1, XX to December 31, XX (for example, Image data) from the HDD 104.

HDD104に保存されている撮像画像データとしては、静止画像データや、動画から切り出された切り出し画像データが挙げられる。静止画像データや切り出し画像は、デジタルカメラやスマートデバイス等の撮像デバイスから取得したものである。撮像デバイスは、画像処理装置100が備えていてもよいし、外部装置が備えるものであってもよい。なお、撮像デバイスが外部装置である場合は、画像データはデータ通信装置108を介して取得する。また、静止画像データや切り出し画像データは、データ通信装置108を介してネットワークやサーバから取得した画像データであってもよい。ネットワークやサーバから取得した画像データとしては、ソーシャルネットワーキングサービス画像データ(以下、「SNS画像データ」という)が挙げられる。CPU101は、各画像データに対して、該画像データに付随したデータを解析して保存元を判定する。SNS画像データは、アプリケーションソフトウェアを介してSNSから取得され、アプリケーションソフトウェアによる管理の下でその取得先を管理してもよい。画像データは、上述した画像データに限定されるものではなく、他の種類の画像データであってもよい。   Examples of the captured image data stored in the HDD 104 include still image data and cutout image data cut out from a moving image. The still image data and the cut-out image are obtained from an imaging device such as a digital camera or a smart device. The imaging device may be included in the image processing apparatus 100 or may be included in an external device. When the imaging device is an external device, the image data is acquired via the data communication device 108. Still image data and cutout image data may be image data acquired from a network or a server via the data communication device 108. Examples of image data acquired from a network or a server include social networking service image data (hereinafter, referred to as “SNS image data”). The CPU 101 determines the storage source of each image data by analyzing data accompanying the image data. The SNS image data is acquired from the SNS via the application software, and the acquisition destination may be managed under the management by the application software. The image data is not limited to the above-described image data, but may be other types of image data.

画像変換部203は、画像取得部202が取得したそれぞれの撮像画像データについて、該撮像画像データの縮小画像データ(例えば短辺が420画素のサイズを有し、且つ各画素がsRGBの色情報を有する)を、解析画像データとして生成する。   The image conversion unit 203 generates reduced image data of the captured image data (for example, the short side has a size of 420 pixels, and each pixel has color information of sRGB for each captured image data acquired by the image acquisition unit 202). Is generated as analysis image data.

画像解析部204は画像変換部203が生成したそれぞれの解析画像データに対し、特徴量抽出、顔認識、個人認識、表情認識等の解析処理を行う。また、画像解析部204は、該解析画像の生成元である撮像画像データの付帯情報(例えばExif情報)から該撮像画像データの撮像日時を取得する。   The image analysis unit 204 performs analysis processing such as feature extraction, face recognition, individual recognition, and facial expression recognition on each of the analysis image data generated by the image conversion unit 203. In addition, the image analysis unit 204 acquires the date and time of imaging of the captured image data from supplementary information (for example, Exif information) of the captured image data from which the analysis image is generated.

画像分類部205は、画像取得部202が取得した撮像画像データ群を、画像解析部204による解析処理の結果及び撮像日時等に基づいて複数のシーンに分割(シーン分類)する。シーンとは、旅行や日常、結婚式等の撮像シーンのことである。シーンとは、例えば、一つの撮像対象について一時期の撮像機会に撮像された画像データの集まりであるということもできる。   The image classification unit 205 divides the captured image data group acquired by the image acquisition unit 202 into a plurality of scenes (scene classification) based on the result of analysis processing by the image analysis unit 204 and the date and time of imaging. The scene is an imaging scene such as a trip, a daily life, and a wedding. A scene can be, for example, a collection of image data of one imaging target that has been imaged at one time imaging opportunity.

入力部206は、指定部201が取得した情報のうち、主人公を特定する情報(例えば、主人公の識別情報)を取得する。   The input unit 206 obtains information (for example, identification information of the main character) that specifies the main character from the information obtained by the specifying unit 201.

画像得点部207は、画像取得部202が取得したそれぞれの撮像画像データに対して得点を求める。画像得点部207による得点の求め方については後述するとおりであるが、その際に用いる情報は下記の情報に限るものではない。   The image score unit 207 obtains a score for each captured image data acquired by the image acquisition unit 202. The method of obtaining the score by the image score unit 207 will be described later, but the information used at that time is not limited to the following information.

入力部208は、指定部201が取得した情報のうち、フォトアルバムの見開きの数を取得する。   The input unit 208 acquires the number of facing pages of the photo album from the information acquired by the designation unit 201.

見開き割当部209は、画像分類部205によって分類されたそれぞれのグループ若しくは該それぞれのグループに基づいて再編成されたそれぞれのグループ、をフォトアルバムのそれぞれの見開きに割り当てる。ここでいう見開きとは、例えば、フォトアルバムを作成した際の見開き2ページである。ここでは見開きで説明するがページでもよい。   The spread allocation unit 209 allocates each group classified by the image classification unit 205 or each group rearranged based on each group to each spread of the photo album. The spread here is, for example, two pages of a spread when a photo album is created. Here, the description will be made with a spread, but a page may be used.

選択部210は、見開きごとに、該見開きに割り当てたグループ内のそれぞれの撮像画像データについて画像得点部207が求めた得点に基づいて、該それぞれの撮像画像データのうち該見開きにおける写真スロットに配置するための撮像画像データを選択する。なお、写真スロットに配置される画像は、撮像画像データに基づく撮像画像である。以下、撮像画像データに基づく画像を「撮像画像」という。   The selection unit 210 allocates each of the captured image data to the photo slot in the spread based on the score obtained by the image score unit 207 for each of the captured image data in the group assigned to the spread. Image data to be captured is selected. The image arranged in the photo slot is a captured image based on the captured image data. Hereinafter, an image based on the captured image data is referred to as a “captured image”.

入力部211は、指定部201が取得した情報のうち、表紙用のテンプレート群、本身用のテンプレート群、を取得する。表紙用のテンプレート群とは、表紙及び裏表紙のレイアウト(表紙内のそれぞれの写真スロットのレイアウト及び裏表紙内のそれぞれの写真スロットのレイアウト)を表すテンプレート群である。本身用のテンプレート群とは、本身内の各見開きのレイアウト(見開き内のそれぞれの写真スロットのレイアウト)を表すテンプレート群である。ここでいうところのテンプレートとは、表紙の見開きページ(表紙のページ及び裏表紙のページ)のテンプレート、本身の見開きのページのテンプレートである。   The input unit 211 acquires a cover template group and a main body template group from the information acquired by the designation unit 201. The cover template group is a template group representing the layout of the front cover and the back cover (the layout of each photo slot in the front cover and the layout of each photo slot in the back cover). The template group for the main body is a template group representing the layout of each spread in the main body (the layout of each photo slot in the spread). The template referred to here is a template of a facing spread page (a cover page and a back cover page) and a template of a book facing page.

レイアウト部212は、入力部211が入力したそれぞれのテンプレートのうち、選択部210が選択した撮像画像データに基づいて1つのテンプレートを選択すると共に撮像画像データのテンプレートにおける配置を決定する。   The layout unit 212 selects one template from the templates input by the input unit 211 based on the captured image data selected by the selection unit 210, and determines the arrangement of the captured image data in the template.

入力部213は、指定部201が取得した情報のうち、撮像画像に対する画像補正を実施するか否かを示すフラグ値を取得する。画像補正のオンまたはオフは、補正の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。   The input unit 213 acquires, from the information acquired by the designation unit 201, a flag value indicating whether to perform image correction on the captured image. ON or OFF of the image correction may be specified for each type of correction, or may be specified for all types at once.

画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、撮像画像に対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。   If the flag value obtained by the input unit 213 is a value indicating that image correction is to be performed, the image correction unit 214 performs correction processing such as dodging correction, red-eye correction, and contrast correction on the captured image. Is applied. Of course, if the flag value acquired by the input unit 213 is a value indicating that image correction is not to be performed, the image correction unit 214 does not execute the correction processing.

なお、画像変換部203から画像補正部214に入力する画像データの画素数は、レイアウト部212で決定したレイアウト画像データのサイズに合わせて変えることができる。本実施形態では、レイアウト画像データを生成した後に、各画像に画像補正を行うものとしたが、これに限定されず、レイアウト(配置)する前に、各画像の補正を行うようにしてもよい。   The number of pixels of the image data input from the image conversion unit 203 to the image correction unit 214 can be changed according to the size of the layout image data determined by the layout unit 212. In the present embodiment, the image correction is performed on each image after the layout image data is generated. However, the present invention is not limited to this, and each image may be corrected before layout (arrangement). .

出力部215は、レイアウト部212が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像データを、該写真スロットのサイズにリサイズして配置したレイアウト画像データ(本身の画像データ)を生成する。また、出力部215は、レイアウト部217が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像データを、該写真スロットのサイズにリサイズして配置した画像データ(表紙/裏表紙の画像データ)を生成する。なお、このレイアウト画像データは、テンプレートに画像データを配置することで得られる一体化された画像データであり、例えば、ビットマップデータである。そして出力部215は、生成したレイアウト画像をレイアウト情報として出力する。   The output unit 215 outputs layout image data (images of the main body) in each of the photo slots on the template selected by the layout unit 212 by resizing the captured image data assigned to the photo slot to the size of the photo slot. Data). Further, the output unit 215 resizes the image data (the cover / image) in which the captured image data assigned to the photo slot is resized to the size of the photo slot and arranged in each photo slot on the template selected by the layout unit 217. (Back cover image data). The layout image data is integrated image data obtained by arranging the image data in the template, and is, for example, bitmap data. Then, the output unit 215 outputs the generated layout image as layout information.

選択部216は、画像取得部202が取得したそれぞれの撮像画像データについて画像得点部207が求めた得点に基づいて、該それぞれの撮像画像データのうち表紙、裏表紙における写真スロットに配置する撮像画像データを選択する。   The selection unit 216 is configured to, based on the score obtained by the image score unit 207 for each of the captured image data acquired by the image acquisition unit 202, select a captured image to be arranged in a photo slot on the front cover and the back cover of the respective captured image data. Select data.

レイアウト部217は、入力部211が入力したそれぞれのテンプレートのうち、選択部216が選択した撮像画像データに基づいて1つの表紙用のテンプレートを選択すると共に撮像画像データのテンプレートにおける配置を決定する。   The layout unit 217 selects one cover template from among the templates input by the input unit 211 based on the captured image data selected by the selection unit 216, and determines the arrangement of the captured image data in the template.

なお上記の説明では、画像補正や写真スロットに配置する対象となる画像は撮像画像であったが、該撮像画像から生成した解析画像であっても構わない。もちろん、撮像画像から生成した他の画像であっても構わない。これは、撮像画像を取り扱う他の処理であっても同様であり、撮像画像の代わりに解析画像など他の画像を使用しても構わない。   In the above description, the image to be corrected or placed in the photo slot is a captured image, but may be an analysis image generated from the captured image. Of course, another image generated from the captured image may be used. The same applies to other processes for handling a captured image, and another image such as an analysis image may be used instead of the captured image.

ここで、上記の「フォトアルバムの作成条件を構成する様々な情報」を画像処理装置100に入力するためのGUIの構成例について、図3を用いて説明する。このGUI301は、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動してディスプレイ105の表示画面に表示される。なお、図3のGUI301を含め、後述する全てのGUIへのユーザ入力に応じて行われる処理は何れも、CPU101によって実行若しくは制御される。   Here, an example of the configuration of a GUI for inputting the “various information constituting the conditions for creating a photo album” to the image processing apparatus 100 will be described with reference to FIG. The GUI 301 is activated and displayed on the display screen of the display 105 by, for example, double-clicking the application icon displayed on the display 105 by the user using the mouse 107. Note that the CPU 101 executes or controls any processing performed in response to user input to all GUIs described below, including the GUI 301 in FIG.

パスボックス302は、フォトアルバムにレイアウトする候補となる撮像画像群が保存されているHDD104内のフォルダのパスを入力するためのもので、例えばユーザがキーボード106を操作してパスを入力することができる。なお、ユーザがキーボード106やマウス107を操作してフォルダ選択ボタン303を指示すると、HDD104内のフォルダ/データのツリー構造が表示されたウィンドウが別途ディスプレイ105に表示される。このウィンドウ上でユーザがキーボード106やマウス107を操作して所望のフォルダを指定すると、そのフォルダのパスがパスボックス302内に表示される。このように、パスボックス302、フォルダ選択ボタン303の何れかにより、フォトアルバムにレイアウトする候補となる撮像画像群を指定することができる。   The pass box 302 is used to input a path of a folder in the HDD 104 in which a group of captured images to be laid out in the photo album is stored. For example, the user can operate the keyboard 106 to input a path. it can. When the user operates the keyboard 106 or the mouse 107 to specify the folder selection button 303, a window in which the tree structure of the folder / data in the HDD 104 is displayed on the display 105 separately. When the user specifies a desired folder by operating the keyboard 106 or the mouse 107 on this window, the path of the folder is displayed in the path box 302. As described above, any one of the path box 302 and the folder selection button 303 can specify a group of captured images to be laid out in the photo album.

領域304内には、様々な人の顔画像が一覧表示されており、ユーザはキーボード106やマウス107を操作して何れか1つの顔画像を指定することができる。領域304内に表示されているそれぞれの顔画像は、撮像画像から抽出され、顔画像(人物)ごとに固有の識別情報と関連づけてHDD104に登録されているものである。ユーザがキーボード106やマウス107を操作して何れか1つの顔画像を指定すると、該指定された顔画像に対応する識別情報が、主人公の識別情報(主人公ID)としてHDD104に登録される。なお、主人公の識別情報の指定方法はこのように手動であっても良いし、後述するように、画像の解析結果に応じて指定しても良い。   A list of face images of various people is displayed in the area 304, and the user can operate the keyboard 106 or the mouse 107 to specify any one of the face images. Each face image displayed in the area 304 is extracted from the captured image and registered in the HDD 104 in association with unique identification information for each face image (person). When the user operates the keyboard 106 or the mouse 107 to specify one of the face images, the identification information corresponding to the specified face image is registered in the HDD 104 as the identification information of the main character (main character ID). The method of specifying the identification information of the hero may be manual in this way, or may be specified according to the analysis result of the image as described later.

見開き数ボックス305は、フォトアルバムにおける見開き数を入力するためのもので、例えばユーザがキーボード106やマウス107を操作して見開き数を入力することができる。なお、見開き数の入力方法はこれに限定されず、例えば、数値が並んだリストを表示させてそこから見開き数としての所望の数値をユーザがキーボード106やマウス107を操作して指定しても良い。   The facing page number box 305 is used to input the facing page number in the photo album. For example, the user can operate the keyboard 106 or the mouse 107 to enter the facing page number. The method of inputting the number of facing pages is not limited to this. For example, even if a list in which numerical values are arranged is displayed, and a desired numeric value as the number of facing pages is designated by the user operating the keyboard 106 or the mouse 107 therefrom. good.

領域306内には、テンプレートのテイスト(ポップ調やシック調等)が分かるイラスト画像がアイコンとして一覧表示されており、ユーザはキーボード106やマウス107を操作して任意のアイコンを指定することができる。本実施形態では、各テイストには、それぞれ1又は2以上のテンプレートが割当てられており、1つのテイストが選択されると、そのテイストに割当てられた全てのテンプレートが設定される。そして、後述するように、設定されたテンプレートの中から選択された画像に最も合致したテンプレートを選択する。このように1つのアイコンを指定することで、表紙用のテンプレートと、本身用のテンプレート(見開き数分のテンプレート)と、を選択することができる。なお、ユーザは領域304の複数のアイコンを指定することで、表紙、本身のそれぞれについて複数のテンプレートを候補として指定するようにしてもよい。後述する図4のフローチャートに従った処理では、ユーザが1つのテイストを選択することにより、表紙用のテンプレート群、本身用のテンプレート群が選択されたものとして説明している。本実施形態では、テンプレートとは、画像を配置するための画像配置枠(写真スロット)を1以上有する。   In the area 306, illustration images showing the taste (pop tone, chic tone, etc.) of the template are displayed as a list of icons, and the user can operate the keyboard 106 and the mouse 107 to specify an arbitrary icon. . In this embodiment, one or two or more templates are assigned to each taste, and when one taste is selected, all templates assigned to that taste are set. Then, as described later, a template that best matches the selected image is selected from the set templates. By specifying one icon in this manner, a cover template and a body template (templates for the number of facing pages) can be selected. The user may designate a plurality of icons in the area 304 to designate a plurality of templates for the cover and the body as candidates. In the processing according to the flowchart of FIG. 4 described below, it is described that the cover template group and the body template group are selected by the user selecting one taste. In the present embodiment, the template has one or more image arrangement frames (photo slots) for arranging images.

チェックボックス307は、画像補正のON/OFFを指定するためのもので、ユーザがキーボード106やマウス107を操作してチェックボックス307をオン(チェックを入れる)/オフ(チェックを外す)することができる。チェックボックス307をオンにすると、画像補正をONにすることが設定され、オフにすると、画像補正をOFFにすることが設定される。なお、画像補正のON/OFFを設定する方法はこれに限らない。また、画像補正の種類毎にチェックボックスを設けるようにしても構わない。   The check box 307 is for designating ON / OFF of the image correction, and the user can operate the keyboard 106 or the mouse 107 to turn on (check) or off (uncheck) the check box 307. it can. When the check box 307 is turned on, the image correction is set to ON, and when the check box 307 is turned off, the image correction is turned OFF. The method for setting ON / OFF of the image correction is not limited to this. Also, a check box may be provided for each type of image correction.

ラジオボタン310は、作成するフォトアルバムの商材を選択するためのものでる。ユーザがキーボード106やマウス107を操作して、上側のラジオボタンを指定すると、商材としてA4サイズが設定され、下側のラジオボタンを指定すると、商材としてA5サイズが設定される。なお、商材の指定方法についてはこの方法に限るものではなく、例えば、プルダウンなどによる一覧から商材を指定できるようにしても良い。   The radio button 310 is used to select a product of a photo album to be created. When the user operates the keyboard 106 or the mouse 107 to specify the upper radio button, the A4 size is set as the product, and when the lower radio button is specified, the A5 size is set as the product. Note that the method of designating the merchandise is not limited to this method. For example, the merchandise may be specified from a list using a pull-down menu.

ユーザがキーボード106やマウス107を操作してOKボタン308を指定すると、図3のGUI301において設定した内容が指定部201を介して自動レイアウト処理部218に入力される。より具体的には、パスボックス302に入力されているパスは画像取得部202に通知され、領域304内で指定された顔画像に対応する識別情報は入力部206に通知される。また、見開き数ボックス305に入力されている見開き数は入力部208に通知され、領域306内で指定されたアイコンに対応するテンプレートの情報(テンプレートを特定可能な情報)は入力部211に通知される。また、チェックボックス307の情報(チェックの有無)は入力部213に通知される。   When the user operates the keyboard 106 and the mouse 107 to specify the OK button 308, the content set on the GUI 301 in FIG. 3 is input to the automatic layout processing unit 218 via the specifying unit 201. More specifically, the path input to the path box 302 is notified to the image acquisition unit 202, and the identification information corresponding to the face image specified in the area 304 is notified to the input unit 206. Also, the number of facing pages input in the number-of-pages box 305 is notified to the input unit 208, and template information (information that can specify the template) corresponding to the icon specified in the area 306 is notified to the input unit 211. You. Further, information of the check box 307 (whether or not there is a check) is notified to the input unit 213.

一方、ユーザがキーボード106やマウス107を操作してリセットボタン309を指定すると、図3のGUI301において設定された内容は破棄され、ディスプレイ105においてGUI301を非表示にする。   On the other hand, when the user operates the keyboard 106 or the mouse 107 to specify the reset button 309, the content set on the GUI 301 in FIG. 3 is discarded, and the GUI 301 is hidden on the display 105.

次に、CPU101が自動レイアウト処理部218を実行することで行う処理について、図4のフローチャートを用いて説明する。   Next, processing performed by the CPU 101 executing the automatic layout processing unit 218 will be described with reference to the flowchart in FIG.

<ステップS401>
画像変換部203は、画像取得部202が取得した画像データ群に含まれる画像データに順次着目(選択)して、着目画像データから上記の解析画像データを生成する。なお、解析画像データは、指定部201が取得した情報に含まれている「解析画像の縦横の画素数、画素値の色空間などの生成パラメータ」に基づいて生成される。
<Step S401>
The image conversion unit 203 sequentially focuses (selects) on the image data included in the image data group acquired by the image acquisition unit 202, and generates the analysis image data from the focused image data. The analysis image data is generated based on “generation parameters such as the number of vertical and horizontal pixels of the analysis image and the color space of the pixel value” included in the information acquired by the specifying unit 201.

<ステップS402>
画像解析部204は、ステップS401で生成された解析画像データから特徴量を抽出すると共に、該解析画像データの生成元の撮像画像データの付帯情報(例えばExif情報)から該撮像画像の撮像日時を取得する。抽出する特徴量には、様々なものを用いることができるが、以下では一例として、ピント量を特徴量として抽出する。
<Step S402>
The image analysis unit 204 extracts the feature amount from the analysis image data generated in step S401, and extracts the imaging date and time of the imaging image from the supplementary information (for example, Exif information) of the imaging image data from which the analysis image data was generated. get. Various features can be used as the feature to be extracted. In the following, as an example, the focus amount is extracted as the feature.

画像中のエッジの検出方法として公知のソーベルフィルタを用いることができる。ソーベルフィルタを用いて画像データに基づく画像からエッジを検出し、該検出したエッジの始点と終点の輝度差を始点と終点との間の距離で割ればエッジの傾き(輝度勾配)を算出できる。そして、画像中のエッジの傾きの平均値を算出する。傾きの平均値が大きい画像は、傾きの平均値が小さい画像よりもピントが合っていると考えることが出来る。そこで、この傾きに対してそれぞれ異なる複数の閾値を予め設定し、画像から求めた傾きの平均値がどの閾値以上であるのかを判別することで、該画像におけるピント量を算出することができる。本実施形態では互いに異なる2つの閾値θ1、θ2(θ1<θ2)を設定し、求めた傾きの平均値AがA<θ1であればピント量=×(許容できない)、θ1≦A<θ2であればピント量=△(許容できる)、A≧θ2であれば、ピント量=○(好適)と判別する。ピント量=○とは、フォトアルバムに採用したいピントの傾きを表す。ピント量=△とは、許容できるピントの傾きを表す。ピント量=×とは、許容できない傾きを表す。   As a method for detecting an edge in an image, a known Sobel filter can be used. An edge is detected from an image based on the image data using a Sobel filter, and the inclination (luminance gradient) of the edge can be calculated by dividing the luminance difference between the start point and the end point of the detected edge by the distance between the start point and the end point. . Then, the average value of the inclination of the edge in the image is calculated. It can be considered that an image having a large average inclination is in focus than an image having a small average inclination. Therefore, a plurality of different thresholds are set in advance for the inclination, and it is possible to calculate a focus amount in the image by determining which threshold is equal to or more than the average value of the inclination obtained from the image. In the present embodiment, two different threshold values θ1 and θ2 (θ1 <θ2) are set, and if the average value A of the obtained inclination is A <θ1, the focus amount = × (unacceptable), and θ1 ≦ A <θ2. If there is, the focus amount = △ (acceptable), and if A ≧ θ2, it is determined that the focus amount = ○ (preferred). Focus amount = O indicates the inclination of the focus desired to be adopted in the photo album. The focus amount = △ indicates an allowable inclination of the focus. The focus amount = x indicates an unacceptable slope.

<ステップS403>
画像解析部204は、ステップS401で生成された解析画像データに基づく解析画像から人の顔を検出する。画像から顔を検出する方法としては、例えば、公知技術を用いることができる。例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、Adaboostにより作成した強識別器により、画像から人の顔を検出する。この顔検出処理により、画像上における人の顔の領域(顔領域(矩形領域))の座標位置及びサイズを取得する。なお、サイズの代わりに、顔の領域の左上隅の座標位置と右下隅の座標位置とを取得するようにしても良い。なお、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostによって強識別器を作成することができる。これにより、顔以外のオブジェクトを検出することができる。
<Step S403>
The image analysis unit 204 detects a human face from an analysis image based on the analysis image data generated in step S401. As a method of detecting a face from an image, for example, a known technique can be used. For example, there is Adaboost which creates a strong classifier from a plurality of prepared weak classifiers. In the present embodiment, a human face is detected from an image using a strong classifier created by Adaboost. Through this face detection processing, the coordinate position and size of the human face area (face area (rectangular area)) on the image are obtained. Instead of the size, the coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area may be obtained. A strong classifier can be created by Adaboost using objects such as animals such as dogs and cats, flowers, food, buildings, and figurines as detection targets instead of faces. This makes it possible to detect an object other than a face.

<ステップS404>
画像解析部204は、ステップS403で検出したそれぞれの顔領域に対し、該顔領域内の顔が誰の顔であるのかを認識する処理である個人認識処理を行う。例えば、HDD104に予め登録されている様々な人の顔の画像について、ステップS403で検出した顔領域内の画像との類似度を求める。そして、HDD104に予め登録されている様々な人の顔の画像のうち、閾値以上であって且つ最大の類似度を求めた画像を特定し、該特定した画像と予め関連づけられている識別情報(該画像内の顔を有する個人の識別情報(個人ID))を取得する。なお、求めた類似度が何れも閾値未満であった場合には、新規の識別情報を発行し、ステップS403で検出した顔領域内の画像を、該発行した識別情報と関連づけてHDD104に登録する。
<Step S404>
The image analysis unit 204 performs, on each of the face areas detected in step S403, individual recognition processing that is processing for recognizing who is the face in the face area. For example, for images of various human faces registered in the HDD 104 in advance, the similarity with the image in the face area detected in step S403 is determined. Then, among images of various human faces registered in advance in the HDD 104, an image that is equal to or more than a threshold and for which the maximum similarity is obtained is specified, and identification information ( The identification information (personal ID) of the individual having the face in the image is acquired. If any of the obtained similarities is less than the threshold, new identification information is issued, and the image in the face area detected in step S403 is registered in the HDD 104 in association with the issued identification information. .

なお、本ステップでは、ステップS403で検出した顔領域内の顔を有する人の識別情報を取得することができるのであれば、どのような個人認識処理を採用しても構わない。   In this step, any personal recognition processing may be employed as long as identification information of a person having a face in the face area detected in step S403 can be obtained.

そして画像解析部204は、ステップS402〜S404にて収集した情報を画像解析情報としてHDD104に登録する。画像解析情報の一例を図5に示す。画像解析情報は、それぞれの撮像画像データについて、該撮像画像データに固有のID(画像ID)、該撮像画像データの撮像日時、ピント量、該撮像画像から検出した人の顔の数、該撮像画像から検出したそれぞれの人の顔の領域の左上隅及び右下隅の座標位置を含む。例えば、画像ID=1の撮像画像については、以下のような情報が登録されている。   Then, the image analysis unit 204 registers the information collected in steps S402 to S404 in the HDD 104 as image analysis information. FIG. 5 shows an example of the image analysis information. The image analysis information includes, for each piece of captured image data, an ID (image ID) unique to the captured image data, the date and time of imaging of the captured image data, the amount of focus, the number of human faces detected from the captured image, It includes the coordinate positions of the upper left corner and lower right corner of each person's face area detected from the image. For example, the following information is registered for the captured image of image ID = 1.

撮像日時=「2015年7月1日10時11分12秒」
ピント量=「○」
検出した人の顔の数=「6」
個人ID=1の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=2の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=3の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=4の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=5の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=6の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
なお、顔画像が検出されなかった撮像画像については、顔画像に係る情報は登録されず、ステップS402で取得した撮像日時及びピント量が保存される。
Date of imaging = “July 1, 2015, 10:11:12”
Focus amount = "○"
Number of detected human faces = "6"
The coordinate position of the upper left corner and the lower right corner of the face area of the person with the personal ID = 1 The coordinate position of the upper left corner and the lower right corner of the face area of the person with the personal ID = 2 The person with the personal ID = 3 The coordinate position of the upper left corner and the coordinate position of the lower right corner of the area of the face of the person The coordinate position of the upper left corner and the coordinate position of the lower right corner of the area of the face of the person with the personal ID = 4 The coordinate position of the corner and the coordinate position of the lower right corner The coordinate position of the upper left corner and the coordinate position of the lower right corner of the area of the face of the person with the personal ID = 6. No information is registered, and the imaging date and time and the focus amount acquired in step S402 are stored.

<ステップS405>
画像取得部202が取得した撮像画像データ群の全てをステップS401で選択した場合には、処理はステップS405を介してステップS406に進む。一方、画像取得部202が取得した撮像画像データ群のうち未選択の撮像画像データが残っている場合には、処理はステップS401に戻る。
<Step S405>
If all the captured image data groups acquired by the image acquisition unit 202 have been selected in step S401, the process proceeds to step S406 via step S405. On the other hand, if unselected captured image data remains in the captured image data group acquired by the image acquisition unit 202, the process returns to step S401.

<ステップS406>
画像分類部205は、HDD104に登録した画像解析情報から、画像取得部202が取得したそれぞれの撮像画像データの撮像日時を取得する。そして画像分類部205は、該取得したそれぞれの撮像画像データの撮像日時に基づいて、画像取得部202が取得した撮像画像データ群を複数のグループ(サブ画像群)に分割(シーン分割)する。
<Step S406>
The image classifying unit 205 acquires the image capturing date and time of each captured image data acquired by the image acquiring unit 202 from the image analysis information registered in the HDD 104. Then, the image classification unit 205 divides the captured image data group acquired by the image acquisition unit 202 into a plurality of groups (sub-image groups) (scene division) based on the image capturing date and time of each of the acquired captured image data.

シーン分割方法の一例としては次のような方法が挙げられる。例えば、画像取得部202が取得したそれぞれの撮像画像データを撮像日時が古い順に見た場合に、N(Nは1以上の整数)番目の撮像画像データの撮像日時と、(N+1)番目の撮像画像データの撮像日時と、の差が2日以上であるとする。このとき、N番目の撮像画像データと(N+1)番目の撮像画像データとの間にグループの境界を設定する。   An example of the scene division method includes the following method. For example, when each of the captured image data acquired by the image acquisition unit 202 is viewed in the order of the image capturing date and time, the image capturing date and time of the N (N is an integer of 1 or more) captured image data and the (N + 1) th captured image data It is assumed that the difference between the imaging date and time of the image data is two days or more. At this time, a group boundary is set between the Nth captured image data and the (N + 1) th captured image data.

撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が1日以下であれば、以下の通りである。撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が16時間以上であれば、N番目の撮像画像データと(N+1)番目の撮像画像データとの間にグループの境界を設定する。また、撮像日時が古い順において隣接する撮像画像データ間で撮像日時の差が、どの撮像画像データ間であっても16時間未満であるとする。この場合、1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間未満であれば、該1日の撮像画像データ群を1つのグループとする。一方、該1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間以上であったとする。この場合、該1日で撮像した撮像画像の枚数が50枚未満(1日で撮像した撮像画像の数が50未満)であれば、該1日の撮像画像データ群を1つのグループとする。このような撮像画像データのグループ分けの一例を図6(A)に示す。図6(A)〜(C)において横軸は撮像日時(左側に向かうほど古く、右側に向かうほど新しい)、縦軸は撮像画像データの数を示す。図6(A)では、撮像画像データ群をグループ601〜608の8個のグループに分割している。図6(A)において矢印はグループの境界を示している。なお、上記のシーン分割方法の説明において使用した撮像日時の差に対する閾値や撮像画像データの数に対する閾値は一例であり、これらの値に限るものではない。   If the difference between the imaging date and time of the Nth captured image data and the imaging date and time of the (N + 1) th captured image data is one day or less in the order of older imaging date and time, the following is performed. If the difference between the imaging date and time of the N-th captured image data and the imaging date and time of the (N + 1) -th captured image data is 16 hours or more in the order of older imaging date and time, the N-th captured image data and the (N + 1) -th A group boundary is set between the image data and the captured image data. Further, it is assumed that the difference in the imaging date between adjacent captured image data items in the order of older imaging date and time is less than 16 hours in any captured image data. In this case, if the difference between the imaging date and time of the first captured image data and the imaging date of the last captured image data in the group of captured image data captured in one day is less than 4 hours, the imaging of the one day is performed. The image data group is defined as one group. On the other hand, it is assumed that the difference between the imaging date and time of the first captured image data and the imaging date and time of the last captured image data in the group of captured image data captured in one day is 4 hours or more. In this case, if the number of captured images captured in one day is less than 50 (the number of captured images captured in one day is less than 50), the group of captured image data for one day is regarded as one group. FIG. 6A shows an example of such grouping of captured image data. 6A to 6C, the horizontal axis represents the date and time of imaging (older toward the left and newer toward the right), and the vertical axis represents the number of captured image data. In FIG. 6A, the captured image data group is divided into eight groups of groups 601 to 608. In FIG. 6A, arrows indicate the boundaries between groups. It should be noted that the threshold values for the difference between the imaging dates and times and the threshold values for the number of captured image data used in the above description of the scene division method are merely examples, and are not limited to these values.

<ステップS407>
画像分類部205は、ステップS206で分割したそれぞれのグループのうち1つを着目グループとして選択し、該着目グループがどのシーンに分類されるのかを判断する。本実施形態では、グループが、旅行、日常、セレモニーのどのシーンに分類されるのかを判断する。もちろん、シーンの種類はこれらの種類に限るものではない。
<Step S407>
The image classification unit 205 selects one of the groups divided in step S206 as a group of interest, and determines to which scene the group of interest is classified. In the present embodiment, it is determined whether the group is classified into a trip, a daily life, or a ceremony scene. Of course, the types of scenes are not limited to these types.

本ステップのために、HDD104には予め、グループがどのシーンに分類されるのかを判断するための基準となるデータ(シーン分類基準データ)が登録されている。シーン分類基準データの作成方法の一例を以下に示す。   For this step, data serving as a reference (scene classification reference data) for determining to which scene a group is classified is registered in the HDD 104 in advance. An example of a method for creating scene classification reference data will be described below.

例えば、旅行の画像として予め判断されている画像データ群(旅行画像データ群)、日常の画像として予め判断されている画像データ群(日常画像データ群)、セレモニーの画像として予め判断されている画像データ群(セレモニー画像データ群)を予め複数用意する。そして、旅行画像データ群、日常画像データ群、セレモニー画像データ群、のそれぞれについて、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。例えば、旅行画像データ群について、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める場合について説明する。   For example, an image data group (travel image data group) determined in advance as a travel image, an image data group (daily image data group) determined in advance as a daily image, and an image determined in advance as a ceremony image A plurality of data groups (ceremony image data groups) are prepared in advance. Then, for each of the travel image data group, the daily image data group, and the ceremony image data group, the average and standard deviation of the imaging period, the average and standard deviation of the number of images, and the average and standard deviation of the number of imagers are obtained. For example, a description will be given of a case where the average and standard deviation of the imaging period, the average and standard deviation of the number of images, and the average and standard deviation of the number of imaged persons are obtained for the travel image data group.

画像データ群の撮像期間とは、該画像データ群において最も過去に撮像した画像の撮像日時と最近撮像した画像の撮像日時との差分である。然るに、それぞれの旅行画像群について、該旅行画像データ群において最も過去に撮像した画像データの撮像日時と最近撮像した画像データの撮像日時との差分を、該旅行画像データ群の撮像期間として求める。また、該それぞれの旅行画像データ群について求めた撮像期間の平均及び標準偏差を求める。   The imaging period of the image data group is the difference between the imaging date and time of the most recently captured image in the image data group and the imaging date and time of the most recently captured image. Accordingly, for each travel image data group, the difference between the imaging date and time of the most recently captured image data and the imaging date and time of the most recently captured image data in the travel image data group is determined as the imaging period of the travel image data group. Further, an average and a standard deviation of the imaging periods obtained for the respective travel image data groups are obtained.

また、画像データ群の撮像数とは、該画像データ群を構成する画像データの数である。然るに、それぞれの旅行画像データ群について、該旅行画像データ群を構成する撮像画像データの数を求める。また、該それぞれの旅行画像データ群について求めた撮像画像データの数の平均及び標準偏差を求める。   Further, the number of captured images of the image data group is the number of image data constituting the image data group. Therefore, for each travel image data group, the number of captured image data constituting the travel image data group is obtained. In addition, an average and a standard deviation of the number of captured image data obtained for each of the travel image data groups are obtained.

また、画像データ群の撮像人数とは、該画像データ群を構成するそれぞれの画像に写っている顔の数である。然るに、全ての旅行画像データ群について、該旅行画像データ群を構成するそれぞれの撮像画像データに基づく撮像画像に写っている顔の数を公知の顔認識などの技術でもって求める。また、該求めた顔の数の平均及び標準偏差を求める。   Also, the number of imagers of the image data group is the number of faces appearing in each image constituting the image data group. Therefore, for all the travel image data groups, the number of faces appearing in the captured images based on the respective captured image data constituting the travel image data groups is obtained by a known face recognition technique or the like. Further, the average and the standard deviation of the obtained number of faces are obtained.

日常画像データ群、セレモニー画像データ群についても同様にして、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。そして、このようにして旅行画像データ群、日常画像データ群、セレモニー画像データ群のそれぞれについて求めた、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を、シーン分類基準データとしてHDD104に予め登録しておく。シーン分類基準データの一例を図7に示す。   Similarly, the average and standard deviation of the imaging period, the average and standard deviation of the number of images, and the average and standard deviation of the number of images are obtained for the daily image data group and the ceremony image data group. Then, the travel image data group, the daily image data group, and the ceremony image data group were obtained in this manner, the average and standard deviation of the imaging period, the average and standard deviation of the number of images, the average and standard deviation of the number of imagers, Is registered in advance in the HDD 104 as scene classification reference data. FIG. 7 shows an example of the scene classification reference data.

画像分類部205は、着目グループについて、上記と同様にして、撮像期間、撮像数、撮像人数の平均を求める。そして、画像分類部205は、シーン分類基準データを参照し、着目グループについて、旅行(シーン1)についての得点、日常(シーン2)についての得点、セレモニー(シーン3)についての得点を以下のようにして求める。   The image classification unit 205 calculates the average of the imaging period, the number of images, and the number of imagers for the group of interest in the same manner as described above. Then, the image classification unit 205 refers to the scene classification reference data, and calculates the score for the trip (scene 1), the score for the daily life (scene 2), and the score for the ceremony (scene 3) for the group of interest as follows. Ask for.

シーンiの撮像期間の得点=50−|10×(シーンiの撮像期間の平均−選択グループの撮像期間)/シーンiの撮像期間の標準偏差|
シーンiの撮像枚数の得点=50−|10×(シーンiの撮像枚数の平均−選択グループの撮像枚数)/シーンiの撮像枚数の標準偏差|
シーンiの撮像人数の得点=50−|10×(シーンiの撮像人数の平均−選択グループの撮像人数の平均)/シーンiの撮像人数の標準偏差|
シーンiの得点=(シーンiの撮像期間の得点+シーンiの撮像枚数の得点+シーンiの撮像人数の得点)/3
ただし、i=1,2,3
そして画像分類部205は、着目グループについて求めたシーン1の得点、シーン2の得点、シーン3の得点、のうち最も高い得点のシーンを、該着目グループのシーンとして決定(分類)する。最も高い得点のシーンが複数個ある場合には、予め設定された優先順位において最も高いシーンを採用する。例えば、日常>セレモニー>旅行の順を予め設定しておく。なお、この優先順位は一例であり、他の優先順位を採用しても良いし、この優先順位をユーザがキーボード106やマウス107を操作して変更しても構わない。例えば、図6(A)のグループ605の撮像期間が36時間、撮像枚数が300枚、撮像人数の平均が1.7人であるとする。この場合、図7のシーン分類基準データ及び上記の式を用いると、旅行の得点は45.32、日常の得点は18.38、セレモニーの得点は−29.92となり、グループ605のシーンは旅行に分類される。なお、それぞれのグループがどのシーンに分類されたのかについては、例えば、グループ毎に、分類先のシーンに固有の識別情報を対応付けてHDD104で管理する。
Score of imaging period of scene i = 50− | 10 × (average of imaging period of scene i−imaging period of selected group) / standard deviation of imaging period of scene i |
Score of the number of captured images of scene i = 50− | 10 × (average of number of captured images of scene i−number of captured images of selected group) / standard deviation of number of captured images of scene i |
Score of the number of imagers in scene i = 50− | 10 × (average of the number of imagers in scene i−average of the number of imagers in selected group) / standard deviation of the number of imagers in scene i |
Score of scene i = (score of imaging period of scene i + score of number of images captured of scene i + score of number of people who captured image of scene i) / 3
Where i = 1,2,3
Then, the image classification unit 205 determines (classifies) the scene with the highest score among the score of scene 1, the score of scene 2, and the score of scene 3 obtained for the group of interest as the scene of the group of interest. If there are a plurality of scenes with the highest score, the scene with the highest priority in the preset priority is adopted. For example, the order of daily>ceremony> travel is set in advance. Note that this priority is an example, and another priority may be adopted, or the user may change the priority by operating the keyboard 106 or the mouse 107. For example, assume that the imaging period of the group 605 in FIG. 6A is 36 hours, the number of captured images is 300, and the average number of captured images is 1.7. In this case, using the scene classification reference data of FIG. 7 and the above equation, the travel score is 45.32, the daily score is 18.38, the ceremony score is −29.92, and the scene of the group 605 is travel. are categorized. Note that the scene into which each group is classified is managed by the HDD 104, for example, by associating identification information unique to the scene of the classification destination for each group.

<ステップS408>
ステップS406で分割したそれぞれのグループの全てをステップS407で選択した場合には、処理はステップS409に進む。一方、ステップS406で分割したそれぞれのグループのうち未選択のグループが残っている場合には、処理はステップS407に戻る。
<Step S408>
If all of the groups divided in step S406 have been selected in step S407, the process proceeds to step S409. On the other hand, when an unselected group remains among the groups divided in step S406, the process returns to step S407.

<ステップS409>
入力部206は、指定部201が取得した情報のうち、主人公を特定する情報(ここでは主人公IDとする)を取得する。なお、主人公IDとは、画像取得部202が取得した撮像画像データ群に登場する人のうち主人公としての人に固有のID(図5の個人ID)である。この主人公IDは、ユーザが上記のGUIを用いて指定しても良いし、以下の処理によって、ユーザ操作を介さずに決定しても良い。
<Step S409>
The input unit 206 acquires information for identifying the hero (here, the hero ID) from the information acquired by the designation unit 201. Note that the hero ID is an ID (personal ID in FIG. 5) unique to the person who is the hero among the people appearing in the captured image data group acquired by the image acquisition unit 202. The hero ID may be specified by the user using the GUI described above, or may be determined without the user's operation by the following processing.

例えば、上記のステップS404の処理によって、それぞれの撮像画像データにおいてどの個人IDを有する人が登場したのかの情報を取得することができる。そのため、画像取得部202が取得した撮像画像データ群におけるそれぞれの人の登場回数、各シーンにおけるそれぞれの人の登場回数、それぞれの人が登場するシーンの個数、等を求めることが可能となる。この様な情報から、それぞれの人のうちその人を主人公とするのかを決定することができる。例えば、画像取得部202が取得した撮像画像データ群が複数のシーンによって構成されている場合には、最も多くのシーンに登場している人の個人IDを主人公IDとする。また、画像取得部202が取得した撮像画像データ群が単一シーンで構成されている場合には、該単一シーンで最も多く登場している人の個人IDを主人公IDとする。なお、入力部206は、ユーザが図3のGUI301において領域304内で顔画像を指定している場合には、このような主人公IDの決定処理は行わずに、該指定された顔画像に対応する識別情報を主人公IDとして取得する。   For example, by the processing in step S404 described above, it is possible to acquire information on which personal ID has appeared in each captured image data. Therefore, the number of appearances of each person in the captured image data group acquired by the image acquisition unit 202, the number of appearances of each person in each scene, the number of scenes in which each person appears, and the like can be obtained. From such information, it can be determined whether or not each person is the main character. For example, when the captured image data group acquired by the image acquisition unit 202 is composed of a plurality of scenes, the personal ID of a person who appears in the most scenes is set as the main character ID. When the captured image data group acquired by the image acquisition unit 202 is composed of a single scene, the personal ID of the person who appears most in the single scene is set as the main character ID. Note that when the user specifies a face image in the area 304 in the GUI 301 of FIG. 3, the input unit 206 does not perform the processing for determining the main character ID and responds to the specified face image. The identification information to be obtained is acquired as the main character ID.

<ステップS410>
画像得点部207は、画像取得部202が取得した撮像画像データ群のうちの1つの着目画像データに対して、メイン写真スロット(メインスロット)用の得点及びサブ写真スロット(サブスロット)用の得点を求める。ここで、メイン写真スロット及びサブ写真スロットについて、図10(A)を用いて説明する。図10(A)の(1−1)〜(4−4)は、入力部211が入力するテンプレート群である。なお、図10ではテンプレートにおける写真スロットについて説明するために、写真スロット以外の情報は省略している。例えば表紙用のテンプレートには、写真スロットに加えてタイトルなどのテキスト情報を配置するための領域(文字入力領域)も設けられる。
<Step S410>
The image scoring unit 207 provides a score for a main photo slot (main slot) and a score for a sub-photo slot (sub-slot) with respect to one image data of interest in the captured image data group acquired by the image acquisition unit 202. Ask for. Here, the main photo slot and the sub photo slot will be described with reference to FIG. (1-1) to (4-4) in FIG. 10A are template groups input by the input unit 211. In FIG. 10, information other than the photo slot is omitted to explain the photo slot in the template. For example, in the cover template, an area (character input area) for arranging text information such as a title is provided in addition to the photo slot.

(1−1)のテンプレート1001において1002〜1004は写真スロットであるが、写真スロット1002は他の写真スロット1003及び1004よりもサイズが大きい。このような場合、写真スロット1002をメイン写真スロット、写真スロット1003及び1004をサブ写真スロットとする。そこで、着目画像データについてメイン写真スロット用の得点及びサブ写真スロット用の得点を求めるために用いる基準データを、例えば以下のようにして予め作成しておく。   In the (1-1) template 1001, reference numerals 1002 to 1004 denote photo slots, but the photo slot 1002 is larger in size than the other photo slots 1003 and 1004. In such a case, the photo slot 1002 is a main photo slot, and the photo slots 1003 and 1004 are sub-photo slots. Therefore, reference data used for obtaining a score for the main photo slot and a score for the sub photo slot for the image data of interest is created in advance as follows, for example.

メイン写真スロットに配置する画像(画像データに基づく画像)として好ましいもの、サブ写真スロットに配置する画像として好ましいもの、は、その画像のシーンによって異なる。メイン写真スロットに配置する画像として好ましい画像の特徴、サブ写真スロットに配置する画像として好ましい画像の特徴、画像のシーン、の関係の一例を図8(a)に示す。図8(a)の表は、旅行、日常、セレモニーのシーン毎に得点が高くなる画像の特徴をまとめた表である。   What is preferable as an image (image based on image data) to be arranged in the main photo slot and what is preferable as an image to be arranged in the sub-photo slot differs depending on the scene of the image. FIG. 8A shows an example of the relationship between the characteristics of an image preferable as an image to be arranged in the main photo slot, the characteristics of an image preferable as an image to be arranged in the sub-photo slot, and an image scene. The table in FIG. 8A is a table summarizing the features of the image in which the score increases for each of the travel, everyday, and ceremony scenes.

図8(a)に示すように、写真スロットの種類に応じて、得点が高くなる特徴が異なる。例えば、シーン「旅行」については、人物と風景が入ったひいた画像は、メイン写真スロット用の得点が高くなり、顔のアップや横顔の画像は、サブ写真スロット用の得点が高くなる。例えば、シーン「日常」については、顔のアップや横顔の画像は、メイン写真スロット用の得点が高くなり、人物と風景が入ったひいた画像は、サブ写真スロット用の得点が高くなる。例えば、シーン「セレモニー」については、2人の距離が近い画像は、メイン写真スロット用の得点が高くなり、大人数の画像は、サブ写真スロット用の得点が高くなる。このように、シーン及び写真スロットの種類に応じて、得点が高くなる特徴、言い換えれば、評価基準が異なる。本実施形態では、シーン及び写真スロットの種類に応じた得点が高くなる特徴、すなわち上記の基準データはHDD104に予め登録しておく。なお、得点が高くなる特徴は、上述したものに限定されるものではない。   As shown in FIG. 8 (a), the feature of increasing the score differs depending on the type of the photo slot. For example, for the scene "Travel", a scored image for a main photo slot has a higher score for a drawn image including a person and a landscape, and a score for a sub-picture slot has a higher score for a face-up or profile image. For example, in the scene “daily”, a close-up image or a face image has a higher score for the main photo slot, and a drawn image including a person and a landscape has a higher score for the sub-photo slot. For example, for the scene "Ceremony", an image where the distance between the two is short has a high score for the main photo slot, and an image of a large number of people has a high score for the sub photo slot. As described above, the feature of increasing the score, that is, the evaluation criterion differs according to the type of the scene and the photo slot. In the present embodiment, the feature of increasing the score according to the type of the scene and the photo slot, that is, the above-described reference data is registered in the HDD 104 in advance. Note that the features that increase the score are not limited to those described above.

なお、上記の基準データについては、例えば次のようにして用意しておく。メイン写真スロットについて図8(a)で規定している条件を満たす旅行の画像データ群、日常の画像データ群、セレモニーの画像データ群、を予め用意する。サブ写真スロットについて図8(a)で規定している条件を満たす旅行の画像データ群、日常の画像データ群、セレモニーの画像データ群、を予め用意する。そして、メイン写真スロット用に用意した各シーンの画像データ群について、該画像データ群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。同様にして、サブ写真スロット用に用意した各シーンの画像データ群について、該画像データ群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。このようにしてメイン写真スロット及びサブ写真スロットについて求めた、顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を、上記の基準データとしてHDD104に予め登録しておく。   The above reference data is prepared as follows, for example. For the main photo slot, a travel image data group, a daily image data group, and a ceremony image data group that satisfy the conditions defined in FIG. 8A are prepared in advance. A group of travel image data, a group of daily image data, and a group of ceremony image data that satisfy the conditions defined in FIG. Then, for the image data group of each scene prepared for the main photo slot, the average and standard deviation of the number of faces appearing in the image data group, the appearance position of the face, and the face size are obtained. Similarly, for the image data group of each scene prepared for the sub-photo slot, the average and standard deviation of the number of faces, the appearance position of the face, and the face size appearing in the image data group are obtained. The average and standard deviation of the number of faces, the appearance position of faces, and the size of faces obtained for the main photo slot and the sub photo slot as described above are registered in the HDD 104 in advance as the above-mentioned reference data.

そして画像得点部207は、着目画像データに基づく着目画像Iに対して、メイン写真スロット用の得点(1)及びサブ写真スロット用の得点(2)を、以下のようにして求める。   Then, the image scoring unit 207 obtains a score (1) for the main photo slot and a score (2) for the sub photo slot for the image of interest I based on the image data of interest as follows.

<メイン写真スロット用の得点>
顔数の得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてメイン写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの標準偏差|
得点(1)=(顔数の得点(1)+顔登場位置の得点(1)+顔サイズの得点(1))/3

<サブ写真スロット用の得点>
顔数の得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてサブ写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの標準偏差|
得点(2)=(顔数の得点(2)+顔登場位置の得点(2)+顔サイズの得点(2))/3

「着目画像Iに登場する主人公の顔」の数については、図5の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに左上隅の位置及び右下隅の位置が登録されていれば「1」、登録されていなければ「0」となる。また、「着目画像Iに登場する主人公の顔」の登場位置、サイズについては、図5の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに登録されている左上隅の位置及び右下隅の位置を参照すれば特定できる。
<Score for main photo slot>
Score of the number of faces (1) = 50− | 10 × (average of the number of faces obtained for the scene of the image of interest I for the main photo slot−the number of faces of the hero appearing in the image of interest I) / scene of the image of interest I Standard deviation of the number of faces found for the main photo slot |
Score of face appearance position (1) = 50− | 10 × (average of face appearance positions calculated for main picture slot for scene of image of interest I−position of appearance of hero face appearing in image of interest I) / image of interest Standard deviation of face appearance position found for main photo slot for scene I |
Face size score (1) = 50− | 10 × (average face size obtained for main scene in the scene of interest image I−size of hero face appearing in interest image I) / scene of interest image I Standard deviation of face size found for main photo slot |
Score (1) = (Score of face number (1) + Score of face appearance position (1) + Score of face size (1)) / 3

<Score for sub photo slot>
Score of the number of faces (2) = 50− | 10 × (average of the number of faces obtained for the scene of interest image I for the sub-photo slot−the number of faces of the main character appearing in interest image I) / scene of interest image I Standard deviation of the number of faces obtained for sub-photo slot |
Score of face appearance position (2) = 50− | 10 × (average of face appearance positions obtained for sub-picture slots for scene of image of interest I−position of appearance of hero face appearing in image of interest I) / image of interest Standard deviation of face appearance position obtained for sub-photo slot for scene I |
Score of face size (2) = 50− | 10 × (average of face size obtained for sub-picture slot for scene of target image I−size of hero face appearing in target image I) / scene of target image I Standard deviation of face size obtained for sub-photo slot |
Score (2) = (Score of face number (2) + Score of face appearance position (2) + Score of face size (2)) / 3

Regarding the number of “the face of the hero appearing in the image of interest I”, in the line of the image ID corresponding to the image of interest I in the image analysis information of FIG. If the position of the lower corner is registered, it is "1", and if not, it is "0". The appearance position and size of “the face of the protagonist appearing in the image I of interest” are registered in the individual ID corresponding to the protagonist ID in the image analysis information row of FIG. It can be specified by referring to the position of the upper left corner and the position of the lower right corner.

また、フォトアルバムに使う画像はピントが合っている方が好ましい為、図5に示すピント=「○」である撮像画像に対しては更に得点を加算してもよい。それぞれの画像IDに対応する撮像画像について求めた、メイン写真スロット用の得点(1)及びサブ写真スロット用の得点(2)の一例を図8(b)に示す。   Since it is preferable that the image used for the photo album is in focus, the score may be further added to the captured image in which the focus = “○” shown in FIG. FIG. 8B shows an example of the score (1) for the main photo slot and the score (2) for the sub photo slot obtained for the captured images corresponding to the respective image IDs.

<ステップS411>
画像取得部202が取得した撮像画像データ群の全てをステップS410で処理した場合には、処理はステップS412に進む。一方、画像取得部202が取得した撮像画像データ群のうちステップS410で未処理の撮像画像データが残っている場合には、処理はステップS410に戻る。
<Step S411>
If all the captured image data groups obtained by the image obtaining unit 202 have been processed in step S410, the process proceeds to step S412. On the other hand, if unprocessed captured image data remains in step S410 in the captured image data group obtained by the image obtaining unit 202, the process returns to step S410.

<ステップS412>
選択部216は、画像取得部202が取得した撮像画像データ群から、表紙及び裏表紙で1ページとする表紙ページにレイアウトする規定数の撮像画像データを選択する。以下では画像データ選択数(規定数)=3として説明するが、規定数はこの数に限るものではない。例えば、この画像データ選択数は、図3のGUI301においてラジオボタン310によって指定した商材のサイズによって変えてもよい。例えば、A4サイズ、A5サイズのそれぞれに対応する画像データ選択数を予め保持しているテーブルから設定してもよい。また、ユーザが図3のGUI301等において、おもて表紙及び裏表紙に用いる画像データの数を指定できるようにしてもよい。
<Step S412>
The selection unit 216 selects, from the captured image data group acquired by the image acquisition unit 202, a specified number of captured image data to be laid out on a cover page that is one page of the front cover and the back cover. Hereinafter, the description will be made assuming that the number of selected image data (specified number) = 3, but the specified number is not limited to this number. For example, the number of selected image data may be changed according to the size of the product designated by the radio button 310 in the GUI 301 of FIG. For example, the number of selected image data corresponding to each of the A4 size and the A5 size may be set from a table that holds in advance. Further, the user may be able to specify the number of image data used for the front cover and the back cover on the GUI 301 or the like in FIG.

選択部216による表紙用撮像画像データの選択方法について、図19を用いて説明する。図19においてStartは、画像取得部202が取得した撮像画像データ群において最も過去に撮像された撮像画像データの撮像日時を表している。Endは、画像取得部202が取得した撮像画像データ群において最近撮像された撮像画像データの撮像日時を表している。然るに、(Start−End)が、画像取得部202が取得した撮像画像データ群の撮像期間を表している。すなわち、図19は、アルバム作成に用いる撮影期間(指定された撮影期間)を表している。   A method of selecting the cover image data by the selection unit 216 will be described with reference to FIG. In FIG. 19, “Start” represents the date and time of imaging of the most recently captured image data in the group of captured image data acquired by the image acquisition unit 202. End represents the date and time of imaging of recently captured image data in the captured image data group acquired by the image acquisition unit 202. However, (Start-End) represents the imaging period of the captured image data group acquired by the image acquisition unit 202. That is, FIG. 19 shows a shooting period (designated shooting period) used for creating an album.

先ず、画像取得部202が取得した撮像画像データ群(図19(A))から、表紙に配置する撮像画像データを選択する。本実施形態では、表紙に配置する撮像画像としては、画像取得部202が取得した撮像画像データ群のうち、メイン写真スロット用の得点が最も高かった撮像画像データを選択する。表紙に配置する撮像画像データとして選択された撮像画像データを、図19(B)において(1)として表している。なお、シーンによってメイン写真スロット用として好ましい画像は異なるが、ここでは、ステップS410で求めたメイン写真スロット用の得点をそのまま、ここでいう「メイン写真スロット用の得点」として用いる。   First, from the captured image data group (FIG. 19A) acquired by the image acquisition unit 202, the captured image data to be arranged on the cover is selected. In the present embodiment, among the captured image data groups acquired by the image acquisition unit 202, the captured image data with the highest score for the main photo slot is selected as the captured image to be arranged on the cover. The captured image data selected as the captured image data to be placed on the cover is represented as (1) in FIG. 19B. Although the preferred image for the main photo slot differs depending on the scene, the score for the main photo slot obtained in step S410 is used here as it is as the “score for the main photo slot”.

次に、裏表紙に配置する撮像画像データ(2つ)を、画像取得部202が取得した撮像画像データ群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化して、それぞれから画像データを取得する。   Next, two pieces of captured image data to be arranged on the back cover are selected from the captured image data group acquired by the image acquisition unit 202. In order not to concentrate on a part of the imaging period during image selection, the imaging period is subdivided as described below, and image data is acquired from each.

先ず、裏表紙に配置する1枚目の撮像画像データを選択する。そのために先ず、図19(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図19(D)に示す如く、2つの分割期間のうち、撮像画像データ(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像データを、裏表紙に配置する撮像画像データとして選択する。裏表紙に配置する1つ目の撮像画像データとして選択された撮像画像データを、図19(D)において(2)として示している。   First, the first captured image data to be arranged on the back cover is selected. For this purpose, first, as shown in FIG. 19C, the imaging period is divided into two division periods. Then, as shown in FIG. 19D, of the two divided periods, the sub-picture slot of the captured image group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) belongs The picked-up image data with the highest score is selected as the picked-up image data to be arranged on the back cover. The captured image data selected as the first captured image data to be arranged on the back cover is shown as (2) in FIG. 19D.

次に、裏表紙に配置する2つ目の撮像画像データを選択する。そのために先ず、図19(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図19(F)に示す如く、4つの分割期間のうち撮像画像(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データを裏表紙に配置する撮像画像データとして選択する。裏表紙に配置する2枚目の撮像画像として選択された撮像画像データを、図19(F)において(3)として示している。   Next, the second captured image data to be arranged on the back cover is selected. For this purpose, first, as shown in FIG. 19E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 19 (F), the sub-images in the captured image data group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured images (1) and (2) belong out of the four divided periods The captured image data with the highest score for the photo slot is selected as the captured image data to be arranged on the back cover. The captured image data selected as the second captured image to be arranged on the back cover is shown as (3) in FIG.

表紙に配置するものとして選択された撮像画像データは、メイン写真スロット用の得点が最高の撮像画像データであるため、表紙だけでなく、本身において何れかの見開きでも使用されることになる。   The captured image data selected to be placed on the cover is the captured image data with the highest score for the main photo slot, so that it is used not only on the cover but also on any spread on the book itself.

なお、上記の説明において表紙に配置するものとして選択した撮像画像データを裏表紙に、裏表紙に配置するものとして選択した撮像画像データを表紙に配置するようにしても構わない。また、上記の説明では、おもて表紙に配置する画像データの得点の基準と、裏表紙に配置する画像データの得点の基準を異なるものとした。具体的には、おもて表紙の場合は、「メイン写真スロット用の得点」を用い、裏表紙の場合は、「サブ写真スロット用の得点」としたが、おもて表紙及び裏表紙のいずれの場合も同じ基準としてもよい。また、表紙、裏表紙のそれぞれに配置する撮像画像データの数は上記の数に限らない(0もあり得る)。   In the above description, the captured image data selected to be placed on the cover may be placed on the back cover, and the captured image data selected to be placed on the back cover may be placed on the cover. In the above description, the criterion for the score of the image data to be arranged on the front cover is different from the criterion for the score of the image data to be arranged on the back cover. Specifically, for the front cover, the score for the main photo slot was used, and for the back cover, the score for the sub photo slot was used. In either case, the same reference may be used. Further, the number of captured image data to be arranged on each of the front cover and the back cover is not limited to the above number (it may be 0).

また、メイン写真スロット用の得点やサブ写真スロット用の得点を用いずに、顔検出結果を利用して表紙に配置する撮像画像や裏表紙に配置する撮像画像を決定してもよい。例えば、人物を含む撮像画像を表紙に配置し、人物を含まない画像を裏表紙に配置するようにしても構わない。また、ここではメイン写真スロット用の得点、サブ写真スロット用の得点、を用いて表紙及び裏表紙に配置する撮像画像データを選択したが、画像分類部205による分類結果に基づいて、予め設定したシーンの画像データを優先して選択してもよい。例えば、表紙に旅行の画像データを配置する場合は、画像分類結果から旅行と判定された画像データ群の中からメイン写真スロット用の得点が最高の画像データを選択する。そして、その後は図19を用いて上述したように撮像期間を分割してサブ写真スロット用の得点が最高の画像データを順次選択して裏表紙用の画像データとしてもよい。   Instead of using the score for the main photo slot or the score for the sub photo slot, the captured image to be arranged on the front cover or the captured image to be arranged on the back cover may be determined by using the face detection result. For example, a captured image including a person may be arranged on the cover, and an image not including the person may be arranged on the back cover. In addition, here, the captured image data to be arranged on the front cover and the back cover is selected using the score for the main photo slot and the score for the sub photo slot, but is set in advance based on the classification result by the image classification unit 205. The image data of the scene may be preferentially selected. For example, when arranging travel image data on the cover, the image data with the highest score for the main photo slot is selected from the image data group determined to be travel based on the image classification result. After that, as described above with reference to FIG. 19, the imaging period may be divided, and the image data with the highest score for the sub-photo slot may be sequentially selected and used as image data for the back cover.

また、上記の説明では、表紙用画像データを選択した分割期間とは別の分割期間から裏表紙用画像データを選択するように設定したが、表紙用画像を選択した分割期間と同じ分割期間から裏表紙用画像データを選択するように設定してもよい。   Further, in the above description, the setting is made such that the back cover image data is selected from a division period different from the division period in which the cover image data is selected, but from the same division period as the division period in which the cover image is selected. The setting may be made so as to select the back cover image data.

<ステップS413>
レイアウト部217は、ステップS412で選択した画像データを基にしてテンプレートを選択する。入力部211が入力したテンプレート群のうち、表紙ページに適用するテンプレートを、ステップS412で選択した撮像画像データに基づいて選択する。以下では具体例を挙げてステップS413における処理を説明するために、入力部211は、図20の(1−1)〜(2−4)の8枚のテンプレートを入力したとする。
<Step S413>
The layout unit 217 selects a template based on the image data selected in step S412. From the template group input by the input unit 211, a template to be applied to the cover page is selected based on the captured image data selected in step S412. In the following, it is assumed that the input unit 211 has input eight templates (1-1) to (2-4) in FIG. 20 in order to describe the process in step S413 with a specific example.

この8枚のテンプレートの何れも、左側に裏表紙用の撮像画像データのレイアウト、右側に表紙用の撮像画像データのレイアウト、を規定したものである。(1−1)のテンプレート2001では、写真スロット2003,2004が裏表紙用の撮像画像データを配置するためのもので、写真スロット2002は表紙用の撮像画像データを配置するためのものである。本実施形態では、表紙用の写真スロット2002は、裏表紙用の写真スロット2003,2004よりもサイズが大きい。タイトル2008は、フォトアルバムのタイトルなどのテキスト情報を入力するためのテキスト領域である。   In each of the eight templates, the layout of the captured image data for the back cover is defined on the left, and the layout of the captured image data for the cover is defined on the right. In the template (1-1) 2001, the photo slots 2003 and 2004 are for arranging captured image data for the back cover, and the photo slot 2002 is for arranging captured image data for the cover. In this embodiment, the photo slot 2002 for the front cover is larger in size than the photo slots 2003 and 2004 for the back cover. The title 2008 is a text area for inputting text information such as the title of a photo album.

なお、ステップS412で表紙用に1つの撮像画像データ、裏表紙用に2つの撮像画像データを選択している場合、図20に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS412にて選択した3つの撮像画像データに基づく撮像画像は、縦長(縦向き)の画像2005、縦長(縦向き)の画像2006、横長(横向き)の画像2007、であったとする。なお、画像2006及び2007は裏表紙に配置する撮像画像であり、画像2005は表紙に配置する撮像画像である。   When one piece of captured image data for the cover and two pieces of captured image data for the back cover are selected in step S412, a template group having three photo slots as candidates as shown in FIG. 20 is set as a candidate. Here, it is assumed that the captured images based on the three captured image data selected in step S412 are a portrait (vertical) image 2005, a portrait (vertical) image 2006, and a landscape (horizontal) image 2007. . Note that images 2006 and 2007 are captured images to be arranged on the back cover, and image 2005 is a captured image to be arranged on the cover.

先ず、表紙に配置する画像2005が縦長の画像であるから、表紙用の写真スロットも縦長である必要がある。然るに、テンプレート(1−1)〜(2−4)のうち、表紙用の写真スロットが縦長であるテンプレート(1−1)〜(1−4)が候補となる。そして、本実施形態では、裏表紙については、テンプレートの左上に撮像日時のより古い画像、右下に撮像日時のより新しい画像をレイアウトするものとする。撮像日時のより古い画像データに基づく画像は縦長の画像2006、撮像日時のより新しい画像データに基づく画像は横長の画像2007であるから、テンプレート(1−1)〜(1−4)のうちテンプレート(1−2)が最終候補となる。   First, since the image 2005 arranged on the cover is a vertically long image, the photo slot for the cover must also be vertically long. Therefore, of the templates (1-1) to (2-4), the templates (1-1) to (1-4) whose cover photo slots are vertically long are candidates. In the present embodiment, with respect to the back cover, an image with an older imaging date and time is laid out on the upper left of the template, and an image with a newer imaging date and time is laid out on the lower right of the template. An image based on image data older than the image capturing date and time is a vertically long image 2006, and an image based on image data newer than the image capturing date and time is a horizontal image 2007. Therefore, the template among templates (1-1) to (1-4) is used. (1-2) is the final candidate.

然るに、この場合は、(1−2)のレイアウトを、表紙ページのテンプレートとして選択する。このようにステップS413では、レイアウトに用いるテンプレートと、テンプレートのいずれのスロットにいずれの画像をレイアウトするかが決定する。なお、決定した情報は、出力部215に入力する。   However, in this case, the layout (1-2) is selected as the cover page template. As described above, in step S413, the template to be used for the layout and the image to be laid out in which slot of the template are determined. The determined information is input to the output unit 215.

なお、表紙ページのテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。また、テンプレートは、図20に示すようなものに限定されるものではない。例えば、裏表紙のページと、画像を配置するスロットの枠を一致させるようにしてもよいし、スロットの一部が他のスロットの一部と重なるようにしてもよい。スロットの一部が重なる場合は、重複部分はいずれか一方の画像を前面に配置するようにすればよく、例えば、得点の高い画像を前面に配置するようにすればよい。   The method of selecting a cover page template is not limited to the above method, and another method may be adopted. Further, the template is not limited to the template shown in FIG. For example, the page of the back cover and the frame of the slot in which the image is arranged may be matched, or a part of the slot may overlap a part of another slot. When a part of the slots overlaps, the overlapping portion may be arranged such that one of the images is arranged in the foreground. For example, the image having a high score may be arranged in the foreground.

また図20では、3枚の撮像画像をレイアウトするテンプレートの選択方法について説明したが、撮像画像の数が3でなくても、テンプレートの選択方法は同様に適用することができる。なお、表紙用のテンプレートは、配置する画像の数に応じたテンプレートがそれぞれ複数、HDD104に登録されているものとする。また、配置する画像数の異なる複数のテンプレートを用意し、それぞれぞれのテンプレートに画像を配置して得られたレイアウト画像を評価し、評価値の高いものを表紙のレイアウト画像として決定するようにしてもよい。例えば、配置する画像のトリミング量やタイトル領域に重複している顔の個数を評価基準とし、トリミング量が小さいものを高評価、タイトル領域に重複している顔の個数が少ないものを高評価としてもよい。   In FIG. 20, the method of selecting a template for laying out three captured images has been described. However, even if the number of captured images is not three, the method of selecting a template can be similarly applied. It is assumed that a plurality of templates corresponding to the number of images to be arranged are registered in the HDD 104 as cover templates. In addition, a plurality of templates having different numbers of images to be arranged are prepared, layout images obtained by arranging the images in the respective templates are evaluated, and the one with the higher evaluation value is determined as the layout image of the cover. You may. For example, the trimming amount of the image to be arranged and the number of faces overlapping in the title area are used as evaluation criteria, and those with a small amount of trimming are evaluated as high, and those with a small number of faces overlapping in the title area are evaluated as high. Is also good.

<ステップS414>
画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、選択部216が選択した3つの撮像画像データのそれぞれに対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。補正する画像の画素数は短辺1200画素で、sRGBの色空間に変換した画像に対して画像補正ON/OFFを実施する。
<Step S414>
If the flag value acquired by the input unit 213 is a value indicating that image correction is to be performed, the image correction unit 214 applies dodging to each of the three pieces of captured image data selected by the selection unit 216. Correction processing such as correction, red-eye correction, and contrast correction is performed. Of course, if the flag value acquired by the input unit 213 is a value indicating that image correction is not to be performed, the image correction unit 214 does not execute the correction processing. The number of pixels of the image to be corrected is 1200 pixels on the short side, and image correction ON / OFF is performed on the image converted to the sRGB color space.

<ステップS415>
出力部215は、ステップS413で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS412で選択された撮像画像データを、該写真スロットのサイズにリサイズして配置した「表紙/裏表紙ページの画像データ」として生成する。すなわち、レイアウト画像データを1つの画像データとして生成する。そして出力部215は、この生成した「表紙/裏表紙のページの画像データに基づく画像」をレイアウト情報として出力する。出力先はディスプレイ105であっても良いし、HDD104であっても良い。本実施形態では、この「表紙/裏表紙のページの画像」をユーザに確認させると共に、必要であれば編集を可能にするために、「表紙/裏表紙のページの画像」をディスプレイ105に対して出力する。
<Step S415>
The output unit 215 resizes the captured image data selected in step S412 for each of the photo slots on the template selected in step S413 to the size of the photo slot. As image data of the back cover page. " That is, the layout image data is generated as one image data. Then, the output unit 215 outputs the generated “image based on the image data of the front cover / back cover page” as layout information. The output destination may be the display 105 or the HDD 104. In the present embodiment, the “image of the front / back cover page” is displayed on the display 105 so as to allow the user to confirm the “image of the front / back cover page” and to enable editing if necessary. Output.

<ステップS416>
詳しくは後述するが、ステップS416以降の処理は、「表紙/裏表紙のページの画像に基づく画像」を含む編集画面の表示、該編集画面に対する操作入力の受け付け、操作入力に応じた処理の実行を行っているバックグラウンドで動作する。
<Step S416>
As will be described in detail later, the processing after step S416 includes displaying an edit screen including “an image based on the image of the front cover / back cover page”, accepting an operation input to the edit screen, and executing a process corresponding to the operation input Work in the background.

入力部208は、指定部201が取得した情報のうち、フォトアルバムの見開きの数を取得する。そして見開き割当部209は、ステップS406において分割したグループの数と、入力部208が取得した見開きの数と、が同じであるか否かを判定する。この判定の結果、同じである場合には、処理はステップS420に進み、同じではない場合には、処理はステップS417に進む。例えば、図6(A)の場合は、グループ分割数=8であるから、入力部208が取得した見開きの数=8であれば、処理はステップS420に進むことになる。   The input unit 208 acquires the number of facing pages of the photo album from the information acquired by the designation unit 201. The spread allocating unit 209 determines whether the number of groups divided in step S <b> 406 is the same as the number of spreads obtained by the input unit 208. If the result of this determination is that they are the same, the process proceeds to step S420; otherwise, the process proceeds to step S417. For example, in the case of FIG. 6A, since the number of group divisions = 8, if the number of facing pages acquired by the input unit 208 = 8, the process proceeds to step S420.

<ステップS417>
見開き割当部209は、ステップS406において分割したグループの数X<入力部208が取得した見開きの数Yであるか否かを判断する。この判断の結果、X<Yであれば、処理はステップS418に進み、X≧Yであれば、処理はステップS419に進む。
<Step S417>
The spread allocation unit 209 determines whether or not the number X of the groups divided in step S <b><the number Y of the spreads acquired by the input unit 208. As a result of this determination, if X <Y, the process proceeds to step S418, and if X ≧ Y, the process proceeds to step S419.

<ステップS418>
見開き割当部209は、X=Yとなるべく、画像取得部202が取得した撮像画像データ群のグループ再分割(サブシーン分割)を行う。以下では具体的な例を挙げてステップS418の処理を説明するために、図6(A)のように、X=8となっている状態において、Y=10であるケースを例にとる。この場合、図6(B)に示す如く、点線で示す部分で図6(A)のグループ602及び605を分割することで、10個のグループ601〜610を生成する。この点線の位置(分割基準線)の位置は、例えば、以下のようにして求める。
<Step S418>
The facing spread assignment unit 209 performs group redivision (subscene division) of the captured image data group acquired by the image acquisition unit 202 so that X = Y. In the following, in order to describe the processing of step S418 with a specific example, a case where Y = 10 in a state where X = 8 as shown in FIG. 6A is taken as an example. In this case, as shown in FIG. 6B, the groups 602 and 605 in FIG. 6A are divided at the portions indicated by the dotted lines to generate ten groups 601 to 610. The position of the dotted line (division reference line) is obtained, for example, as follows.

先ず、図6(A)のグループ601〜608のそれぞれのグループのうち、撮像画像データの数が多いグループを特定する。X=8,Y=10の場合、2カ所に分割基準線を設ける必要があるため、グループ601〜608のそれぞれのグループのうち、撮像画像データの数が最も多いグループ及び2番目に多いグループの2つのグループを特定する。図6(A)の場合、撮像画像データの数が最も多いグループはグループ605であり、2番目に多いグループはグループ601及び602である。ここで、グループ601とグループ602とでは撮像画像データの数は同じであるが、撮像期間がグループ602の方がグループ601よりも長い。然るにこの場合には、グループ602を選択する。然るに、結果として、グループ605及びグループ602のそれぞれを2つのグループに分割する。なお、それでも決定できない場合には、たとえば時間的に早いグループを優先的に再分割するなど、適宜決めておけばよい。   First, of the groups 601 to 608 in FIG. 6A, a group having a large number of captured image data is specified. When X = 8 and Y = 10, it is necessary to provide division reference lines at two places. Therefore, of the groups 601 to 608, the groups having the largest number of captured image data and the group having the second largest number of captured image data Identify the two groups. In the case of FIG. 6A, the group having the largest number of captured image data is the group 605, and the groups having the second largest number are the groups 601 and 602. Here, the number of captured image data is the same in the group 601 and the group 602, but the imaging period of the group 602 is longer than that of the group 601. However, in this case, the group 602 is selected. As a result, each of the groups 605 and 602 is divided into two groups. If it is still not possible to decide, for example, a group that is earlier in time may be preferentially re-divided, and may be appropriately decided.

先ず、グループ602の分割方法について説明する。図6(A)においてグループ602には、撮像画像データ数のピークが2つ存在するためのその間の位置(撮像日時の境界)を分割基準線の位置とする。次に、グループ605の分割方法について説明する。図6(A)においてグループ605には、撮像画像データの数のピークが3つ存在するが、分割後の2つのグループ間で撮像画像データの数の差がより小さくなるようにする。したがって、ここでは、3つのピークの間の位置(撮像日時の境界)のうち右側の位置を分割基準線の位置とする。なお、ここでは撮像日の違う箇所で分割したが、撮像画像データの数が多い箇所が単一日であった場合は、単一日の中で時間差が最大の箇所で分割する。なお、本ステップにおけるグループ分割方法には様々なグループ分割方法を用いることができ、特定のグループ分割方法に限るものではない。   First, a method of dividing the group 602 will be described. In FIG. 6A, in the group 602, a position between two peaks of the number of captured image data (a boundary between image capturing dates and times) is defined as a position of the division reference line. Next, a method of dividing the group 605 will be described. In FIG. 6A, there are three peaks in the number of captured image data in the group 605, but the difference in the number of captured image data between the two groups after division is made smaller. Therefore, here, the position on the right side among the positions between the three peaks (boundary of the imaging date and time) is set as the position of the division reference line. Note that, here, the image is divided at a portion different in the imaging date. However, if the portion having a large number of captured image data is a single day, the image is divided at a portion having the largest time difference in the single day. Note that various group division methods can be used as the group division method in this step, and the method is not limited to a specific group division method.

<ステップS419>
見開き割当部209は、X=Yとなるべく、画像取得部202が取得した撮像画像データ群のグループ再分割(シーン統合)を行う。以下では具体的な例を挙げてステップS419の処理を説明するために、図6(A)のように、X=8となっている状態において、Y=6であるケースを例にとる。この場合、幾つかのグループを統合して1つのグループとすることでグループ数を減らしてX=Yを達成する。図6(C)に示す如く、点線で示す部分で図6(A)のグループ603及び604を統合し、且つ図6(A)のグループ607及び608を統合することで、6個のグループ601〜606を生成する。この点線の位置(統合基準線)の位置は、例えば、以下のようにして求める。
<Step S419>
The facing spread assignment unit 209 performs group redivision (scene integration) of the captured image data group acquired by the image acquisition unit 202 so that X = Y. In the following, a case where Y = 6 in a state where X = 8 as shown in FIG. 6A will be described as an example to describe the process of step S419 with a specific example. In this case, X = Y is achieved by reducing the number of groups by integrating several groups into one group. As shown in FIG. 6C, by integrating the groups 603 and 604 in FIG. 6A and the groups 607 and 608 in FIG. ~ 606 is generated. The position of the dotted line (integrated reference line) is obtained, for example, as follows.

先ず、図6(A)のグループ601〜608のそれぞれのグループのうち、撮像画像データの数が少ないグループを特定する。X=8,Y=6の場合、2カ所に統合基準線を設ける必要があるため、グループ601〜608のそれぞれのグループのうち、撮像画像データの数が最も少ないグループ及び2番目に少ないグループの2つのグループを特定する。図6(A)の場合、撮像画像データの数が最も少ないグループはグループ608であり、2番目に少ないグループはグループ603及び607である。ここで、グループ603とグループ607とでは撮像画像データの数は同じであるが、グループ607は、統合対象となるグループ608と隣接しているため、この場合には、グループ603を選択する。然るに、結果として、グループ603及びグループ608のそれぞれを統合対象とする。   First, of the groups 601 to 608 in FIG. 6A, a group having a small number of captured image data is specified. In the case of X = 8 and Y = 6, it is necessary to provide an integrated reference line at two places. Therefore, of each of the groups 601 to 608, the group with the smallest number of captured image data and the group with the second smallest number Identify the two groups. In the case of FIG. 6A, the group having the smallest number of captured image data is the group 608, and the groups having the second smallest number are the groups 603 and 607. Here, the number of captured image data is the same between the group 603 and the group 607, but since the group 607 is adjacent to the group 608 to be integrated, the group 603 is selected in this case. However, as a result, each of the group 603 and the group 608 is to be integrated.

先ず、グループ603の統合方法について説明する。グループ603に属する撮像画像データ群の撮像日時のうち最近の撮像日時と、グループ603に隣接するグループ604に属する撮像画像データ群の撮像日時のうち最も過去の撮像日時との差をDAとする。また、グループ603に隣接するグループ602に属する撮像画像データ群の撮像日時のうち最近の撮像日時と、グループ603に属する撮像画像データ群の撮像日時のうち最も過去の撮像日時との差をDBとする。このとき、DA<DBであるから、グループ603をグループ604と統合することで、図6(C)のグループ603を生成する。   First, a method of integrating the groups 603 will be described. The difference between the most recent imaging date and time among the imaging date and time of the captured image data group belonging to the group 603 and the oldest imaging date and time of the imaging date and time of the captured image data group belonging to the group 604 adjacent to the group 603 is defined as DA. The difference between the most recent imaging date and time among the imaging date and time of the captured image data group belonging to the group 602 adjacent to the group 603 and the oldest imaging date and time among the imaging date and time of the captured image data group belonging to the group 603 is stored in the DB. I do. At this time, since DA <DB, the group 603 is integrated with the group 604 to generate the group 603 in FIG. 6C.

グループ608については隣接しているグループはグループ607のみであるため、グループ608をグループ607と統合することで、図6(C)のグループ606を生成する。   Since only the group 607 is adjacent to the group 608, the group 608 is integrated with the group 607 to generate the group 606 in FIG. 6C.

なお、本ステップにおけるグループ統合方法には様々なグループ統合方法を用いることができ、特定のグループ統合方法に限るものではない。例えば、統合対象のグループを撮像データの数が少ないグループに統合するようにしてもよい。   Note that various group integration methods can be used for the group integration method in this step, and the method is not limited to a specific group integration method. For example, a group to be integrated may be integrated with a group having a small number of pieces of imaging data.

<ステップS420>
見開き割当部209は、入力部208が取得した見開きの数と同数のグループのそれぞれを、何れかの見開きに割り当てる。どの見開きにどのグループを割り当てるのかについては様々な方法があるが、例えば、より先頭の見開きには、撮像日時(グループ中の任意の撮像画像データの撮像日時)がより過去のグループを割り当てる。なお、後述するように、1つの見開きページ内では、画像データは撮像日時に並んでいなくてもよい。
<Step S420>
The spread allocating unit 209 allocates each of the same number of groups as the number of spreads acquired by the input unit 208 to any one of the spreads. There are various methods for assigning which group to which spread. For example, for the first spread, a group whose imaging date / time (imaging date / time of any captured image data in the group) is earlier. Note that, as described later, in one facing page, the image data does not have to be lined up with the image capturing date and time.

<ステップS421>
選択部210は先ず、それぞれの見開きのうち未選択の見開きを1つ選択し、該選択した見開きに割り当てられたグループに属する撮像画像データ群のうち、該見開きにおいて表示対象となる撮像画像データを選択する。選択した見開きに割り当てられたグループに属する撮像画像データ群のうち、該見開きにおいて表示対象となる4つの撮像画像データを選択する処理について、図9を例にとり説明する。なお、ここでは、見開きとは、2ページを指し、最初の見開き及び最後の見開きは、1ページとする。
<Step S421>
The selection unit 210 first selects one unselected spread from each spread, and among the captured image data groups belonging to the group assigned to the selected spread, captures captured image data to be displayed in the spread. select. A process of selecting four pieces of captured image data to be displayed in the spread from among the captured image data groups belonging to the group assigned to the selected spread will be described with reference to FIG. 9 as an example. Here, the double-page spread indicates two pages, and the first double-page spread and the last double-page spread are one page.

図9においてStartは、選択された見開きに割り当てられたグループ(着目グループ)に属する撮像画像データ群において最も過去に撮像された撮像画像データの撮像日時を表している。Endは、着目グループに属する撮像画像データ群において最近撮像された撮像画像データの撮像日時を表している。然るに、(Start−End)が、着目グループの撮像期間を表している。   In FIG. 9, “Start” indicates the date and time of imaging of the most recently captured image data in the group of captured image data belonging to the group (target group) assigned to the selected spread. End represents the date and time of imaging of recently captured image data in the group of captured image data belonging to the group of interest. However, (Start-End) indicates the imaging period of the target group.

先ず、着目グループに属する撮像画像データ群(図9(A))から、メイン写真スロットに配置する撮像画像データを選択する。メイン写真スロットに配置する撮像画像データとしては、着目グループに属するそれぞれの撮像画像データのうち、メイン写真スロット用の得点が最も高かった撮像画像データを選択する。メイン写真スロットに配置する撮像画像データとして選択された撮像画像データを、図9(B)において(1)として表している。   First, the captured image data to be arranged in the main photo slot is selected from the captured image data group (FIG. 9A) belonging to the group of interest. As the captured image data to be arranged in the main photo slot, the captured image data having the highest score for the main photo slot is selected from the respective captured image data belonging to the group of interest. The captured image data selected as the captured image data to be arranged in the main photo slot is represented as (1) in FIG. 9B.

次に、サブ写真スロットに配置する撮像画像データ(3つ)を、着目グループに属する撮像画像データ群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化して画像データを選択する。   Next, three pieces of captured image data to be arranged in the sub-photo slot are selected from a captured image data group belonging to the group of interest. As will be described below, the image data is selected by subdividing the imaging period so that the image selection does not concentrate on a part of the imaging period.

先ず、サブ写真スロットに配置する1つ目の撮像画像データを選択する。そのために先ず、図9(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図9(D)に示す如く、2つの分割期間のうち、撮像画像データ(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データを、サブ写真スロットに配置する撮像画像データとして選択する。サブ写真スロットに配置する1枚目の撮像画像データとして選択された撮像画像データを、図9(D)において(2)として示している。   First, the first captured image data to be arranged in the sub-photo slot is selected. First, as shown in FIG. 9C, the imaging period is divided into two division periods. Then, as shown in FIG. 9D, of the two divided periods, the sub-photograph of the captured image data group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) belongs. The captured image data with the highest score for the slot is selected as the captured image data to be arranged in the sub-photo slot. The captured image data selected as the first captured image data to be arranged in the sub photo slot is shown as (2) in FIG. 9D.

次に、サブ写真スロットに配置する2つ目の撮像画像データを選択する。そのために先ず、図9(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図9(F)に示す如く、4つの分割期間のうち撮像画像データ(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データをサブ写真スロットに配置する撮像画像データとして選択する。サブ写真スロットに配置する2つ目の撮像画像データとして選択された撮像画像データを、図9(F)において(3)として示している。   Next, the second captured image data to be arranged in the sub-photo slot is selected. For this purpose, first, as shown in FIG. 9E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 9F, the captured image data group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) and (2) belong out of the four divided periods The captured image data with the highest score for the sub-photo slot is selected as the captured image data to be arranged in the sub-photo slot. The captured image data selected as the second captured image data to be arranged in the sub-photo slot is shown as (3) in FIG. 9 (F).

次に、サブ写真スロットに配置する3つ目の撮像画像データを選択する。サブ写真スロットに配置する撮像画像を上記の4分割した分割期間のうち、撮像画像データ(1)〜(3)が属していない分割期間Gから撮像画像データを選択する。ここで、本実施形態では、画像データの数に関わらず、時間に応じて撮像期間を分割しているので、図9(G)に斜線で示す如く、分割期間Gには、何れの撮像画像データも属していない分割期間が発生してしまう。このような場合は、図9(H)に示す如く、撮像画像データ(1)〜(3)が属する分割期間のそれぞれを2つの分割期間に分割して6つの分割期間とする。図9(I)のように6つの分割期間のうち撮像画像データ(1)〜(3)が属する分割期間(点線)及び分割期間Gを省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データをサブ写真スロット用の撮像画像データとして選択する。サブ写真スロットに配置する3枚目の撮像画像データとして選択された撮像画像データを、図9(I)において(4)として示している。   Next, third captured image data to be arranged in the sub-photo slot is selected. The captured image data is selected from the divided period G to which the captured image data (1) to (3) does not belong, among the four divided periods of the captured image arranged in the sub-photo slot. Here, in the present embodiment, regardless of the number of image data, the imaging period is divided according to time, and therefore, as shown by hatching in FIG. A division period to which no data belongs also occurs. In such a case, as shown in FIG. 9H, each of the divided periods to which the captured image data (1) to (3) belongs is divided into two divided periods to be six divided periods. As shown in FIG. 9 (I), of the six divided periods, the captured image data belonging to the divided period (dotted line) to which the captured image data (1) to (3) belong and the remaining divided period (solid line) excluding the divided period G The captured image data with the highest score for the sub-photo slot in the group is selected as the captured image data for the sub-photo slot. The captured image data selected as the third captured image data to be arranged in the sub-photo slot is shown as (4) in FIG. 9 (I).

このような動作を行う選択部210の機能構成例について、図11のブロック図を用いて説明する。   An example of the functional configuration of the selection unit 210 that performs such an operation will be described with reference to the block diagram of FIG.

画像群取得部1102は、画像取得部202が取得した撮像画像データ群のうち、対象とする見開きに割り当てられたグループに属する撮像画像データ群を取得する。更に画像群取得部1102は、該グループに属するそれぞれの撮像画像データの撮像日時、メイン写真スロット用の得点、サブ写真スロット用の得点を取得する。   The image group acquisition unit 1102 acquires a group of captured image data belonging to the group assigned to the target spread from among the group of captured image data acquired by the image acquisition unit 202. Further, the image group obtaining unit 1102 obtains the image capturing date and time of each captured image data belonging to the group, the score for the main photo slot, and the score for the sub photo slot.

カウンタ1103は、1つのグループから画像データが選択された回数Cをカウントする。カウンタ1103は、1つのグループについての画像データ選択が完了し、次のグループについて画像データ選択を行う際には、Cの値を0にリセットする。   The counter 1103 counts the number C of times image data is selected from one group. The counter 1103 resets the value of C to 0 when the image data selection for one group is completed and the image data selection for the next group is performed.

分割部1105は、撮像期間を上記の如く分割する。分割部1105は先ず、画像群取得部1102が取得したそれぞれの撮像画像データの撮像日時において元も過去の撮像日時と最近の撮像日時との差分、即ち撮像期間を求める。そして分割部1105は、撮像期間を2個の分割期間に均等に分割する。なお、撮像期間の分割は2個の分割期間に均等に分割することに限るものではなく、撮像期間を選択したい画像の個数の分割期間となるように均等に分割してもよい。 The dividing unit 1105 divides the imaging period as described above. First, the dividing unit 1105 obtains the difference between the original imaging date and time and the latest imaging date and time, that is, the imaging period, at the imaging date and time of each captured image data acquired by the image group acquiring unit 1102. Then, the division unit 1105 equally divides the imaging period into 2C division periods. Note that the division of the imaging period is not limited to the division into 2C division periods evenly, and the imaging period may be equally divided so as to be the division period of the number of images to be selected.

設定部1106は、グループに属するそれぞれの撮像画像データに係る情報を管理する。   The setting unit 1106 manages information on each piece of captured image data belonging to the group.

得点軸設定部1104は、画像選択部1108がメイン写真スロット用の撮像画像データを選択する際には、得点軸として、メイン写真スロット用の撮像データを選択するための評価基準(メイン写真スロット用評価基準)を画像選択部1108に供給する。また、得点軸設定部1104は、画像選択部1108がサブ写真スロット用の撮像画像データを選択する際には、得点軸として、サブ写真スロット用の撮像を選択するための評価基準(サブ写真スロット用評価基準)を画像選択部1108に供給する。例えば、得点軸設定部1104は、C=0であればメイン写真スロット用評価基準を画像選択部1108に供給し、C>0であればサブ写真スロット用評価基準を画像選択部1108に供給する。   When the image selection unit 1108 selects the captured image data for the main photo slot, the score axis setting unit 1104 uses an evaluation criterion (for the main photo slot) to select the captured data for the main photo slot as the score axis. The evaluation criterion is supplied to the image selection unit 1108. In addition, when the image selection unit 1108 selects the captured image data for the sub-photo slot, the score axis setting unit 1104 uses the evaluation criterion (sub-photo slot) for selecting the imaging for the sub-photo slot as the score axis. Is supplied to the image selection unit 1108. For example, the score axis setting unit 1104 supplies the evaluation criterion for the main photo slot to the image selection unit 1108 if C = 0, and supplies the evaluation criterion for the sub photo slot to the image selection unit 1108 if C> 0. .

画像選択部1108は、グループに属する撮像画像データ群からメイン写真スロット用の撮像画像データ、サブ写真スロット用の撮像画像データを選択する。画像選択部1108は、得点軸設定部1104からメイン写真スロット用評価基準を受けた場合には、グループに属する撮像画像データ群からメイン写真スロット用の得点が最高の撮像画像データを選択するための処理を行う。また、画像選択部1108は、得点軸設定部1104からサブ写真スロット用評価基準を受けた場合には、グループに属する撮像画像データ群からサブ写真スロット用の得点が最高の撮像画像データを選択するための処理を行う。このように、画像選択部1108は、得点軸設定部1104から受けた得点軸に対応する得点が最高の撮像画像を、グループに属する撮像画像データ群から選択するための処理を行う。なお、図9を用いて説明したように、画像データが1つもない分割期間からは画像データは選択しない。また、本実施形態では、分割期間から選択する画像データの数を1としたが、2以上でも構わない。   The image selection unit 1108 selects captured image data for the main photo slot and captured image data for the sub photo slot from the captured image data group belonging to the group. When receiving the evaluation criteria for the main photo slot from the score axis setting unit 1104, the image selection unit 1108 selects the captured image data with the highest score for the main photo slot from the captured image data group belonging to the group. Perform processing. When receiving the evaluation criteria for sub-photo slot from the score axis setting unit 1104, the image selection unit 1108 selects the captured image data with the highest score for the sub-photo slot from the captured image data group belonging to the group. Process for As described above, the image selecting unit 1108 performs a process for selecting a captured image having the highest score corresponding to the score axis received from the score axis setting unit 1104 from the captured image data group belonging to the group. As described with reference to FIG. 9, no image data is selected from a divided period in which there is no image data. Further, in the present embodiment, the number of image data to be selected from the divided periods is one, but may be two or more.

なお、本実施形態では、利用する得点軸として、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸を例に挙げて説明したが、別の得点軸を用いてもよい。例えば、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸に加えて、さらに、人物関連度用の得点軸を用いるようにしてもよい。なお、人物関連度は、例えば、人物の登場回数や一緒に写った回数に基づいて得点化することができる。具体的には、登場回数が多い場合は、人物関連度が高いと判定することができ、一緒に写った回数が多いと人物関連度が高いと判定することができる。また、各得点軸を切り替えるようにしたが、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸、人物関連度用の得点軸などを組み合わせた統合得点軸を用いてもよい。このとき、メイン写真スロット用の得点、サブ写真スロット用の得点、人物関連度の得点、の統合得点を算出する際の各得点の重みを変更してもよい。また、処理する回数によって利用する得点軸をランダムに変更してもよいし、予め用意したテーブルを参照して得点軸を切り替えるようにしてもよい。   In the present embodiment, the score axis used for the main photo slot and the score axis used for the sub-photo slot have been described as examples. However, another score axis may be used. For example, in addition to the score axis for the main photo slot and the score axis for the sub photo slot, a score axis for the degree of person relevance may be used. Note that the person relevance can be scored based on, for example, the number of appearances of the person or the number of times the person has been imaged together. Specifically, when the number of appearances is large, it can be determined that the degree of person relevance is high, and when the number of appearances together is large, it can be determined that the degree of person relevance is high. Although the respective score axes are switched, an integrated score axis combining the score axis for the main photo slot, the score axis for the sub-photo slot, the score axis for the degree of person relevance, and the like may be used. At this time, the weight of each score when calculating the integrated score of the score for the main photo slot, the score for the sub-photo slot, and the score of the person relevance may be changed. The score axis to be used may be changed at random according to the number of times of processing, or the score axis may be switched by referring to a table prepared in advance.

類似判定部1109は、グループから選択された撮像画像データと、該グループから前回選択された撮像画像データとの類似度を求める。この類似度が閾値以上であれば類似していると判定し、閾値未満であれば類似していないと判定する。類似していないと判定された場合は、そのグループから選択した撮像画像データを出力し、類似していると判定された場合は、そのグループから選択した撮像画像データを破棄する。類似判定は、パターンマッチングによる判定、SHIFT法を用いた判定などを用いることができる。類似判定に用いる閾値は、比較する画像データの撮像日時の差に応じて変更する。例えば、類似判定結果が0〜100のレンジで出力される場合に100に近いほど似ているとし、閾値以上であれば類似していると判定し、閾値未満であれば類似していないと判定する。連写などにより撮像日時の差が短い場合(例えば15秒以内)は、閾値を低く設定する(例えば、60に設定する)。それ以外は閾値を80に設定する。閾値を低くすることにより、類似していると判断されやすくなり、少しの類似であっても類似画像と判断され、選択画像データが解除されることになる。本実施形態では、このように、撮像日時の差に応じて判定基準を変更する。   The similarity determination unit 1109 calculates the similarity between the captured image data selected from the group and the captured image data previously selected from the group. If the similarity is equal to or greater than the threshold, it is determined that the images are similar, and if it is less than the threshold, it is determined that the images are not similar. When it is determined that the images are not similar, the captured image data selected from the group is output. When it is determined that the images are similar, the captured image data selected from the group is discarded. For the similarity determination, a determination based on pattern matching, a determination using the SHIFT method, or the like can be used. The threshold value used for the similarity determination is changed according to the difference between the imaging date and time of the image data to be compared. For example, when the similarity determination result is output in the range of 0 to 100, it is determined that the similarity is closer to 100, the similarity is determined if the value is equal to or more than the threshold value, and the similarity is determined if the value is less than the threshold value. I do. If the difference between the imaging dates and times is short (for example, within 15 seconds) due to continuous shooting or the like, the threshold is set low (for example, set to 60). Otherwise, the threshold is set to 80. By lowering the threshold value, it is easy to determine that the images are similar. Even if the images are slightly similar, the images are determined to be similar images, and the selected image data is released. In this embodiment, the criterion is changed according to the difference between the imaging dates and times.

統合部1112は、類似判定部1109で非類似と判定された撮像画像データから、最終的に残す撮像画像データを選別する。複数の分割期間から撮像画像データが選択された場合にいずれの分割期間の撮像画像を選別するかを判断する。この判断の際には、画像選択部1108で画像選択の際に用いた得点を用い、最高得点の画像データを選択する。なお、本実施形態では、最高得点の画像を選択するものとしたが、これに限定されるものではない。例えば、画像データが選択された区間のうち、隣接する区間から画像データが選択されていない区間から選択するようにしてもよい。   The integration unit 1112 selects captured image data to be finally left from the captured image data determined to be dissimilar by the similarity determination unit 1109. When picked-up image data is selected from a plurality of divided periods, it is determined which divided period is to be used to select a picked-up image. In this determination, the image selection unit 1108 selects the image data with the highest score by using the score used for image selection. In the present embodiment, the image with the highest score is selected, but the present invention is not limited to this. For example, a section in which image data is not selected from an adjacent section among sections in which image data is selected may be selected.

枚数設定部1101は、1つの見開きにおいて配置される撮像画像データに基づく撮像画像の総数を設定する。画像管理部1113は、統合部1112で選択された撮像画像データを選択画像データとして追加し、枚数設定部1101で設定された必要数を超えていないかを判定する。必要数に到達した場合は画像データ選択処理を終了する。必要枚数に達成していない場合は、カウンタ1103にカウントアップを指示し、上述した画像データ選択処理を再度実行させる。図11に示す構成を有する選択部210が行う画像データ選択処理について、図12のフローチャートに従って説明する。   The number setting unit 1101 sets the total number of captured images based on the captured image data arranged in one spread. The image management unit 1113 adds the captured image data selected by the integration unit 1112 as the selected image data, and determines whether the number exceeds the required number set by the number setting unit 1101. If the required number has been reached, the image data selection processing ends. If the required number has not been achieved, the counter 1103 is instructed to count up, and the above-described image data selection processing is executed again. Image data selection processing performed by the selection unit 210 having the configuration shown in FIG. 11 will be described with reference to the flowchart in FIG.

<ステップS1201>
枚数設定部1101は、処理対象の見開きに割り当てられたグループから選択する撮像画像データの総数を設定する。
<Step S1201>
The number setting unit 1101 sets the total number of pieces of captured image data to be selected from the group assigned to the spread to be processed.

<ステップS1202>
画像群取得部1102は、画像取得部202が取得した撮像画像データ群のうち、処理対象の見開きに割り当てられたグループに属する撮像画像データ群を取得する。
<Step S1202>
The image group acquiring unit 1102 acquires a group of captured image data belonging to the group assigned to the spread of the processing target from the group of captured image data acquired by the image acquiring unit 202.

<ステップS1203>
カウンタ1103は、画像選択部1108による画像データ選択回数Cをカウントする。初期状態では、画像選択は実行されていないのでC=0である。
<Step S1203>
The counter 1103 counts the number C of image data selections by the image selection unit 1108. In the initial state, C = 0 since no image selection has been performed.

<ステップS1204>
得点軸設定部1104は、画像選択回数Cに応じて得点軸を画像選択部1108に供給する。本実施形態では、画像データ選択回数C=0のときは、メイン写真スロット用の得点軸を設定し、画像データ選択回数C=1以上のときは、サブ写真スロット用の得点軸を設定する。
<Step S1204>
The score axis setting unit 1104 supplies the score axis to the image selection unit 1108 according to the number of image selections C. In the present embodiment, when the number of image data selections C = 0, the score axis for the main photo slot is set, and when the number of image data selections C = 1 or more, the score axis for the sub photo slot is set.

<ステップS1205>
分割部1105は、処理対象の見開きに割り当てられたグループに属する撮像画像において最も過去の撮像日時と最近の撮像日時との差分を撮像期間として求め、該求めた撮像期間を画像選択回数Cに応じた個数の分割期間(区間)に分割する。なお、第1回目のステップS1205では画像選択回数C=0であるため、撮像期間の分割は行われない。
<Step S1205>
The dividing unit 1105 obtains, as an imaging period, a difference between the earliest imaging date and the latest imaging date and time in the captured images belonging to the group assigned to the spread of the processing target, and determines the obtained imaging period according to the number of image selections C. Is divided into divided periods (sections). Note that in the first step S1205, since the number of times of image selection C is 0, the imaging period is not divided.

<ステップS1206>
設定部1106は、グループに属するそれぞれの撮像画像データに係る情報を管理する。撮像画像データに係る情報としては、ステップS410で求めた画像の得点、撮影時間情報、いずれの分割期間に属するものであるかの情報、選択済みの画像か否かの情報が挙げられる。
<Step S1206>
The setting unit 1106 manages information on each piece of captured image data belonging to the group. Examples of the information related to the captured image data include the score of the image obtained in step S410, shooting time information, information on which divided period the image belongs to, and information on whether or not the image has been selected.

<ステップS1207>
分割部1105により分割されたそれぞれの分割期間のうち未選択があるか判定する。未選択区間がない、すなわち、全ての分割期間から既に撮像画像データが選択されている場合には、処理はステップS1211に進む。一方、分割期間から未だ撮像画像データが選択されていない未選択区間がある場合には、処理はステップS1208に進む。
<Step S1207>
It is determined whether or not each of the divided periods divided by the dividing unit 1105 is unselected. If there is no unselected section, that is, if captured image data has already been selected from all divided periods, the process proceeds to step S1211. On the other hand, if there is an unselected section in which the captured image data has not been selected from the divided period, the process proceeds to step S1208.

<ステップS1208>
画像選択部1108は、得点軸設定部1104から供給された得点軸に従って、ステップS1207において未選択とされた分割期間から1つの撮像画像データを選択する。
<Step S1208>
The image selecting unit 1108 selects one piece of captured image data from the unselected division periods in step S1207 according to the score axis supplied from the score axis setting unit 1104.

<ステップS1209>
類似判定部1109は、今回のステップS1208で選択した撮像画像データと前回ステップS1208で選択した撮像画像データとの類似度を求める。そしてこの類似度が閾値以上であれば類似していると判断して、処理はステップS1210に進む。一方、類似度が閾値未満であれば類似していないと判断して、処理はステップS1211に進む。
<Step S1209>
The similarity determination unit 1109 obtains the similarity between the captured image data selected in the current step S1208 and the captured image data selected in the previous step S1208. If the similarity is equal to or larger than the threshold value, it is determined that they are similar, and the process proceeds to step S1210. On the other hand, if the similarity is less than the threshold, it is determined that there is no similarity, and the process proceeds to step S1211.

<ステップS1210>
類似判定部1109は、ステップS1208で選択した撮像画像データを破棄する。
<Step S1210>
The similarity determination unit 1109 discards the captured image data selected in step S1208.

<ステップS1211>
分割部1105により分割されたそれぞれの分割期間のうち未選択の分割期間が残っている場合には、処理はステップS1206に戻り、残っていない場合には、処理はステップS1212に進む。
<Step S1211>
If an unselected divided period remains among the divided periods divided by the dividing unit 1105, the process returns to step S1206; otherwise, the process proceeds to step S1212.

<ステップS1212>
統合部1112は、類似判定部1109で非類似と判定された各分割期間からの選択画像データから、最終的に残す画像データを選別する。すなわち、ステップS1207〜S1211で2以上の撮像画像データが残った場合、何れか1つを残すための選別を行う。
<Step S1212>
The integration unit 1112 selects image data to be finally left from the selected image data from each of the divided periods determined as dissimilar by the similarity determination unit 1109. That is, when two or more pieces of captured image data remain in steps S1207 to S1211, sorting is performed to leave any one.

<ステップS1213>
画像管理部1113は、ステップS1212を経て残った撮像画像データを、処理対象となる見開きに対して使用する画像データ(選択画像データ)として追加する。
<Step S1213>
The image management unit 1113 adds the captured image data remaining after step S1212 as image data (selected image data) to be used for the spread to be processed.

<ステップS1214>
画像管理部1113は、ステップS1213による追加の結果として現在の選択画像データの数が枚数設定部1101で設定された必要数を超えていないかを判定する。必要枚数に到達した場合は画像データ選択処理を終了する。一方、必要枚数に達成していない場合は、処理はステップS1203に戻る。この場合、カウンタ1103は画像データ選択回数Cを1つインクリメントし、以降の各ステップの処理が行われる。その結果、前回よりも2倍多い分割期間が設定される。分割期間がより細かく分割されることにより、分割期間内での撮像画像データに対する得点によるランクが変化するので、前回では選択されなかった撮像画像データが選択される。
<Step S1214>
The image management unit 1113 determines whether the number of currently selected image data does not exceed the required number set by the number setting unit 1101 as a result of the addition in step S1213. If the required number has been reached, the image data selection processing ends. On the other hand, if the required number has not been achieved, the process returns to step S1203. In this case, the counter 1103 increments the image data selection count C by one, and the processing of each subsequent step is performed. As a result, two times more divided periods than the previous period are set. As the division period is more finely divided, the rank of the captured image data according to the score in the divided period changes, so that the captured image data not selected previously is selected.

<ステップS422>
レイアウト部212は、画像レイアウトの決定のために、ステップS421で選択した画像データを基にしてテンプレートを選択する。入力部211が入力したテンプレート群のうち、着目する見開きに適用するテンプレートを、該着目する見開きについて選択した撮像画像データに基づいて選択する。以下では具体例を挙げてステップS422における処理を説明するために、入力部211は、図10(A)の(1−1)〜(4−4)の16枚のテンプレートを入力したとする。なお、ステップS422ではメイン写真スロット用に1枚の撮像画像データ、サブ写真スロット用に2つの撮像画像データを選択しているとする。この場合は、図10(A)に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS421にて選択した3つの撮像画像データに基づく画像を撮像日時が古いものから順に並べると、図10(B)に示す如く、縦長(縦向き)の画像1006、横長(横向き)の画像1007、縦長(縦向き)の画像1005であったとする。なお、画像1006及び1007はサブ写真スロットに配置する撮像画像であり、画像1005はメイン写真スロットに配置する撮像画像である。
<Step S422>
The layout unit 212 selects a template based on the image data selected in step S421 to determine an image layout. From the template group input by the input unit 211, a template to be applied to the spread of interest is selected based on the captured image data selected for the spread of interest. In the following, it is assumed that the input unit 211 has input the 16 templates (1-1) to (4-4) in FIG. 10A in order to describe the process in step S422 with a specific example. In step S422, one piece of captured image data for the main photo slot and two pieces of captured image data for the sub photo slot are selected. In this case, as shown in FIG. 10A, a template group having three photo slots is set as a candidate. Here, when images based on the three pieces of captured image data selected in step S421 are arranged in descending order of image capturing date and time, as shown in FIG. 10B, a vertically long (portrait) image 1006, a horizontally long (horizontal) It is assumed that the image 1007 is a vertically long (vertically oriented) image 1005. Note that images 1006 and 1007 are captured images to be placed in the sub-photo slot, and image 1005 is a captured image to be placed in the main photo slot.

本実施形態では、テンプレートの左上に撮像日時のより古い画像、右下に撮像日時のより新しい画像をレイアウトするものとする。図10(B)に示す如く、メイン写真スロットに配置する縦長の画像1005の撮像日時が最近であるため、右下に最近の撮像日時の縦長のメイン写真スロット用の画像を配置するレイアウト(3−1)〜(3−4)が候補として残る。   In the present embodiment, it is assumed that an image with an older imaging date and time is laid out at the upper left of the template and an image with a newer imaging date and time is laid out at the lower right. As shown in FIG. 10B, since the image capturing date and time of the vertically long image 1005 arranged in the main photo slot is the latest, the layout (3) in which the image for the vertically long main photo slot of the latest image capturing date and time is arranged at the lower right. -1) to (3-4) remain as candidates.

また、撮像日時が最も古い画像は縦長のサブ写真スロット用の画像1006であり、左上に最も古い撮像日時の縦長のサブ写真スロット用の画像を配置するレイアウト(3−1)、(3−2)が候補として残る。   The image with the oldest imaging date and time is the image 1006 for the vertically long sub-photo slot, and the layout (3-1) and (3-2) in which the image for the vertically long sub-photo slot with the oldest imaging date and time is arranged at the upper left. ) Remain as candidates.

また、撮像日時が2番目に古い画像は横長のサブ写真スロット用の画像1007であり、左上及び右下以外に2番目に古い撮像日時の横長のサブ写真スロット用の画像を配置するレイアウトは、(3−2)のみである。   The image with the second oldest shooting date and time is the horizontally long sub-photo slot image 1007, and the layout for arranging the second oldest horizontally long sub-photo slot image other than the upper left and lower right is as follows. Only (3-2).

然るに、この場合は、(3−2)のレイアウトを、着目する見開きに適用するテンプレートとして選択する。なお、着目する見開きに適用するテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。   However, in this case, the layout (3-2) is selected as a template to be applied to the spread of interest. The method of selecting a template to be applied to the spread of interest is not limited to the above method, and another method may be adopted.

<ステップS423>
画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、選択部210が選択した3つの撮像画像データのそれぞれに対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。補正する画像の画素数は短辺1200画素で、sRGBの色空間に変換した画像に対して画像補正ON/OFFを実施する。
<Step S423>
If the flag value acquired by the input unit 213 is a value indicating that image correction is to be performed, the image correction unit 214 applies dodging to each of the three pieces of captured image data selected by the selection unit 210. Correction processing such as correction, red-eye correction, and contrast correction is performed. Of course, if the flag value acquired by the input unit 213 is a value indicating that image correction is not to be performed, the image correction unit 214 does not execute the correction processing. The number of pixels of the image to be corrected is 1200 pixels on the short side, and image correction ON / OFF is performed on the image converted to the sRGB color space.

<ステップS424>
出力部215は、ステップS422で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS421で選択された撮像画像データを、該写真スロットのサイズにリサイズして配置した「見開きのページの画像データ」を生成する。なお、配置する画像は撮像画像の代わりに、該撮像画像から生成した解析画像であっても良い。そして出力部215は、この生成した「見開きのページの画像データ」をレイアウト情報として出力する。出力先はディスプレイ105であっても良いし、HDD104であっても良い。本実施形態では、「見開きのページの画像」をユーザに確認させると共に、必要であれば編集を可能にするために、「見開きのページの画像」をディスプレイ105に対して出力する。
<Step S424>
The output unit 215 resizes the captured image data selected in step S421 for each photo slot on the template selected in step S422 and arranges the captured image data in the photo slot in the size of the photo slot. Page image data "is generated. Note that the image to be arranged may be an analysis image generated from the captured image instead of the captured image. Then, the output unit 215 outputs the generated “image data of a double-page spread” as layout information. The output destination may be the display 105 or the HDD 104. In the present embodiment, the “spread page image” is output to the display 105 in order to allow the user to check “spread page image” and to enable editing if necessary.

<ステップS425>
ステップS421において全ての見開きを選択した場合には、図4のフローチャートに従った処理は終了する。一方、未選択の見開きが残っている場合には、処理はステップS421に戻る。
<Step S425>
If all spreads have been selected in step S421, the processing according to the flowchart in FIG. 4 ends. On the other hand, if unselected spreads remain, the process returns to step S421.

次に、自動レイアウト処理部218による上記の処理中にディスプレイ105に表示される画面の推移について、その推移を表す図15のフローチャートを用いて説明する。上記の通り、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより図3のGUI301がディスプレイ105に表示される(S1501)。図3のGUI301は、アルバムの作成条件を設定する設定画面である。   Next, a transition of a screen displayed on the display 105 during the above-described processing by the automatic layout processing unit 218 will be described with reference to a flowchart of FIG. As described above, for example, when the user double-clicks the application icon displayed on the display 105 using the mouse 107, the GUI 301 of FIG. 3 is displayed on the display 105 (S1501). A GUI 301 in FIG. 3 is a setting screen for setting album creation conditions.

図3のGUI301において上記の通り様々な設定を行ってから、ユーザがキーボード106やマウス107を操作してOKボタン308を指定すると、図4のフローチャートに従った処理が開始される。更に、ディスプレイ105には、図21に示すような、処理の進行の度合いを表したウィンドウ2101が表示される(S1502)。   After performing various settings as described above on the GUI 301 in FIG. 3, if the user operates the keyboard 106 or the mouse 107 to specify the OK button 308, the processing according to the flowchart in FIG. 4 is started. Further, a window 2101 indicating the degree of the progress of the process is displayed on the display 105 as shown in FIG. 21 (S1502).

進捗バー2102は、図4のフローチャートに従った処理の開始時には0%を指し、該処理が進むにつれ、その長さは長くなり、ステップS415の処理が完了した時点で100%を指す。すなわち、本実施形態では、「アルバム作成進捗表示」において、解析画像が生成されてから表紙のレイアウト画像データが作成されるまでの処理の進行度を表示する。その間の進捗バー2102の長さは、図4のフローチャートにおいて予め設定した各処理を完了するたびに対応する長さとなるように更新される。また、顔検出や個人認識などの解析処理には処理時間がかかるため、解析実行時には画像の数に応じて表示を更新してもよい。   The progress bar 2102 indicates 0% at the start of the process according to the flowchart of FIG. 4, and its length increases as the process proceeds, and indicates 100% when the process of step S415 is completed. That is, in the present embodiment, in the “album creation progress display”, the progress of the processing from the generation of the analysis image to the creation of the cover layout image data is displayed. The length of the progress bar 2102 during that time is updated so as to become the corresponding length each time each process set in advance in the flowchart of FIG. 4 is completed. In addition, since analysis processing such as face detection and individual recognition takes a long processing time, the display may be updated according to the number of images at the time of analysis execution.

そして、進捗バー2102が100%を指し示すと、即ち、ステップS415の処理が完了とすると、図16に例示するGUIをディスプレイ105に表示する(S1503)。   When the progress bar 2102 indicates 100%, that is, when the process of step S415 is completed, the GUI illustrated in FIG. 16 is displayed on the display 105 (S1503).

領域1601には、撮像画像がレイアウトされた結果のプレビュー画面が表示される。図16では起動直後のGUIを示しており、この時点では、表紙ページ(おもて表紙及び裏表紙の見開きページ)の画像しか生成されていないため、この表紙ページの画像が領域1601内に表示されている。   In a region 1601, a preview screen as a result of laying out the captured images is displayed. FIG. 16 shows the GUI immediately after startup. At this time, only the image of the cover page (spread page of the front cover and the back cover) has been generated, and the image of the cover page is displayed in the area 1601. Have been.

写真スロット1602は、裏表紙用の写真スロットであり、この写真スロット1602には裏表紙に割り当てられた撮像画像が配置される。写真スロット1603は、表紙用の写真スロットで、この写真スロット1603には表紙に割り当てられた撮像画像が配置される。   The photo slot 1602 is a photo slot for the back cover. In the photo slot 1602, a captured image assigned to the back cover is arranged. A photo slot 1603 is a photo slot for a cover, and a captured image assigned to the cover is arranged in the photo slot 1603.

タイトル領域1604は、フォトアルバムのタイトルなどのテキスト情報を入力するための領域であり、GUIの起動直後の時点では何も表示されていない。例えば、ユーザがキーボード106やマウス107を操作してタイトル領域1604を指定することでタイトル領域1604に文字入力が可能となり、キーボード106やマウス107等の入力手段を操作してタイトル領域1604に文字を入力する。また、タイトル領域1604は、マウス107によるドラッグ操作などによって、その位置を移動させることができる。   The title area 1604 is an area for inputting text information such as the title of the photo album, and nothing is displayed immediately after the GUI is started. For example, when the user operates the keyboard 106 and the mouse 107 to specify the title area 1604, characters can be input to the title area 1604. By operating input means such as the keyboard 106 and the mouse 107, characters can be input to the title area 1604. input. The position of the title area 1604 can be moved by a drag operation with the mouse 107 or the like.

ユーザがキーボード106やマウス107を操作して表紙ページの写真スロットのうち所望の写真スロット(図16では写真スロット1602、1603の何れか)を指定して画像入替えボタン1605を指定する。この指定を受け付けると、ディスプレイ105には図17に例示するGUI1701が表示される。GUI1701は、ユーザが指定した写真スロットに現在配置されている撮像画像を所望の撮像画像に置き換えるための操作を受け付けるGUIである。すなわち、GUI1701は、画像入替画面である。このGUI1701については後述する。   The user operates the keyboard 106 and the mouse 107 to specify a desired photo slot (one of the photo slots 1602 and 1603 in FIG. 16) among the photo slots on the cover page, and specifies the image exchange button 1605. Upon receiving this designation, the display 105 displays a GUI 1701 illustrated in FIG. The GUI 1701 is a GUI for receiving an operation for replacing a captured image currently arranged in a photo slot designated by a user with a desired captured image. That is, the GUI 1701 is an image replacement screen. This GUI 1701 will be described later.

図16に戻って、ユーザがキーボード106やマウス107を操作して表紙ページの写真スロットのうち所望の写真スロット(図16では写真スロット1602、1603の何れか)を指定して画像編集ボタン1606を指定する。この指定を受け付けると、ディスプレイ105には図18に例示するGUIが表示される。図18に例示するGUIは、ユーザが指定した写真スロットに現在配置されている撮像画像をリサイズ、回転、トリミングするための操作を受け付けるGUIである。すなわち、図18のGUIは、画像編集画面である。このGUIについては後述する。   Returning to FIG. 16, the user operates the keyboard 106 or the mouse 107 to specify a desired photo slot (one of the photo slots 1602 and 1603 in FIG. 16) among the photo slots on the cover page, and presses the image edit button 1606. specify. Upon receiving this designation, a GUI illustrated in FIG. 18 is displayed on the display 105. The GUI illustrated in FIG. 18 is a GUI that accepts operations for resizing, rotating, and trimming a captured image currently arranged in a photo slot designated by a user. That is, the GUI in FIG. 18 is an image editing screen. This GUI will be described later.

図16に戻って、ユーザがキーボード106やマウス107を操作してボタン1608を指定すると、次のページのレイアウト結果が領域1601に表示される。ユーザがキーボード106やマウス107を操作してボタン1607を指定すると、前のページのレイアウト結果が領域1601に表示される。すなわち、ボタン1607、ボタン1608は、表示するレイアウト画像を切り替える切替部である。   Referring back to FIG. 16, when the user operates the keyboard 106 or the mouse 107 to specify the button 1608, the layout result of the next page is displayed in the area 1601. When the user operates the keyboard 106 or the mouse 107 to specify the button 1607, the layout result of the previous page is displayed in the area 1601. That is, the buttons 1607 and 1608 are switching units for switching the layout image to be displayed.

ここで、図16のGUIが表示された時点では、本身のレイアウトは作成途中である。図16のGUIを表示し、このGUIを操作してタイトル入力や画像の調整などをユーザが行っている間に、本身のレイアウト処理をバックグランドで実行する。そのため、本身のレイアウトが作成中の間は、ボタン1607,1608は機能しないように非表示にしてもよいし、またはグレーアウトして押せないようにしてもよい(無効化)。このとき、ボタン1607,1608が押下された場合は、「レイアウト作成中」等の表示をするようにしてもよい。   Here, when the GUI of FIG. 16 is displayed, the layout of the main body is being created. The GUI shown in FIG. 16 is displayed, and the main body layout processing is executed in the background while the user operates the GUI to input a title or adjust an image. Therefore, while the layout of the main body is being created, the buttons 1607 and 1608 may not be displayed so as not to function, or may be grayed out and cannot be pressed (invalidated). At this time, when the buttons 1607 and 1608 are pressed, a display such as “layout is being created” may be displayed.

次に、バックグランドで実行中の本身のレイアウト作成が完了したか(図4のフローチャートに従った処理が完了したか)否かを判定する(S1504)。レイアウト作成が完了した場合には、処理はS1505に進み、未だ完了していない場合には、処理はS1503に戻る。なお、本実施形態では、本身の全てのレイアウトが完了するまで、ステップS1505に進まないものとしたが、これに限定されず、本身の複数の見開きページのうち、処理が完了した見開きページが有る場合は、ステップS1505に進むようにしてもよい。   Next, it is determined whether the layout creation of the main body being executed in the background has been completed (whether the processing according to the flowchart of FIG. 4 has been completed) (S1504). If the layout creation has been completed, the process proceeds to S1505, and if not completed, the process returns to S1503. In the present embodiment, it is assumed that the process does not proceed to step S1505 until all layouts of the main body are completed. However, the present invention is not limited to this, and there is a spread page whose processing is completed among a plurality of spread pages of the main body. In this case, the process may proceed to step S1505.

レイアウト作成が完了すると、ボタン1607、1608を有効化し(指示可能にし)、ユーザが表紙ページ以外のページのレイアウト結果に関してもプレビューによる確認、及び編集できるようにする(S1505)。   When the layout creation is completed, the buttons 1607 and 1608 are activated (instruction is possible), so that the user can also confirm and edit the layout results of pages other than the cover page by preview (S1505).

図16においてユーザがキーボード106やマウス107を操作して発注ボタン1609を指定すると、フォトアルバムの発注処理を行う。フォトアルバムの発注処理では、この時点で作成されているページの画像データを、フォトアルバムを作成する業者のサーバ装置などに転送する。一般には、表紙・裏表紙、本身の確認と編集作業が終了した時点で発注ボタン1609が指定されるので、これにより、完成したフォトアルバムを発注することができる。   In FIG. 16, when the user designates an order button 1609 by operating the keyboard 106 or the mouse 107, order processing of a photo album is performed. In the photo album ordering process, the image data of the page created at this time is transferred to a server device of a company that creates the photo album. Generally, the order button 1609 is designated when the front cover / back cover, body confirmation, and editing work are completed, so that a completed photo album can be ordered.

次に、上記の図17のGUI1701について説明する。領域1702には入れ替え候補となるおすすめの撮像画像が表示される。このおすすめの撮像画像は、例えば、次のようにして決める。画像選択時に、ユーザが入換えを希望した希望撮像画像(画像入れ替えボタン1605を指定する前に指定した写真スロットに配置されている撮像画像)と同区間に属していた撮像画像群のうち得点が高い順に2番目以降の撮像画像をおすすめの撮像画像とする。このときの得点とは、希望撮像画像が配置されている写真スロット(若しくは表紙、裏表紙)に設定された得点軸の得点とする。そしてN(2以上の整数)番目までの撮像画像をおすすめの撮像画像とした場合、領域1702にはN枚の撮像画像がおすすめの撮像画像として表示されることになる。これにより、希望撮像画像と類似した特徴を有し且つ得点の高い画像と容易に入れ替えをすることができる。また、これに限定されず、アルバム作成に用いる撮影期間のうち得点が高い順に、すなわち、得点が2番目以降の撮像画像をおすすめの撮像画像としてもよい。   Next, the GUI 1701 in FIG. 17 will be described. In a region 1702, a recommended captured image serving as a replacement candidate is displayed. The recommended captured image is determined, for example, as follows. At the time of image selection, the score of the captured image group belonging to the same section as the desired captured image that the user has requested to replace (the captured image arranged in the photo slot specified before specifying the image replacement button 1605) is The second and subsequent captured images in descending order are recommended captured images. The score at this time is the score of the score axis set in the photo slot (or the front and back covers) in which the desired captured image is arranged. Then, when the captured images up to N (an integer of 2 or more) are the recommended captured images, N captured images are displayed in the area 1702 as the recommended captured images. As a result, it is possible to easily replace an image having characteristics similar to the desired captured image with a high score. The present invention is not limited to this, and the captured images with the highest score in the shooting period used for creating the album, that is, the captured images with the second and subsequent scores may be set as the recommended captured images.

領域1703には、HDD104に保存されている全ての撮像画像が表示される。なお、撮像画像が多い場合は、ユーザのスクロールバーの移動操作に伴い、撮像画像を順に表示させる。なお、所望の条件を満たす撮像画像のみを領域1703に表示させるべく、その条件を指定するようにしても良い。   In an area 1703, all captured images stored in the HDD 104 are displayed. When there are many captured images, the captured images are sequentially displayed in accordance with the user's operation of moving the scroll bar. Note that the condition may be specified so that only the captured image satisfying the desired condition is displayed in the area 1703.

ユーザはキーボード106やマウス107を操作して領域1702及び領域1703から所望の撮像画像を選択してからOKボタン1704を指定すると、GUI1701は消去される。そして、図16のGUIにおいてユーザが画像入れ替えを希望して指定した写真スロット内の撮像画像は、GUI1701においてユーザが指定した撮像画像に入れ替えられる。一方、ユーザがキーボード106やマウス107を操作してキャンセルボタン1705を指定すると、GUI1701は消去され、画像入れ替えは行われない。   When the user operates the keyboard 106 and the mouse 107 to select a desired captured image from the area 1702 and the area 1703 and then specifies the OK button 1704, the GUI 1701 is deleted. Then, the captured image in the photo slot designated by the user in the GUI of FIG. 16 in response to the desire to replace the image is replaced with the captured image designated by the user in the GUI 1701. On the other hand, if the user operates the keyboard 106 or the mouse 107 to specify the cancel button 1705, the GUI 1701 is deleted, and the image is not replaced.

次に、図18のGUIについて説明する。プレビュー領域1801には、画像編集ボタン1606を指定する際に図16のGUIにおいてユーザが指定した写真スロット内の撮像画像(編集対象画像)が、該写真スロットとサイズ比率で同じアスペクト比で表示される。   Next, the GUI of FIG. 18 will be described. In the preview area 1801, a captured image (image to be edited) in the photo slot specified by the user in the GUI of FIG. 16 when the image editing button 1606 is specified is displayed in the same aspect ratio as the size of the photo slot. You.

ユーザがキーボード106やマウス107を操作して拡大ボタン1802を指定するたびに編集対象画像は拡大される。編集対象画像が拡大されると、そのサイズはプレビュー領域1801よりも大きくなりはみ出してしまうが、そのはみ出した部分は表示せず、プレビュー領域1801に収まる部分だけがプレビュー領域1801内に表示される。すなわち、プレビュー領域1801に表示される部分を、撮像画像からトリミングする。拡大ボタン1802を指定するたびに、例えば5%ずつ拡大させる。   Each time the user operates the keyboard 106 or the mouse 107 to specify the enlarge button 1802, the image to be edited is enlarged. When the image to be edited is enlarged, its size becomes larger than the preview area 1801 and protrudes. However, the protruding part is not displayed, and only the part that fits in the preview area 1801 is displayed in the preview area 1801. That is, the portion displayed in the preview area 1801 is trimmed from the captured image. Each time the enlargement button 1802 is designated, the enlargement is performed, for example, by 5%.

ユーザがキーボード106やマウス107を操作して縮小ボタン1803を指定するたびに編集対象画像は縮小される。縮小ボタン1803は編集対象画像がプレビュー領域1801よりも大きいサイズの場合にのみ有効となり、プレビュー領域1801と同サイズとなった場合には無効となる。縮小ボタン1803を指定するたびに、例えば5%ずつ縮小させる。   Each time the user operates the keyboard 106 or the mouse 107 to specify the reduction button 1803, the image to be edited is reduced. The reduction button 1803 is valid only when the image to be edited has a size larger than the preview area 1801, and is invalid when the image to be edited has the same size as the preview area 1801. Each time the reduction button 1803 is designated, the size is reduced by, for example, 5%.

ユーザがキーボード106やマウス107を操作してボタン1804を指定するたびに、プレビュー領域1801内の画像は左回りに90度回転させられる。ユーザがキーボード106やマウス107を操作してボタン1805を指定するたびに、プレビュー領域1801内の画像は右回りに90度回転させられる。なお、画像を回転する際にプレビュー領域1801に空白領域が生じないように、プレビュー領域1801内の画像を適宜リサイズする。また、プレビュー領域1801上で画像をドラックして任意の方向に移動することにより、プレビュー領域1801に含まれていない他の画像部分をプレビュー領域1801内に表示させることができる。   Each time the user operates button 1061 by operating keyboard 106 or mouse 107, the image in preview area 1801 is rotated 90 degrees counterclockwise. Each time the user operates the keyboard 106 or the mouse 107 to specify the button 1805, the image in the preview area 1801 is rotated 90 degrees clockwise. Note that the image in the preview area 1801 is appropriately resized so that a blank area does not occur in the preview area 1801 when rotating the image. In addition, by dragging an image on the preview area 1801 and moving the image in an arbitrary direction, another image portion not included in the preview area 1801 can be displayed in the preview area 1801.

なお、ここでは、拡大率及び縮小率は何れも5%としたが、この値に限るものではない。また、この拡大率や縮小率はユーザがテキスト入力やバーの長さ調節などによって適宜変更できるようにしても構わない。また、ここでは、画像編集の一例として画像の拡大/縮小、回転、を示したが、色味調整や階調調整などの他の画像編集を可能にするGUI(操作部)を構成しても構わない。   Here, both the enlargement ratio and the reduction ratio are 5%, but are not limited to these values. Further, the enlargement ratio and the reduction ratio may be appropriately changed by the user by inputting text or adjusting the length of the bar. Here, enlargement / reduction and rotation of an image are shown as an example of image editing. However, a GUI (operation unit) that enables other image editing such as color adjustment and gradation adjustment may be configured. I do not care.

また、ここでは説明のために、画像得点化後に表紙・裏表紙画像の選択及びレイアウトを実行する方法を説明したが、見開き割当後に各見開きごとに高スコアの画像を選択して表紙画像に用いてもよい。その際、採用する画像枚数はページ見開き数を最大数と設定し、それ以下の画像枚数で表紙を作成してもよい。利用する画像枚数は、レイアウト後の最大画像サイズの解像度、レイアウト後の最小画像サイズ内の顔サイズなどによって設定してもよい。   Also, for the sake of explanation, the method of selecting and laying out a cover / back cover image after image scoring has been described, but a high-score image is selected for each spread after spread allocation and used as the cover image. You may. At this time, the number of images to be adopted may be set to the maximum number of page spreads, and the cover may be created with a smaller number of images. The number of images to be used may be set according to the resolution of the maximum image size after layout, the face size within the minimum image size after layout, and the like.

本実施形態では、表紙・裏表紙のレイアウト処理を本身のレイアウト処理よりも先に実行し、表紙・裏表紙のレイアウト(画像をテンプレートに配置したレイアウト画像)が完成した時点でレイアウト結果をプレビューする。これにより、ユーザはタイトル入力などの編集を行うことができる。ユーザが表紙の編集作業を行っている間にバックグランドで本身のレイアウト処理を行い、完成した時点でプレビュー及び編集可能とすることで、アルバム作成を効率的に行うことができる。また、表紙・裏表紙のレイアウトが完成した時点でプレビューすることで、編集開始までのユーザの待機時間を低減することができる。   In the present embodiment, the layout process of the front and back covers is executed before the layout process of the main body, and the layout result is previewed when the layout of the front and back covers (the layout image in which the images are arranged in the template) is completed. . Thereby, the user can perform editing such as title input. By performing layout processing of the main body in the background while the user is editing the cover, and enabling previewing and editing at the time of completion, album creation can be performed efficiently. In addition, by previewing when the layout of the front cover / back cover is completed, it is possible to reduce the user's waiting time until the start of editing.

更に、表紙・裏表紙に利用する画像の選択条件を変更することにより、バリエーションに富んだ画像選択を行うことができ、ユーザ満足度の高いアルバムの表紙を作成することができる。   Further, by changing the selection conditions of the images used for the front cover and the back cover, it is possible to perform a variety of image selections, and to create an album cover with high user satisfaction.

[第2の実施形態]
以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、タイトル領域に画像に含まれる顔領域が重ならないように、撮像画像をトリミングする。本実施形態では、レイアウト部217は、図22に例示する構成を有する。
[Second embodiment]
Hereinafter, differences from the first embodiment will be mainly described, and unless otherwise noted below, it is assumed to be the same as the first embodiment. In the present embodiment, the captured image is trimmed so that the face region included in the image does not overlap the title region. In the present embodiment, the layout unit 217 has a configuration illustrated in FIG.

取得部2201は、入力部211が入力したテンプレート群のうち、表紙/裏表紙に適用する候補となるテンプレート群を取得する。取得部2201によって取得されるテンプレートには、タイトル領域が設けられている。   The acquisition unit 2201 acquires a template group that is a candidate to be applied to the front cover / back cover from the template group input by the input unit 211. The template acquired by the acquisition unit 2201 has a title area.

取得部2202は、取得部2201が取得したそれぞれのテンプレートにおけるタイトル領域の座標位置(テンプレートに添付された情報に含まれている)を取得する。この座標位置は、タイトル領域の4隅の座標位置であっても良いし、左上隅及び右下隅の座標位置であっても良いし、1隅の座標位置と縦横サイズであっても良い。   The acquisition unit 2202 acquires the coordinate position (included in the information attached to the template) of the title area in each template acquired by the acquisition unit 2201. The coordinate position may be the coordinate position of the four corners of the title area, the coordinate position of the upper left corner and the lower right corner, or the coordinate position of one corner and the vertical and horizontal sizes.

取得部2203は、選択部216が選択した撮像画像データ(表紙用の撮像画像データ)を取得する。   The acquisition unit 2203 acquires the captured image data (covered image data) selected by the selection unit 216.

取得部2204は、取得部2203が取得した撮像画像データについての画像解析部204による解析結果に含まれている、該撮像画像中の顔の数、該顔の座標位置を取得する。座標位置は、顔領域の4隅若しくは対向する2隅の座標位置、若しくは1隅の座標位置と縦横サイズである。   The acquisition unit 2204 acquires the number of faces in the captured image and the coordinate position of the face included in the analysis result of the captured image data acquired by the acquisition unit 2203 by the image analysis unit 204. The coordinate position is the coordinate position of four corners or two opposite corners of the face area, or the coordinate position of one corner and the vertical and horizontal sizes.

選定部2205は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域に最も近い顔の座標位置を特定する。例えば、それぞれの顔の座標位置をテンプレート上の座標位置に変換し、変換後の座標位置のうち、タイトル領域に最も近い座標位置を特定する。   The selecting unit 2205 specifies the coordinate position of the face closest to the title area using the coordinate position of the title area acquired by the acquiring unit 2202 and the coordinate position of each face. For example, the coordinate position of each face is converted into the coordinate position on the template, and the coordinate position closest to the title area is specified from the converted coordinate positions.

判定部2206は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域と重複している顔の座標位置を特定する。トリミング部2207は、選択部216が選択した撮像画像から表示対象となる部分画像をトリミングする。判定部2206及びトリミング部2207の動作について、図14を用いて説明する。   The determination unit 2206 specifies the coordinate position of the face overlapping with the title region using the coordinate position of the title region acquired by the acquisition unit 2202 and the coordinate position of each face. The trimming unit 2207 trims a partial image to be displayed from the captured image selected by the selection unit 216. Operations of the determination unit 2206 and the trimming unit 2207 will be described with reference to FIG.

図14に示す領域2401は、表紙用の撮像画像をレイアウトする領域(写真スロット)であり、図14では説明上、該撮像画像全体は示しておらず顔(顔領域2402,2403)のみを示し、顔以外は省略している。顔領域2402の左上隅の座標位置は(F1x、F1y)で、顔領域2402の縦サイズ=F1H、横サイズ=F1W、顔領域2403の縦サイズ=F2H(>F1H)、横サイズ=F2W(>F1W)である。領域2404はタイトル領域であり、その左上隅の座標位置は(Tx,Ty)、縦サイズ=TH、横サイズ=TWである。ここでは説明上、表紙用の撮像画像に含まれている顔の数は2つとし、検出された顔は面内回転が0度の状態とし、検出された顔の幅および高さは同じ長さとする。   An area 2401 shown in FIG. 14 is an area (photo slot) for laying out a captured image for a cover, and FIG. 14 does not show the entire captured image but only faces (face areas 2402 and 2403) for the sake of explanation. , Except the face. The coordinate position of the upper left corner of the face area 2402 is (F1x, F1y). The vertical size of the face area 2402 is F1H, the horizontal size is F1W, the vertical size of the face area 2403 is F2H (> F1H), and the horizontal size is F2W (>). F1W). An area 2404 is a title area, and the coordinate position of the upper left corner is (Tx, Ty), vertical size = TH, and horizontal size = TW. Here, for the sake of explanation, the number of faces included in the cover image is two, the detected face is in a state where the in-plane rotation is 0 degree, and the width and height of the detected face are the same length. And

また、領域2401にレイアウトする撮像画像のサイズは領域2401のサイズよりも十分に大きいものとし、領域2401内には、撮像画像の一部の領域がトリミングされて表示されているものとする。また、図14においてx軸の増加方向を右方向とし、y軸の増加方向を下方向とする。   It is assumed that the size of the captured image to be laid out in the area 2401 is sufficiently larger than the size of the area 2401, and that a part of the captured image is displayed in the area 2401 after being trimmed. In FIG. 14, the increasing direction of the x-axis is defined as the right direction, and the increasing direction of the y-axis is defined as the downward direction.

このような状況において、選定部2205は先ず、それぞれの顔領域の縦サイズのうち最大の縦サイズを特定する。図14の場合、F2H>F1Hであるから、最大の縦サイズとしてF2Hを特定する。そして選定部2205は、領域2404の縦横サイズを最大の縦サイズF2Hだけ広げた領域2405(横サイズ=JW、縦横サイズ=JH)を、以下の重なり判定を行うタイトル領域として設定する。   In such a situation, first, the selecting unit 2205 specifies the maximum vertical size among the vertical sizes of the respective face regions. In the case of FIG. 14, since F2H> F1H, F2H is specified as the maximum vertical size. Then, the selection unit 2205 sets an area 2405 (horizontal size = JW, vertical / horizontal size = JH) obtained by expanding the vertical / horizontal size of the area 2404 by the maximum vertical size F2H, as a title area for performing the following overlap determination.

そして選定部2205は、顔領域2403よりも顔領域2402の方が領域2404に近いと判断するため、判定部2206は、顔領域2402と領域2405とが重複しているか否かを判断する。重複判断には様々な方法が考えられるが、ここでは、顔領域2402の左上隅の座標位置(F1x、F1y)が領域2405に含まれているか否かを判断する。なお、ここでは、顔検出結果で顔と判定された顔領域2402に対し、所定幅のマージンを縦及び横にそれぞれ設けた領域をトリミング対象領域とする。顔検出結果は検出時に顔サイズを誤って判定する可能性があるためである。図14では、実際には、領域2404に顔がかかっていないが、トリミング対象領域が重なっているため、顔領域2402が領域2404に重なっていると判定される。なお、マージンは、固定値としてもよいし、顔領域2403のサイズに応じて適宜設定してもよい。例えば、顔領域2403に対して上下左右に10%のマージンを設定するようにしてもよい。   Then, since the selecting unit 2205 determines that the face area 2402 is closer to the area 2404 than the face area 2403, the determining unit 2206 determines whether the face area 2402 and the area 2405 overlap. Various methods can be considered for the overlap determination. Here, it is determined whether or not the coordinate position (F1x, F1y) of the upper left corner of the face area 2402 is included in the area 2405. It should be noted that here, areas where a margin of a predetermined width is provided in the vertical and horizontal directions with respect to the face area 2402 determined as a face in the face detection result are set as trimming target areas. This is because the face detection result may erroneously determine the face size at the time of detection. In FIG. 14, the face is not actually applied to the area 2404, but since the trimming target area overlaps, it is determined that the face area 2402 overlaps the area 2404. Note that the margin may be a fixed value or may be appropriately set according to the size of the face area 2403. For example, a margin of 10% may be set for the face area 2403 in the up, down, left, and right directions.

ここではタイトル領域に顔領域がかかった場合には一律の判定基準で回避する方法を記載したが、かかる顔サイズに応じて判定基準を変更してもよい。例えば、顔が小さい場合は判定基準を緩くし、顔が大きい場合は判定基準を厳しくしてもよい。   Here, a method of avoiding a face area over a title area using a uniform criterion has been described, but the criterion may be changed according to the face size. For example, when the face is small, the criterion may be loosened, and when the face is large, the criterion may be strict.

判定部2206が重複していると判断した場合、トリミング部2207は、撮像画像において現在領域2401に表示している部分領域を{F1H−(Ty+TH+F2H)}の量だけy方向に移動させた部分領域を特定する。そしてトリミング部2207は、該特定した部分領域内の画像(撮像画像の部分画像)を領域2401内に配置する。   If the determination unit 2206 determines that the partial region overlaps, the trimming unit 2207 moves the partial region displayed in the current region 2401 in the captured image in the y direction by an amount of {F1H- (Ty + TH + F2H)}. To identify. Then, the trimming unit 2207 arranges the image (partial image of the captured image) in the specified partial area in the area 2401.

以上説明したレイアウト部217の動作について、図23のフローチャートに従って説明する。ステップS2301では、取得部2201は、入力部211が入力したテンプレート群のうち、表紙/裏表紙に適用する候補となるテンプレート群を取得する。ステップS2302では、取得部2202は、取得部2201が取得したそれぞれのテンプレートにおけるタイトル領域の座標位置を取得する。ステップS2303では、取得部2203は、選択部216が選択した撮像画像(表紙用の撮像画像)を取得する。ステップS2304では、取得部2204は、取得部2203が取得した撮像画像についての画像解析部204による解析結果に含まれている、該撮像画像中の顔の数、該顔の座標位置を取得する。ステップS2305では、選定部2205は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域に最も近い顔の座標位置を特定する。ステップS2306では、選定部2205は先ず、それぞれの顔領域の縦サイズのうち最大の縦サイズを特定し、該特定した縦サイズ分だけタイトル領域を拡大した拡大領域を設定する。そして判定部2206は、ステップS2305で特定した座標位置によって規定される顔領域と拡大領域とが重複しているか否かを判定する。   The operation of the layout unit 217 described above will be described with reference to the flowchart of FIG. In step S2301, the acquiring unit 2201 acquires a template group that is a candidate to be applied to the front cover / back cover from the template group input by the input unit 211. In step S2302, the acquisition unit 2202 acquires the coordinate position of the title area in each template acquired by the acquisition unit 2201. In step S2303, the acquisition unit 2203 acquires the captured image (captured captured image) selected by the selection unit 216. In step S2304, the acquisition unit 2204 acquires the number of faces in the captured image and the coordinate position of the face included in the analysis result of the captured image acquired by the acquisition unit 2203 by the image analysis unit 204. In step S2305, the selecting unit 2205 specifies the coordinate position of the face closest to the title region using the coordinate position of the title region acquired by the acquiring unit 2202 and the coordinate position of each face. In step S2306, the selection unit 2205 first specifies the maximum vertical size among the vertical sizes of the face areas, and sets an enlarged area obtained by expanding the title area by the specified vertical size. Then, the determination unit 2206 determines whether the face area specified by the coordinate position specified in step S2305 and the enlarged area overlap.

この判定の結果、重複している場合には、処理はステップS2307に進み、重複していない場合には、図23のフローチャートに従った処理は完了する。ステップS2307では、トリミング部2207は、撮像画像において現在表示中の部分領域を上記の分だけy方向に移動させた部分領域を特定し、該特定した部分領域内の画像を表紙に配置する。   If the result of this determination is that there is overlap, the process proceeds to step S2307; otherwise, the process according to the flowchart of FIG. 23 is completed. In step S2307, the trimming unit 2207 specifies a partial area in the captured image in which the currently displayed partial area has been moved in the y direction by the above amount, and arranges the image in the specified partial area on the cover.

このように、表紙を作成する際に表紙画像の顔領域がタイトル領域に重ならないように制御することにより、アルバムの表紙の完成度・ユーザの満足度を上げることができる。更に、表示前にタイトル領域に顔領域がかからないように制御しておくことで、ユーザの編集にかかる手間を軽減することができる。なお、拡大領域の代わりに元のテキスト領域との重複判定を行うようにしても構わない。   In this way, by controlling the face area of the cover image so as not to overlap the title area when creating the cover, it is possible to improve the degree of completeness of the cover of the album and the satisfaction of the user. Furthermore, by performing control so that the face area does not cover the title area before the display, it is possible to reduce the work required for editing by the user. It should be noted that the overlap determination with the original text area may be performed instead of the enlarged area.

[第3の実施形態]
以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1,2の実施形態では、表紙に配置する画像及び裏表紙に配置する画像を補正してからレイアウトした表紙ページの画像を表示していた。本実施形態では、表紙ページの画像をより早く表示するべく、表紙に配置する画像及び裏表紙に配置する画像は補正せずにレイアウトして表紙ページの画像を生成して表示し、該表示後に画像補正を行って表示を更新する。この手順について、図13のフローチャートを用いて説明する。
[Third Embodiment]
Hereinafter, differences from the first embodiment will be mainly described, and unless otherwise noted below, it is assumed to be the same as the first embodiment. In the first and second embodiments, the image of the cover page laid out after correcting the image arranged on the front cover and the image arranged on the back cover is displayed. In the present embodiment, in order to display the image of the cover page faster, the image arranged on the front cover and the image arranged on the back cover are laid out without correction to generate and display the image of the cover page, and after the display, Update the display by performing image correction. This procedure will be described with reference to the flowchart of FIG.

選択部216が第1の実施形態と同様にして、表紙及び裏表紙で1ページとする表紙ページにレイアウトする規定数の撮像画像データを選択する(S2501)。次に、レイアウト部217が、第1の実施形態と同様にして、表紙/裏表紙に適用するテンプレートを選択する(S2502)。次に、出力部215は、第1の実施形態と同様にしてテンプレート上のそれぞれの写真スロットに撮像画像を配置した「表紙ページの画像データ」を生成し(S2503)、「表紙ページの画像データ」をレイアウト情報として出力する(S2504)。これによりディスプレイ105には、この表紙ページの画像データに基づく「表紙ページの画像」を含むGUIが表示される。ここで、この「表紙ページの画像」は第1の実施形態のように補正されたものではない。そこで次に、画像補正部214は、「表紙ページの画像」にレイアウトされた撮像画像を第1の実施形態と同様にして補正する(S2505)。そして、出力部215はS2503と同様にして、この補正された撮像画像をテンプレート上のそれぞれの写真スロットに配置した「表紙ページの画像データ」を生成し、「表紙ページの画像データ」をレイアウト情報として出力する(S2506)。これによりディスプレイ105に表示中のGUIに含まれている撮像画像は、補正前の撮像画像から補正後の撮像画像に更新される。補正を適用する画像の順番は表紙画像を初めに行い、次に裏表紙画像に対して処理を行う。画像が複数ある場合には表示サイズが小さい画像から補正処理を実行する。   The selection unit 216 selects a specified number of pieces of captured image data to be laid out on the cover page, which is one page of the front cover and the back cover, as in the first embodiment (S2501). Next, the layout unit 217 selects a template to be applied to the front cover / back cover in the same manner as in the first embodiment (S2502). Next, the output unit 215 generates “cover page image data” in which captured images are arranged in the respective photo slots on the template in the same manner as in the first embodiment (S2503), and outputs “cover page image data”. Is output as layout information (S2504). As a result, the display 105 displays a GUI including a “cover page image” based on the cover page image data. Here, the “image of the cover page” is not corrected as in the first embodiment. Therefore, next, the image correction unit 214 corrects the captured image laid out in the “image of the cover page” in the same manner as in the first embodiment (S2505). Then, the output unit 215 generates “cover page image data” in which the corrected captured images are arranged in respective photo slots on the template, and converts the “cover page image data” into layout information in the same manner as in S2503. (S2506). Accordingly, the captured image included in the GUI displayed on the display 105 is updated from the captured image before correction to the captured image after correction. The order of the images to which the correction is applied is performed first for the cover image, and then for the back cover image. When there are a plurality of images, the correction processing is executed from the image having the smaller display size.

そして、表紙・裏表紙に利用されている全ての画像に対して画像補正を実行した場合には、図13のフローチャートに従った処理は完了し、未だ画像補正を行っていない画像が残っている場合には、S2505,S2506の処理を繰り返す。   When the image correction has been performed on all the images used for the front cover and the back cover, the processing according to the flowchart in FIG. 13 is completed, and the images that have not been subjected to the image correction remain. In this case, the processing of S2505 and S2506 is repeated.

ここでは説明のために、画像補正を行う順を表紙と裏表紙で設定したが、選択部216で利用した画像得点の順によって処理順を設定してもよい。また、マルチスレッドで表紙・裏表紙で採用した画像を同時に画像補正を実行して、補正できた画像から順に表示してもよい。   Here, for the sake of explanation, the order in which image correction is performed is set for the front cover and the back cover, but the processing order may be set according to the order of image scores used by the selection unit 216. Further, the image adopted for the front cover and the back cover may be simultaneously subjected to image correction by multi-threading, and the corrected images may be displayed in order.

このように表紙・裏表紙のレイアウト結果を表示する際に、はじめは画像補正なしの状態で表示を行う。その後、画像補正が適用された画像から表示を更新することにより、より速く表紙・裏表紙のレイアウト結果を表示することができ、ユーザが編集作業に着手できるまでの時間を短縮することができる。   When displaying the layout result of the front cover / back cover as described above, the display is first performed without image correction. Thereafter, by updating the display from the image to which the image correction has been applied, the layout result of the front cover / back cover can be displayed more quickly, and the time until the user can start editing work can be reduced.

[第4の実施形態]
上記の実施形態では、表紙ページとして、おもて表紙及び裏表紙のいずれも作成する場合について説明したが、裏表紙を生成せずに、おもて表紙のみを生成するようにしてもよい。
[Fourth embodiment]
In the above-described embodiment, a case has been described in which both the front cover and the back cover are created as the cover pages. However, only the front cover may be generated without generating the back cover.

上記の第2の実施形態では、選択した画像に含まれる顔領域がタイトル領域にかからないように、撮像画像をトリミングするものとしたが、これに限定されず、選択した画像の顔領域がタイトル領域に重ならないテンプレートを選択するようにしてもよい。すなわち、タイトル位置及び/又はスロットの位置が異なる複数の表紙テンプレートを予め用意しておき、その中から選択した画像に含まれる顔領域がタイトル領域にかからないテンプレートを選択するようにしてもよい。   In the second embodiment, the captured image is trimmed so that the face area included in the selected image does not overlap the title area. However, the present invention is not limited to this. May be selected. That is, a plurality of cover templates having different title positions and / or slot positions may be prepared in advance, and a template in which the face area included in the selected image does not overlap the title area may be selected.

上記の実施形態では、フォトアルバムを作成するアプリケーションについて説明したが、作成するものはフォトアルバムに限るものではない。例えば、お勧め画像を自動選択するような画像選択処理を備えるアプリケーションや画像処理装置を対象として上記の実施形態の構成を適用しても構わない。   In the above embodiment, the application for creating a photo album has been described, but the application to be created is not limited to the photo album. For example, the configuration of the above-described embodiment may be applied to an application or an image processing apparatus having an image selection process for automatically selecting a recommended image.

また、図1では、ローカル環境を想定した画像処理装置を例に挙げて説明したが、画像処理装置はこれに限定されるものではない。例えば、サーバ上の画像処理装置であってもよい。この場合は、サーバ内に保存されている画像データを利用又は画像データをアップロードするようにすればよい。   Also, in FIG. 1, an image processing apparatus assuming a local environment has been described as an example, but the image processing apparatus is not limited to this. For example, it may be an image processing device on a server. In this case, the image data stored in the server may be used or the image data may be uploaded.

また、上述した実施形態では、図9に示すように、画像データを選択してから順に期間分割するようにしたが、これに限定されるものではない。例えば、選択する画像データの数に応じて、予めその数に分割してもよい。この場合の画像データ選択方法について、図9を用いて説明する。なお一例として、4つの撮像画像データを選択したい場合について説明する。   Further, in the above-described embodiment, as shown in FIG. 9, the image data is selected and then divided sequentially, but the present invention is not limited to this. For example, the image data may be divided in advance in accordance with the number of image data to be selected. A method of selecting image data in this case will be described with reference to FIG. As an example, a case in which it is desired to select four pieces of captured image data will be described.

まず、図9(E)に示すように撮像期間を4等分する。そして、撮像期間に関わらず、1つ目の撮像画像データを選択する。次に、2つ目の撮像画像データは、1つ目の撮像画像データが選択されていない3つの撮像期間から選択する。次に、3つ目の撮像画像データは、1つ目の撮像画像データも2つ目の撮像画像データも選択されていない2つの撮像期間から選択する。4つ目の撮像画像データは、1つ目の撮像画像データも2つ目の撮像画像データも3つ目の撮像画像データも選択されていない撮像期間から選択する。なお、その撮像期間に撮像画像データが存在しない場合は、図9(H)と同様に、1つ目の撮像画像データを取得した撮像期間、2つ目の撮像画像データを取得した撮像期間、3つ目の撮像画像データを取得した撮像期間を分割して、撮像画像データを選択すればよい。   First, the imaging period is divided into four equal parts as shown in FIG. Then, regardless of the imaging period, the first captured image data is selected. Next, the second captured image data is selected from three imaging periods in which the first captured image data is not selected. Next, the third captured image data is selected from two imaging periods in which neither the first captured image data nor the second captured image data is selected. The fourth captured image data is selected from an imaging period in which neither the first captured image data, the second captured image data, nor the third captured image data is selected. If no captured image data exists during the imaging period, similarly to FIG. 9H, an imaging period during which the first captured image data is acquired, an imaging period during which the second captured image data is acquired, What is necessary is to divide the imaging period in which the third captured image data is acquired, and select the captured image data.

また、上述した実施形態では、画像が写真であるものとし、撮像日時に基づいてグループ分けをするようにしたが、画像データを作成した日時でグループ分けをするようにしてもよい。また、上記の各実施形態はその一部若しくは全部を適宜組み合わせて使用しても構わない。   Further, in the above-described embodiment, the image is a photograph and the grouping is performed based on the shooting date and time. However, the grouping may be performed based on the date and time when the image data is created. In addition, each of the above embodiments may be used by combining some or all of them as appropriate.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

101:CPU 105:ディスプレイ   101: CPU 105: Display

Claims (11)

画像データ群から選択された画像データに基づく画像をレイアウトしたレイアウト画像データを生成する生成手段と、
前記生成手段により生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御手段と、
を備え、
前記生成手段は、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、
前記生成手段が表紙に対応するレイアウト画像データを生成した場合、前記表示制御手段は、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、
前記生成手段は、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする画像処理装置。
Generating means for generating layout image data in which an image based on image data selected from the image data group is laid out;
Display control means for displaying a layout image on a display unit based on the layout image data generated by the generation means,
With
The generating means generates layout image data corresponding to the cover and layout image data corresponding to the main body,
When the generating means generates layout image data corresponding to the cover, the display control means displays a cover layout image on the display unit based on the layout image data corresponding to the cover,
The image processing apparatus according to claim 1, wherein the generation unit generates layout image data corresponding to the book body in a background of the display of the cover layout image.
前記表示制御手段は、前記レイアウト画像を編集するための編集画面に、前記表紙レイアウト画像を表示し、
前記編集画面は、ユーザの指示を受ける操作部を有することを特徴とする請求項1に記載の画像処理装置。
The display control means displays the layout image of the cover on an editing screen for editing the layout image,
The image processing apparatus according to claim 1, wherein the editing screen includes an operation unit that receives a user's instruction.
前記生成手段は、前記画像データ群から選択された画像データに基づく画像を表紙用のテンプレート上の写真スロットに配置して、前記表紙に対応するレイアウト画像データを生成することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit arranges an image based on the image data selected from the image data group in a photo slot on a cover template, and generates layout image data corresponding to the cover. 3. The image processing device according to 1 or 2. 前記生成手段は、前記画像データ群から選択された画像データに基づく画像を本身用のテンプレート上の写真スロットに配置して、前記本身に対応するレイアウト画像データを生成することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit arranges an image based on the image data selected from the image data group in a photo slot on a template for a main body, and generates layout image data corresponding to the main body. The image processing device according to any one of claims 1 to 3. 前記表示制御手段は、前記生成手段が前記表紙に対応するレイアウト画像データの生成を完了するまでの進捗を示す画面を表示し、該表紙に対応するレイアウト画像データの生成が完了すると、該画面を消去して前記表紙のレイアウト画像を前記表示部に表示させることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 The display control unit displays a screen indicating the progress until the generation unit completes generation of the layout image data corresponding to the cover, and when the generation of the layout image data corresponding to the cover is completed, the screen is displayed. the image processing apparatus according to any one of claims 1 to 4, characterized in Rukoto to display the layout image of the cover sheet on the display unit is erased. 前記表示制御手段は、
前記表紙レイアウト画像の表示後に、該表紙レイアウト画像を補正した補正後のレイアウト画像を表示することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
The display control means,
After the display of the layout image of the cover sheet, the image processing apparatus according to any one of claims 1 to 5, characterized in that displaying the layout image corrected by correcting the layout image of said surface sheet.
前記表示制御手段は、前記生成手段が本身に対応するレイアウト画像データを生成した場合、該本身に対応するレイアウト画像データに基づいて、前記本身のレイアウト画像を前記表示部に表示させることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 It said display control means, when said generating means generates the layout image data corresponding to the body, and characterized in that based on the layout image data corresponding to the main body, causes the display layout image of the book block on the display unit The image processing apparatus according to claim 1. 前記表示制御手段は、前記本身レイアウト画像の表示を指示する切替部を表示し、
前記切替部は、前記生成手段による本身に対応するレイアウト画像データの生成が完了するまでは無効化されており、前記生成手段による本身に対応するレイアウト画像データの生成が完了すると有効化されることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
The display control means displays a switching unit that instructs display of a layout image of the main body,
The switching unit is disabled until the generation of the layout image data corresponding to the main body by the generation unit is completed, and is enabled when the generation of the layout image data corresponding to the main body by the generation unit is completed. The image processing apparatus according to claim 1, wherein:
前記生成手段は、
前記画像データ群から選択された画像データに基づく画像の一部を文字入力領域と重ねたレイアウト画像データを生成する場合、該文字入力領域に該画像データに基づく画像内に含まれる顔が重複しないように前記レイアウト画像データを生成することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
The generation means,
When generating layout image data in which a part of an image based on image data selected from the image data group is overlapped with a character input area, a face included in an image based on the image data does not overlap the character input area. The image processing apparatus according to any one of claims 1 to 8, wherein the layout image data is generated as described above.
画像データ群から選択された画像データに基づく画像をレイアウトしたレイアウト画像データを生成する生成工程と、
前記生成工程において生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御工程と、
を備え、
前記生成工程では、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、
前記生成工程において表紙に対応するレイアウト画像データを生成した場合、前記表示制御工程では、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、
前記生成工程では、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする画像処理方法。
A generation step of generating layout image data in which an image based on the image data selected from the image data group is laid out;
A display control step of displaying a layout image on a display unit based on the layout image data generated in the generation step,
With
In the generation step, layout image data corresponding to the cover and layout image data corresponding to the main body are generated,
In the case where layout image data corresponding to the cover is generated in the generation step, in the display control step, a layout image of the cover is displayed on the display unit based on the layout image data corresponding to the cover,
The image processing method, wherein in the generation step, layout image data corresponding to the book body is generated in a background of display of the cover layout image.
コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit of the image processing apparatus according to claim 1.
JP2015255235A 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program Active JP6647039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015255235A JP6647039B2 (en) 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015255235A JP6647039B2 (en) 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program

Publications (3)

Publication Number Publication Date
JP2017117403A JP2017117403A (en) 2017-06-29
JP2017117403A5 JP2017117403A5 (en) 2019-01-24
JP6647039B2 true JP6647039B2 (en) 2020-02-14

Family

ID=59234970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015255235A Active JP6647039B2 (en) 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP6647039B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10511726B1 (en) * 2019-02-06 2019-12-17 Planetart, Llc Custom recommendations application for creating photo book cover

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4240867B2 (en) * 2001-09-28 2009-03-18 富士フイルム株式会社 Electronic album editing device
JP2003196318A (en) * 2002-08-05 2003-07-11 Hitachi Ltd Image display method and apparatus
JP5136386B2 (en) * 2008-12-16 2013-02-06 Nkワークス株式会社 Image layout setting method and image layout setting device
JP2010154021A (en) * 2008-12-24 2010-07-08 Noritsu Koki Co Ltd Device and program for ordering multi image print
JP5664035B2 (en) * 2010-09-06 2015-02-04 セイコーエプソン株式会社 Information processing apparatus, program, and information processing method

Also Published As

Publication number Publication date
JP2017117403A (en) 2017-06-29

Similar Documents

Publication Publication Date Title
JP7487362B2 (en) Image processing device, image processing method, and program
JP6938422B2 (en) Image processing equipment, image processing methods, and programs
JP6902886B2 (en) Image processing equipment, methods and programs
JP7286392B2 (en) Image processing device, image processing method, and program
JP6711937B2 (en) Image processing device, image processing method, and program
JP7286393B2 (en) Image processing device, image processing method, and program
JP6494504B2 (en) Information processing apparatus, control method, and program
CN108234814B (en) Control method and storage medium
JP6719206B2 (en) Image processing apparatus, image processing method, and program
JP6681192B2 (en) Image processing apparatus, image processing method, and computer program
JP2018097482A (en) Image processing apparatus, control method, and program
JP6422409B2 (en) Display control apparatus, display control method, and program
JP7336211B2 (en) Image processing device, control method, and program
JP7451242B2 (en) Image processing device, image processing method, and program
CN106445424A (en) Information processing method and information processing apparatus
JP7027101B2 (en) Information processing equipment, control methods, and programs
JP2018097481A (en) Image processing apparatus, control method, and program
JP7336209B2 (en) Image processing device, control method, and program
JP6765978B2 (en) Information processing equipment and programs
JP6647039B2 (en) Image processing apparatus, image processing method, and computer program
JP2021149195A (en) Program, image processing method, and image processing apparatus
JP2021149196A (en) Image processing apparatus, image processing method, and program
US11978133B2 (en) Image processing apparatus, image processing method, and storage medium
JP7446876B2 (en) Program, image processing method, and image processing device
JP7336212B2 (en) Image processing device, control method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R151 Written notification of patent or utility model registration

Ref document number: 6647039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151