JP6647039B2 - Image processing apparatus, image processing method, and computer program - Google Patents
Image processing apparatus, image processing method, and computer program Download PDFInfo
- Publication number
- JP6647039B2 JP6647039B2 JP2015255235A JP2015255235A JP6647039B2 JP 6647039 B2 JP6647039 B2 JP 6647039B2 JP 2015255235 A JP2015255235 A JP 2015255235A JP 2015255235 A JP2015255235 A JP 2015255235A JP 6647039 B2 JP6647039 B2 JP 6647039B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- layout
- unit
- cover
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
Description
本発明は、画像表示技術に関するものである。 The present invention relates to an image display technique.
デジタルカメラの普及に加え、近年ではスマートデバイスの普及及びスマートデバイスのカメラ性能の向上により、ユーザの写真撮影枚数が急激に増加している。撮影した写真をまとめる一手段としてフォトブックが注目されている。しかし、フォトブックの作成には、大量の写真群からよい写真を選別し、レイアウトを試行錯誤するため手間がかかる。近年ではこのような問題を解決するために、自動で写真を解析してレイアウトを提案するサービスが登場しつつある。 In recent years, in addition to the spread of digital cameras, the spread of smart devices and the improvement of camera performance of smart devices have led to a rapid increase in the number of photographed photos by users. Photo books are attracting attention as a means of organizing photographed pictures. However, creating a photo book is troublesome because good photos are selected from a large number of photos and the layout is determined by trial and error. In recent years, in order to solve such a problem, a service for automatically analyzing a photograph and proposing a layout has appeared.
特許文献1では、電子アルバム内の大量画像群からアルバムの表紙画像を自動的に選択する方法として、撮影頻度、画像データの解像度に基づいて画像データをグループ分けし、グループごとに画像を選択する手法が提案されている。
In
しかしながら、特許文献1に記載の画像選択では、画像データをグループ化し、グループごとに表紙画像を自動選択しているため、表紙レイアウトの表示までに時間がかかり、編集を含む表紙レイアウトの完了までを効率よく行うことができない。
However, in the image selection described in
本発明はこのような問題に鑑みてなされたものであり、フォトアルバムの作成において、表紙レイアウトの完了までを効率よく行うための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for efficiently performing a cover layout in creating a photo album.
本発明の一様態は、画像データ群から選択された画像データに基づく画像をレイアウトしたレイアウト画像データを生成する生成手段と、前記生成手段により生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御手段と、を備え、前記生成手段は、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、前記生成手段が表紙に対応するレイアウト画像データを生成した場合、前記表示制御手段は、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、前記生成手段は、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする。 One embodiment of the present invention is a generation unit that generates layout image data in which an image is laid out based on image data selected from an image data group, and a display unit that displays a layout image based on the layout image data generated by the generation unit. Display generating means for generating layout image data corresponding to the cover and layout image data corresponding to the book body, and the generating means generating layout image data corresponding to the cover. The display control means displays a layout image of the cover on the display unit based on the layout image data corresponding to the cover, and the generating means sets the main body in a background of the display of the layout image of the cover. Is generated.
本発明の構成によれば、フォトアルバムの作成において、表紙レイアウトの完了までを効率よく行うことができる。 According to the configuration of the present invention, in creating a photo album, it is possible to efficiently perform until the cover layout is completed.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The embodiment described below shows an example in which the present invention is specifically implemented, and is one specific example of the configuration described in the claims.
[第1の実施形態]
本実施形態では、画像処理装置の一例について説明する。この画像処理装置は、画像データ群から選択された画像データに基づく画像をフォトアルバムの表紙にレイアウトすることにより表紙のレイアウト画像を生成する。また、画像データ群から選択された画像データに基づく画像をフォトアルバムの本身にレイアウトすることにより本身のレイアウト画像を生成する。本身のレイアウト画像の生成は、表紙レイアウト画像の表示のバックグラウンドで動作する。
[First Embodiment]
In the present embodiment, an example of an image processing device will be described. The image processing apparatus generates a cover layout image by laying out an image based on image data selected from an image data group on a cover of a photo album. Further, a layout image of the main body is generated by laying out an image based on the image data selected from the image data group in the main body of the photo album. The generation of the main body layout image operates in the background of the display of the cover layout image.
以下では、電子アルバム(フォトアルバム)の表紙及び裏表紙、並びに本身の各ページに画像を自動的にレイアウトするアプリケーションソフトウェアを画像処理装置において実行するケースについて説明する。 In the following, a case will be described in which the image processing apparatus executes application software for automatically laying out images on the front and back covers of an electronic album (photo album) and on each page of a book.
先ず、本実施形態に係る画像処理装置100のハードウェア構成例について、図1のブロック図を用いて説明する。CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU101は、画像処理装置100全体の動作制御を行うと共に、画像処理装置100が行うものとして後述する表示制御を含む各処理を実行若しくは制御する。なお、CPU101は単数であっても良いし複数であっても良い。ROM102には、書き換え不要な本装置の設定データや、書き換え不要の本装置のコンピュータプログラム(ブートプログラムなど)が格納されている。
First, an example of a hardware configuration of the
RAM103は、HDD(ハードディスクドライブ装置)104やROM102からロードされたコンピュータプログラムやデータ、データ通信装置108を介して外部から受信したデータを格納するためのエリアを有する。更にRAM103は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM103は、各種のエリアを適宜提供することができる。
The
HDD104は、大容量情報記憶装置の一例である。HDD104には、OS(オペレーティングシステム)や、画像処理装置100が行うものとして後述する各処理をCPU101に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、上記のアプリケーションソフトウェアが含まれている。なお、アプリケーションソフトウェアは、例えば、外部装置からダウンロードして、HDD104等に保存される。また、このデータには、以下の説明において予め作成されているもの(既知の情報)として登場する情報が含まれている。HDD104に保存されているコンピュータプログラムやデータは、CPU101による制御に従ってRAM103にロードされ、CPU101による処理対象となる。
The
ディスプレイ105は、表示部の一例であり、CPU101による処理結果を画像や文字などでもって表示する。キーボード106及びマウス107は、ユーザインターフェースの一例であり、ユーザが操作することで各種の指示をCPU101に対して入力することができる。なお、ディスプレイ105、キーボード106、マウス107の代わりにタッチパネル画面を用いても構わない。
The
データ通信装置108は、外部機器とのデータ通信を行うためのものである。例えば、データ通信装置108は、インターネットやLANを介して端末装置、プリンタ、複合機との間のデータ通信を行う。
The
CPU101、ROM102、RAM103、HDD104、ディスプレイ105、キーボード106、マウス107、データ通信装置108は何れも、バス109に接続されている。なお、上述したような構成の画像処理装置100には、例えば、PC(パーソナルコンピュータ)、タブレット端末装置、スマートフォン等を適用することができる。
The
次に、上記のアプリケーションソフトウェアにおいて、後述する自動レイアウト機能に係る機能部について、図2のブロック図を用いて説明する。このアプリケーションソフトウェアは様々な機能を持つが、図2では、特に自動レイアウト機能に係る機能部を示している。図2に示す如く、アプリケーションソフトウェアは、指定部201と、自動レイアウト処理部218と、を含む。自動レイアウト機能は、撮像された複数の写真から所定枚数の写真を選択してレイアウトし、ディスプレイ105に表示する、フォトアルバム作成用の機能である。
Next, a functional unit related to an automatic layout function described later in the above application software will be described with reference to the block diagram of FIG. Although this application software has various functions, FIG. 2 particularly shows functional units related to the automatic layout function. As shown in FIG. 2, the application software includes a
図2に示す如く、自動レイアウト処理部218は、複数の機能部により構成されており、該複数の機能部によって自動レイアウト処理部218の機能が実現される。なお、図2では、指定部201は自動レイアウト処理部218とは別個の機能部として示しているが、指定部201は自動レイアウト処理部218内に含めても構わない。
As shown in FIG. 2, the automatic
このアプリケーションソフトウェアは、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動する。
The application software is activated when, for example, the user double-clicks the application icon displayed on the
なお、以降の説明では、図2に示した機能部を処理の主体として説明する場合があるが、実際には、該機能部に対応するコンピュータプログラムをCPU101が実行することで該機能部の機能が実現される。
In the following description, the functional unit illustrated in FIG. 2 may be mainly described as a processing entity. However, in practice, the
また、後述するそれぞれの機能部の機能は、その一部若しくは全部を他の機能部に任せても構わないし、他の機能部と協調動作を行うことで実現させるようにしても構わない。つまり、複数の機能部によって自動レイアウト処理部218の機能が実現されるのであれば、個々の機能部がどのような動作を行うのかについては特定の形態に限らない。
In addition, some or all of the functions of each of the functional units described below may be left to another functional unit, or may be realized by performing a cooperative operation with another functional unit. In other words, as long as the function of the automatic
指定部201は、「フォトアルバムの作成条件を構成する様々な情報」を取得し、該取得した情報を自動レイアウト処理部218に供給する。「フォトアルバムの作成条件を構成する様々な情報」は、例えば、ユーザがキーボード106やマウス107を操作して、ディスプレイ105に表示されたGUI(グラフィカルユーザインターフェース)上で設定した情報である。ユーザがGUI上でこれらの情報の設定を行った後で完了指示を入力すると、指定部201は、該GUI上で設定された「フォトアルバムの作成条件を構成する様々な情報」を取得する。もちろん、予めGUI上で作成してHDD104に保存した「フォトアルバムの作成条件を構成する様々な情報」を指定部201がHDD104から取得するようにしても構わない。設定される条件には、たとえば対象となる画像や主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件等の指定が含まれる。画像の指定は、たとえば撮像日時など個別の画像の付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像を含むファイルシステムの構造に基づく指定であってもよい。なお、本実施形態において、「見開き」とは、たとえば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。
The specifying
画像取得部202は、HDD104から撮像画像データ群(1つのフォトアルバムを作成する際に各ページにレイアウトする候補となる撮像画像データ群)を読み出す。なお、指定部201が取得した情報の中に、画像取得部202が読み出す撮像画像データの条件が含まれているような場合には、画像取得部202は、この条件に従った撮像画像データをHDD104から読み出す。例えば、指定部201が取得した情報の中に「撮像日時がXX年1月1日〜XX年12月31日の撮像画像」という条件が含まれていたとする。この場合、画像取得部202は、XX年1月1日〜XX年12月31日の期間内の撮像日時の撮像画像データ(例えば、この期間内の撮像日時を示す付加情報が添付された撮像画像データ)をHDD104から読み出す。
The
HDD104に保存されている撮像画像データとしては、静止画像データや、動画から切り出された切り出し画像データが挙げられる。静止画像データや切り出し画像は、デジタルカメラやスマートデバイス等の撮像デバイスから取得したものである。撮像デバイスは、画像処理装置100が備えていてもよいし、外部装置が備えるものであってもよい。なお、撮像デバイスが外部装置である場合は、画像データはデータ通信装置108を介して取得する。また、静止画像データや切り出し画像データは、データ通信装置108を介してネットワークやサーバから取得した画像データであってもよい。ネットワークやサーバから取得した画像データとしては、ソーシャルネットワーキングサービス画像データ(以下、「SNS画像データ」という)が挙げられる。CPU101は、各画像データに対して、該画像データに付随したデータを解析して保存元を判定する。SNS画像データは、アプリケーションソフトウェアを介してSNSから取得され、アプリケーションソフトウェアによる管理の下でその取得先を管理してもよい。画像データは、上述した画像データに限定されるものではなく、他の種類の画像データであってもよい。
Examples of the captured image data stored in the
画像変換部203は、画像取得部202が取得したそれぞれの撮像画像データについて、該撮像画像データの縮小画像データ(例えば短辺が420画素のサイズを有し、且つ各画素がsRGBの色情報を有する)を、解析画像データとして生成する。
The
画像解析部204は画像変換部203が生成したそれぞれの解析画像データに対し、特徴量抽出、顔認識、個人認識、表情認識等の解析処理を行う。また、画像解析部204は、該解析画像の生成元である撮像画像データの付帯情報(例えばExif情報)から該撮像画像データの撮像日時を取得する。
The
画像分類部205は、画像取得部202が取得した撮像画像データ群を、画像解析部204による解析処理の結果及び撮像日時等に基づいて複数のシーンに分割(シーン分類)する。シーンとは、旅行や日常、結婚式等の撮像シーンのことである。シーンとは、例えば、一つの撮像対象について一時期の撮像機会に撮像された画像データの集まりであるということもできる。
The
入力部206は、指定部201が取得した情報のうち、主人公を特定する情報(例えば、主人公の識別情報)を取得する。
The
画像得点部207は、画像取得部202が取得したそれぞれの撮像画像データに対して得点を求める。画像得点部207による得点の求め方については後述するとおりであるが、その際に用いる情報は下記の情報に限るものではない。
The
入力部208は、指定部201が取得した情報のうち、フォトアルバムの見開きの数を取得する。
The
見開き割当部209は、画像分類部205によって分類されたそれぞれのグループ若しくは該それぞれのグループに基づいて再編成されたそれぞれのグループ、をフォトアルバムのそれぞれの見開きに割り当てる。ここでいう見開きとは、例えば、フォトアルバムを作成した際の見開き2ページである。ここでは見開きで説明するがページでもよい。
The
選択部210は、見開きごとに、該見開きに割り当てたグループ内のそれぞれの撮像画像データについて画像得点部207が求めた得点に基づいて、該それぞれの撮像画像データのうち該見開きにおける写真スロットに配置するための撮像画像データを選択する。なお、写真スロットに配置される画像は、撮像画像データに基づく撮像画像である。以下、撮像画像データに基づく画像を「撮像画像」という。
The
入力部211は、指定部201が取得した情報のうち、表紙用のテンプレート群、本身用のテンプレート群、を取得する。表紙用のテンプレート群とは、表紙及び裏表紙のレイアウト(表紙内のそれぞれの写真スロットのレイアウト及び裏表紙内のそれぞれの写真スロットのレイアウト)を表すテンプレート群である。本身用のテンプレート群とは、本身内の各見開きのレイアウト(見開き内のそれぞれの写真スロットのレイアウト)を表すテンプレート群である。ここでいうところのテンプレートとは、表紙の見開きページ(表紙のページ及び裏表紙のページ)のテンプレート、本身の見開きのページのテンプレートである。
The
レイアウト部212は、入力部211が入力したそれぞれのテンプレートのうち、選択部210が選択した撮像画像データに基づいて1つのテンプレートを選択すると共に撮像画像データのテンプレートにおける配置を決定する。
The
入力部213は、指定部201が取得した情報のうち、撮像画像に対する画像補正を実施するか否かを示すフラグ値を取得する。画像補正のオンまたはオフは、補正の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。
The
画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、撮像画像に対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。
If the flag value obtained by the
なお、画像変換部203から画像補正部214に入力する画像データの画素数は、レイアウト部212で決定したレイアウト画像データのサイズに合わせて変えることができる。本実施形態では、レイアウト画像データを生成した後に、各画像に画像補正を行うものとしたが、これに限定されず、レイアウト(配置)する前に、各画像の補正を行うようにしてもよい。
The number of pixels of the image data input from the
出力部215は、レイアウト部212が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像データを、該写真スロットのサイズにリサイズして配置したレイアウト画像データ(本身の画像データ)を生成する。また、出力部215は、レイアウト部217が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像データを、該写真スロットのサイズにリサイズして配置した画像データ(表紙/裏表紙の画像データ)を生成する。なお、このレイアウト画像データは、テンプレートに画像データを配置することで得られる一体化された画像データであり、例えば、ビットマップデータである。そして出力部215は、生成したレイアウト画像をレイアウト情報として出力する。
The
選択部216は、画像取得部202が取得したそれぞれの撮像画像データについて画像得点部207が求めた得点に基づいて、該それぞれの撮像画像データのうち表紙、裏表紙における写真スロットに配置する撮像画像データを選択する。
The
レイアウト部217は、入力部211が入力したそれぞれのテンプレートのうち、選択部216が選択した撮像画像データに基づいて1つの表紙用のテンプレートを選択すると共に撮像画像データのテンプレートにおける配置を決定する。
The
なお上記の説明では、画像補正や写真スロットに配置する対象となる画像は撮像画像であったが、該撮像画像から生成した解析画像であっても構わない。もちろん、撮像画像から生成した他の画像であっても構わない。これは、撮像画像を取り扱う他の処理であっても同様であり、撮像画像の代わりに解析画像など他の画像を使用しても構わない。 In the above description, the image to be corrected or placed in the photo slot is a captured image, but may be an analysis image generated from the captured image. Of course, another image generated from the captured image may be used. The same applies to other processes for handling a captured image, and another image such as an analysis image may be used instead of the captured image.
ここで、上記の「フォトアルバムの作成条件を構成する様々な情報」を画像処理装置100に入力するためのGUIの構成例について、図3を用いて説明する。このGUI301は、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動してディスプレイ105の表示画面に表示される。なお、図3のGUI301を含め、後述する全てのGUIへのユーザ入力に応じて行われる処理は何れも、CPU101によって実行若しくは制御される。
Here, an example of the configuration of a GUI for inputting the “various information constituting the conditions for creating a photo album” to the
パスボックス302は、フォトアルバムにレイアウトする候補となる撮像画像群が保存されているHDD104内のフォルダのパスを入力するためのもので、例えばユーザがキーボード106を操作してパスを入力することができる。なお、ユーザがキーボード106やマウス107を操作してフォルダ選択ボタン303を指示すると、HDD104内のフォルダ/データのツリー構造が表示されたウィンドウが別途ディスプレイ105に表示される。このウィンドウ上でユーザがキーボード106やマウス107を操作して所望のフォルダを指定すると、そのフォルダのパスがパスボックス302内に表示される。このように、パスボックス302、フォルダ選択ボタン303の何れかにより、フォトアルバムにレイアウトする候補となる撮像画像群を指定することができる。
The
領域304内には、様々な人の顔画像が一覧表示されており、ユーザはキーボード106やマウス107を操作して何れか1つの顔画像を指定することができる。領域304内に表示されているそれぞれの顔画像は、撮像画像から抽出され、顔画像(人物)ごとに固有の識別情報と関連づけてHDD104に登録されているものである。ユーザがキーボード106やマウス107を操作して何れか1つの顔画像を指定すると、該指定された顔画像に対応する識別情報が、主人公の識別情報(主人公ID)としてHDD104に登録される。なお、主人公の識別情報の指定方法はこのように手動であっても良いし、後述するように、画像の解析結果に応じて指定しても良い。
A list of face images of various people is displayed in the
見開き数ボックス305は、フォトアルバムにおける見開き数を入力するためのもので、例えばユーザがキーボード106やマウス107を操作して見開き数を入力することができる。なお、見開き数の入力方法はこれに限定されず、例えば、数値が並んだリストを表示させてそこから見開き数としての所望の数値をユーザがキーボード106やマウス107を操作して指定しても良い。
The facing
領域306内には、テンプレートのテイスト(ポップ調やシック調等)が分かるイラスト画像がアイコンとして一覧表示されており、ユーザはキーボード106やマウス107を操作して任意のアイコンを指定することができる。本実施形態では、各テイストには、それぞれ1又は2以上のテンプレートが割当てられており、1つのテイストが選択されると、そのテイストに割当てられた全てのテンプレートが設定される。そして、後述するように、設定されたテンプレートの中から選択された画像に最も合致したテンプレートを選択する。このように1つのアイコンを指定することで、表紙用のテンプレートと、本身用のテンプレート(見開き数分のテンプレート)と、を選択することができる。なお、ユーザは領域304の複数のアイコンを指定することで、表紙、本身のそれぞれについて複数のテンプレートを候補として指定するようにしてもよい。後述する図4のフローチャートに従った処理では、ユーザが1つのテイストを選択することにより、表紙用のテンプレート群、本身用のテンプレート群が選択されたものとして説明している。本実施形態では、テンプレートとは、画像を配置するための画像配置枠(写真スロット)を1以上有する。
In the
チェックボックス307は、画像補正のON/OFFを指定するためのもので、ユーザがキーボード106やマウス107を操作してチェックボックス307をオン(チェックを入れる)/オフ(チェックを外す)することができる。チェックボックス307をオンにすると、画像補正をONにすることが設定され、オフにすると、画像補正をOFFにすることが設定される。なお、画像補正のON/OFFを設定する方法はこれに限らない。また、画像補正の種類毎にチェックボックスを設けるようにしても構わない。
The
ラジオボタン310は、作成するフォトアルバムの商材を選択するためのものでる。ユーザがキーボード106やマウス107を操作して、上側のラジオボタンを指定すると、商材としてA4サイズが設定され、下側のラジオボタンを指定すると、商材としてA5サイズが設定される。なお、商材の指定方法についてはこの方法に限るものではなく、例えば、プルダウンなどによる一覧から商材を指定できるようにしても良い。
The
ユーザがキーボード106やマウス107を操作してOKボタン308を指定すると、図3のGUI301において設定した内容が指定部201を介して自動レイアウト処理部218に入力される。より具体的には、パスボックス302に入力されているパスは画像取得部202に通知され、領域304内で指定された顔画像に対応する識別情報は入力部206に通知される。また、見開き数ボックス305に入力されている見開き数は入力部208に通知され、領域306内で指定されたアイコンに対応するテンプレートの情報(テンプレートを特定可能な情報)は入力部211に通知される。また、チェックボックス307の情報(チェックの有無)は入力部213に通知される。
When the user operates the
一方、ユーザがキーボード106やマウス107を操作してリセットボタン309を指定すると、図3のGUI301において設定された内容は破棄され、ディスプレイ105においてGUI301を非表示にする。
On the other hand, when the user operates the
次に、CPU101が自動レイアウト処理部218を実行することで行う処理について、図4のフローチャートを用いて説明する。
Next, processing performed by the
<ステップS401>
画像変換部203は、画像取得部202が取得した画像データ群に含まれる画像データに順次着目(選択)して、着目画像データから上記の解析画像データを生成する。なお、解析画像データは、指定部201が取得した情報に含まれている「解析画像の縦横の画素数、画素値の色空間などの生成パラメータ」に基づいて生成される。
<Step S401>
The
<ステップS402>
画像解析部204は、ステップS401で生成された解析画像データから特徴量を抽出すると共に、該解析画像データの生成元の撮像画像データの付帯情報(例えばExif情報)から該撮像画像の撮像日時を取得する。抽出する特徴量には、様々なものを用いることができるが、以下では一例として、ピント量を特徴量として抽出する。
<Step S402>
The
画像中のエッジの検出方法として公知のソーベルフィルタを用いることができる。ソーベルフィルタを用いて画像データに基づく画像からエッジを検出し、該検出したエッジの始点と終点の輝度差を始点と終点との間の距離で割ればエッジの傾き(輝度勾配)を算出できる。そして、画像中のエッジの傾きの平均値を算出する。傾きの平均値が大きい画像は、傾きの平均値が小さい画像よりもピントが合っていると考えることが出来る。そこで、この傾きに対してそれぞれ異なる複数の閾値を予め設定し、画像から求めた傾きの平均値がどの閾値以上であるのかを判別することで、該画像におけるピント量を算出することができる。本実施形態では互いに異なる2つの閾値θ1、θ2(θ1<θ2)を設定し、求めた傾きの平均値AがA<θ1であればピント量=×(許容できない)、θ1≦A<θ2であればピント量=△(許容できる)、A≧θ2であれば、ピント量=○(好適)と判別する。ピント量=○とは、フォトアルバムに採用したいピントの傾きを表す。ピント量=△とは、許容できるピントの傾きを表す。ピント量=×とは、許容できない傾きを表す。 As a method for detecting an edge in an image, a known Sobel filter can be used. An edge is detected from an image based on the image data using a Sobel filter, and the inclination (luminance gradient) of the edge can be calculated by dividing the luminance difference between the start point and the end point of the detected edge by the distance between the start point and the end point. . Then, the average value of the inclination of the edge in the image is calculated. It can be considered that an image having a large average inclination is in focus than an image having a small average inclination. Therefore, a plurality of different thresholds are set in advance for the inclination, and it is possible to calculate a focus amount in the image by determining which threshold is equal to or more than the average value of the inclination obtained from the image. In the present embodiment, two different threshold values θ1 and θ2 (θ1 <θ2) are set, and if the average value A of the obtained inclination is A <θ1, the focus amount = × (unacceptable), and θ1 ≦ A <θ2. If there is, the focus amount = △ (acceptable), and if A ≧ θ2, it is determined that the focus amount = ○ (preferred). Focus amount = O indicates the inclination of the focus desired to be adopted in the photo album. The focus amount = △ indicates an allowable inclination of the focus. The focus amount = x indicates an unacceptable slope.
<ステップS403>
画像解析部204は、ステップS401で生成された解析画像データに基づく解析画像から人の顔を検出する。画像から顔を検出する方法としては、例えば、公知技術を用いることができる。例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、Adaboostにより作成した強識別器により、画像から人の顔を検出する。この顔検出処理により、画像上における人の顔の領域(顔領域(矩形領域))の座標位置及びサイズを取得する。なお、サイズの代わりに、顔の領域の左上隅の座標位置と右下隅の座標位置とを取得するようにしても良い。なお、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostによって強識別器を作成することができる。これにより、顔以外のオブジェクトを検出することができる。
<Step S403>
The
<ステップS404>
画像解析部204は、ステップS403で検出したそれぞれの顔領域に対し、該顔領域内の顔が誰の顔であるのかを認識する処理である個人認識処理を行う。例えば、HDD104に予め登録されている様々な人の顔の画像について、ステップS403で検出した顔領域内の画像との類似度を求める。そして、HDD104に予め登録されている様々な人の顔の画像のうち、閾値以上であって且つ最大の類似度を求めた画像を特定し、該特定した画像と予め関連づけられている識別情報(該画像内の顔を有する個人の識別情報(個人ID))を取得する。なお、求めた類似度が何れも閾値未満であった場合には、新規の識別情報を発行し、ステップS403で検出した顔領域内の画像を、該発行した識別情報と関連づけてHDD104に登録する。
<Step S404>
The
なお、本ステップでは、ステップS403で検出した顔領域内の顔を有する人の識別情報を取得することができるのであれば、どのような個人認識処理を採用しても構わない。 In this step, any personal recognition processing may be employed as long as identification information of a person having a face in the face area detected in step S403 can be obtained.
そして画像解析部204は、ステップS402〜S404にて収集した情報を画像解析情報としてHDD104に登録する。画像解析情報の一例を図5に示す。画像解析情報は、それぞれの撮像画像データについて、該撮像画像データに固有のID(画像ID)、該撮像画像データの撮像日時、ピント量、該撮像画像から検出した人の顔の数、該撮像画像から検出したそれぞれの人の顔の領域の左上隅及び右下隅の座標位置を含む。例えば、画像ID=1の撮像画像については、以下のような情報が登録されている。
Then, the
撮像日時=「2015年7月1日10時11分12秒」
ピント量=「○」
検出した人の顔の数=「6」
個人ID=1の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=2の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=3の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=4の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=5の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=6の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
なお、顔画像が検出されなかった撮像画像については、顔画像に係る情報は登録されず、ステップS402で取得した撮像日時及びピント量が保存される。
Date of imaging = “July 1, 2015, 10:11:12”
Focus amount = "○"
Number of detected human faces = "6"
The coordinate position of the upper left corner and the lower right corner of the face area of the person with the personal ID = 1 The coordinate position of the upper left corner and the lower right corner of the face area of the person with the personal ID = 2 The person with the personal ID = 3 The coordinate position of the upper left corner and the coordinate position of the lower right corner of the area of the face of the person The coordinate position of the upper left corner and the coordinate position of the lower right corner of the area of the face of the person with the personal ID = 4 The coordinate position of the corner and the coordinate position of the lower right corner The coordinate position of the upper left corner and the coordinate position of the lower right corner of the area of the face of the person with the personal ID = 6. No information is registered, and the imaging date and time and the focus amount acquired in step S402 are stored.
<ステップS405>
画像取得部202が取得した撮像画像データ群の全てをステップS401で選択した場合には、処理はステップS405を介してステップS406に進む。一方、画像取得部202が取得した撮像画像データ群のうち未選択の撮像画像データが残っている場合には、処理はステップS401に戻る。
<Step S405>
If all the captured image data groups acquired by the
<ステップS406>
画像分類部205は、HDD104に登録した画像解析情報から、画像取得部202が取得したそれぞれの撮像画像データの撮像日時を取得する。そして画像分類部205は、該取得したそれぞれの撮像画像データの撮像日時に基づいて、画像取得部202が取得した撮像画像データ群を複数のグループ(サブ画像群)に分割(シーン分割)する。
<Step S406>
The
シーン分割方法の一例としては次のような方法が挙げられる。例えば、画像取得部202が取得したそれぞれの撮像画像データを撮像日時が古い順に見た場合に、N(Nは1以上の整数)番目の撮像画像データの撮像日時と、(N+1)番目の撮像画像データの撮像日時と、の差が2日以上であるとする。このとき、N番目の撮像画像データと(N+1)番目の撮像画像データとの間にグループの境界を設定する。
An example of the scene division method includes the following method. For example, when each of the captured image data acquired by the
撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が1日以下であれば、以下の通りである。撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が16時間以上であれば、N番目の撮像画像データと(N+1)番目の撮像画像データとの間にグループの境界を設定する。また、撮像日時が古い順において隣接する撮像画像データ間で撮像日時の差が、どの撮像画像データ間であっても16時間未満であるとする。この場合、1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間未満であれば、該1日の撮像画像データ群を1つのグループとする。一方、該1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間以上であったとする。この場合、該1日で撮像した撮像画像の枚数が50枚未満(1日で撮像した撮像画像の数が50未満)であれば、該1日の撮像画像データ群を1つのグループとする。このような撮像画像データのグループ分けの一例を図6(A)に示す。図6(A)〜(C)において横軸は撮像日時(左側に向かうほど古く、右側に向かうほど新しい)、縦軸は撮像画像データの数を示す。図6(A)では、撮像画像データ群をグループ601〜608の8個のグループに分割している。図6(A)において矢印はグループの境界を示している。なお、上記のシーン分割方法の説明において使用した撮像日時の差に対する閾値や撮像画像データの数に対する閾値は一例であり、これらの値に限るものではない。
If the difference between the imaging date and time of the Nth captured image data and the imaging date and time of the (N + 1) th captured image data is one day or less in the order of older imaging date and time, the following is performed. If the difference between the imaging date and time of the N-th captured image data and the imaging date and time of the (N + 1) -th captured image data is 16 hours or more in the order of older imaging date and time, the N-th captured image data and the (N + 1) -th A group boundary is set between the image data and the captured image data. Further, it is assumed that the difference in the imaging date between adjacent captured image data items in the order of older imaging date and time is less than 16 hours in any captured image data. In this case, if the difference between the imaging date and time of the first captured image data and the imaging date of the last captured image data in the group of captured image data captured in one day is less than 4 hours, the imaging of the one day is performed. The image data group is defined as one group. On the other hand, it is assumed that the difference between the imaging date and time of the first captured image data and the imaging date and time of the last captured image data in the group of captured image data captured in one day is 4 hours or more. In this case, if the number of captured images captured in one day is less than 50 (the number of captured images captured in one day is less than 50), the group of captured image data for one day is regarded as one group. FIG. 6A shows an example of such grouping of captured image data. 6A to 6C, the horizontal axis represents the date and time of imaging (older toward the left and newer toward the right), and the vertical axis represents the number of captured image data. In FIG. 6A, the captured image data group is divided into eight groups of
<ステップS407>
画像分類部205は、ステップS206で分割したそれぞれのグループのうち1つを着目グループとして選択し、該着目グループがどのシーンに分類されるのかを判断する。本実施形態では、グループが、旅行、日常、セレモニーのどのシーンに分類されるのかを判断する。もちろん、シーンの種類はこれらの種類に限るものではない。
<Step S407>
The
本ステップのために、HDD104には予め、グループがどのシーンに分類されるのかを判断するための基準となるデータ(シーン分類基準データ)が登録されている。シーン分類基準データの作成方法の一例を以下に示す。
For this step, data serving as a reference (scene classification reference data) for determining to which scene a group is classified is registered in the
例えば、旅行の画像として予め判断されている画像データ群(旅行画像データ群)、日常の画像として予め判断されている画像データ群(日常画像データ群)、セレモニーの画像として予め判断されている画像データ群(セレモニー画像データ群)を予め複数用意する。そして、旅行画像データ群、日常画像データ群、セレモニー画像データ群、のそれぞれについて、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。例えば、旅行画像データ群について、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める場合について説明する。 For example, an image data group (travel image data group) determined in advance as a travel image, an image data group (daily image data group) determined in advance as a daily image, and an image determined in advance as a ceremony image A plurality of data groups (ceremony image data groups) are prepared in advance. Then, for each of the travel image data group, the daily image data group, and the ceremony image data group, the average and standard deviation of the imaging period, the average and standard deviation of the number of images, and the average and standard deviation of the number of imagers are obtained. For example, a description will be given of a case where the average and standard deviation of the imaging period, the average and standard deviation of the number of images, and the average and standard deviation of the number of imaged persons are obtained for the travel image data group.
画像データ群の撮像期間とは、該画像データ群において最も過去に撮像した画像の撮像日時と最近撮像した画像の撮像日時との差分である。然るに、それぞれの旅行画像群について、該旅行画像データ群において最も過去に撮像した画像データの撮像日時と最近撮像した画像データの撮像日時との差分を、該旅行画像データ群の撮像期間として求める。また、該それぞれの旅行画像データ群について求めた撮像期間の平均及び標準偏差を求める。 The imaging period of the image data group is the difference between the imaging date and time of the most recently captured image in the image data group and the imaging date and time of the most recently captured image. Accordingly, for each travel image data group, the difference between the imaging date and time of the most recently captured image data and the imaging date and time of the most recently captured image data in the travel image data group is determined as the imaging period of the travel image data group. Further, an average and a standard deviation of the imaging periods obtained for the respective travel image data groups are obtained.
また、画像データ群の撮像数とは、該画像データ群を構成する画像データの数である。然るに、それぞれの旅行画像データ群について、該旅行画像データ群を構成する撮像画像データの数を求める。また、該それぞれの旅行画像データ群について求めた撮像画像データの数の平均及び標準偏差を求める。 Further, the number of captured images of the image data group is the number of image data constituting the image data group. Therefore, for each travel image data group, the number of captured image data constituting the travel image data group is obtained. In addition, an average and a standard deviation of the number of captured image data obtained for each of the travel image data groups are obtained.
また、画像データ群の撮像人数とは、該画像データ群を構成するそれぞれの画像に写っている顔の数である。然るに、全ての旅行画像データ群について、該旅行画像データ群を構成するそれぞれの撮像画像データに基づく撮像画像に写っている顔の数を公知の顔認識などの技術でもって求める。また、該求めた顔の数の平均及び標準偏差を求める。 Also, the number of imagers of the image data group is the number of faces appearing in each image constituting the image data group. Therefore, for all the travel image data groups, the number of faces appearing in the captured images based on the respective captured image data constituting the travel image data groups is obtained by a known face recognition technique or the like. Further, the average and the standard deviation of the obtained number of faces are obtained.
日常画像データ群、セレモニー画像データ群についても同様にして、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。そして、このようにして旅行画像データ群、日常画像データ群、セレモニー画像データ群のそれぞれについて求めた、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を、シーン分類基準データとしてHDD104に予め登録しておく。シーン分類基準データの一例を図7に示す。
Similarly, the average and standard deviation of the imaging period, the average and standard deviation of the number of images, and the average and standard deviation of the number of images are obtained for the daily image data group and the ceremony image data group. Then, the travel image data group, the daily image data group, and the ceremony image data group were obtained in this manner, the average and standard deviation of the imaging period, the average and standard deviation of the number of images, the average and standard deviation of the number of imagers, Is registered in advance in the
画像分類部205は、着目グループについて、上記と同様にして、撮像期間、撮像数、撮像人数の平均を求める。そして、画像分類部205は、シーン分類基準データを参照し、着目グループについて、旅行(シーン1)についての得点、日常(シーン2)についての得点、セレモニー(シーン3)についての得点を以下のようにして求める。
The
シーンiの撮像期間の得点=50−|10×(シーンiの撮像期間の平均−選択グループの撮像期間)/シーンiの撮像期間の標準偏差|
シーンiの撮像枚数の得点=50−|10×(シーンiの撮像枚数の平均−選択グループの撮像枚数)/シーンiの撮像枚数の標準偏差|
シーンiの撮像人数の得点=50−|10×(シーンiの撮像人数の平均−選択グループの撮像人数の平均)/シーンiの撮像人数の標準偏差|
シーンiの得点=(シーンiの撮像期間の得点+シーンiの撮像枚数の得点+シーンiの撮像人数の得点)/3
ただし、i=1,2,3
そして画像分類部205は、着目グループについて求めたシーン1の得点、シーン2の得点、シーン3の得点、のうち最も高い得点のシーンを、該着目グループのシーンとして決定(分類)する。最も高い得点のシーンが複数個ある場合には、予め設定された優先順位において最も高いシーンを採用する。例えば、日常>セレモニー>旅行の順を予め設定しておく。なお、この優先順位は一例であり、他の優先順位を採用しても良いし、この優先順位をユーザがキーボード106やマウス107を操作して変更しても構わない。例えば、図6(A)のグループ605の撮像期間が36時間、撮像枚数が300枚、撮像人数の平均が1.7人であるとする。この場合、図7のシーン分類基準データ及び上記の式を用いると、旅行の得点は45.32、日常の得点は18.38、セレモニーの得点は−29.92となり、グループ605のシーンは旅行に分類される。なお、それぞれのグループがどのシーンに分類されたのかについては、例えば、グループ毎に、分類先のシーンに固有の識別情報を対応付けてHDD104で管理する。
Score of imaging period of scene i = 50− | 10 × (average of imaging period of scene i−imaging period of selected group) / standard deviation of imaging period of scene i |
Score of the number of captured images of scene i = 50− | 10 × (average of number of captured images of scene i−number of captured images of selected group) / standard deviation of number of captured images of scene i |
Score of the number of imagers in scene i = 50− | 10 × (average of the number of imagers in scene i−average of the number of imagers in selected group) / standard deviation of the number of imagers in scene i |
Score of scene i = (score of imaging period of scene i + score of number of images captured of scene i + score of number of people who captured image of scene i) / 3
Where i = 1,2,3
Then, the
<ステップS408>
ステップS406で分割したそれぞれのグループの全てをステップS407で選択した場合には、処理はステップS409に進む。一方、ステップS406で分割したそれぞれのグループのうち未選択のグループが残っている場合には、処理はステップS407に戻る。
<Step S408>
If all of the groups divided in step S406 have been selected in step S407, the process proceeds to step S409. On the other hand, when an unselected group remains among the groups divided in step S406, the process returns to step S407.
<ステップS409>
入力部206は、指定部201が取得した情報のうち、主人公を特定する情報(ここでは主人公IDとする)を取得する。なお、主人公IDとは、画像取得部202が取得した撮像画像データ群に登場する人のうち主人公としての人に固有のID(図5の個人ID)である。この主人公IDは、ユーザが上記のGUIを用いて指定しても良いし、以下の処理によって、ユーザ操作を介さずに決定しても良い。
<Step S409>
The
例えば、上記のステップS404の処理によって、それぞれの撮像画像データにおいてどの個人IDを有する人が登場したのかの情報を取得することができる。そのため、画像取得部202が取得した撮像画像データ群におけるそれぞれの人の登場回数、各シーンにおけるそれぞれの人の登場回数、それぞれの人が登場するシーンの個数、等を求めることが可能となる。この様な情報から、それぞれの人のうちその人を主人公とするのかを決定することができる。例えば、画像取得部202が取得した撮像画像データ群が複数のシーンによって構成されている場合には、最も多くのシーンに登場している人の個人IDを主人公IDとする。また、画像取得部202が取得した撮像画像データ群が単一シーンで構成されている場合には、該単一シーンで最も多く登場している人の個人IDを主人公IDとする。なお、入力部206は、ユーザが図3のGUI301において領域304内で顔画像を指定している場合には、このような主人公IDの決定処理は行わずに、該指定された顔画像に対応する識別情報を主人公IDとして取得する。
For example, by the processing in step S404 described above, it is possible to acquire information on which personal ID has appeared in each captured image data. Therefore, the number of appearances of each person in the captured image data group acquired by the
<ステップS410>
画像得点部207は、画像取得部202が取得した撮像画像データ群のうちの1つの着目画像データに対して、メイン写真スロット(メインスロット)用の得点及びサブ写真スロット(サブスロット)用の得点を求める。ここで、メイン写真スロット及びサブ写真スロットについて、図10(A)を用いて説明する。図10(A)の(1−1)〜(4−4)は、入力部211が入力するテンプレート群である。なお、図10ではテンプレートにおける写真スロットについて説明するために、写真スロット以外の情報は省略している。例えば表紙用のテンプレートには、写真スロットに加えてタイトルなどのテキスト情報を配置するための領域(文字入力領域)も設けられる。
<Step S410>
The
(1−1)のテンプレート1001において1002〜1004は写真スロットであるが、写真スロット1002は他の写真スロット1003及び1004よりもサイズが大きい。このような場合、写真スロット1002をメイン写真スロット、写真スロット1003及び1004をサブ写真スロットとする。そこで、着目画像データについてメイン写真スロット用の得点及びサブ写真スロット用の得点を求めるために用いる基準データを、例えば以下のようにして予め作成しておく。 In the (1-1) template 1001, reference numerals 1002 to 1004 denote photo slots, but the photo slot 1002 is larger in size than the other photo slots 1003 and 1004. In such a case, the photo slot 1002 is a main photo slot, and the photo slots 1003 and 1004 are sub-photo slots. Therefore, reference data used for obtaining a score for the main photo slot and a score for the sub photo slot for the image data of interest is created in advance as follows, for example.
メイン写真スロットに配置する画像(画像データに基づく画像)として好ましいもの、サブ写真スロットに配置する画像として好ましいもの、は、その画像のシーンによって異なる。メイン写真スロットに配置する画像として好ましい画像の特徴、サブ写真スロットに配置する画像として好ましい画像の特徴、画像のシーン、の関係の一例を図8(a)に示す。図8(a)の表は、旅行、日常、セレモニーのシーン毎に得点が高くなる画像の特徴をまとめた表である。 What is preferable as an image (image based on image data) to be arranged in the main photo slot and what is preferable as an image to be arranged in the sub-photo slot differs depending on the scene of the image. FIG. 8A shows an example of the relationship between the characteristics of an image preferable as an image to be arranged in the main photo slot, the characteristics of an image preferable as an image to be arranged in the sub-photo slot, and an image scene. The table in FIG. 8A is a table summarizing the features of the image in which the score increases for each of the travel, everyday, and ceremony scenes.
図8(a)に示すように、写真スロットの種類に応じて、得点が高くなる特徴が異なる。例えば、シーン「旅行」については、人物と風景が入ったひいた画像は、メイン写真スロット用の得点が高くなり、顔のアップや横顔の画像は、サブ写真スロット用の得点が高くなる。例えば、シーン「日常」については、顔のアップや横顔の画像は、メイン写真スロット用の得点が高くなり、人物と風景が入ったひいた画像は、サブ写真スロット用の得点が高くなる。例えば、シーン「セレモニー」については、2人の距離が近い画像は、メイン写真スロット用の得点が高くなり、大人数の画像は、サブ写真スロット用の得点が高くなる。このように、シーン及び写真スロットの種類に応じて、得点が高くなる特徴、言い換えれば、評価基準が異なる。本実施形態では、シーン及び写真スロットの種類に応じた得点が高くなる特徴、すなわち上記の基準データはHDD104に予め登録しておく。なお、得点が高くなる特徴は、上述したものに限定されるものではない。
As shown in FIG. 8 (a), the feature of increasing the score differs depending on the type of the photo slot. For example, for the scene "Travel", a scored image for a main photo slot has a higher score for a drawn image including a person and a landscape, and a score for a sub-picture slot has a higher score for a face-up or profile image. For example, in the scene “daily”, a close-up image or a face image has a higher score for the main photo slot, and a drawn image including a person and a landscape has a higher score for the sub-photo slot. For example, for the scene "Ceremony", an image where the distance between the two is short has a high score for the main photo slot, and an image of a large number of people has a high score for the sub photo slot. As described above, the feature of increasing the score, that is, the evaluation criterion differs according to the type of the scene and the photo slot. In the present embodiment, the feature of increasing the score according to the type of the scene and the photo slot, that is, the above-described reference data is registered in the
なお、上記の基準データについては、例えば次のようにして用意しておく。メイン写真スロットについて図8(a)で規定している条件を満たす旅行の画像データ群、日常の画像データ群、セレモニーの画像データ群、を予め用意する。サブ写真スロットについて図8(a)で規定している条件を満たす旅行の画像データ群、日常の画像データ群、セレモニーの画像データ群、を予め用意する。そして、メイン写真スロット用に用意した各シーンの画像データ群について、該画像データ群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。同様にして、サブ写真スロット用に用意した各シーンの画像データ群について、該画像データ群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。このようにしてメイン写真スロット及びサブ写真スロットについて求めた、顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を、上記の基準データとしてHDD104に予め登録しておく。
The above reference data is prepared as follows, for example. For the main photo slot, a travel image data group, a daily image data group, and a ceremony image data group that satisfy the conditions defined in FIG. 8A are prepared in advance. A group of travel image data, a group of daily image data, and a group of ceremony image data that satisfy the conditions defined in FIG. Then, for the image data group of each scene prepared for the main photo slot, the average and standard deviation of the number of faces appearing in the image data group, the appearance position of the face, and the face size are obtained. Similarly, for the image data group of each scene prepared for the sub-photo slot, the average and standard deviation of the number of faces, the appearance position of the face, and the face size appearing in the image data group are obtained. The average and standard deviation of the number of faces, the appearance position of faces, and the size of faces obtained for the main photo slot and the sub photo slot as described above are registered in the
そして画像得点部207は、着目画像データに基づく着目画像Iに対して、メイン写真スロット用の得点(1)及びサブ写真スロット用の得点(2)を、以下のようにして求める。
Then, the
<メイン写真スロット用の得点>
顔数の得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてメイン写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの標準偏差|
得点(1)=(顔数の得点(1)+顔登場位置の得点(1)+顔サイズの得点(1))/3
<サブ写真スロット用の得点>
顔数の得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてサブ写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの標準偏差|
得点(2)=(顔数の得点(2)+顔登場位置の得点(2)+顔サイズの得点(2))/3
「着目画像Iに登場する主人公の顔」の数については、図5の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに左上隅の位置及び右下隅の位置が登録されていれば「1」、登録されていなければ「0」となる。また、「着目画像Iに登場する主人公の顔」の登場位置、サイズについては、図5の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに登録されている左上隅の位置及び右下隅の位置を参照すれば特定できる。
<Score for main photo slot>
Score of the number of faces (1) = 50− | 10 × (average of the number of faces obtained for the scene of the image of interest I for the main photo slot−the number of faces of the hero appearing in the image of interest I) / scene of the image of interest I Standard deviation of the number of faces found for the main photo slot |
Score of face appearance position (1) = 50− | 10 × (average of face appearance positions calculated for main picture slot for scene of image of interest I−position of appearance of hero face appearing in image of interest I) / image of interest Standard deviation of face appearance position found for main photo slot for scene I |
Face size score (1) = 50− | 10 × (average face size obtained for main scene in the scene of interest image I−size of hero face appearing in interest image I) / scene of interest image I Standard deviation of face size found for main photo slot |
Score (1) = (Score of face number (1) + Score of face appearance position (1) + Score of face size (1)) / 3
<Score for sub photo slot>
Score of the number of faces (2) = 50− | 10 × (average of the number of faces obtained for the scene of interest image I for the sub-photo slot−the number of faces of the main character appearing in interest image I) / scene of interest image I Standard deviation of the number of faces obtained for sub-photo slot |
Score of face appearance position (2) = 50− | 10 × (average of face appearance positions obtained for sub-picture slots for scene of image of interest I−position of appearance of hero face appearing in image of interest I) / image of interest Standard deviation of face appearance position obtained for sub-photo slot for scene I |
Score of face size (2) = 50− | 10 × (average of face size obtained for sub-picture slot for scene of target image I−size of hero face appearing in target image I) / scene of target image I Standard deviation of face size obtained for sub-photo slot |
Score (2) = (Score of face number (2) + Score of face appearance position (2) + Score of face size (2)) / 3
Regarding the number of “the face of the hero appearing in the image of interest I”, in the line of the image ID corresponding to the image of interest I in the image analysis information of FIG. If the position of the lower corner is registered, it is "1", and if not, it is "0". The appearance position and size of “the face of the protagonist appearing in the image I of interest” are registered in the individual ID corresponding to the protagonist ID in the image analysis information row of FIG. It can be specified by referring to the position of the upper left corner and the position of the lower right corner.
また、フォトアルバムに使う画像はピントが合っている方が好ましい為、図5に示すピント=「○」である撮像画像に対しては更に得点を加算してもよい。それぞれの画像IDに対応する撮像画像について求めた、メイン写真スロット用の得点(1)及びサブ写真スロット用の得点(2)の一例を図8(b)に示す。 Since it is preferable that the image used for the photo album is in focus, the score may be further added to the captured image in which the focus = “○” shown in FIG. FIG. 8B shows an example of the score (1) for the main photo slot and the score (2) for the sub photo slot obtained for the captured images corresponding to the respective image IDs.
<ステップS411>
画像取得部202が取得した撮像画像データ群の全てをステップS410で処理した場合には、処理はステップS412に進む。一方、画像取得部202が取得した撮像画像データ群のうちステップS410で未処理の撮像画像データが残っている場合には、処理はステップS410に戻る。
<Step S411>
If all the captured image data groups obtained by the
<ステップS412>
選択部216は、画像取得部202が取得した撮像画像データ群から、表紙及び裏表紙で1ページとする表紙ページにレイアウトする規定数の撮像画像データを選択する。以下では画像データ選択数(規定数)=3として説明するが、規定数はこの数に限るものではない。例えば、この画像データ選択数は、図3のGUI301においてラジオボタン310によって指定した商材のサイズによって変えてもよい。例えば、A4サイズ、A5サイズのそれぞれに対応する画像データ選択数を予め保持しているテーブルから設定してもよい。また、ユーザが図3のGUI301等において、おもて表紙及び裏表紙に用いる画像データの数を指定できるようにしてもよい。
<Step S412>
The
選択部216による表紙用撮像画像データの選択方法について、図19を用いて説明する。図19においてStartは、画像取得部202が取得した撮像画像データ群において最も過去に撮像された撮像画像データの撮像日時を表している。Endは、画像取得部202が取得した撮像画像データ群において最近撮像された撮像画像データの撮像日時を表している。然るに、(Start−End)が、画像取得部202が取得した撮像画像データ群の撮像期間を表している。すなわち、図19は、アルバム作成に用いる撮影期間(指定された撮影期間)を表している。
A method of selecting the cover image data by the
先ず、画像取得部202が取得した撮像画像データ群(図19(A))から、表紙に配置する撮像画像データを選択する。本実施形態では、表紙に配置する撮像画像としては、画像取得部202が取得した撮像画像データ群のうち、メイン写真スロット用の得点が最も高かった撮像画像データを選択する。表紙に配置する撮像画像データとして選択された撮像画像データを、図19(B)において(1)として表している。なお、シーンによってメイン写真スロット用として好ましい画像は異なるが、ここでは、ステップS410で求めたメイン写真スロット用の得点をそのまま、ここでいう「メイン写真スロット用の得点」として用いる。
First, from the captured image data group (FIG. 19A) acquired by the
次に、裏表紙に配置する撮像画像データ(2つ)を、画像取得部202が取得した撮像画像データ群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化して、それぞれから画像データを取得する。
Next, two pieces of captured image data to be arranged on the back cover are selected from the captured image data group acquired by the
先ず、裏表紙に配置する1枚目の撮像画像データを選択する。そのために先ず、図19(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図19(D)に示す如く、2つの分割期間のうち、撮像画像データ(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像データを、裏表紙に配置する撮像画像データとして選択する。裏表紙に配置する1つ目の撮像画像データとして選択された撮像画像データを、図19(D)において(2)として示している。 First, the first captured image data to be arranged on the back cover is selected. For this purpose, first, as shown in FIG. 19C, the imaging period is divided into two division periods. Then, as shown in FIG. 19D, of the two divided periods, the sub-picture slot of the captured image group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) belongs The picked-up image data with the highest score is selected as the picked-up image data to be arranged on the back cover. The captured image data selected as the first captured image data to be arranged on the back cover is shown as (2) in FIG. 19D.
次に、裏表紙に配置する2つ目の撮像画像データを選択する。そのために先ず、図19(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図19(F)に示す如く、4つの分割期間のうち撮像画像(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データを裏表紙に配置する撮像画像データとして選択する。裏表紙に配置する2枚目の撮像画像として選択された撮像画像データを、図19(F)において(3)として示している。 Next, the second captured image data to be arranged on the back cover is selected. For this purpose, first, as shown in FIG. 19E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 19 (F), the sub-images in the captured image data group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured images (1) and (2) belong out of the four divided periods The captured image data with the highest score for the photo slot is selected as the captured image data to be arranged on the back cover. The captured image data selected as the second captured image to be arranged on the back cover is shown as (3) in FIG.
表紙に配置するものとして選択された撮像画像データは、メイン写真スロット用の得点が最高の撮像画像データであるため、表紙だけでなく、本身において何れかの見開きでも使用されることになる。 The captured image data selected to be placed on the cover is the captured image data with the highest score for the main photo slot, so that it is used not only on the cover but also on any spread on the book itself.
なお、上記の説明において表紙に配置するものとして選択した撮像画像データを裏表紙に、裏表紙に配置するものとして選択した撮像画像データを表紙に配置するようにしても構わない。また、上記の説明では、おもて表紙に配置する画像データの得点の基準と、裏表紙に配置する画像データの得点の基準を異なるものとした。具体的には、おもて表紙の場合は、「メイン写真スロット用の得点」を用い、裏表紙の場合は、「サブ写真スロット用の得点」としたが、おもて表紙及び裏表紙のいずれの場合も同じ基準としてもよい。また、表紙、裏表紙のそれぞれに配置する撮像画像データの数は上記の数に限らない(0もあり得る)。 In the above description, the captured image data selected to be placed on the cover may be placed on the back cover, and the captured image data selected to be placed on the back cover may be placed on the cover. In the above description, the criterion for the score of the image data to be arranged on the front cover is different from the criterion for the score of the image data to be arranged on the back cover. Specifically, for the front cover, the score for the main photo slot was used, and for the back cover, the score for the sub photo slot was used. In either case, the same reference may be used. Further, the number of captured image data to be arranged on each of the front cover and the back cover is not limited to the above number (it may be 0).
また、メイン写真スロット用の得点やサブ写真スロット用の得点を用いずに、顔検出結果を利用して表紙に配置する撮像画像や裏表紙に配置する撮像画像を決定してもよい。例えば、人物を含む撮像画像を表紙に配置し、人物を含まない画像を裏表紙に配置するようにしても構わない。また、ここではメイン写真スロット用の得点、サブ写真スロット用の得点、を用いて表紙及び裏表紙に配置する撮像画像データを選択したが、画像分類部205による分類結果に基づいて、予め設定したシーンの画像データを優先して選択してもよい。例えば、表紙に旅行の画像データを配置する場合は、画像分類結果から旅行と判定された画像データ群の中からメイン写真スロット用の得点が最高の画像データを選択する。そして、その後は図19を用いて上述したように撮像期間を分割してサブ写真スロット用の得点が最高の画像データを順次選択して裏表紙用の画像データとしてもよい。
Instead of using the score for the main photo slot or the score for the sub photo slot, the captured image to be arranged on the front cover or the captured image to be arranged on the back cover may be determined by using the face detection result. For example, a captured image including a person may be arranged on the cover, and an image not including the person may be arranged on the back cover. In addition, here, the captured image data to be arranged on the front cover and the back cover is selected using the score for the main photo slot and the score for the sub photo slot, but is set in advance based on the classification result by the
また、上記の説明では、表紙用画像データを選択した分割期間とは別の分割期間から裏表紙用画像データを選択するように設定したが、表紙用画像を選択した分割期間と同じ分割期間から裏表紙用画像データを選択するように設定してもよい。 Further, in the above description, the setting is made such that the back cover image data is selected from a division period different from the division period in which the cover image data is selected, but from the same division period as the division period in which the cover image is selected. The setting may be made so as to select the back cover image data.
<ステップS413>
レイアウト部217は、ステップS412で選択した画像データを基にしてテンプレートを選択する。入力部211が入力したテンプレート群のうち、表紙ページに適用するテンプレートを、ステップS412で選択した撮像画像データに基づいて選択する。以下では具体例を挙げてステップS413における処理を説明するために、入力部211は、図20の(1−1)〜(2−4)の8枚のテンプレートを入力したとする。
<Step S413>
The
この8枚のテンプレートの何れも、左側に裏表紙用の撮像画像データのレイアウト、右側に表紙用の撮像画像データのレイアウト、を規定したものである。(1−1)のテンプレート2001では、写真スロット2003,2004が裏表紙用の撮像画像データを配置するためのもので、写真スロット2002は表紙用の撮像画像データを配置するためのものである。本実施形態では、表紙用の写真スロット2002は、裏表紙用の写真スロット2003,2004よりもサイズが大きい。タイトル2008は、フォトアルバムのタイトルなどのテキスト情報を入力するためのテキスト領域である。
In each of the eight templates, the layout of the captured image data for the back cover is defined on the left, and the layout of the captured image data for the cover is defined on the right. In the template (1-1) 2001, the
なお、ステップS412で表紙用に1つの撮像画像データ、裏表紙用に2つの撮像画像データを選択している場合、図20に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS412にて選択した3つの撮像画像データに基づく撮像画像は、縦長(縦向き)の画像2005、縦長(縦向き)の画像2006、横長(横向き)の画像2007、であったとする。なお、画像2006及び2007は裏表紙に配置する撮像画像であり、画像2005は表紙に配置する撮像画像である。 When one piece of captured image data for the cover and two pieces of captured image data for the back cover are selected in step S412, a template group having three photo slots as candidates as shown in FIG. 20 is set as a candidate. Here, it is assumed that the captured images based on the three captured image data selected in step S412 are a portrait (vertical) image 2005, a portrait (vertical) image 2006, and a landscape (horizontal) image 2007. . Note that images 2006 and 2007 are captured images to be arranged on the back cover, and image 2005 is a captured image to be arranged on the cover.
先ず、表紙に配置する画像2005が縦長の画像であるから、表紙用の写真スロットも縦長である必要がある。然るに、テンプレート(1−1)〜(2−4)のうち、表紙用の写真スロットが縦長であるテンプレート(1−1)〜(1−4)が候補となる。そして、本実施形態では、裏表紙については、テンプレートの左上に撮像日時のより古い画像、右下に撮像日時のより新しい画像をレイアウトするものとする。撮像日時のより古い画像データに基づく画像は縦長の画像2006、撮像日時のより新しい画像データに基づく画像は横長の画像2007であるから、テンプレート(1−1)〜(1−4)のうちテンプレート(1−2)が最終候補となる。 First, since the image 2005 arranged on the cover is a vertically long image, the photo slot for the cover must also be vertically long. Therefore, of the templates (1-1) to (2-4), the templates (1-1) to (1-4) whose cover photo slots are vertically long are candidates. In the present embodiment, with respect to the back cover, an image with an older imaging date and time is laid out on the upper left of the template, and an image with a newer imaging date and time is laid out on the lower right of the template. An image based on image data older than the image capturing date and time is a vertically long image 2006, and an image based on image data newer than the image capturing date and time is a horizontal image 2007. Therefore, the template among templates (1-1) to (1-4) is used. (1-2) is the final candidate.
然るに、この場合は、(1−2)のレイアウトを、表紙ページのテンプレートとして選択する。このようにステップS413では、レイアウトに用いるテンプレートと、テンプレートのいずれのスロットにいずれの画像をレイアウトするかが決定する。なお、決定した情報は、出力部215に入力する。
However, in this case, the layout (1-2) is selected as the cover page template. As described above, in step S413, the template to be used for the layout and the image to be laid out in which slot of the template are determined. The determined information is input to the
なお、表紙ページのテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。また、テンプレートは、図20に示すようなものに限定されるものではない。例えば、裏表紙のページと、画像を配置するスロットの枠を一致させるようにしてもよいし、スロットの一部が他のスロットの一部と重なるようにしてもよい。スロットの一部が重なる場合は、重複部分はいずれか一方の画像を前面に配置するようにすればよく、例えば、得点の高い画像を前面に配置するようにすればよい。 The method of selecting a cover page template is not limited to the above method, and another method may be adopted. Further, the template is not limited to the template shown in FIG. For example, the page of the back cover and the frame of the slot in which the image is arranged may be matched, or a part of the slot may overlap a part of another slot. When a part of the slots overlaps, the overlapping portion may be arranged such that one of the images is arranged in the foreground. For example, the image having a high score may be arranged in the foreground.
また図20では、3枚の撮像画像をレイアウトするテンプレートの選択方法について説明したが、撮像画像の数が3でなくても、テンプレートの選択方法は同様に適用することができる。なお、表紙用のテンプレートは、配置する画像の数に応じたテンプレートがそれぞれ複数、HDD104に登録されているものとする。また、配置する画像数の異なる複数のテンプレートを用意し、それぞれぞれのテンプレートに画像を配置して得られたレイアウト画像を評価し、評価値の高いものを表紙のレイアウト画像として決定するようにしてもよい。例えば、配置する画像のトリミング量やタイトル領域に重複している顔の個数を評価基準とし、トリミング量が小さいものを高評価、タイトル領域に重複している顔の個数が少ないものを高評価としてもよい。
In FIG. 20, the method of selecting a template for laying out three captured images has been described. However, even if the number of captured images is not three, the method of selecting a template can be similarly applied. It is assumed that a plurality of templates corresponding to the number of images to be arranged are registered in the
<ステップS414>
画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、選択部216が選択した3つの撮像画像データのそれぞれに対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。補正する画像の画素数は短辺1200画素で、sRGBの色空間に変換した画像に対して画像補正ON/OFFを実施する。
<Step S414>
If the flag value acquired by the
<ステップS415>
出力部215は、ステップS413で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS412で選択された撮像画像データを、該写真スロットのサイズにリサイズして配置した「表紙/裏表紙ページの画像データ」として生成する。すなわち、レイアウト画像データを1つの画像データとして生成する。そして出力部215は、この生成した「表紙/裏表紙のページの画像データに基づく画像」をレイアウト情報として出力する。出力先はディスプレイ105であっても良いし、HDD104であっても良い。本実施形態では、この「表紙/裏表紙のページの画像」をユーザに確認させると共に、必要であれば編集を可能にするために、「表紙/裏表紙のページの画像」をディスプレイ105に対して出力する。
<Step S415>
The
<ステップS416>
詳しくは後述するが、ステップS416以降の処理は、「表紙/裏表紙のページの画像に基づく画像」を含む編集画面の表示、該編集画面に対する操作入力の受け付け、操作入力に応じた処理の実行を行っているバックグラウンドで動作する。
<Step S416>
As will be described in detail later, the processing after step S416 includes displaying an edit screen including “an image based on the image of the front cover / back cover page”, accepting an operation input to the edit screen, and executing a process corresponding to the operation input Work in the background.
入力部208は、指定部201が取得した情報のうち、フォトアルバムの見開きの数を取得する。そして見開き割当部209は、ステップS406において分割したグループの数と、入力部208が取得した見開きの数と、が同じであるか否かを判定する。この判定の結果、同じである場合には、処理はステップS420に進み、同じではない場合には、処理はステップS417に進む。例えば、図6(A)の場合は、グループ分割数=8であるから、入力部208が取得した見開きの数=8であれば、処理はステップS420に進むことになる。
The
<ステップS417>
見開き割当部209は、ステップS406において分割したグループの数X<入力部208が取得した見開きの数Yであるか否かを判断する。この判断の結果、X<Yであれば、処理はステップS418に進み、X≧Yであれば、処理はステップS419に進む。
<Step S417>
The
<ステップS418>
見開き割当部209は、X=Yとなるべく、画像取得部202が取得した撮像画像データ群のグループ再分割(サブシーン分割)を行う。以下では具体的な例を挙げてステップS418の処理を説明するために、図6(A)のように、X=8となっている状態において、Y=10であるケースを例にとる。この場合、図6(B)に示す如く、点線で示す部分で図6(A)のグループ602及び605を分割することで、10個のグループ601〜610を生成する。この点線の位置(分割基準線)の位置は、例えば、以下のようにして求める。
<Step S418>
The facing
先ず、図6(A)のグループ601〜608のそれぞれのグループのうち、撮像画像データの数が多いグループを特定する。X=8,Y=10の場合、2カ所に分割基準線を設ける必要があるため、グループ601〜608のそれぞれのグループのうち、撮像画像データの数が最も多いグループ及び2番目に多いグループの2つのグループを特定する。図6(A)の場合、撮像画像データの数が最も多いグループはグループ605であり、2番目に多いグループはグループ601及び602である。ここで、グループ601とグループ602とでは撮像画像データの数は同じであるが、撮像期間がグループ602の方がグループ601よりも長い。然るにこの場合には、グループ602を選択する。然るに、結果として、グループ605及びグループ602のそれぞれを2つのグループに分割する。なお、それでも決定できない場合には、たとえば時間的に早いグループを優先的に再分割するなど、適宜決めておけばよい。
First, of the
先ず、グループ602の分割方法について説明する。図6(A)においてグループ602には、撮像画像データ数のピークが2つ存在するためのその間の位置(撮像日時の境界)を分割基準線の位置とする。次に、グループ605の分割方法について説明する。図6(A)においてグループ605には、撮像画像データの数のピークが3つ存在するが、分割後の2つのグループ間で撮像画像データの数の差がより小さくなるようにする。したがって、ここでは、3つのピークの間の位置(撮像日時の境界)のうち右側の位置を分割基準線の位置とする。なお、ここでは撮像日の違う箇所で分割したが、撮像画像データの数が多い箇所が単一日であった場合は、単一日の中で時間差が最大の箇所で分割する。なお、本ステップにおけるグループ分割方法には様々なグループ分割方法を用いることができ、特定のグループ分割方法に限るものではない。
First, a method of dividing the
<ステップS419>
見開き割当部209は、X=Yとなるべく、画像取得部202が取得した撮像画像データ群のグループ再分割(シーン統合)を行う。以下では具体的な例を挙げてステップS419の処理を説明するために、図6(A)のように、X=8となっている状態において、Y=6であるケースを例にとる。この場合、幾つかのグループを統合して1つのグループとすることでグループ数を減らしてX=Yを達成する。図6(C)に示す如く、点線で示す部分で図6(A)のグループ603及び604を統合し、且つ図6(A)のグループ607及び608を統合することで、6個のグループ601〜606を生成する。この点線の位置(統合基準線)の位置は、例えば、以下のようにして求める。
<Step S419>
The facing
先ず、図6(A)のグループ601〜608のそれぞれのグループのうち、撮像画像データの数が少ないグループを特定する。X=8,Y=6の場合、2カ所に統合基準線を設ける必要があるため、グループ601〜608のそれぞれのグループのうち、撮像画像データの数が最も少ないグループ及び2番目に少ないグループの2つのグループを特定する。図6(A)の場合、撮像画像データの数が最も少ないグループはグループ608であり、2番目に少ないグループはグループ603及び607である。ここで、グループ603とグループ607とでは撮像画像データの数は同じであるが、グループ607は、統合対象となるグループ608と隣接しているため、この場合には、グループ603を選択する。然るに、結果として、グループ603及びグループ608のそれぞれを統合対象とする。
First, of the
先ず、グループ603の統合方法について説明する。グループ603に属する撮像画像データ群の撮像日時のうち最近の撮像日時と、グループ603に隣接するグループ604に属する撮像画像データ群の撮像日時のうち最も過去の撮像日時との差をDAとする。また、グループ603に隣接するグループ602に属する撮像画像データ群の撮像日時のうち最近の撮像日時と、グループ603に属する撮像画像データ群の撮像日時のうち最も過去の撮像日時との差をDBとする。このとき、DA<DBであるから、グループ603をグループ604と統合することで、図6(C)のグループ603を生成する。
First, a method of integrating the
グループ608については隣接しているグループはグループ607のみであるため、グループ608をグループ607と統合することで、図6(C)のグループ606を生成する。
Since only the
なお、本ステップにおけるグループ統合方法には様々なグループ統合方法を用いることができ、特定のグループ統合方法に限るものではない。例えば、統合対象のグループを撮像データの数が少ないグループに統合するようにしてもよい。 Note that various group integration methods can be used for the group integration method in this step, and the method is not limited to a specific group integration method. For example, a group to be integrated may be integrated with a group having a small number of pieces of imaging data.
<ステップS420>
見開き割当部209は、入力部208が取得した見開きの数と同数のグループのそれぞれを、何れかの見開きに割り当てる。どの見開きにどのグループを割り当てるのかについては様々な方法があるが、例えば、より先頭の見開きには、撮像日時(グループ中の任意の撮像画像データの撮像日時)がより過去のグループを割り当てる。なお、後述するように、1つの見開きページ内では、画像データは撮像日時に並んでいなくてもよい。
<Step S420>
The
<ステップS421>
選択部210は先ず、それぞれの見開きのうち未選択の見開きを1つ選択し、該選択した見開きに割り当てられたグループに属する撮像画像データ群のうち、該見開きにおいて表示対象となる撮像画像データを選択する。選択した見開きに割り当てられたグループに属する撮像画像データ群のうち、該見開きにおいて表示対象となる4つの撮像画像データを選択する処理について、図9を例にとり説明する。なお、ここでは、見開きとは、2ページを指し、最初の見開き及び最後の見開きは、1ページとする。
<Step S421>
The
図9においてStartは、選択された見開きに割り当てられたグループ(着目グループ)に属する撮像画像データ群において最も過去に撮像された撮像画像データの撮像日時を表している。Endは、着目グループに属する撮像画像データ群において最近撮像された撮像画像データの撮像日時を表している。然るに、(Start−End)が、着目グループの撮像期間を表している。 In FIG. 9, “Start” indicates the date and time of imaging of the most recently captured image data in the group of captured image data belonging to the group (target group) assigned to the selected spread. End represents the date and time of imaging of recently captured image data in the group of captured image data belonging to the group of interest. However, (Start-End) indicates the imaging period of the target group.
先ず、着目グループに属する撮像画像データ群(図9(A))から、メイン写真スロットに配置する撮像画像データを選択する。メイン写真スロットに配置する撮像画像データとしては、着目グループに属するそれぞれの撮像画像データのうち、メイン写真スロット用の得点が最も高かった撮像画像データを選択する。メイン写真スロットに配置する撮像画像データとして選択された撮像画像データを、図9(B)において(1)として表している。 First, the captured image data to be arranged in the main photo slot is selected from the captured image data group (FIG. 9A) belonging to the group of interest. As the captured image data to be arranged in the main photo slot, the captured image data having the highest score for the main photo slot is selected from the respective captured image data belonging to the group of interest. The captured image data selected as the captured image data to be arranged in the main photo slot is represented as (1) in FIG. 9B.
次に、サブ写真スロットに配置する撮像画像データ(3つ)を、着目グループに属する撮像画像データ群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化して画像データを選択する。 Next, three pieces of captured image data to be arranged in the sub-photo slot are selected from a captured image data group belonging to the group of interest. As will be described below, the image data is selected by subdividing the imaging period so that the image selection does not concentrate on a part of the imaging period.
先ず、サブ写真スロットに配置する1つ目の撮像画像データを選択する。そのために先ず、図9(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図9(D)に示す如く、2つの分割期間のうち、撮像画像データ(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データを、サブ写真スロットに配置する撮像画像データとして選択する。サブ写真スロットに配置する1枚目の撮像画像データとして選択された撮像画像データを、図9(D)において(2)として示している。 First, the first captured image data to be arranged in the sub-photo slot is selected. First, as shown in FIG. 9C, the imaging period is divided into two division periods. Then, as shown in FIG. 9D, of the two divided periods, the sub-photograph of the captured image data group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) belongs. The captured image data with the highest score for the slot is selected as the captured image data to be arranged in the sub-photo slot. The captured image data selected as the first captured image data to be arranged in the sub photo slot is shown as (2) in FIG. 9D.
次に、サブ写真スロットに配置する2つ目の撮像画像データを選択する。そのために先ず、図9(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図9(F)に示す如く、4つの分割期間のうち撮像画像データ(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データをサブ写真スロットに配置する撮像画像データとして選択する。サブ写真スロットに配置する2つ目の撮像画像データとして選択された撮像画像データを、図9(F)において(3)として示している。 Next, the second captured image data to be arranged in the sub-photo slot is selected. For this purpose, first, as shown in FIG. 9E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 9F, the captured image data group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) and (2) belong out of the four divided periods The captured image data with the highest score for the sub-photo slot is selected as the captured image data to be arranged in the sub-photo slot. The captured image data selected as the second captured image data to be arranged in the sub-photo slot is shown as (3) in FIG. 9 (F).
次に、サブ写真スロットに配置する3つ目の撮像画像データを選択する。サブ写真スロットに配置する撮像画像を上記の4分割した分割期間のうち、撮像画像データ(1)〜(3)が属していない分割期間Gから撮像画像データを選択する。ここで、本実施形態では、画像データの数に関わらず、時間に応じて撮像期間を分割しているので、図9(G)に斜線で示す如く、分割期間Gには、何れの撮像画像データも属していない分割期間が発生してしまう。このような場合は、図9(H)に示す如く、撮像画像データ(1)〜(3)が属する分割期間のそれぞれを2つの分割期間に分割して6つの分割期間とする。図9(I)のように6つの分割期間のうち撮像画像データ(1)〜(3)が属する分割期間(点線)及び分割期間Gを省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データをサブ写真スロット用の撮像画像データとして選択する。サブ写真スロットに配置する3枚目の撮像画像データとして選択された撮像画像データを、図9(I)において(4)として示している。 Next, third captured image data to be arranged in the sub-photo slot is selected. The captured image data is selected from the divided period G to which the captured image data (1) to (3) does not belong, among the four divided periods of the captured image arranged in the sub-photo slot. Here, in the present embodiment, regardless of the number of image data, the imaging period is divided according to time, and therefore, as shown by hatching in FIG. A division period to which no data belongs also occurs. In such a case, as shown in FIG. 9H, each of the divided periods to which the captured image data (1) to (3) belongs is divided into two divided periods to be six divided periods. As shown in FIG. 9 (I), of the six divided periods, the captured image data belonging to the divided period (dotted line) to which the captured image data (1) to (3) belong and the remaining divided period (solid line) excluding the divided period G The captured image data with the highest score for the sub-photo slot in the group is selected as the captured image data for the sub-photo slot. The captured image data selected as the third captured image data to be arranged in the sub-photo slot is shown as (4) in FIG. 9 (I).
このような動作を行う選択部210の機能構成例について、図11のブロック図を用いて説明する。
An example of the functional configuration of the
画像群取得部1102は、画像取得部202が取得した撮像画像データ群のうち、対象とする見開きに割り当てられたグループに属する撮像画像データ群を取得する。更に画像群取得部1102は、該グループに属するそれぞれの撮像画像データの撮像日時、メイン写真スロット用の得点、サブ写真スロット用の得点を取得する。
The image
カウンタ1103は、1つのグループから画像データが選択された回数Cをカウントする。カウンタ1103は、1つのグループについての画像データ選択が完了し、次のグループについて画像データ選択を行う際には、Cの値を0にリセットする。
The
分割部1105は、撮像期間を上記の如く分割する。分割部1105は先ず、画像群取得部1102が取得したそれぞれの撮像画像データの撮像日時において元も過去の撮像日時と最近の撮像日時との差分、即ち撮像期間を求める。そして分割部1105は、撮像期間を2C個の分割期間に均等に分割する。なお、撮像期間の分割は2C個の分割期間に均等に分割することに限るものではなく、撮像期間を選択したい画像の個数の分割期間となるように均等に分割してもよい。
The
設定部1106は、グループに属するそれぞれの撮像画像データに係る情報を管理する。
The
得点軸設定部1104は、画像選択部1108がメイン写真スロット用の撮像画像データを選択する際には、得点軸として、メイン写真スロット用の撮像データを選択するための評価基準(メイン写真スロット用評価基準)を画像選択部1108に供給する。また、得点軸設定部1104は、画像選択部1108がサブ写真スロット用の撮像画像データを選択する際には、得点軸として、サブ写真スロット用の撮像を選択するための評価基準(サブ写真スロット用評価基準)を画像選択部1108に供給する。例えば、得点軸設定部1104は、C=0であればメイン写真スロット用評価基準を画像選択部1108に供給し、C>0であればサブ写真スロット用評価基準を画像選択部1108に供給する。
When the
画像選択部1108は、グループに属する撮像画像データ群からメイン写真スロット用の撮像画像データ、サブ写真スロット用の撮像画像データを選択する。画像選択部1108は、得点軸設定部1104からメイン写真スロット用評価基準を受けた場合には、グループに属する撮像画像データ群からメイン写真スロット用の得点が最高の撮像画像データを選択するための処理を行う。また、画像選択部1108は、得点軸設定部1104からサブ写真スロット用評価基準を受けた場合には、グループに属する撮像画像データ群からサブ写真スロット用の得点が最高の撮像画像データを選択するための処理を行う。このように、画像選択部1108は、得点軸設定部1104から受けた得点軸に対応する得点が最高の撮像画像を、グループに属する撮像画像データ群から選択するための処理を行う。なお、図9を用いて説明したように、画像データが1つもない分割期間からは画像データは選択しない。また、本実施形態では、分割期間から選択する画像データの数を1としたが、2以上でも構わない。
The
なお、本実施形態では、利用する得点軸として、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸を例に挙げて説明したが、別の得点軸を用いてもよい。例えば、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸に加えて、さらに、人物関連度用の得点軸を用いるようにしてもよい。なお、人物関連度は、例えば、人物の登場回数や一緒に写った回数に基づいて得点化することができる。具体的には、登場回数が多い場合は、人物関連度が高いと判定することができ、一緒に写った回数が多いと人物関連度が高いと判定することができる。また、各得点軸を切り替えるようにしたが、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸、人物関連度用の得点軸などを組み合わせた統合得点軸を用いてもよい。このとき、メイン写真スロット用の得点、サブ写真スロット用の得点、人物関連度の得点、の統合得点を算出する際の各得点の重みを変更してもよい。また、処理する回数によって利用する得点軸をランダムに変更してもよいし、予め用意したテーブルを参照して得点軸を切り替えるようにしてもよい。 In the present embodiment, the score axis used for the main photo slot and the score axis used for the sub-photo slot have been described as examples. However, another score axis may be used. For example, in addition to the score axis for the main photo slot and the score axis for the sub photo slot, a score axis for the degree of person relevance may be used. Note that the person relevance can be scored based on, for example, the number of appearances of the person or the number of times the person has been imaged together. Specifically, when the number of appearances is large, it can be determined that the degree of person relevance is high, and when the number of appearances together is large, it can be determined that the degree of person relevance is high. Although the respective score axes are switched, an integrated score axis combining the score axis for the main photo slot, the score axis for the sub-photo slot, the score axis for the degree of person relevance, and the like may be used. At this time, the weight of each score when calculating the integrated score of the score for the main photo slot, the score for the sub-photo slot, and the score of the person relevance may be changed. The score axis to be used may be changed at random according to the number of times of processing, or the score axis may be switched by referring to a table prepared in advance.
類似判定部1109は、グループから選択された撮像画像データと、該グループから前回選択された撮像画像データとの類似度を求める。この類似度が閾値以上であれば類似していると判定し、閾値未満であれば類似していないと判定する。類似していないと判定された場合は、そのグループから選択した撮像画像データを出力し、類似していると判定された場合は、そのグループから選択した撮像画像データを破棄する。類似判定は、パターンマッチングによる判定、SHIFT法を用いた判定などを用いることができる。類似判定に用いる閾値は、比較する画像データの撮像日時の差に応じて変更する。例えば、類似判定結果が0〜100のレンジで出力される場合に100に近いほど似ているとし、閾値以上であれば類似していると判定し、閾値未満であれば類似していないと判定する。連写などにより撮像日時の差が短い場合(例えば15秒以内)は、閾値を低く設定する(例えば、60に設定する)。それ以外は閾値を80に設定する。閾値を低くすることにより、類似していると判断されやすくなり、少しの類似であっても類似画像と判断され、選択画像データが解除されることになる。本実施形態では、このように、撮像日時の差に応じて判定基準を変更する。
The
統合部1112は、類似判定部1109で非類似と判定された撮像画像データから、最終的に残す撮像画像データを選別する。複数の分割期間から撮像画像データが選択された場合にいずれの分割期間の撮像画像を選別するかを判断する。この判断の際には、画像選択部1108で画像選択の際に用いた得点を用い、最高得点の画像データを選択する。なお、本実施形態では、最高得点の画像を選択するものとしたが、これに限定されるものではない。例えば、画像データが選択された区間のうち、隣接する区間から画像データが選択されていない区間から選択するようにしてもよい。
The
枚数設定部1101は、1つの見開きにおいて配置される撮像画像データに基づく撮像画像の総数を設定する。画像管理部1113は、統合部1112で選択された撮像画像データを選択画像データとして追加し、枚数設定部1101で設定された必要数を超えていないかを判定する。必要数に到達した場合は画像データ選択処理を終了する。必要枚数に達成していない場合は、カウンタ1103にカウントアップを指示し、上述した画像データ選択処理を再度実行させる。図11に示す構成を有する選択部210が行う画像データ選択処理について、図12のフローチャートに従って説明する。
The
<ステップS1201>
枚数設定部1101は、処理対象の見開きに割り当てられたグループから選択する撮像画像データの総数を設定する。
<Step S1201>
The
<ステップS1202>
画像群取得部1102は、画像取得部202が取得した撮像画像データ群のうち、処理対象の見開きに割り当てられたグループに属する撮像画像データ群を取得する。
<Step S1202>
The image
<ステップS1203>
カウンタ1103は、画像選択部1108による画像データ選択回数Cをカウントする。初期状態では、画像選択は実行されていないのでC=0である。
<Step S1203>
The
<ステップS1204>
得点軸設定部1104は、画像選択回数Cに応じて得点軸を画像選択部1108に供給する。本実施形態では、画像データ選択回数C=0のときは、メイン写真スロット用の得点軸を設定し、画像データ選択回数C=1以上のときは、サブ写真スロット用の得点軸を設定する。
<Step S1204>
The score
<ステップS1205>
分割部1105は、処理対象の見開きに割り当てられたグループに属する撮像画像において最も過去の撮像日時と最近の撮像日時との差分を撮像期間として求め、該求めた撮像期間を画像選択回数Cに応じた個数の分割期間(区間)に分割する。なお、第1回目のステップS1205では画像選択回数C=0であるため、撮像期間の分割は行われない。
<Step S1205>
The
<ステップS1206>
設定部1106は、グループに属するそれぞれの撮像画像データに係る情報を管理する。撮像画像データに係る情報としては、ステップS410で求めた画像の得点、撮影時間情報、いずれの分割期間に属するものであるかの情報、選択済みの画像か否かの情報が挙げられる。
<Step S1206>
The
<ステップS1207>
分割部1105により分割されたそれぞれの分割期間のうち未選択があるか判定する。未選択区間がない、すなわち、全ての分割期間から既に撮像画像データが選択されている場合には、処理はステップS1211に進む。一方、分割期間から未だ撮像画像データが選択されていない未選択区間がある場合には、処理はステップS1208に進む。
<Step S1207>
It is determined whether or not each of the divided periods divided by the
<ステップS1208>
画像選択部1108は、得点軸設定部1104から供給された得点軸に従って、ステップS1207において未選択とされた分割期間から1つの撮像画像データを選択する。
<Step S1208>
The
<ステップS1209>
類似判定部1109は、今回のステップS1208で選択した撮像画像データと前回ステップS1208で選択した撮像画像データとの類似度を求める。そしてこの類似度が閾値以上であれば類似していると判断して、処理はステップS1210に進む。一方、類似度が閾値未満であれば類似していないと判断して、処理はステップS1211に進む。
<Step S1209>
The
<ステップS1210>
類似判定部1109は、ステップS1208で選択した撮像画像データを破棄する。
<Step S1210>
The
<ステップS1211>
分割部1105により分割されたそれぞれの分割期間のうち未選択の分割期間が残っている場合には、処理はステップS1206に戻り、残っていない場合には、処理はステップS1212に進む。
<Step S1211>
If an unselected divided period remains among the divided periods divided by the
<ステップS1212>
統合部1112は、類似判定部1109で非類似と判定された各分割期間からの選択画像データから、最終的に残す画像データを選別する。すなわち、ステップS1207〜S1211で2以上の撮像画像データが残った場合、何れか1つを残すための選別を行う。
<Step S1212>
The
<ステップS1213>
画像管理部1113は、ステップS1212を経て残った撮像画像データを、処理対象となる見開きに対して使用する画像データ(選択画像データ)として追加する。
<Step S1213>
The
<ステップS1214>
画像管理部1113は、ステップS1213による追加の結果として現在の選択画像データの数が枚数設定部1101で設定された必要数を超えていないかを判定する。必要枚数に到達した場合は画像データ選択処理を終了する。一方、必要枚数に達成していない場合は、処理はステップS1203に戻る。この場合、カウンタ1103は画像データ選択回数Cを1つインクリメントし、以降の各ステップの処理が行われる。その結果、前回よりも2倍多い分割期間が設定される。分割期間がより細かく分割されることにより、分割期間内での撮像画像データに対する得点によるランクが変化するので、前回では選択されなかった撮像画像データが選択される。
<Step S1214>
The
<ステップS422>
レイアウト部212は、画像レイアウトの決定のために、ステップS421で選択した画像データを基にしてテンプレートを選択する。入力部211が入力したテンプレート群のうち、着目する見開きに適用するテンプレートを、該着目する見開きについて選択した撮像画像データに基づいて選択する。以下では具体例を挙げてステップS422における処理を説明するために、入力部211は、図10(A)の(1−1)〜(4−4)の16枚のテンプレートを入力したとする。なお、ステップS422ではメイン写真スロット用に1枚の撮像画像データ、サブ写真スロット用に2つの撮像画像データを選択しているとする。この場合は、図10(A)に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS421にて選択した3つの撮像画像データに基づく画像を撮像日時が古いものから順に並べると、図10(B)に示す如く、縦長(縦向き)の画像1006、横長(横向き)の画像1007、縦長(縦向き)の画像1005であったとする。なお、画像1006及び1007はサブ写真スロットに配置する撮像画像であり、画像1005はメイン写真スロットに配置する撮像画像である。
<Step S422>
The
本実施形態では、テンプレートの左上に撮像日時のより古い画像、右下に撮像日時のより新しい画像をレイアウトするものとする。図10(B)に示す如く、メイン写真スロットに配置する縦長の画像1005の撮像日時が最近であるため、右下に最近の撮像日時の縦長のメイン写真スロット用の画像を配置するレイアウト(3−1)〜(3−4)が候補として残る。 In the present embodiment, it is assumed that an image with an older imaging date and time is laid out at the upper left of the template and an image with a newer imaging date and time is laid out at the lower right. As shown in FIG. 10B, since the image capturing date and time of the vertically long image 1005 arranged in the main photo slot is the latest, the layout (3) in which the image for the vertically long main photo slot of the latest image capturing date and time is arranged at the lower right. -1) to (3-4) remain as candidates.
また、撮像日時が最も古い画像は縦長のサブ写真スロット用の画像1006であり、左上に最も古い撮像日時の縦長のサブ写真スロット用の画像を配置するレイアウト(3−1)、(3−2)が候補として残る。 The image with the oldest imaging date and time is the image 1006 for the vertically long sub-photo slot, and the layout (3-1) and (3-2) in which the image for the vertically long sub-photo slot with the oldest imaging date and time is arranged at the upper left. ) Remain as candidates.
また、撮像日時が2番目に古い画像は横長のサブ写真スロット用の画像1007であり、左上及び右下以外に2番目に古い撮像日時の横長のサブ写真スロット用の画像を配置するレイアウトは、(3−2)のみである。 The image with the second oldest shooting date and time is the horizontally long sub-photo slot image 1007, and the layout for arranging the second oldest horizontally long sub-photo slot image other than the upper left and lower right is as follows. Only (3-2).
然るに、この場合は、(3−2)のレイアウトを、着目する見開きに適用するテンプレートとして選択する。なお、着目する見開きに適用するテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。 However, in this case, the layout (3-2) is selected as a template to be applied to the spread of interest. The method of selecting a template to be applied to the spread of interest is not limited to the above method, and another method may be adopted.
<ステップS423>
画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、選択部210が選択した3つの撮像画像データのそれぞれに対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。補正する画像の画素数は短辺1200画素で、sRGBの色空間に変換した画像に対して画像補正ON/OFFを実施する。
<Step S423>
If the flag value acquired by the
<ステップS424>
出力部215は、ステップS422で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS421で選択された撮像画像データを、該写真スロットのサイズにリサイズして配置した「見開きのページの画像データ」を生成する。なお、配置する画像は撮像画像の代わりに、該撮像画像から生成した解析画像であっても良い。そして出力部215は、この生成した「見開きのページの画像データ」をレイアウト情報として出力する。出力先はディスプレイ105であっても良いし、HDD104であっても良い。本実施形態では、「見開きのページの画像」をユーザに確認させると共に、必要であれば編集を可能にするために、「見開きのページの画像」をディスプレイ105に対して出力する。
<Step S424>
The
<ステップS425>
ステップS421において全ての見開きを選択した場合には、図4のフローチャートに従った処理は終了する。一方、未選択の見開きが残っている場合には、処理はステップS421に戻る。
<Step S425>
If all spreads have been selected in step S421, the processing according to the flowchart in FIG. 4 ends. On the other hand, if unselected spreads remain, the process returns to step S421.
次に、自動レイアウト処理部218による上記の処理中にディスプレイ105に表示される画面の推移について、その推移を表す図15のフローチャートを用いて説明する。上記の通り、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより図3のGUI301がディスプレイ105に表示される(S1501)。図3のGUI301は、アルバムの作成条件を設定する設定画面である。
Next, a transition of a screen displayed on the
図3のGUI301において上記の通り様々な設定を行ってから、ユーザがキーボード106やマウス107を操作してOKボタン308を指定すると、図4のフローチャートに従った処理が開始される。更に、ディスプレイ105には、図21に示すような、処理の進行の度合いを表したウィンドウ2101が表示される(S1502)。
After performing various settings as described above on the
進捗バー2102は、図4のフローチャートに従った処理の開始時には0%を指し、該処理が進むにつれ、その長さは長くなり、ステップS415の処理が完了した時点で100%を指す。すなわち、本実施形態では、「アルバム作成進捗表示」において、解析画像が生成されてから表紙のレイアウト画像データが作成されるまでの処理の進行度を表示する。その間の進捗バー2102の長さは、図4のフローチャートにおいて予め設定した各処理を完了するたびに対応する長さとなるように更新される。また、顔検出や個人認識などの解析処理には処理時間がかかるため、解析実行時には画像の数に応じて表示を更新してもよい。
The
そして、進捗バー2102が100%を指し示すと、即ち、ステップS415の処理が完了とすると、図16に例示するGUIをディスプレイ105に表示する(S1503)。
When the
領域1601には、撮像画像がレイアウトされた結果のプレビュー画面が表示される。図16では起動直後のGUIを示しており、この時点では、表紙ページ(おもて表紙及び裏表紙の見開きページ)の画像しか生成されていないため、この表紙ページの画像が領域1601内に表示されている。
In a
写真スロット1602は、裏表紙用の写真スロットであり、この写真スロット1602には裏表紙に割り当てられた撮像画像が配置される。写真スロット1603は、表紙用の写真スロットで、この写真スロット1603には表紙に割り当てられた撮像画像が配置される。
The
タイトル領域1604は、フォトアルバムのタイトルなどのテキスト情報を入力するための領域であり、GUIの起動直後の時点では何も表示されていない。例えば、ユーザがキーボード106やマウス107を操作してタイトル領域1604を指定することでタイトル領域1604に文字入力が可能となり、キーボード106やマウス107等の入力手段を操作してタイトル領域1604に文字を入力する。また、タイトル領域1604は、マウス107によるドラッグ操作などによって、その位置を移動させることができる。
The
ユーザがキーボード106やマウス107を操作して表紙ページの写真スロットのうち所望の写真スロット(図16では写真スロット1602、1603の何れか)を指定して画像入替えボタン1605を指定する。この指定を受け付けると、ディスプレイ105には図17に例示するGUI1701が表示される。GUI1701は、ユーザが指定した写真スロットに現在配置されている撮像画像を所望の撮像画像に置き換えるための操作を受け付けるGUIである。すなわち、GUI1701は、画像入替画面である。このGUI1701については後述する。
The user operates the
図16に戻って、ユーザがキーボード106やマウス107を操作して表紙ページの写真スロットのうち所望の写真スロット(図16では写真スロット1602、1603の何れか)を指定して画像編集ボタン1606を指定する。この指定を受け付けると、ディスプレイ105には図18に例示するGUIが表示される。図18に例示するGUIは、ユーザが指定した写真スロットに現在配置されている撮像画像をリサイズ、回転、トリミングするための操作を受け付けるGUIである。すなわち、図18のGUIは、画像編集画面である。このGUIについては後述する。
Returning to FIG. 16, the user operates the
図16に戻って、ユーザがキーボード106やマウス107を操作してボタン1608を指定すると、次のページのレイアウト結果が領域1601に表示される。ユーザがキーボード106やマウス107を操作してボタン1607を指定すると、前のページのレイアウト結果が領域1601に表示される。すなわち、ボタン1607、ボタン1608は、表示するレイアウト画像を切り替える切替部である。
Referring back to FIG. 16, when the user operates the
ここで、図16のGUIが表示された時点では、本身のレイアウトは作成途中である。図16のGUIを表示し、このGUIを操作してタイトル入力や画像の調整などをユーザが行っている間に、本身のレイアウト処理をバックグランドで実行する。そのため、本身のレイアウトが作成中の間は、ボタン1607,1608は機能しないように非表示にしてもよいし、またはグレーアウトして押せないようにしてもよい(無効化)。このとき、ボタン1607,1608が押下された場合は、「レイアウト作成中」等の表示をするようにしてもよい。
Here, when the GUI of FIG. 16 is displayed, the layout of the main body is being created. The GUI shown in FIG. 16 is displayed, and the main body layout processing is executed in the background while the user operates the GUI to input a title or adjust an image. Therefore, while the layout of the main body is being created, the
次に、バックグランドで実行中の本身のレイアウト作成が完了したか(図4のフローチャートに従った処理が完了したか)否かを判定する(S1504)。レイアウト作成が完了した場合には、処理はS1505に進み、未だ完了していない場合には、処理はS1503に戻る。なお、本実施形態では、本身の全てのレイアウトが完了するまで、ステップS1505に進まないものとしたが、これに限定されず、本身の複数の見開きページのうち、処理が完了した見開きページが有る場合は、ステップS1505に進むようにしてもよい。 Next, it is determined whether the layout creation of the main body being executed in the background has been completed (whether the processing according to the flowchart of FIG. 4 has been completed) (S1504). If the layout creation has been completed, the process proceeds to S1505, and if not completed, the process returns to S1503. In the present embodiment, it is assumed that the process does not proceed to step S1505 until all layouts of the main body are completed. However, the present invention is not limited to this, and there is a spread page whose processing is completed among a plurality of spread pages of the main body. In this case, the process may proceed to step S1505.
レイアウト作成が完了すると、ボタン1607、1608を有効化し(指示可能にし)、ユーザが表紙ページ以外のページのレイアウト結果に関してもプレビューによる確認、及び編集できるようにする(S1505)。
When the layout creation is completed, the
図16においてユーザがキーボード106やマウス107を操作して発注ボタン1609を指定すると、フォトアルバムの発注処理を行う。フォトアルバムの発注処理では、この時点で作成されているページの画像データを、フォトアルバムを作成する業者のサーバ装置などに転送する。一般には、表紙・裏表紙、本身の確認と編集作業が終了した時点で発注ボタン1609が指定されるので、これにより、完成したフォトアルバムを発注することができる。
In FIG. 16, when the user designates an order button 1609 by operating the
次に、上記の図17のGUI1701について説明する。領域1702には入れ替え候補となるおすすめの撮像画像が表示される。このおすすめの撮像画像は、例えば、次のようにして決める。画像選択時に、ユーザが入換えを希望した希望撮像画像(画像入れ替えボタン1605を指定する前に指定した写真スロットに配置されている撮像画像)と同区間に属していた撮像画像群のうち得点が高い順に2番目以降の撮像画像をおすすめの撮像画像とする。このときの得点とは、希望撮像画像が配置されている写真スロット(若しくは表紙、裏表紙)に設定された得点軸の得点とする。そしてN(2以上の整数)番目までの撮像画像をおすすめの撮像画像とした場合、領域1702にはN枚の撮像画像がおすすめの撮像画像として表示されることになる。これにより、希望撮像画像と類似した特徴を有し且つ得点の高い画像と容易に入れ替えをすることができる。また、これに限定されず、アルバム作成に用いる撮影期間のうち得点が高い順に、すなわち、得点が2番目以降の撮像画像をおすすめの撮像画像としてもよい。
Next, the
領域1703には、HDD104に保存されている全ての撮像画像が表示される。なお、撮像画像が多い場合は、ユーザのスクロールバーの移動操作に伴い、撮像画像を順に表示させる。なお、所望の条件を満たす撮像画像のみを領域1703に表示させるべく、その条件を指定するようにしても良い。
In an
ユーザはキーボード106やマウス107を操作して領域1702及び領域1703から所望の撮像画像を選択してからOKボタン1704を指定すると、GUI1701は消去される。そして、図16のGUIにおいてユーザが画像入れ替えを希望して指定した写真スロット内の撮像画像は、GUI1701においてユーザが指定した撮像画像に入れ替えられる。一方、ユーザがキーボード106やマウス107を操作してキャンセルボタン1705を指定すると、GUI1701は消去され、画像入れ替えは行われない。
When the user operates the
次に、図18のGUIについて説明する。プレビュー領域1801には、画像編集ボタン1606を指定する際に図16のGUIにおいてユーザが指定した写真スロット内の撮像画像(編集対象画像)が、該写真スロットとサイズ比率で同じアスペクト比で表示される。
Next, the GUI of FIG. 18 will be described. In the
ユーザがキーボード106やマウス107を操作して拡大ボタン1802を指定するたびに編集対象画像は拡大される。編集対象画像が拡大されると、そのサイズはプレビュー領域1801よりも大きくなりはみ出してしまうが、そのはみ出した部分は表示せず、プレビュー領域1801に収まる部分だけがプレビュー領域1801内に表示される。すなわち、プレビュー領域1801に表示される部分を、撮像画像からトリミングする。拡大ボタン1802を指定するたびに、例えば5%ずつ拡大させる。
Each time the user operates the
ユーザがキーボード106やマウス107を操作して縮小ボタン1803を指定するたびに編集対象画像は縮小される。縮小ボタン1803は編集対象画像がプレビュー領域1801よりも大きいサイズの場合にのみ有効となり、プレビュー領域1801と同サイズとなった場合には無効となる。縮小ボタン1803を指定するたびに、例えば5%ずつ縮小させる。
Each time the user operates the
ユーザがキーボード106やマウス107を操作してボタン1804を指定するたびに、プレビュー領域1801内の画像は左回りに90度回転させられる。ユーザがキーボード106やマウス107を操作してボタン1805を指定するたびに、プレビュー領域1801内の画像は右回りに90度回転させられる。なお、画像を回転する際にプレビュー領域1801に空白領域が生じないように、プレビュー領域1801内の画像を適宜リサイズする。また、プレビュー領域1801上で画像をドラックして任意の方向に移動することにより、プレビュー領域1801に含まれていない他の画像部分をプレビュー領域1801内に表示させることができる。
Each time the user operates button 1061 by operating
なお、ここでは、拡大率及び縮小率は何れも5%としたが、この値に限るものではない。また、この拡大率や縮小率はユーザがテキスト入力やバーの長さ調節などによって適宜変更できるようにしても構わない。また、ここでは、画像編集の一例として画像の拡大/縮小、回転、を示したが、色味調整や階調調整などの他の画像編集を可能にするGUI(操作部)を構成しても構わない。 Here, both the enlargement ratio and the reduction ratio are 5%, but are not limited to these values. Further, the enlargement ratio and the reduction ratio may be appropriately changed by the user by inputting text or adjusting the length of the bar. Here, enlargement / reduction and rotation of an image are shown as an example of image editing. However, a GUI (operation unit) that enables other image editing such as color adjustment and gradation adjustment may be configured. I do not care.
また、ここでは説明のために、画像得点化後に表紙・裏表紙画像の選択及びレイアウトを実行する方法を説明したが、見開き割当後に各見開きごとに高スコアの画像を選択して表紙画像に用いてもよい。その際、採用する画像枚数はページ見開き数を最大数と設定し、それ以下の画像枚数で表紙を作成してもよい。利用する画像枚数は、レイアウト後の最大画像サイズの解像度、レイアウト後の最小画像サイズ内の顔サイズなどによって設定してもよい。 Also, for the sake of explanation, the method of selecting and laying out a cover / back cover image after image scoring has been described, but a high-score image is selected for each spread after spread allocation and used as the cover image. You may. At this time, the number of images to be adopted may be set to the maximum number of page spreads, and the cover may be created with a smaller number of images. The number of images to be used may be set according to the resolution of the maximum image size after layout, the face size within the minimum image size after layout, and the like.
本実施形態では、表紙・裏表紙のレイアウト処理を本身のレイアウト処理よりも先に実行し、表紙・裏表紙のレイアウト(画像をテンプレートに配置したレイアウト画像)が完成した時点でレイアウト結果をプレビューする。これにより、ユーザはタイトル入力などの編集を行うことができる。ユーザが表紙の編集作業を行っている間にバックグランドで本身のレイアウト処理を行い、完成した時点でプレビュー及び編集可能とすることで、アルバム作成を効率的に行うことができる。また、表紙・裏表紙のレイアウトが完成した時点でプレビューすることで、編集開始までのユーザの待機時間を低減することができる。 In the present embodiment, the layout process of the front and back covers is executed before the layout process of the main body, and the layout result is previewed when the layout of the front and back covers (the layout image in which the images are arranged in the template) is completed. . Thereby, the user can perform editing such as title input. By performing layout processing of the main body in the background while the user is editing the cover, and enabling previewing and editing at the time of completion, album creation can be performed efficiently. In addition, by previewing when the layout of the front cover / back cover is completed, it is possible to reduce the user's waiting time until the start of editing.
更に、表紙・裏表紙に利用する画像の選択条件を変更することにより、バリエーションに富んだ画像選択を行うことができ、ユーザ満足度の高いアルバムの表紙を作成することができる。 Further, by changing the selection conditions of the images used for the front cover and the back cover, it is possible to perform a variety of image selections, and to create an album cover with high user satisfaction.
[第2の実施形態]
以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、タイトル領域に画像に含まれる顔領域が重ならないように、撮像画像をトリミングする。本実施形態では、レイアウト部217は、図22に例示する構成を有する。
[Second embodiment]
Hereinafter, differences from the first embodiment will be mainly described, and unless otherwise noted below, it is assumed to be the same as the first embodiment. In the present embodiment, the captured image is trimmed so that the face region included in the image does not overlap the title region. In the present embodiment, the
取得部2201は、入力部211が入力したテンプレート群のうち、表紙/裏表紙に適用する候補となるテンプレート群を取得する。取得部2201によって取得されるテンプレートには、タイトル領域が設けられている。
The
取得部2202は、取得部2201が取得したそれぞれのテンプレートにおけるタイトル領域の座標位置(テンプレートに添付された情報に含まれている)を取得する。この座標位置は、タイトル領域の4隅の座標位置であっても良いし、左上隅及び右下隅の座標位置であっても良いし、1隅の座標位置と縦横サイズであっても良い。
The
取得部2203は、選択部216が選択した撮像画像データ(表紙用の撮像画像データ)を取得する。
The
取得部2204は、取得部2203が取得した撮像画像データについての画像解析部204による解析結果に含まれている、該撮像画像中の顔の数、該顔の座標位置を取得する。座標位置は、顔領域の4隅若しくは対向する2隅の座標位置、若しくは1隅の座標位置と縦横サイズである。
The
選定部2205は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域に最も近い顔の座標位置を特定する。例えば、それぞれの顔の座標位置をテンプレート上の座標位置に変換し、変換後の座標位置のうち、タイトル領域に最も近い座標位置を特定する。
The selecting
判定部2206は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域と重複している顔の座標位置を特定する。トリミング部2207は、選択部216が選択した撮像画像から表示対象となる部分画像をトリミングする。判定部2206及びトリミング部2207の動作について、図14を用いて説明する。
The
図14に示す領域2401は、表紙用の撮像画像をレイアウトする領域(写真スロット)であり、図14では説明上、該撮像画像全体は示しておらず顔(顔領域2402,2403)のみを示し、顔以外は省略している。顔領域2402の左上隅の座標位置は(F1x、F1y)で、顔領域2402の縦サイズ=F1H、横サイズ=F1W、顔領域2403の縦サイズ=F2H(>F1H)、横サイズ=F2W(>F1W)である。領域2404はタイトル領域であり、その左上隅の座標位置は(Tx,Ty)、縦サイズ=TH、横サイズ=TWである。ここでは説明上、表紙用の撮像画像に含まれている顔の数は2つとし、検出された顔は面内回転が0度の状態とし、検出された顔の幅および高さは同じ長さとする。
An
また、領域2401にレイアウトする撮像画像のサイズは領域2401のサイズよりも十分に大きいものとし、領域2401内には、撮像画像の一部の領域がトリミングされて表示されているものとする。また、図14においてx軸の増加方向を右方向とし、y軸の増加方向を下方向とする。
It is assumed that the size of the captured image to be laid out in the
このような状況において、選定部2205は先ず、それぞれの顔領域の縦サイズのうち最大の縦サイズを特定する。図14の場合、F2H>F1Hであるから、最大の縦サイズとしてF2Hを特定する。そして選定部2205は、領域2404の縦横サイズを最大の縦サイズF2Hだけ広げた領域2405(横サイズ=JW、縦横サイズ=JH)を、以下の重なり判定を行うタイトル領域として設定する。
In such a situation, first, the selecting
そして選定部2205は、顔領域2403よりも顔領域2402の方が領域2404に近いと判断するため、判定部2206は、顔領域2402と領域2405とが重複しているか否かを判断する。重複判断には様々な方法が考えられるが、ここでは、顔領域2402の左上隅の座標位置(F1x、F1y)が領域2405に含まれているか否かを判断する。なお、ここでは、顔検出結果で顔と判定された顔領域2402に対し、所定幅のマージンを縦及び横にそれぞれ設けた領域をトリミング対象領域とする。顔検出結果は検出時に顔サイズを誤って判定する可能性があるためである。図14では、実際には、領域2404に顔がかかっていないが、トリミング対象領域が重なっているため、顔領域2402が領域2404に重なっていると判定される。なお、マージンは、固定値としてもよいし、顔領域2403のサイズに応じて適宜設定してもよい。例えば、顔領域2403に対して上下左右に10%のマージンを設定するようにしてもよい。
Then, since the selecting
ここではタイトル領域に顔領域がかかった場合には一律の判定基準で回避する方法を記載したが、かかる顔サイズに応じて判定基準を変更してもよい。例えば、顔が小さい場合は判定基準を緩くし、顔が大きい場合は判定基準を厳しくしてもよい。 Here, a method of avoiding a face area over a title area using a uniform criterion has been described, but the criterion may be changed according to the face size. For example, when the face is small, the criterion may be loosened, and when the face is large, the criterion may be strict.
判定部2206が重複していると判断した場合、トリミング部2207は、撮像画像において現在領域2401に表示している部分領域を{F1H−(Ty+TH+F2H)}の量だけy方向に移動させた部分領域を特定する。そしてトリミング部2207は、該特定した部分領域内の画像(撮像画像の部分画像)を領域2401内に配置する。
If the
以上説明したレイアウト部217の動作について、図23のフローチャートに従って説明する。ステップS2301では、取得部2201は、入力部211が入力したテンプレート群のうち、表紙/裏表紙に適用する候補となるテンプレート群を取得する。ステップS2302では、取得部2202は、取得部2201が取得したそれぞれのテンプレートにおけるタイトル領域の座標位置を取得する。ステップS2303では、取得部2203は、選択部216が選択した撮像画像(表紙用の撮像画像)を取得する。ステップS2304では、取得部2204は、取得部2203が取得した撮像画像についての画像解析部204による解析結果に含まれている、該撮像画像中の顔の数、該顔の座標位置を取得する。ステップS2305では、選定部2205は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域に最も近い顔の座標位置を特定する。ステップS2306では、選定部2205は先ず、それぞれの顔領域の縦サイズのうち最大の縦サイズを特定し、該特定した縦サイズ分だけタイトル領域を拡大した拡大領域を設定する。そして判定部2206は、ステップS2305で特定した座標位置によって規定される顔領域と拡大領域とが重複しているか否かを判定する。
The operation of the
この判定の結果、重複している場合には、処理はステップS2307に進み、重複していない場合には、図23のフローチャートに従った処理は完了する。ステップS2307では、トリミング部2207は、撮像画像において現在表示中の部分領域を上記の分だけy方向に移動させた部分領域を特定し、該特定した部分領域内の画像を表紙に配置する。
If the result of this determination is that there is overlap, the process proceeds to step S2307; otherwise, the process according to the flowchart of FIG. 23 is completed. In step S2307, the
このように、表紙を作成する際に表紙画像の顔領域がタイトル領域に重ならないように制御することにより、アルバムの表紙の完成度・ユーザの満足度を上げることができる。更に、表示前にタイトル領域に顔領域がかからないように制御しておくことで、ユーザの編集にかかる手間を軽減することができる。なお、拡大領域の代わりに元のテキスト領域との重複判定を行うようにしても構わない。 In this way, by controlling the face area of the cover image so as not to overlap the title area when creating the cover, it is possible to improve the degree of completeness of the cover of the album and the satisfaction of the user. Furthermore, by performing control so that the face area does not cover the title area before the display, it is possible to reduce the work required for editing by the user. It should be noted that the overlap determination with the original text area may be performed instead of the enlarged area.
[第3の実施形態]
以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1,2の実施形態では、表紙に配置する画像及び裏表紙に配置する画像を補正してからレイアウトした表紙ページの画像を表示していた。本実施形態では、表紙ページの画像をより早く表示するべく、表紙に配置する画像及び裏表紙に配置する画像は補正せずにレイアウトして表紙ページの画像を生成して表示し、該表示後に画像補正を行って表示を更新する。この手順について、図13のフローチャートを用いて説明する。
[Third Embodiment]
Hereinafter, differences from the first embodiment will be mainly described, and unless otherwise noted below, it is assumed to be the same as the first embodiment. In the first and second embodiments, the image of the cover page laid out after correcting the image arranged on the front cover and the image arranged on the back cover is displayed. In the present embodiment, in order to display the image of the cover page faster, the image arranged on the front cover and the image arranged on the back cover are laid out without correction to generate and display the image of the cover page, and after the display, Update the display by performing image correction. This procedure will be described with reference to the flowchart of FIG.
選択部216が第1の実施形態と同様にして、表紙及び裏表紙で1ページとする表紙ページにレイアウトする規定数の撮像画像データを選択する(S2501)。次に、レイアウト部217が、第1の実施形態と同様にして、表紙/裏表紙に適用するテンプレートを選択する(S2502)。次に、出力部215は、第1の実施形態と同様にしてテンプレート上のそれぞれの写真スロットに撮像画像を配置した「表紙ページの画像データ」を生成し(S2503)、「表紙ページの画像データ」をレイアウト情報として出力する(S2504)。これによりディスプレイ105には、この表紙ページの画像データに基づく「表紙ページの画像」を含むGUIが表示される。ここで、この「表紙ページの画像」は第1の実施形態のように補正されたものではない。そこで次に、画像補正部214は、「表紙ページの画像」にレイアウトされた撮像画像を第1の実施形態と同様にして補正する(S2505)。そして、出力部215はS2503と同様にして、この補正された撮像画像をテンプレート上のそれぞれの写真スロットに配置した「表紙ページの画像データ」を生成し、「表紙ページの画像データ」をレイアウト情報として出力する(S2506)。これによりディスプレイ105に表示中のGUIに含まれている撮像画像は、補正前の撮像画像から補正後の撮像画像に更新される。補正を適用する画像の順番は表紙画像を初めに行い、次に裏表紙画像に対して処理を行う。画像が複数ある場合には表示サイズが小さい画像から補正処理を実行する。
The
そして、表紙・裏表紙に利用されている全ての画像に対して画像補正を実行した場合には、図13のフローチャートに従った処理は完了し、未だ画像補正を行っていない画像が残っている場合には、S2505,S2506の処理を繰り返す。 When the image correction has been performed on all the images used for the front cover and the back cover, the processing according to the flowchart in FIG. 13 is completed, and the images that have not been subjected to the image correction remain. In this case, the processing of S2505 and S2506 is repeated.
ここでは説明のために、画像補正を行う順を表紙と裏表紙で設定したが、選択部216で利用した画像得点の順によって処理順を設定してもよい。また、マルチスレッドで表紙・裏表紙で採用した画像を同時に画像補正を実行して、補正できた画像から順に表示してもよい。
Here, for the sake of explanation, the order in which image correction is performed is set for the front cover and the back cover, but the processing order may be set according to the order of image scores used by the
このように表紙・裏表紙のレイアウト結果を表示する際に、はじめは画像補正なしの状態で表示を行う。その後、画像補正が適用された画像から表示を更新することにより、より速く表紙・裏表紙のレイアウト結果を表示することができ、ユーザが編集作業に着手できるまでの時間を短縮することができる。 When displaying the layout result of the front cover / back cover as described above, the display is first performed without image correction. Thereafter, by updating the display from the image to which the image correction has been applied, the layout result of the front cover / back cover can be displayed more quickly, and the time until the user can start editing work can be reduced.
[第4の実施形態]
上記の実施形態では、表紙ページとして、おもて表紙及び裏表紙のいずれも作成する場合について説明したが、裏表紙を生成せずに、おもて表紙のみを生成するようにしてもよい。
[Fourth embodiment]
In the above-described embodiment, a case has been described in which both the front cover and the back cover are created as the cover pages. However, only the front cover may be generated without generating the back cover.
上記の第2の実施形態では、選択した画像に含まれる顔領域がタイトル領域にかからないように、撮像画像をトリミングするものとしたが、これに限定されず、選択した画像の顔領域がタイトル領域に重ならないテンプレートを選択するようにしてもよい。すなわち、タイトル位置及び/又はスロットの位置が異なる複数の表紙テンプレートを予め用意しておき、その中から選択した画像に含まれる顔領域がタイトル領域にかからないテンプレートを選択するようにしてもよい。 In the second embodiment, the captured image is trimmed so that the face area included in the selected image does not overlap the title area. However, the present invention is not limited to this. May be selected. That is, a plurality of cover templates having different title positions and / or slot positions may be prepared in advance, and a template in which the face area included in the selected image does not overlap the title area may be selected.
上記の実施形態では、フォトアルバムを作成するアプリケーションについて説明したが、作成するものはフォトアルバムに限るものではない。例えば、お勧め画像を自動選択するような画像選択処理を備えるアプリケーションや画像処理装置を対象として上記の実施形態の構成を適用しても構わない。 In the above embodiment, the application for creating a photo album has been described, but the application to be created is not limited to the photo album. For example, the configuration of the above-described embodiment may be applied to an application or an image processing apparatus having an image selection process for automatically selecting a recommended image.
また、図1では、ローカル環境を想定した画像処理装置を例に挙げて説明したが、画像処理装置はこれに限定されるものではない。例えば、サーバ上の画像処理装置であってもよい。この場合は、サーバ内に保存されている画像データを利用又は画像データをアップロードするようにすればよい。 Also, in FIG. 1, an image processing apparatus assuming a local environment has been described as an example, but the image processing apparatus is not limited to this. For example, it may be an image processing device on a server. In this case, the image data stored in the server may be used or the image data may be uploaded.
また、上述した実施形態では、図9に示すように、画像データを選択してから順に期間分割するようにしたが、これに限定されるものではない。例えば、選択する画像データの数に応じて、予めその数に分割してもよい。この場合の画像データ選択方法について、図9を用いて説明する。なお一例として、4つの撮像画像データを選択したい場合について説明する。 Further, in the above-described embodiment, as shown in FIG. 9, the image data is selected and then divided sequentially, but the present invention is not limited to this. For example, the image data may be divided in advance in accordance with the number of image data to be selected. A method of selecting image data in this case will be described with reference to FIG. As an example, a case in which it is desired to select four pieces of captured image data will be described.
まず、図9(E)に示すように撮像期間を4等分する。そして、撮像期間に関わらず、1つ目の撮像画像データを選択する。次に、2つ目の撮像画像データは、1つ目の撮像画像データが選択されていない3つの撮像期間から選択する。次に、3つ目の撮像画像データは、1つ目の撮像画像データも2つ目の撮像画像データも選択されていない2つの撮像期間から選択する。4つ目の撮像画像データは、1つ目の撮像画像データも2つ目の撮像画像データも3つ目の撮像画像データも選択されていない撮像期間から選択する。なお、その撮像期間に撮像画像データが存在しない場合は、図9(H)と同様に、1つ目の撮像画像データを取得した撮像期間、2つ目の撮像画像データを取得した撮像期間、3つ目の撮像画像データを取得した撮像期間を分割して、撮像画像データを選択すればよい。 First, the imaging period is divided into four equal parts as shown in FIG. Then, regardless of the imaging period, the first captured image data is selected. Next, the second captured image data is selected from three imaging periods in which the first captured image data is not selected. Next, the third captured image data is selected from two imaging periods in which neither the first captured image data nor the second captured image data is selected. The fourth captured image data is selected from an imaging period in which neither the first captured image data, the second captured image data, nor the third captured image data is selected. If no captured image data exists during the imaging period, similarly to FIG. 9H, an imaging period during which the first captured image data is acquired, an imaging period during which the second captured image data is acquired, What is necessary is to divide the imaging period in which the third captured image data is acquired, and select the captured image data.
また、上述した実施形態では、画像が写真であるものとし、撮像日時に基づいてグループ分けをするようにしたが、画像データを作成した日時でグループ分けをするようにしてもよい。また、上記の各実施形態はその一部若しくは全部を適宜組み合わせて使用しても構わない。 Further, in the above-described embodiment, the image is a photograph and the grouping is performed based on the shooting date and time. However, the grouping may be performed based on the date and time when the image data is created. In addition, each of the above embodiments may be used by combining some or all of them as appropriate.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.
101:CPU 105:ディスプレイ 101: CPU 105: Display
Claims (11)
前記生成手段により生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御手段と、
を備え、
前記生成手段は、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、
前記生成手段が表紙に対応するレイアウト画像データを生成した場合、前記表示制御手段は、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、
前記生成手段は、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする画像処理装置。 Generating means for generating layout image data in which an image based on image data selected from the image data group is laid out;
Display control means for displaying a layout image on a display unit based on the layout image data generated by the generation means,
With
The generating means generates layout image data corresponding to the cover and layout image data corresponding to the main body,
When the generating means generates layout image data corresponding to the cover, the display control means displays a cover layout image on the display unit based on the layout image data corresponding to the cover,
The image processing apparatus according to claim 1, wherein the generation unit generates layout image data corresponding to the book body in a background of the display of the cover layout image.
前記編集画面は、ユーザの指示を受ける操作部を有することを特徴とする請求項1に記載の画像処理装置。 The display control means displays the layout image of the cover on an editing screen for editing the layout image,
The image processing apparatus according to claim 1, wherein the editing screen includes an operation unit that receives a user's instruction.
前記表紙のレイアウト画像の表示後に、該表紙のレイアウト画像を補正した補正後のレイアウト画像を表示することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。 The display control means,
After the display of the layout image of the cover sheet, the image processing apparatus according to any one of claims 1 to 5, characterized in that displaying the layout image corrected by correcting the layout image of said surface sheet.
前記切替部は、前記生成手段による本身に対応するレイアウト画像データの生成が完了するまでは無効化されており、前記生成手段による本身に対応するレイアウト画像データの生成が完了すると有効化されることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。 The display control means displays a switching unit that instructs display of a layout image of the main body,
The switching unit is disabled until the generation of the layout image data corresponding to the main body by the generation unit is completed, and is enabled when the generation of the layout image data corresponding to the main body by the generation unit is completed. The image processing apparatus according to claim 1, wherein:
前記画像データ群から選択された画像データに基づく画像の一部を文字入力領域と重ねたレイアウト画像データを生成する場合、該文字入力領域に該画像データに基づく画像内に含まれる顔が重複しないように前記レイアウト画像データを生成することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The generation means,
When generating layout image data in which a part of an image based on image data selected from the image data group is overlapped with a character input area, a face included in an image based on the image data does not overlap the character input area. The image processing apparatus according to any one of claims 1 to 8, wherein the layout image data is generated as described above.
前記生成工程において生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御工程と、
を備え、
前記生成工程では、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、
前記生成工程において表紙に対応するレイアウト画像データを生成した場合、前記表示制御工程では、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、
前記生成工程では、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする画像処理方法。 A generation step of generating layout image data in which an image based on the image data selected from the image data group is laid out;
A display control step of displaying a layout image on a display unit based on the layout image data generated in the generation step,
With
In the generation step, layout image data corresponding to the cover and layout image data corresponding to the main body are generated,
In the case where layout image data corresponding to the cover is generated in the generation step, in the display control step, a layout image of the cover is displayed on the display unit based on the layout image data corresponding to the cover,
The image processing method, wherein in the generation step, layout image data corresponding to the book body is generated in a background of display of the cover layout image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255235A JP6647039B2 (en) | 2015-12-25 | 2015-12-25 | Image processing apparatus, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255235A JP6647039B2 (en) | 2015-12-25 | 2015-12-25 | Image processing apparatus, image processing method, and computer program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017117403A JP2017117403A (en) | 2017-06-29 |
JP2017117403A5 JP2017117403A5 (en) | 2019-01-24 |
JP6647039B2 true JP6647039B2 (en) | 2020-02-14 |
Family
ID=59234970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015255235A Active JP6647039B2 (en) | 2015-12-25 | 2015-12-25 | Image processing apparatus, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6647039B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10511726B1 (en) * | 2019-02-06 | 2019-12-17 | Planetart, Llc | Custom recommendations application for creating photo book cover |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4240867B2 (en) * | 2001-09-28 | 2009-03-18 | 富士フイルム株式会社 | Electronic album editing device |
JP2003196318A (en) * | 2002-08-05 | 2003-07-11 | Hitachi Ltd | Image display method and apparatus |
JP5136386B2 (en) * | 2008-12-16 | 2013-02-06 | Nkワークス株式会社 | Image layout setting method and image layout setting device |
JP2010154021A (en) * | 2008-12-24 | 2010-07-08 | Noritsu Koki Co Ltd | Device and program for ordering multi image print |
JP5664035B2 (en) * | 2010-09-06 | 2015-02-04 | セイコーエプソン株式会社 | Information processing apparatus, program, and information processing method |
-
2015
- 2015-12-25 JP JP2015255235A patent/JP6647039B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017117403A (en) | 2017-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7487362B2 (en) | Image processing device, image processing method, and program | |
JP6938422B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6902886B2 (en) | Image processing equipment, methods and programs | |
JP7286392B2 (en) | Image processing device, image processing method, and program | |
JP6711937B2 (en) | Image processing device, image processing method, and program | |
JP7286393B2 (en) | Image processing device, image processing method, and program | |
JP6494504B2 (en) | Information processing apparatus, control method, and program | |
CN108234814B (en) | Control method and storage medium | |
JP6719206B2 (en) | Image processing apparatus, image processing method, and program | |
JP6681192B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2018097482A (en) | Image processing apparatus, control method, and program | |
JP6422409B2 (en) | Display control apparatus, display control method, and program | |
JP7336211B2 (en) | Image processing device, control method, and program | |
JP7451242B2 (en) | Image processing device, image processing method, and program | |
CN106445424A (en) | Information processing method and information processing apparatus | |
JP7027101B2 (en) | Information processing equipment, control methods, and programs | |
JP2018097481A (en) | Image processing apparatus, control method, and program | |
JP7336209B2 (en) | Image processing device, control method, and program | |
JP6765978B2 (en) | Information processing equipment and programs | |
JP6647039B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2021149195A (en) | Program, image processing method, and image processing apparatus | |
JP2021149196A (en) | Image processing apparatus, image processing method, and program | |
US11978133B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7446876B2 (en) | Program, image processing method, and image processing device | |
JP7336212B2 (en) | Image processing device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200114 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6647039 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |