[go: up one dir, main page]

JP2009135720A - Image composing device - Google Patents

Image composing device Download PDF

Info

Publication number
JP2009135720A
JP2009135720A JP2007309641A JP2007309641A JP2009135720A JP 2009135720 A JP2009135720 A JP 2009135720A JP 2007309641 A JP2007309641 A JP 2007309641A JP 2007309641 A JP2007309641 A JP 2007309641A JP 2009135720 A JP2009135720 A JP 2009135720A
Authority
JP
Japan
Prior art keywords
image
unit
default
size
transparent area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007309641A
Other languages
Japanese (ja)
Inventor
Osamu Kuniyuki
修 国行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007309641A priority Critical patent/JP2009135720A/en
Priority to US12/324,356 priority patent/US20090142001A1/en
Priority to CNA2008101819325A priority patent/CN101448064A/en
Publication of JP2009135720A publication Critical patent/JP2009135720A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To satisfactorily compose a photographed image to a predetermined image. <P>SOLUTION: A plurality of template images are stored in a flash memory 36, and a photographed image is stored in a recording medium 30. A CPU 32 detects an attribute (attribute: center coordinates and size) of a transmission area frame provided in each of the plurality of template images. The CPU 32 also detects an attribute of a face frame that the photographed image has. The CPU 32 calculates a composite adaption degree in each of the plurality of template images based on the attribute of the detected transmission area frame and the face frame, and designates each of the plurality of template images in order of a higher calculated composite adaptation degree. The CPU 32 further composites a designated template image and a photographed image in an aspect that the composite adaptation degree is increased. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、既定画像を撮影画像に多重して合成画像を作成する、画像合成装置に関する。   The present invention relates to an image composition apparatus that creates a composite image by multiplexing a predetermined image on a photographed image.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、合成画像を生成するにあたって、まず複数の素材画像が背景画像上に配置され、次にランダムに選択されたテンプレートトリミングマスクを用いたトリミング処理が各素材画像について実行される。その後、複数の素材画像の全てについて“誘目度”が算出され、特定の素材画像の誘目度が下位数位以内に収まっていなければトリミング処理が再度実行される。トリミング処理は特定の素材画像の誘目度が下位数位以内に収まるまで繰り返され、これによってゲーム性や楽しみを付加した合成画像が完成する。
特開2005−284597号公報[G06T 3/00, 7/00, 11/60, H04N 1/387]
An example of this type of device is disclosed in Patent Document 1. According to this background art, when generating a composite image, first, a plurality of material images are arranged on the background image, and then a trimming process using a randomly selected template trimming mask is executed for each material image. . Thereafter, the “attraction level” is calculated for all of the plurality of material images. If the attraction level of the specific material image does not fall within the lower order, the trimming process is executed again. The trimming process is repeated until the degree of attraction of a specific material image falls within the lower order, thereby completing a composite image with added game characteristics and enjoyment.
JP 2005-284597 A [G06T 3/00, 7/00, 11/60, H04N 1/387]

しかし、背景技術では、素材画像に割り当てられるテンプレートトリミングマスクの形状が誘目度に基づいて調整されることはあっても、素材画像およびテンプレートトリミングマスクの相対的なサイズ/位置が誘目度に基づいて調整されることはない。このため、背景技術では、合成画像の品質に限界がある。   However, in the background art, although the shape of the template trimming mask assigned to the material image is adjusted based on the degree of attraction, the relative size / position of the material image and the template trimming mask is based on the degree of attraction. There is no adjustment. For this reason, in the background art, the quality of the composite image is limited.

それゆえに、この発明の主たる目的は、撮影画像を既定画像に良好に合成することができる、画像合成装置を提供することである。   Therefore, a main object of the present invention is to provide an image synthesizing apparatus capable of satisfactorily synthesizing a captured image with a default image.

この発明に従う画像合成装置(10:実施例で相当する参照符号。以下同じ)は、M個(M:2以上の整数)の既定画像の各々に設けられた透過エリアの属性を検出する第1検出手段(S87~S93)、撮影画像が有する特定物画像の属性を検出する第2検出手段(S77, S79)、第1検出手段によって検出されたM個の属性の各々と第2検出手段によって検出された属性との相違の小ささに相当する合成適合度を算出する算出手段(S95)、M個の既定画像の1つを算出手段によって算出された合成適合度が高い方から順に指定する指定手段(S99~S105)、および指定手段によって指定された既定画像と撮影画像を合成する第1合成手段(S111~S123)を備える。   An image synthesizing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) detects a transmission area attribute provided in each of M (M: integer greater than or equal to 2) default images. Detection means (S87 to S93), second detection means (S77, S79) for detecting the attribute of the specific object image included in the photographed image, each of the M attributes detected by the first detection means and the second detection means A calculation means (S95) for calculating a composite fitness corresponding to a small difference from the detected attribute, and designates one of M default images in descending order of the composite fitness calculated by the calculation means. There are designated means (S99 to S105), and first composition means (S111 to S123) for synthesizing the default image designated by the designation means and the photographed image.

M個(M:2以上の整数)の既定画像の各々に設けられた透過エリアの属性は、第1検出手段によって検出される。撮影画像が有する特定物画像の属性は、第2検出手段によって検出される。算出手段は、第1検出手段によって検出されたM個の属性の各々と第2検出手段によって検出された属性との相違の小ささに相当する合成適合度を算出する。指定手段は、M個の既定画像の1つを算出手段によって算出された合成適合度が高い方から順に指定する。第1合成手段は、指定手段によって指定された既定画像と撮影画像を合成する。   The attribute of the transmissive area provided in each of the M (M: integer greater than or equal to 2) default images is detected by the first detection means. The attribute of the specific object image included in the captured image is detected by the second detection unit. The calculation means calculates a combined fitness corresponding to a small difference between each of the M attributes detected by the first detection means and the attribute detected by the second detection means. The designating unit designates one of the M default images in order from the one with the highest combination fitness calculated by the calculation unit. The first synthesizing unit synthesizes the captured image and the default image designated by the designation unit.

このように、合成適合度は、既定画像上の透過エリアの属性と撮影画像上の特定物画像の属性との相違の小ささに相当する。撮影画像に合成される既定画像は合成適合度が高い方から順に指定される。これによって、良好な合成画像が得られる。   As described above, the composite suitability corresponds to a small difference between the attribute of the transparent area on the default image and the attribute of the specific object image on the photographed image. The default images to be combined with the photographed image are designated in order from the highest combination fitness. As a result, a good composite image can be obtained.

好ましくは、第1検出手段は透過エリアの位置を属性の1つとして検出する第1位置検出手段(S93)を含み、第2検出手段は特定物画像の位置を属性の1つとして検出する第2位置検出手段(S79)を含み、算出手段は第1位置検出手段によって検出された位置と第2位置検出手段によって検出された位置との相違が小さいほど合成適合度を高くする。これによって、特定画像の近くに設けられた透過エリアを有する既定画像が優先的に指定される。   Preferably, the first detection means includes first position detection means (S93) for detecting the position of the transparent area as one of the attributes, and the second detection means detects the position of the specific object image as one of the attributes. The calculation means includes a two-position detection means (S79), and increases the degree of composite suitability as the difference between the position detected by the first position detection means and the position detected by the second position detection means is smaller. As a result, a default image having a transparent area provided near the specific image is preferentially designated.

さらに好ましくは、撮影画像を特定物が正立するように回転させる回転手段(S55)がさらに備えられ、算出手段は回転手段によって回転された後の特定物画像の位置に注目する。これによって、特定物の姿勢に関係なく合成適合度を良好に算出することができる。   More preferably, rotation means (S55) for rotating the photographed image so that the specific object stands upright is further provided, and the calculation means pays attention to the position of the specific object image after being rotated by the rotation means. As a result, it is possible to satisfactorily calculate the composite fitness regardless of the posture of the specific object.

また、M個の既定画像の各々は1または2以上の透過エリアを有し、第1検出手段は1または2以上の透過エリアの各々のサイズを属性の他の1つとして検出する第1サイズ検出手段(S87)をさらに含み、第1位置検出手段は第1サイズ検出手段によって検出されたサイズのうちサイズ条件を満足するサイズを有する透過エリアについて位置検出処理を実行する。これによって、合成適合度は、特定物画像の位置およびサイズと透過エリアの位置およびサイズとを考慮して算出される。   Each of the M predetermined images has one or more transmissive areas, and the first detection unit detects a size of each of the one or more transmissive areas as another one of the attributes. The first position detecting unit further includes a detecting unit (S87), and performs the position detecting process on the transmissive area having a size that satisfies the size condition among the sizes detected by the first size detecting unit. As a result, the composite fitness is calculated in consideration of the position and size of the specific object image and the position and size of the transmission area.

ここで、第2検出手段は特定物画像のサイズを属性の他の1つとして検出する第2サイズ検出手段(S77)をさらに含み、サイズ条件は第2検出手段によって検出されたサイズとの相違が最も小さいという条件を含む。これによって、合成適合度が最大となる既定画像は、特定物画像のサイズおよび位置に最も近いサイズおよび位置を有する透過エリアが設けられた既定画像である。   Here, the second detection means further includes second size detection means (S77) for detecting the size of the specific object image as another attribute, and the size condition is different from the size detected by the second detection means. Including the condition that is the smallest. As a result, the default image with the highest combined fitness is a default image provided with a transmission area having a size and position closest to the size and position of the specific object image.

好ましくは、N個(N:M以上の整数)の既定画像の中から時節設定を有する既定画像を抽出する抽出手段(S69)、および抽出手段によって抽出された既定画像のうち撮影画像の日付に適合しない時節設定を有する既定画像を排除する排除手段(S71)がさらに備えられ、N個の既定画像のうち排除手段の排除処理の後に残った既定画像がM個の既定画像に相当する。これによって、撮影画像に適しない既定画像が撮影画像に合成される事態を低減することができる。   Preferably, extraction means (S69) for extracting a default image having a time setting from N (N: integer greater than or equal to N) default images, and the date of the photographed image among the default images extracted by the extraction means. Exclusion means (S71) for excluding default images having time settings that do not match is further provided, and of the N default images, the default images remaining after exclusion processing of the exclusion means correspond to M default images. As a result, it is possible to reduce the situation in which a default image that is not suitable for a captured image is combined with the captured image.

さらに好ましくは、指定手段は、時節設定を有する既定画像に合成適合度に従う順位を割り当てる第1割り当て手段(S99, S101)、および時節設定を有しない既定画像に合成適合度に従いかつ第1割り当て手段によって割り当てられた順位よりも低い順位を割り当てる第2割り当て手段(S103)を含む。これによって、時節設定を有する既定画像が時節設定を有しない既定画像に優先して指定される。   More preferably, the designating means assigns the order according to the synthesis suitability to the default image having the time setting, and first assignment means according to the synthesis fit to the default image having the time setting. Includes a second assigning means (S103) for assigning a lower rank than the rank assigned by. As a result, the default image having the time setting is specified in preference to the default image having no time setting.

好ましくは、指定手段は第1合成手段によって合成される既定画像を画像更新操作を受け付ける毎に更新する更新手段(S11)を含む。これによって操作性が向上する。   Preferably, the designating unit includes an updating unit (S11) that updates the default image synthesized by the first synthesizing unit every time an image updating operation is received. This improves the operability.

好ましくは、第1合成手段は、特定物画像のサイズが透過エリアのサイズに近づくように撮影画像の倍率を調整する倍率調整手段(S115)、および透過エリアの位置が特定物画像の位置に近づくように合成位置を調整する位置調整手段(S117)を含む。合成処理は、特定物画像が透過エリアから透過するように実行される。   Preferably, the first combining unit adjusts the magnification of the captured image so that the size of the specific object image approaches the size of the transparent area, and the position of the transparent area approaches the position of the specific object image. Position adjustment means (S117) for adjusting the composite position as described above. The composition process is executed so that the specific object image is transmitted from the transmission area.

さらに好ましくは、倍率補正操作に応答して撮影画像の倍率を補正する第1倍率補正手段(S25)、位置補正操作に応答して合成位置を補正する第1位置補正手段(S19)、および指定手段によって指定された既定画像と撮影画像を第1倍率補正手段および/または第1位置補正手段の補正結果を参照して再度合成する第2合成手段(S29)がさらに備えられる。これによって、透過エリアに現れた特定物画像の位置および倍率を操作者の好みに応じて補正することができる。   More preferably, first magnification correction means (S25) for correcting the magnification of the photographed image in response to the magnification correction operation, first position correction means (S19) for correcting the composite position in response to the position correction operation, and designation A second combining means (S29) is further provided for again combining the predetermined image designated by the means and the photographed image with reference to the correction result of the first magnification correcting means and / or the first position correcting means. Thereby, the position and magnification of the specific object image appearing in the transmissive area can be corrected according to the preference of the operator.

また、第1倍率補正手段による倍率補正量を指定手段によって指定された既定画像上の透過エリアのサイズに基づいて正規化する倍率補正量正規化手段(S27)がさらに備えられ、第1合成手段は指定手段によって指定された既定画像上の透過エリアのサイズと倍率補正量正規化手段によって正規化された倍率補正量とに基づいて撮影画像の倍率を補正する第2倍率補正手段(S119)をさらに含む。   Further, a magnification correction amount normalizing means (S27) for normalizing the magnification correction amount by the first magnification correction means based on the size of the transparent area on the default image designated by the designation means is further provided, and the first synthesis means. The second magnification correction means (S119) for correcting the magnification of the photographed image based on the size of the transparent area on the default image designated by the designation means and the magnification correction amount normalized by the magnification correction amount normalization means. In addition.

これによって、既定画像が更新された場合に、更新後の既定画像が有する透過エリアと特定物画像とのサイズ関係を、更新前の既定画像が有する透過エリアと特定物画像とのサイズ関係に合わせることができる。   Thus, when the default image is updated, the size relationship between the transparent area and the specific object image included in the updated default image is matched with the size relationship between the transparent area and the specific object image included in the pre-update default image. be able to.

さらに、第1位置補正手段による位置補正量を指定手段によって指定された既定画像上の透過エリアのサイズに基づいて正規化する位置補正量正規化手段(S21)がさらに備えられ、第1合成手段は指定手段によって指定された既定画像上の透過エリアのサイズと位置補正量正規化手段によって正規化された位置補正量とに基づいて合成位置を補正する第2位置補正手段(S121)をさらに含む。   Furthermore, a position correction amount normalizing means (S21) for normalizing the position correction amount by the first position correcting means based on the size of the transmission area on the default image specified by the specifying means is further provided, and the first combining means. Further includes second position correction means (S121) for correcting the composite position based on the size of the transparent area on the default image designated by the designation means and the position correction amount normalized by the position correction amount normalization means. .

これによって、既定画像が更新された場合に、更新後の既定画像が有する透過エリアと特定物画像との位置関係を、更新前の既定画像が有する透過エリアと特定物画像との位置関係に合わせることができる。   Thus, when the default image is updated, the positional relationship between the transparent area and the specific object image included in the updated default image is matched with the positional relationship between the transparent area and the specific object image included in the default image before the update. be able to.

好ましくは、第1合成手段によって合成された既定画像の外縁からはみ出した撮影画像の一部を切り取る切り取り手段(S125)がさらに備えられる。また、特定物画像は顔画像に相当する。   Preferably, there is further provided a cutting means (S125) for cutting out a part of the photographed image protruding from the outer edge of the predetermined image synthesized by the first synthesizing means. The specific object image corresponds to a face image.

好ましくは、第1検出手段によって注目されるべき撮影画像を選択する画像選択操作を受け付ける受付手段(S47)、および画像選択操作によって選択された撮影画像が特定物画像を有しないとき警告を発生する発生手段(S53)がさらに備えられる。これによって、操作性が向上する。   Preferably, receiving means (S47) for receiving an image selection operation for selecting a photographed image to be noticed by the first detection means, and generating a warning when the photographed image selected by the image selection operation does not have a specific object image. Generation means (S53) is further provided. This improves operability.

好ましくは、第1合成手段は算出手段によって算出された合成適合度が増大する態様で合成処理を実行する。合成適合度が高い方から順に既定画像を指定する処理と相俟って、良好な合成画像を作成することができる。   Preferably, the first synthesizing unit executes the synthesizing process in such a manner that the synthesis suitability calculated by the calculating unit increases. Combined with the process of designating the default image in order from the one with the highest degree of synthesis suitability, a good synthesized image can be created.

この発明に従う画像合成プログラムは、画像合成装置(10)のプロセサ(32)に、M個(M:2以上の整数)の既定画像の各々に設けられた透過エリアの属性を検出する第1検出ステップ(S87~S93)、撮影画像が有する特定物画像の属性を検出する第2検出ステップ(S77, S79)、第1検出ステップによって検出されたM個の属性の各々と第2検出ステップによって検出された属性との相違の小ささに相当する合成適合度を算出する算出ステップ(S95)、M個の既定画像の1つを算出ステップによって算出された合成適合度が高い方から順に指定する指定ステップ(S99~S105, S11)、および指定ステップによって指定された既定画像と撮影画像を合成する合成ステップ(S111~S123)を実行させるための、画像合成プログラムである。   An image composition program according to the present invention is a first detection for detecting an attribute of a transmission area provided in each of M (M: an integer of 2 or more) predetermined images in a processor (32) of an image composition apparatus (10). Steps (S87 to S93), a second detection step (S77, S79) for detecting an attribute of the specific object image included in the captured image, each of the M attributes detected by the first detection step, and detection by the second detection step A calculation step (S95) for calculating a composite fitness corresponding to a small difference from the attribute that has been set, and specifying one of the M default images in order from the highest composite fitness calculated by the calculation step This is an image synthesis program for executing steps (S99 to S105, S11) and a synthesis step (S111 to S123) for synthesizing the default image designated in the designation step and the photographed image.

この発明に従う画像合成方法は、画像合成装置(10)によって実行される画像合成方法であって、M個(M:2以上の整数)の既定画像の各々に設けられた透過エリアの属性を検出する第1検出ステップ(S87~S93)、撮影画像が有する特定物画像の属性を検出する第2検出ステップ(S77, S79)、第1検出ステップによって検出されたM個の属性の各々と第2検出ステップによって検出された属性との相違の小ささに相当する合成適合度を算出する算出ステップ(S95)、M個の既定画像の1つを算出ステップによって算出された合成適合度が高い方から順に指定する指定ステップ(S99~S105, S11)、および指定ステップによって指定された既定画像と撮影画像を合成する合成ステップ(S111~S123)を備える。   An image composition method according to the present invention is an image composition method executed by an image composition device (10), and detects the attribute of a transparent area provided in each of M (M: an integer of 2 or more) default images. A first detection step (S87 to S93), a second detection step (S77, S79) for detecting an attribute of the specific object image included in the photographed image, a second of each of the M attributes detected by the first detection step A calculation step (S95) for calculating a composite fitness corresponding to a small difference from the attribute detected in the detection step, and one of M default images having a higher composite fitness calculated by the calculation step. A designation step (S99 to S105, S11) for designating sequentially, and a synthesis step (S111 to S123) for synthesizing the default image and the photographed image designated by the designation step are provided.

この発明によれば、合成適合度は、既定画像上の透過エリアの属性と撮影画像上の特定物画像の属性との相違の小ささに相当する。撮影画像に合成される既定画像は合成適合度が高い方から順に指定される。これによって、良好な合成画像が得られる。   According to the present invention, the composite suitability corresponds to a small difference between the attribute of the transparent area on the default image and the attribute of the specific object image on the photographed image. The default images to be combined with the photographed image are designated in order from the highest combination fitness. As a result, a good composite image can be obtained.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のディジタルカメラ10は、光学レンズ12を含む。被写界を表す光学像は、光学レンズ12を経て撮像装置14の受光面に照射される。受光面では、被写界像を表す電荷が光電変換によって生成される。   Referring to FIG. 1, a digital camera 10 of this embodiment includes an optical lens 12. The optical image representing the object scene is irradiated on the light receiving surface of the imaging device 14 through the optical lens 12. On the light receiving surface, charges representing the object scene image are generated by photoelectric conversion.

キー入力装置38によってカメラモードが選択されると、CPU32は、スルー画像処理を実行するべく、プリ露光および間引き読み出しの繰り返しを撮像装置14に命令する。撮像装置14は、垂直同期信号Vsyncが発生する毎に、受光面にプリ露光を施し、かつこのプリ露光によって生成された電荷の一部をラスタ走査態様で受光面から読み出す。垂直同期信号Vsyncは1/30秒毎に出力され、この結果、被写界を表す低解像度の生画像信号が30fpsのフレームレートで撮像装置14から出力される。   When the camera mode is selected by the key input device 38, the CPU 32 instructs the imaging device 14 to repeat pre-exposure and thinning-out reading in order to execute through image processing. Each time the vertical synchronization signal Vsync is generated, the imaging device 14 performs pre-exposure on the light-receiving surface, and reads out a part of the charge generated by the pre-exposure from the light-receiving surface in a raster scanning manner. The vertical synchronization signal Vsync is output every 1/30 seconds. As a result, a low-resolution raw image signal representing the object scene is output from the imaging device 14 at a frame rate of 30 fps.

カメラ処理回路16は、撮像装置14から出力された生画像信号にA/D変換,白バランス調整,YUV変換などの処理を施し、YUV形式の画像データを作成する。作成された画像データは、メモリ制御回路18を通してSDRAM20のスルー画像エリア20a(図2参照)に書き込まれる。LCDドライバ22は、スルー画像エリア20aに格納された画像データを1/30秒毎に読み出し、読み出された各フレームの画像データに基づいてLCDモニタ24を駆動する。この結果、被写界を表すリアルタイム動画像つまりスルー画像がモニタ画面に表示される。   The camera processing circuit 16 performs processing such as A / D conversion, white balance adjustment, and YUV conversion on the raw image signal output from the imaging device 14 to create image data in the YUV format. The created image data is written into the through image area 20a (see FIG. 2) of the SDRAM 20 through the memory control circuit 18. The LCD driver 22 reads the image data stored in the through image area 20a every 1/30 seconds, and drives the LCD monitor 24 based on the read image data of each frame. As a result, a real-time moving image representing the object scene, that is, a through image is displayed on the monitor screen.

キー入力装置38上のシャッタボタン38sが半押しされると、CPU32は、傾斜センサ34から出力された姿勢情報を取り込む。取り込まれた姿勢情報は、メモリ制御回路18を通してSDRAM20のワークエリア20fに書き込まれる。   When the shutter button 38 s on the key input device 38 is half-pressed, the CPU 32 captures the posture information output from the tilt sensor 34. The taken posture information is written into the work area 20 f of the SDRAM 20 through the memory control circuit 18.

CPU32はまた、シャッタボタン38sの半押しに応答して、カメラ処理回路16からの出力に基づく顔認識処理を実行する。被写界に人物の顔が存在する場合、顔の個数,各々の顔を囲う顔枠の中心座標およびサイズが、顔認識処理によって検出される。また、顔が複数存在する場合は、いずれか1つの顔の区分が“主”とされ、残りの顔の区分が“従”とされる。このような顔情報もまた、メモリ制御回路18を通してSDRAM20のワークエリア20fに書き込まれる。なお、ワークエリア20fには、図示しない時計回路によって検出された今日の日付情報も書き込まれる。   The CPU 32 also executes face recognition processing based on the output from the camera processing circuit 16 in response to half-pressing of the shutter button 38s. When a person's face exists in the object scene, the number of faces and the center coordinates and size of the face frame surrounding each face are detected by face recognition processing. In addition, when there are a plurality of faces, any one of the face classifications is “main”, and the remaining face classification is “subordinate”. Such face information is also written into the work area 20 f of the SDRAM 20 through the memory control circuit 18. Note that today's date information detected by a clock circuit (not shown) is also written in the work area 20f.

シャッタボタン38sが全押しされると、CPU32は、本露光および全画素読み出しを1回ずつ実行することを撮像装置14に命令する。撮像装置14は、受光面に本露光を施し、かつこの本露光によって生成された電荷の全てをラスタ走査態様で受光面から読み出す。この結果、被写界を表す高解像度の生画像信号が撮像装置14から出力される。   When the shutter button 38s is fully pressed, the CPU 32 instructs the imaging device 14 to execute main exposure and all pixel readout once. The imaging device 14 performs main exposure on the light receiving surface, and reads out all the charges generated by the main exposure from the light receiving surface in a raster scanning manner. As a result, a high-resolution raw image signal representing the scene is output from the imaging device 14.

出力された1フレームの生画像信号は、カメラ処理回路16によって上述と同様の処理を施される。カメラ処理回路16によって作成されたYUV形式の画像データは、メモリ制御回路18を通してSDRAM20の伸長画像エリア20bに書き込まれる。   The output raw image signal of one frame is subjected to the same processing as described above by the camera processing circuit 16. The YUV format image data created by the camera processing circuit 16 is written into the expanded image area 20 b of the SDRAM 20 through the memory control circuit 18.

CPU32はまた、シャッタボタン38sの全押しに応答して、圧縮命令および記録命令をJPEGコーデック26およびI/F回路28にそれぞれ与える。JPEGコーデック26は、伸長画像エリア20bに格納された画像データをメモリ制御回路18を通して読み出し、読み出された画像データにJPEG圧縮を施し、そして圧縮画像データつまりJPEGデータをメモリ制御回路18を通してSDRAM20の圧縮画像エリア20cに書き込む。   The CPU 32 also gives a compression command and a recording command to the JPEG codec 26 and the I / F circuit 28, respectively, in response to the full press of the shutter button 38s. The JPEG codec 26 reads the image data stored in the decompressed image area 20 b through the memory control circuit 18, performs JPEG compression on the read image data, and compresses the compressed image data, that is, JPEG data through the memory control circuit 18. Write to the compressed image area 20c.

I/F回路28は、メモリ制御回路18を通して圧縮画像エリア20cからJPEGデータを読み出し、読み出されたJPEGデータを記録媒体30内に作成されたJPEGファイルに格納する。I/F回路28はまた、メモリ制御回路18を通してワークエリア20fから姿勢情報,顔情報および日付情報を読み出し、これらの情報が記述されたタグデータを同じJPEGファイルのヘッダに埋め込む。このような記録処理が完了すると、上述のスルー画像処理が再開される。   The I / F circuit 28 reads JPEG data from the compressed image area 20 c through the memory control circuit 18 and stores the read JPEG data in a JPEG file created in the recording medium 30. The I / F circuit 28 also reads posture information, face information, and date information from the work area 20f through the memory control circuit 18, and embeds tag data in which these pieces of information are described in the header of the same JPEG file. When such a recording process is completed, the above-described through image process is resumed.

撮影画像を収めたJPEGファイルは、図3に示すように構成される。タグ情報は、上述の通り、日付情報,姿勢情報および顔情報によって構成される。日付情報は、年月日で表される。姿勢情報は、正立状態,左90度回転状態および右90度回転状態をそれぞれ意味する“1”,“2”および“3”のいずれか1つによって表される。顔情報は、具体的には、顔認識情報,顔個数情報および顔枠情報によって構成される。顔認識情報について、“0”は顔が存在しないことを示し、“1”は顔が存在することを示す。顔個数情報について、数値Nは顔の個数に相当する。顔枠情報は、各々の顔枠の中心座標および水平・垂直サイズと各々の顔の区分とを含む。主たる顔の区分は“1”とされ、従たる顔の区分は“2”とされる。なお、顔の主従は、たとえば笑顔の程度、顔のサイズなどによって決定される。   A JPEG file containing captured images is configured as shown in FIG. As described above, the tag information includes date information, posture information, and face information. The date information is represented by date. The posture information is represented by any one of “1”, “2”, and “3” meaning an upright state, a left 90-degree rotated state, and a right 90-degree rotated state, respectively. Specifically, the face information includes face recognition information, face number information, and face frame information. In the face recognition information, “0” indicates that no face exists, and “1” indicates that a face exists. Regarding the face number information, the numerical value N corresponds to the number of faces. The face frame information includes the center coordinates and horizontal / vertical sizes of each face frame and the division of each face. The main face classification is “1”, and the secondary face classification is “2”. Note that the master / slave of the face is determined by, for example, the degree of smile and the size of the face.

JPEGデータは、たとえば図5(A)または図5(B)に示す撮影画像を表す。図5(A)によれば、被写界は2005年12月10日に正立状態で撮影され、単一の顔画像が被写界の左上側に存在する。顔枠Kp1は、この顔画像を囲うように定義される。図5(B)によれば、被写界は2006年8月26日に左90度回転状態で捉えられ、単一の顔画像が被写界の右側に存在する。顔枠Kp2は、この顔画像を囲うように定義される。   The JPEG data represents the captured image shown in FIG. 5A or FIG. 5B, for example. According to FIG. 5A, the scene is photographed in an upright state on December 10, 2005, and a single face image exists on the upper left side of the scene. The face frame Kp1 is defined so as to surround this face image. According to FIG. 5B, the scene is captured on August 26, 2006, rotated 90 degrees to the left, and a single face image exists on the right side of the scene. The face frame Kp2 is defined so as to surround this face image.

キー入力装置38によって再生モードが選択されかつ所望のJPEGファイルが指定されると、CPU32は、I/F回路28およびJPEGコーデック26に再生命令および伸長命令をそれぞれ与える。再生命令には、所望のJPEGファイルの識別番号が記述される。   When the reproduction mode is selected by the key input device 38 and a desired JPEG file is designated, the CPU 32 gives a reproduction instruction and an expansion instruction to the I / F circuit 28 and the JPEG codec 26, respectively. The playback command describes the identification number of the desired JPEG file.

I/F回路28は、所望のJPEGファイルに格納されたJPEGデータを記録媒体30から読み出し、読み出されたJPEGデータをメモリ制御回路18を通してSDRAM20の圧縮画像エリア20cに書き込む。JPEGコーデック26は、圧縮画像エリア20cに格納されたJPEGデータをメモリ制御回路18を通して読み出し、読み出されたJPEGデータにJPEG伸長を施し、そして伸長画像データをメモリ制御回路18を通してSDRAM20の伸長画像エリア20bに書き込む。   The I / F circuit 28 reads JPEG data stored in a desired JPEG file from the recording medium 30 and writes the read JPEG data into the compressed image area 20 c of the SDRAM 20 through the memory control circuit 18. The JPEG codec 26 reads JPEG data stored in the compressed image area 20 c through the memory control circuit 18, performs JPEG decompression on the read JPEG data, and decompresses the decompressed image data through the memory control circuit 18. Write to 20b.

LCDドライバ22は、伸長画像エリア20bに格納された伸長画像データをメモリ制御回路18を通して読み出し、読み出された伸長画像データに基づいてLCDモニタ24を駆動する。この結果、撮影画像がモニタ画面に表示される。   The LCD driver 22 reads the decompressed image data stored in the decompressed image area 20b through the memory control circuit 18, and drives the LCD monitor 24 based on the read decompressed image data. As a result, the captured image is displayed on the monitor screen.

キー入力装置38上で画像更新操作が行われると、再生命令および伸長命令が再度発行される。再生命令に記述された識別番号は次のJPEGファイルを示し、この結果、次のJPEGファイルに格納された撮影画像がLCDモニタ24から出力される。   When an image update operation is performed on the key input device 38, a reproduction command and an expansion command are issued again. The identification number described in the reproduction command indicates the next JPEG file, and as a result, the captured image stored in the next JPEG file is output from the LCD monitor 24.

この実施例のディジタルカメラ10は、記録済みの撮影画像にテンプレート画像を合成する画像合成モードを有する。テンプレート画像は、JPEGファイル形式でフラッシュメモリ36(記録媒体30でもよい)に準備され、JPEGファイルは上述と同様にタグデータおよびJPEGデータによって構成される。   The digital camera 10 of this embodiment has an image synthesis mode for synthesizing a template image with a recorded photographed image. The template image is prepared in the flash memory 36 (or the recording medium 30) in the JPEG file format, and the JPEG file is configured by tag data and JPEG data in the same manner as described above.

タグデータには、図4に示すように、季節設定情報,季節情報,透過エリア枠設定情報,透過エリア枠個数情報および透過エリア枠情報が記述される。季節設定情報について、“0”は季節設定が存在しないことを示し、“1”は季節設定が存在することを示す。季節情報について、“1”は春を示し、“2”は夏を示し、“3”は秋を示し、そして“4”は冬を示す。透過エリア枠設定情報について、“0”は透過エリア枠設定が存在しないことを示し、“1”は透過エリア枠設定が存在することを示す。透過エリア枠個数情報について、Nは透過エリア枠の個数を示す。透過エリア枠情報は、各々の透過エリア枠の中心座標および水平・垂直サイズを含む。   As shown in FIG. 4, the tag data includes season setting information, season information, transparent area frame setting information, transparent area frame number information, and transparent area frame information. Regarding the season setting information, “0” indicates that there is no season setting, and “1” indicates that the season setting exists. Regarding the season information, “1” indicates spring, “2” indicates summer, “3” indicates autumn, and “4” indicates winter. Regarding the transparent area frame setting information, “0” indicates that there is no transparent area frame setting, and “1” indicates that there is a transparent area frame setting. Regarding the transparent area frame number information, N indicates the number of transparent area frames. The transparent area frame information includes center coordinates and horizontal / vertical sizes of each transparent area frame.

JPEGデータは、たとえば図6(A),図6(B),図6(C)または図6(D)に示すテンプレート画像を表す。図6(A)〜図6(D)のいずれにおいても、白色エリアが透過エリアに相当する。   The JPEG data represents, for example, a template image shown in FIG. 6 (A), FIG. 6 (B), FIG. 6 (C) or FIG. 6 (D). In any of FIGS. 6A to 6D, the white area corresponds to the transmission area.

図6(A)のテンプレート画像については、季節設定が存在せず、2つの透過エリア枠Kt1aおよびKt1bが2つの透過エリア上にそれぞれ配置される。図6(B)のテンプレート画像については、季節設定が存在せず、単一の透過エリア枠Kt2が単一の透過エリア上に配置される。   In the template image of FIG. 6A, there is no seasonal setting, and two transparent area frames Kt1a and Kt1b are arranged on the two transparent areas, respectively. In the template image of FIG. 6B, there is no seasonal setting, and a single transparent area frame Kt2 is arranged on a single transparent area.

図6(C)のテンプレート画像については、季節設定が存在し、季節情報は冬を示す。また、単一の透過エリア枠Kt3が単一の透過エリア上に配置される。図6(D)のテンプレート画像については、季節設定および透過エリア枠のいずれも存在しない。図6(D)のように透過エリアがテンプレート画像の外縁まで及ぶ場合、透過エリア枠は非設定とされる。   For the template image in FIG. 6C, there is a season setting, and the season information indicates winter. A single transmission area frame Kt3 is arranged on a single transmission area. In the template image of FIG. 6D, neither the season setting nor the transparent area frame exists. When the transmissive area extends to the outer edge of the template image as shown in FIG. 6D, the transmissive area frame is not set.

画像合成モードが選択されると、まず記録媒体30に記録されたJPEGファイルが上述の要領で再生され、撮影画像がLCDモニタ24に表示される。また、撮影画像更新操作が行われると、LCDモニタ24に表示される撮影画像が更新される。所望の撮影画像が表示された状態でキー入力装置38上で選択操作が行われると、表示中の撮影画像が顔画像を有するか否かがタグデータの記述に基づいて判別される。顔画像が存在しなければ、画像更新操作を促すべく警告が出力される。   When the image composition mode is selected, first, the JPEG file recorded on the recording medium 30 is reproduced as described above, and the captured image is displayed on the LCD monitor 24. Further, when a captured image update operation is performed, the captured image displayed on the LCD monitor 24 is updated. When a selection operation is performed on the key input device 38 in a state where a desired photographed image is displayed, whether or not the photographed image being displayed has a face image is determined based on the description of the tag data. If no face image exists, a warning is output to prompt an image update operation.

一方、顔画像が存在すれば、タグデータの記述に基づいて被写界の姿勢が判別される。撮影画像は、被写界が正立するようにワークエリア20fに展開される。したがって、図5(A)に示す撮影画像が選択された場合、この撮影画像はそのままワークエリア20fに展開される。一方、図5(B)に示す撮影画像が選択された場合、この撮影画像は左に90度回転された状態でワークエリア20fに展開される。以下では、ワークエリア20fに展開された撮影画像を“注目撮影画像”と定義し、注目撮影画像上の主たる顔枠を“注目顔枠”と定義する。   On the other hand, if a face image exists, the posture of the object scene is determined based on the description of the tag data. The captured image is developed in the work area 20f so that the object scene is upright. Therefore, when the photographed image shown in FIG. 5A is selected, the photographed image is developed as it is in the work area 20f. On the other hand, when the photographed image shown in FIG. 5B is selected, the photographed image is developed in the work area 20f in a state rotated 90 degrees to the left. In the following, the captured image developed in the work area 20f is defined as “attention photographed image”, and the main face frame on the attention photographed image is defined as “attention face frame”.

次に、透過エリア枠を有するテンプレート画像がリストL1上に抽出される。ただし、季節設定を有するテンプレート画像のうち、季節が撮影日付に合致しないテンプレート画像は、抽出対象から排除される。   Next, a template image having a transparent area frame is extracted on the list L1. However, among the template images having the season setting, template images whose seasons do not match the shooting date are excluded from extraction targets.

図5(A)に示す撮影画像の日付は2005年12月10日であり、図5(B)に示す撮影画像の日付は2006年8月26日である。一方、透過エリア枠を有するテンプレート画像は図6(A)〜図6(C)に示す画像であり、このうち季節設定を有するテンプレート画像は図6(C)に示す画像である。さらに、図6(C)に示すテンプレート画像の季節情報は冬である。   The date of the captured image shown in FIG. 5A is December 10, 2005, and the date of the captured image shown in FIG. 5B is August 26, 2006. On the other hand, a template image having a transparent area frame is an image shown in FIGS. 6A to 6C, and a template image having a seasonal setting is an image shown in FIG. 6C. Further, the season information of the template image shown in FIG. 6C is winter.

したがって、図5(A)に示す撮影画像が注目撮影画像として選択されたときは、図6(A)〜図6(C)に示すテンプレート画像が図7(A)に示す要領でリストL1上に抽出される。一方、図5(B)に示す撮影画像が注目撮影画像として選択されたときは、図6(A)および図6(B)に示すテンプレート画像が図7(B)に示す要領でリストL1上に抽出される。   Therefore, when the photographed image shown in FIG. 5A is selected as the noticeable photographed image, the template images shown in FIGS. 6A to 6C are displayed on the list L1 in the manner shown in FIG. 7A. Extracted into On the other hand, when the photographed image shown in FIG. 5B is selected as the noticeable photographed image, the template images shown in FIGS. 6A and 6B are displayed on the list L1 in the manner shown in FIG. 7B. Extracted into

リストL1が完成すると、テンプレート画像上の透過エリア枠の中からサイズ条件を満足する透過エリア枠が選択される。サイズ条件は、注目顔枠のサイズとの相違が最も小さいという条件であり、注目顔枠のサイズに最も近いサイズを有する透過エリア枠がテンプレート画像上の透過エリア枠の中から選択される。このようなサイズ条件に基づく透過エリア枠の選択処理は、テンプレート画像上に複数の透過エリア枠が存在する場合に意味をなす。   When the list L1 is completed, a transparent area frame that satisfies the size condition is selected from the transparent area frames on the template image. The size condition is a condition that the difference from the size of the target face frame is the smallest, and a transparent area frame having a size closest to the size of the target face frame is selected from the transparent area frames on the template image. The transparent area frame selection process based on such a size condition makes sense when a plurality of transparent area frames exist on the template image.

続いて、選択された透過エリア枠の中心座標と注目撮影画像上の注目顔枠の中心座標との相違が、リストL1上のテンプレート画像の各々について算出される。撮影画像およびテンプレート画像のいずれにおいても、座標の原点は画像の中心に設定され、上述の相違は、選択された透過エリア枠の中心座標が示す数値と注目顔枠の中心座標が示す数値との差分によって表される。算出された中心座標の相違は“合成適合度”と定義され、合成適合度は相違が減少するほど増大する。   Subsequently, the difference between the center coordinates of the selected transparent area frame and the center coordinates of the noticeable face frame on the noticeable photographed image is calculated for each of the template images on the list L1. In both the photographed image and the template image, the coordinate origin is set at the center of the image, and the above difference is the difference between the value indicated by the center coordinate of the selected transparent area frame and the value indicated by the center coordinate of the face frame of interest. Expressed by differences. The difference in the calculated center coordinates is defined as “composite suitability”, and the composite suitability increases as the difference decreases.

なお、撮影画像が回転してワークエリア20fに展開された場合、顔枠の中心座標は撮影画像の回転に応じて変換され、変換された中心座標が相違の算出のために参照される。   When the photographed image is rotated and developed in the work area 20f, the center coordinates of the face frame are converted according to the rotation of the photographed image, and the converted center coordinates are referred to for calculating the difference.

合成適合度の算出が完了すると、まず季節設定を有するテンプレート画像が、合成適合度が高い方から順にリストL2に移動される。季節設定を有する全てのテンプレート画像の移動が完了すると、季節設定を有しないテンプレート画像が、合成適合度が高い方から順にリストL2に移動される。   When the calculation of the combined fitness is completed, first, template images having seasonal settings are moved to the list L2 in order from the highest combined fitness. When the movement of all the template images having the seasonal setting is completed, the template images not having the seasonal setting are moved to the list L2 in order from the one having the highest combination fitness.

したがって、図5(A)に示す撮影画像が選択された場合、図6(A)〜図6(C)に示すテンプレート画像は、図7(A)に示す要領でリストL2に登録される。また、図5(B)に示す撮影画像が選択された場合、図6(A)および図6(B)に示すテンプレート画像は、図7(B)に示す要領でリストL2に登録される。   Therefore, when the captured image shown in FIG. 5A is selected, the template images shown in FIGS. 6A to 6C are registered in the list L2 in the manner shown in FIG. 7A. When the captured image shown in FIG. 5B is selected, the template images shown in FIGS. 6A and 6B are registered in the list L2 in the manner shown in FIG. 7B.

リストL2が完成すると、リストL2の最上位に登録されたテンプレート画像が次の要領で再生される。CPU32は、対応するJPEGファイルをフラッシュメモリ36から検出し、このJPEGファイルに格納されたJPEGデータをメモリ制御回路18を通してSDRAM20の圧縮画像エリア20eに書き込む。CPU32はまた、JPEGコーデック26に伸長命令を与える。JPEGコーデック26は、圧縮画像エリア20eに格納されたJPEGデータをメモリ制御回路18を通して読み出し、読み出されたJPEGデータにJPEG伸長を施し、伸長画像データをメモリ制御回路18を通してSDRAM20の伸長画像エリア20dに書き込む。   When the list L2 is completed, the template image registered at the top of the list L2 is reproduced in the following manner. The CPU 32 detects the corresponding JPEG file from the flash memory 36 and writes the JPEG data stored in the JPEG file to the compressed image area 20 e of the SDRAM 20 through the memory control circuit 18. The CPU 32 also gives a decompression instruction to the JPEG codec 26. The JPEG codec 26 reads the JPEG data stored in the compressed image area 20 e through the memory control circuit 18, performs JPEG expansion on the read JPEG data, and expands the decompressed image data through the memory control circuit 18 to the expanded image area 20 d of the SDRAM 20. Write to.

テンプレート画像の再生が完了すると、再生されたテンプレート画像を注目撮影画像に多重する処理(上位概念としては、再生されたテンプレート画像と注目撮影画像を合成する処理)がワークエリア20f上で実行される。以下では、注目撮影画像に多重されるテンプレート画像を“注目テンプレート画像”と定義し、注目テンプレート画像上の透過エリア枠のうちサイズ条件を満足する透過エリア枠を“注目透過エリア枠”と定義する。   When the reproduction of the template image is completed, a process of multiplexing the reproduced template image on the noticeable photographed image (as a superordinate concept, a process of combining the reproduced template image and the noticeable photographed image) is executed on the work area 20f. . In the following, a template image that is multiplexed with a noticed photographed image is defined as “attention template image”, and a transparent area frame that satisfies the size condition among the transparent area frames on the noticeable template image is defined as “attention transparent area frame”. .

多重処理を行うとき、注目撮影画像の倍率および注目テンプレート画像の多重位置は、上述した合成適合度が増大するように、つまり注目透過エリア枠の中心座標およびサイズが注目顔枠の中心座標およびサイズにそれぞれ合致するように、調整される。多重処理が完了すると、テンプレート画像の外縁からはみ出した一部の撮影画像が切り取られ、これによって合成画像が完成する。完成した合成画像を表す画像データはその後、ワークエリア20fから伸長画像エリア20bに移動される。移動された画像データはその後LCDドライバ22によって読み出され、この結果、合成画像がLCDモニタ24から出力される。   When performing the multiplex processing, the magnification of the noticeable photographed image and the multiplex position of the noticeable template image are set so that the above-described synthesis suitability increases, that is, the center coordinates and size of the noticeable transparent area frame are the center coordinates and size of the noticeable face frame. To be matched to each of the above. When the multiplex processing is completed, a part of the captured image that protrudes from the outer edge of the template image is cut out, thereby completing the composite image. The image data representing the completed composite image is then moved from the work area 20f to the expanded image area 20b. The moved image data is then read out by the LCD driver 22, and as a result, a composite image is output from the LCD monitor 24.

図8(A)に示す撮影画像が注目撮影画像として選択され、図8(B)に示すテンプレート画像が注目テンプレート画像として指定された場合、図8(A)に示す顔枠Kp1が注目顔枠となり、図8(B)に示す透過エリア枠Kt3が注目透過エリア枠となる。   When the photographed image shown in FIG. 8A is selected as the noticeable photographed image and the template image shown in FIG. 8B is designated as the noticeable template image, the face frame Kp1 shown in FIG. Thus, the transparent area frame Kt3 shown in FIG. 8B becomes the target transparent area frame.

注目撮影画像の倍率は、注目顔枠Kp1の水平サイズと注目透過エリア枠Kt3の水平サイズとが互いに一致するように調整され、注目テンプレート画像の多重位置は、注目透過エリア枠Kt3の中心座標と調整された倍率を有する注目顔枠Kp1´の中心座標とが互いに一致するように調整される(図8(C)〜図8(E)参照)。サイズ調整に関して、注目顔枠Kp1の水平サイズを“W2”とし、注目透過エリア枠Kt3の水平サイズを“W1”とすると、注目顔枠Kp1´は“W1”の水平サイズを有する。注目テンプレート画像は、調整された倍率を有する注目撮影画像に図8(F)に示す要領で多重される。多重処理が完了すると、注目テンプレート画像の外縁からはみ出した一部の注目撮影画像が切り取られ、これによって図8(G)に示す合成画像が完成する。   The magnification of the noticeable photographed image is adjusted so that the horizontal size of the noticeable face frame Kp1 and the horizontal size of the noticeable transparent area frame Kt3 coincide with each other, and the multiple position of the noticeable template image is the center coordinate of the noticeable transparent area frame Kt3. Adjustment is made so that the center coordinates of the face frame of interest Kp1 ′ having the adjusted magnification coincide with each other (see FIGS. 8C to 8E). Regarding the size adjustment, if the horizontal size of the noticeable face frame Kp1 is “W2” and the horizontal size of the noticeable transparent area frame Kt3 is “W1”, the noticeable face frame Kp1 ′ has a horizontal size of “W1”. The attention template image is multiplexed on the attention photographed image having the adjusted magnification as shown in FIG. When the multiplex processing is completed, a part of the target photographed image that protrudes from the outer edge of the target template image is cut out, thereby completing the composite image shown in FIG.

一方、図10(A)に示す撮影画像が注目撮影画像として選択され、図10(B)に示すテンプレート画像が注目テンプレート画像として選択された場合、図10(A)に示す顔枠Kp2が注目顔枠となり、図10(B)に示す透過エリア枠Kt1aが注目透過エリア枠となる。   On the other hand, when the captured image shown in FIG. 10A is selected as the focused captured image and the template image illustrated in FIG. 10B is selected as the focused template image, the face frame Kp2 illustrated in FIG. It becomes a face frame, and the transparent area frame Kt1a shown in FIG.

注目撮影画像の倍率は、注目顔枠Kp2の水平サイズと注目透過エリア枠Kt1aの水平サイズとが互いに一致するように調整され、注目テンプレート画像の多重位置は、透過エリア枠Kt1aの中心座標と調整された倍率を有する注目顔枠Kp2´の中心座標とが互いに一致するように調整される(図10(C)〜図10(E)参照)。サイズ調整に関して、注目顔枠Kp2の水平サイズを“W2”とし、注目透過エリア枠Kt1aの水平サイズを“W1”とすると、注目顔枠Kp2´は“W1”の水平サイズを有する。注目テンプレート画像は、調整された倍率を有する撮影画像に図10(F)に示す要領で多重される。多重処理が完了すると、注目テンプレート画像の外縁からはみ出した一部の注目撮影画像が切り取られ、これによって合成画像が完成する(図10(G)参照)。   The magnification of the noticeable photographed image is adjusted so that the horizontal size of the noticeable face frame Kp2 and the horizontal size of the noticeable transparent area frame Kt1a coincide with each other, and the multiple position of the noticeable template image is adjusted with the center coordinate of the transparent area frame Kt1a. Adjustment is made so that the center coordinates of the face frame of interest Kp2 ′ having the set magnification coincide with each other (see FIGS. 10C to 10E). Regarding the size adjustment, if the horizontal size of the attention face frame Kp2 is “W2” and the horizontal size of the attention transmission area frame Kt1a is “W1”, the attention face frame Kp2 ′ has a horizontal size of “W1”. The template image of interest is multiplexed on the photographed image having the adjusted magnification in the manner shown in FIG. When the multiplex processing is completed, a part of the target captured image that protrudes from the outer edge of the target template image is cut out, thereby completing the composite image (see FIG. 10G).

合成画像が完成した後にキー入力装置38によって位置補正操作が行われると、注目テンプレート画像の多重位置が補正される。注目テンプレート画像は補正後の多重位置で注目撮影画像に再度多重され、これによって得られた合成画像は上述と同じ要領でLCDモニタ24から出力される。また、テンプレート画像更新操作によって更新された別の注目テンプレート画像への多重処理を考慮して、多重位置補正量が数1および数2に従って正規化される。数1によって水平方向における正規化多重位置補正量が算出され、数2によって垂直方向における正規化多重位置補正量が算出される。なお、数1および後述する数3に示すHsizeは、図8(C)または図10(C)の例では“W1”に相当する。
[数1]
NChp=Chp/Hsize
NChp:水平方向における正規化多重位置補正量
Chp:水平方向における多重位置補正量
Hsize:透過エリア枠の水平サイズ
[数2]
NCvp=Cvp/Vsize
NCvp:垂直方向における正規化多重位置補正量
Cvp:垂直方向における多重位置補正量
Vsize:透過エリア枠の垂直サイズ
When a position correction operation is performed by the key input device 38 after the composite image is completed, the multiple positions of the template image of interest are corrected. The template image of interest is multiplexed again on the photographed image of interest at the corrected multiplexed position, and the composite image obtained by this is output from the LCD monitor 24 in the same manner as described above. In addition, the multiple position correction amount is normalized according to Equation 1 and Equation 2 in consideration of the multiple processing to another template image of interest updated by the template image update operation. The normalized multiple position correction amount in the horizontal direction is calculated by Equation 1, and the normalized multiple position correction amount in the vertical direction is calculated by Equation 2. Note that Hsize shown in Equation 1 and Equation 3 described later corresponds to “W1” in the example of FIG. 8C or FIG. 10C.
[Equation 1]
NChp = Chp / Hsize
NChp: normalized multiple position correction amount in the horizontal direction Chp: multiple position correction amount in the horizontal direction Hsize: horizontal size of the transparent area frame [Equation 2]
NCvp = Cvp / Vsize
NCvp: normalized multiple position correction amount in the vertical direction Cvp: multiple position correction amount in the vertical direction Vsize: vertical size of the transmission area frame

また、合成画像が完成した後にキー入力装置38によって倍率補正操作が行われると、注目撮影画像の倍率が補正される。注目テンプレート画像は補正後の倍率を有する注目撮影画像に再度多重され、これによって得られた合成画像もまた上述と同じ要領でLCDモニタ24から出力される。また、テンプレート画像更新操作によって更新された別の注目テンプレート画像への多重処理を考慮して、倍率補正量が数3に従って正規化される。
[数3]
NCmg=Cmg/Hsize
NCmg:正規化倍率補正量
Cmg:倍率補正量
Hsize:透過エリア枠の水平サイズ
Further, when the magnification correction operation is performed by the key input device 38 after the composite image is completed, the magnification of the noticeable photographed image is corrected. The noticeable template image is multiplexed again on the noticeable photographed image having the corrected magnification, and the composite image obtained thereby is also output from the LCD monitor 24 in the same manner as described above. In addition, the magnification correction amount is normalized according to Equation 3 in consideration of multiple processing to another template image of interest updated by the template image update operation.
[Equation 3]
NCmg = Cmg / Hsize
NCmg: Normalized magnification correction amount Cmg: Magnification correction amount Hsize: Horizontal size of transparent area frame

テンプレート画像更新操作が行われると、リストL2上の次のテンプレート画像が注目テンプレート画像として指定され、上述の要領で再生される。注目撮影画像の倍率および更新された注目テンプレート画像の多重位置は、上述と同様、合成適合度が増大するように(注目透過エリア枠の位置およびサイズが注目顔枠の位置およびサイズにそれぞれ合致するように)調整される。   When the template image update operation is performed, the next template image on the list L2 is designated as the template image of interest, and is reproduced as described above. The magnification of the noticeable photographed image and the multiplexed position of the updated noticeable template image are the same as described above, so that the degree of composite matching increases (the position and size of the noticeable transparent area frame match the position and size of the noticeable face frame, respectively) Adjusted).

さらに、更新された注目テンプレート画像の多重位置は、数1および数2によって算出された正規化位置補正量を参照して補正される。また、注目撮影画像の倍率は、数3によって算出された正規化倍率補正量を参照して補正される。   Further, the multiple position of the updated template image of interest is corrected with reference to the normalized position correction amount calculated by Equation 1 and Equation 2. Further, the magnification of the noticeable photographed image is corrected with reference to the normalized magnification correction amount calculated by Equation 3.

更新された注目テンプレート画像上の注目透過エリア枠の水平サイズおよび垂直サイズをそれぞれ“Hsize´”および“Vsize´”と定義した場合、更新された注目テンプレート画像の多重位置は、合成適合度が増大するように調整された位置から水平方向に“NChp*Hsize´”だけ移動し、かつ垂直方向に“NCvp*Vsize´”だけ移動した位置とされる。また、注目撮影画像の倍率は、合成適合度が増大するように調整された倍率に“NCmg*Hsize´”を掛算した値とされる。   When the horizontal size and vertical size of the attention transparent area frame on the updated attention template image are defined as “Hsize ′” and “Vsize ′”, respectively, the multiple matching positions of the updated attention template image have an increased degree of synthesis. The position is adjusted so that it is moved by “NChp * Hsize ′” in the horizontal direction and moved by “NCvp * Vsize ′” in the vertical direction. Further, the magnification of the noticeable photographed image is a value obtained by multiplying the magnification adjusted so as to increase the combined fitness by “NCmg * Hsize ′”.

図8(G)に示す合成画像が完成した後に位置補正操作が行われると、注目テンプレート画像の多重位置はたとえば図9(A)に示す要領で補正され、これによって図9(B)に示す合成画像が得られる。   When the position correction operation is performed after the composite image shown in FIG. 8G is completed, the multiplex position of the template image of interest is corrected in the manner shown in FIG. 9A, for example, and as shown in FIG. A composite image is obtained.

位置補正操作の後にテンプレート画像更新操作が行われると、図9(C)に示すテンプレート画像が次の注目テンプレート画像とされ、透過エリア枠Kt2が次の注目透過エリア枠とされる。注目透過エリア枠Kt2の水平サイズは注目顔枠Kp1の水平サイズと一致し(図9(D)参照)、注目撮影画像の倍率は“1.0”とされる。ただし、注目テンプレート画像の多重位置は、数1および数2によって算出された正規化位置補正量を参照して補正される(図9(E)参照)。   When the template image update operation is performed after the position correction operation, the template image shown in FIG. 9C is set as the next noticed template image, and the transparent area frame Kt2 is set as the next noticed transparent area frame. The horizontal size of the target transparent area frame Kt2 matches the horizontal size of the target face frame Kp1 (see FIG. 9D), and the magnification of the target photographed image is “1.0”. However, the multiplexed position of the template image of interest is corrected with reference to the normalized position correction amount calculated by Equation 1 and Equation 2 (see FIG. 9E).

こうして決定された倍率および多重位置を参照した多重処理が行われた結果、図9(G)に示す合成画像が得られる。参考までに、注目透過エリア枠Kt2の中心座標が注目顔枠Kp1の中心座標と一致する位置を多重位置とした場合に得られる合成画像を図9(F)に示す。   As a result of the multiplexing process referring to the magnification and the multiplex position determined in this way, a composite image shown in FIG. 9G is obtained. For reference, FIG. 9F shows a composite image obtained when the position where the center coordinates of the noticeable transparent area frame Kt2 coincide with the center coordinates of the noticeable face frame Kp1 is a multiple position.

また、図10(G)に示す合成画像が完成した後に倍率補正操作が行われると、注目撮影画像の倍率が図11(A)に示す要領で補正され、これによって図11(B)に示す合成画像が得られる。   Further, when the magnification correction operation is performed after the composite image shown in FIG. 10G is completed, the magnification of the noticeable photographed image is corrected in the manner shown in FIG. 11A, and as a result, shown in FIG. A composite image is obtained.

倍率補正操作の後にテンプレート画像更新操作が行われると、図11(C)に示すテンプレート画像が次の注目テンプレート画像として指定され、透過エリア枠Kt2が次の注目透過エリア枠とされる。注目透過エリア枠Kt2の水平サイズは注目顔枠Kp2の水平サイズと一致し(図11(C)参照)、注目撮影画像の倍率は“1.0”とされる。ただし、この倍率は、数3によって算出された正規化倍率補正量を参照して補正される(図11(E)参照)。   When a template image update operation is performed after the magnification correction operation, the template image shown in FIG. 11C is designated as the next attention template image, and the transparent area frame Kt2 is set as the next attention transparent area frame. The horizontal size of the target transparent area frame Kt2 matches the horizontal size of the target face frame Kp2 (see FIG. 11C), and the magnification of the target captured image is set to “1.0”. However, this magnification is corrected with reference to the normalized magnification correction amount calculated by Equation 3 (see FIG. 11E).

こうして決定された倍率および多重位置を参照した多重処理が行われた結果、図11(G)に示す合成画像が得られる。参考までに、注目撮影画像の倍率を“1.0”とした場合に得られる合成画像を図11(F)に示す。   As a result of the multiplexing process referring to the magnification and the multiplex position determined in this way, a composite image shown in FIG. 11G is obtained. For reference, FIG. 11 (F) shows a composite image obtained when the magnification of the noticeable photographed image is “1.0”.

合成画像が完成した後にキー入力装置38上で画像記録操作が行われると、CPU32は、記録処理を実行するべく、圧縮命令および記録命令をJPEGコーデック26およびI/F回路28にそれぞれ与える。JPEGコーデック26は、上述と同じ要領で合成画像にJPEG圧縮を施し、JPEGデータをSDRAM20の圧縮画像エリア20cに書き込む。I/F回路28は、メモリ制御回路18を通して圧縮画像エリア20cからJPEGデータを読み出し、読み出されたJPEGデータを収めたJPEGファイルを記録媒体30内に作成する。   When an image recording operation is performed on the key input device 38 after the composite image is completed, the CPU 32 gives a compression command and a recording command to the JPEG codec 26 and the I / F circuit 28, respectively, in order to execute a recording process. The JPEG codec 26 performs JPEG compression on the composite image in the same manner as described above, and writes JPEG data in the compressed image area 20 c of the SDRAM 20. The I / F circuit 28 reads JPEG data from the compressed image area 20 c through the memory control circuit 18, and creates a JPEG file containing the read JPEG data in the recording medium 30.

画像合成モードが選択されたとき、CPU32は、図12〜図17に示すフロー図に従う処理を実行する。なお、これらのフロー図に対応する制御プログラムは、フラッシュメモリ36に記憶される。   When the image composition mode is selected, the CPU 32 executes processing according to the flowcharts shown in FIGS. Note that control programs corresponding to these flowcharts are stored in the flash memory 36.

まずステップS1で正規化多重位置補正量および正規化倍率補正量を初期化する。ステップS3では撮影画像選択処理を実行し、ステップS5ではテンプレート画像抽出処理を実行する。ステップS3によって、顔画像を有する撮影画像が注目撮影画像として選択される。また、ステップS5の処理によって、リストL1およびL2が作成され、かつリストL2の最上位に登録されたテンプレート画像が注目テンプレート画像として指定される。ステップS7では、注目撮影画像と注目テンプレート画像とを合成するべく、画像合成処理を実行する。   First, in step S1, the normalized multiple position correction amount and the normalized magnification correction amount are initialized. In step S3, a captured image selection process is executed, and in step S5, a template image extraction process is executed. In step S3, a captured image having a face image is selected as a focused captured image. In addition, the lists L1 and L2 are created by the process of step S5, and the template image registered at the top of the list L2 is designated as the template image of interest. In step S7, an image composition process is executed to synthesize the noticeable captured image and the noticeable template image.

ステップS9ではテンプレート画像更新操作が行われたか否かを判別し、ステップS13では画像記録操作が行われたか否かを判別する。また、ステップS17では位置補正操作が行われたか否かを判別し、ステップS23では倍率補正操作が行われたか否かを判別する。   In step S9, it is determined whether a template image update operation has been performed. In step S13, it is determined whether an image recording operation has been performed. In step S17, it is determined whether or not a position correction operation has been performed. In step S23, it is determined whether or not a magnification correction operation has been performed.

テンプレート画像更新操作が行われると、ステップS9からステップS11に進み、注目テンプレート画像をリストL2上の次のテンプレート画像に更新する。更新処理が完了すると、ステップS7に戻る。画像記録操作が行われると、ステップS13からステップS15に進み、記録処理を実行する。ステップS7の画像合成処理によって作成された合成画像は、JPEGファイル形式で記録媒体30に記録される。   When the template image update operation is performed, the process proceeds from step S9 to step S11, and the template image of interest is updated to the next template image on the list L2. When the update process is completed, the process returns to step S7. When an image recording operation is performed, the process proceeds from step S13 to step S15 to execute a recording process. The composite image created by the image composition processing in step S7 is recorded on the recording medium 30 in the JPEG file format.

位置補正操作が行われると、ステップS17からステップS19に進み、注目テンプレート画像の多重位置を補正する。ステップS21では、上述の数1および数2に従って正規化多重位置補正量を算出する。また、倍率補正操作が行われると、ステップS23からステップS25に進み、注目撮影画像の倍率を補正する。ステップS27では、上述の数3に従って正規化倍率補正量を算出する。ステップS21またはS23の処理が完了すると、ステップS29で注目テンプレート画像を注目撮影画像に再度多重する。この多重処理では、ステップS19で補正された多重位置またはステップS25で補正された倍率が参照される。ステップS31では不要部分画像(注目テンプレート画像の外縁からはみ出した一部の注目撮影画像)を切り取る。ステップS31の処理が完了すると、ステップS9に戻る。   When the position correction operation is performed, the process proceeds from step S17 to step S19, and the multiple position of the template image of interest is corrected. In step S21, the normalized multiple position correction amount is calculated according to the above-described equations 1 and 2. When the magnification correction operation is performed, the process proceeds from step S23 to step S25, and the magnification of the noticeable captured image is corrected. In step S27, the normalized magnification correction amount is calculated according to the above equation 3. When the process of step S21 or S23 is completed, the target template image is multiplexed again with the target captured image in step S29. In this multiplex processing, the multiplex position corrected in step S19 or the magnification corrected in step S25 is referred to. In step S31, an unnecessary partial image (a part of the target captured image that protrudes from the outer edge of the target template image) is cut out. When the process of step S31 is completed, the process returns to step S9.

図12に示すステップS3の撮影画像選択処理は、図14に示すサブルーチンに従って実行される。まずステップS41で先頭の撮影画像を収めるJPEGファイルを記録媒体30から再生する。この結果、先頭の撮影画像がLCDモニタ24に表示される。ステップS43では撮影画像更新操作が行われたか否かを判別し、ステップS45では選択操作が行われたか否かを判別する。   The captured image selection process in step S3 shown in FIG. 12 is executed according to a subroutine shown in FIG. First, in step S41, a JPEG file containing the first photographed image is reproduced from the recording medium 30. As a result, the first captured image is displayed on the LCD monitor 24. In step S43, it is determined whether or not a captured image update operation has been performed. In step S45, it is determined whether or not a selection operation has been performed.

撮影画像更新操作が行われると、ステップS43からステップS45に進み、再生すべき撮影画像を次のJPEGファイルに収められた撮影画像に更新する。更新処理が完了すると、ステップS43に戻る。選択操作が行われると、ステップS47からステップS49に進み、選択された撮影画像を収めるJPEGファイルからタグデータを検出する。   When the photographed image update operation is performed, the process proceeds from step S43 to step S45, where the photographed image to be reproduced is updated to the photographed image stored in the next JPEG file. When the update process is completed, the process returns to step S43. When the selection operation is performed, the process proceeds from step S47 to step S49, and tag data is detected from the JPEG file containing the selected photographed image.

ステップS51では、選択された撮影画像上に顔が存在するか否かをステップS49で検出されたタグデータに基づいて判別する。NOであれば、ステップS53で警告を発生してステップS43に戻る。YESであればステップS55に進み、被写界が正立するように回転させた状態で撮影画像をワークエリア20fに展開する。こうして展開された撮影画像が注目撮影画像とされる。ステップS55の処理が完了すると、上階層のルーチンに復帰する。   In step S51, it is determined based on the tag data detected in step S49 whether or not a face exists on the selected photographed image. If NO, a warning is generated in step S53 and the process returns to step S43. If YES, the process proceeds to step S55, and the photographed image is developed in the work area 20f in a state in which the object scene is rotated so as to stand upright. The captured image developed in this manner is set as a noticed captured image. When the process of step S55 is completed, the process returns to the upper-level routine.

図12に示すステップS5のテンプレート画像更新処理は、図15〜図16に示すサブルーチンに従って実行される。まずステップS61で変数NTを“1”に設定し、変数NTが設定値NTmaxを上回るか否かを判別する。設定値NTmaxは、フラッシュメモリ36に格納されたテンプレート画像の総数に相当し、NT≦NTmaxである限りステップS65に進む。   The template image update process in step S5 shown in FIG. 12 is executed according to the subroutine shown in FIGS. First, in step S61, the variable NT is set to “1”, and it is determined whether or not the variable NT exceeds the set value NTmax. The set value NTmax corresponds to the total number of template images stored in the flash memory 36, and the process proceeds to step S65 as long as NT ≦ NTmax.

ステップS65では、NT番目のテンプレート画像を収めるJPEGファイルからタグデータを検出する。ステップS67では透明エリア枠が存在するか否かを検出されたタグデータに基づいて判別し、ステップS69では季節設定が存在するか否かを検出されたタグデータに基づいて判別する。   In step S65, tag data is detected from the JPEG file containing the NTth template image. In step S67, whether or not a transparent area frame exists is determined based on the detected tag data, and in step S69, whether or not a seasonal setting exists is determined based on the detected tag data.

ステップS67およびS69のいずれもYESであれば、NT番目のテンプレート画像の季節が注目撮影画像の日付に適合するか否かをステップS71で判別する。ここでもYESであれば、NT番目のテンプレート画像をステップS73でリストL1登録する。ステップS67でYESである一方、ステップS69でNOであれば、ステップS71の処理を経ることなくステップS73に進み、上述した登録処理を実行する。   If YES in both steps S67 and S69, it is determined in step S71 whether or not the season of the NT-th template image matches the date of the target captured image. If “YES” here as well, the NT-th template image is registered in the list L1 in step S73. If “YES” in the step S67, if “NO” in the step S69, the process proceeds to the step S73 without performing the process of the step S71, and the above-described registration process is executed.

ステップS73の処理が完了すると、ステップS75で変数NTをインクリメントしてからステップS63に戻る。ステップS67またはステップS71でNOであれば、ステップS73の処理を経ることなくステップS75でインクリメント処理を実行し、その後にステップS63に戻る。   When the process of step S73 is completed, the variable NT is incremented in step S75, and then the process returns to step S63. If NO in step S67 or step S71, the increment process is executed in step S75 without passing through the process in step S73, and then the process returns to step S63.

ステップS63でYESと判断されると、ステップS77で注目顔枠の水平・垂直サイズを検出し、ステップS79で注目顔枠の中心座標を検出する。注目顔枠は注目撮影画像上の主たる顔枠であり、ステップS77およびS79いずれにおいても図14のステップS49で検出されたタグデータが参照される。また、注目撮影画像がワークエリア20f上で回転された撮影画像である場合、検出された中心座標の値はこの回転を考慮して変換される。   If YES is determined in the step S63, the horizontal / vertical size of the noticeable face frame is detected in a step S77, and the center coordinates of the noticeable face frame are detected in a step S79. The noticeable face frame is the main face frame on the noticeable photographed image, and the tag data detected in step S49 in FIG. 14 is referred to in both steps S77 and S79. When the noticeable photographed image is a photographed image rotated on the work area 20f, the detected center coordinate value is converted in consideration of this rotation.

ステップS81では変数NLを“1”に設定し、変数NLが設定値NLmaxを上回るか否かを判別する。設定値NLmaxは、リストL1に登録されたテンプレート画像の総数に相当し、NL≦NLmaxである限りステップS85に進む。ステップS85では、リストL1上のNL番目のテンプレート画像を再生する。再生されたテンプレート画像は、伸長画像エリア20dに確保される。   In step S81, the variable NL is set to “1”, and it is determined whether or not the variable NL exceeds the set value NLmax. The set value NLmax corresponds to the total number of template images registered in the list L1, and the process proceeds to step S85 as long as NL ≦ NLmax. In step S85, the NL-th template image on the list L1 is reproduced. The reproduced template image is secured in the expanded image area 20d.

ステップS87では、再生されたテンプレート画像上の透過エリア枠のサイズを検出する。サイズの検出にあたっては、ステップS65で検出されたタグデータが参照される。再生されたテンプレート画像上に複数の透過エリア枠が存在するときは、この複数の透過エリア枠の全てのサイズが検出される。ステップS89では、ステップS77で検出された注目顔枠のサイズとステップS87で検出された透過エリア枠のサイズとの相違を算出する。   In step S87, the size of the transparent area frame on the reproduced template image is detected. In detecting the size, the tag data detected in step S65 is referred to. When there are a plurality of transparent area frames on the reproduced template image, all sizes of the plurality of transparent area frames are detected. In step S89, the difference between the size of the face frame of interest detected in step S77 and the size of the transparent area frame detected in step S87 is calculated.

ステップS91では、再生されたテンプレート画像上の透過エリア枠の中からサイズ条件を満足する透過エリア枠を選択する。上述のように、サイズ条件は注目顔枠のサイズとの相違が最も小さいという条件である。したがって、ステップS91の処理はテンプレート画像上に複数の透過エリア枠が存在するときに意味をなし、注目顔枠のサイズに最も近いサイズを有する透過エリア枠が複数の透過エリア枠の中から選択される。   In step S91, a transparent area frame that satisfies the size condition is selected from the transparent area frames on the reproduced template image. As described above, the size condition is a condition that the difference from the size of the target face frame is the smallest. Therefore, the process in step S91 is meaningful when there are a plurality of transparent area frames on the template image, and a transparent area frame having a size closest to the size of the face frame of interest is selected from the plurality of transparent area frames. The

ステップS93では、選択された透過エリア枠の中心座標を検出する。ステップS95では、注目顔枠の中心座標とステップS91で検出された中心座標との相違を算出する。算出処理が完了すると、ステップS97で変数NLをインクリメントしてからステップS83に戻る。   In step S93, the center coordinates of the selected transparent area frame are detected. In step S95, the difference between the center coordinates of the face frame of interest and the center coordinates detected in step S91 is calculated. When the calculation process is completed, the variable NL is incremented in step S97, and the process returns to step S83.

NL>NLmaxとなると、ステップS83からステップS99に進み、季節設定を有するテンプレート画像をリストL1から特定する。ステップS101では、特定されたテンプレート画像を中心座標の相違が小さい方から順に(合成適合度が高い方から順に)リストL2に移動させる。ステップS103では、リストL1の残っているテンプレート画像つまり季節設定を有しないテンプレート画像を、中心座標の相違が小さい方から順に(合成適合度が高い方から順に)リストL2に移動させる。この結果、リストL2の最上位には季節設定を有しかつ中心座標の相違が最小のテンプレート画像が登録され、リストL2の最下位には季節設定を有さずかつ中心座標の相違が最大のテンプレート画像が登録される。   When NL> NLmax, the process proceeds from step S83 to step S99, and a template image having a seasonal setting is specified from the list L1. In step S101, the identified template images are moved to the list L2 in order from the smallest center coordinate difference (in descending order of the combined fitness). In step S103, the remaining template images in the list L1, that is, the template images having no seasonal setting, are moved to the list L2 in order from the smallest center coordinate difference (in descending order of the combined fitness). As a result, the template image having the seasonal setting and the smallest difference in the center coordinates is registered at the top of the list L2, and the difference in the center coordinates is the smallest at the bottom of the list L2. A template image is registered.

リストL2が完成するとステップS105に進み、リストL2の最上位のテンプレート画像を再生する。再生されたテンプレート画像は、伸長画像エリア20dに格納される。再生処理が完了すると、上階層のルーチンに復帰する。   When the list L2 is completed, the process proceeds to step S105, and the highest template image in the list L2 is reproduced. The reproduced template image is stored in the expanded image area 20d. When the reproduction process is completed, the process returns to the upper hierarchy routine.

図12に示すステップS5の画像合成処理は、図17に示すサブルーチンに従って実行される。まずステップS111およびS113で、上述のステップS87およびS89と同様の処理を注目テンプレート画像に対して実行する。この結果、注目透過エリア枠が特定される。ステップS115では、注目顔枠の水平サイズが注目透過エリア枠の水平サイズと一致する注目撮影画像の倍率を算出する。ステップS117では、注目透過エリア枠の中心座標が注目顔枠の中心座標と一致する注目テンプレート画像の多重位置を算出する。   The image composition process in step S5 shown in FIG. 12 is executed according to a subroutine shown in FIG. First, in steps S111 and S113, processing similar to that in steps S87 and S89 described above is performed on the template image of interest. As a result, the target transparent area frame is specified. In step S115, the magnification of the noticeable photographed image in which the horizontal size of the noticeable face frame matches the horizontal size of the noticeable transparent area frame is calculated. In step S117, the multiple positions of the target template image in which the center coordinates of the target transparent area frame coincide with the center coordinates of the target face frame are calculated.

ステップS119では、ステップS115で算出された倍率を注目透過エリア枠の水平サイズと図13に示すステップS27で算出された正規化倍率補正量とを参照して補正する。ステップS121では、ステップS117で算出された多重位置を注目透過エリア枠の水平サイズと図13に示すステップS21で算出された正規化多重位置補正量とを参照して補正する。   In step S119, the magnification calculated in step S115 is corrected with reference to the horizontal size of the target transparent area frame and the normalized magnification correction amount calculated in step S27 shown in FIG. In step S121, the multiple position calculated in step S117 is corrected with reference to the horizontal size of the target transparent area frame and the normalized multiple position correction amount calculated in step S21 shown in FIG.

ステップS123では、ステップS119で補正された倍率を参照して注目撮影画像を拡大/縮小し、ステップS121で補正された多重位置を参照して注目テンプレート画像を拡大/縮小された注目撮影画像に多重する。ステップS125では、注目テンプレート画像の外縁からはみ出した一部の注目撮影画像を切り取る。こうして合成画像が完成すると、上階層のルーチンに復帰する。   In step S123, the target captured image is enlarged / reduced with reference to the magnification corrected in step S119, and the target template image is multiplexed on the enlarged / reduced target captured image with reference to the multiple position corrected in step S121. To do. In step S125, a part of the noticeable photographed image that protrudes from the outer edge of the noticeable template image is cut out. When the composite image is completed in this manner, the process returns to the upper hierarchy routine.

この実施例によれば、複数のテンプレート画像(M個の既定画像)の各々に設けられた透過エリア枠(透過エリア)の属性(属性:中心座標およびサイズ)は、CPU32によって検出される(S87~S93)。撮影画像が有する顔画像(特定物画像)或いは顔枠(特定物画像エリア)の属性も、CPU32によって検出される(S77, S79)。CPU32は、検出された透過エリア枠および顔枠の属性に基づいて複数のテンプレート画像の各々の合成適合度を算出し(S95)、複数のテンプレート画像の各々を算出された合成適合度が高い方から順に指定する(S99~S105, S11)。CPU32はさらに、指定されたテンプレート画像を撮影画像に多重する処理を合成適合度が向上する態様で実行する(S111~S123)。   According to this embodiment, the attributes (attributes: center coordinates and size) of the transparent area frame (transparent area) provided in each of the plurality of template images (M default images) are detected by the CPU 32 (S87). ~ S93). The attributes of the face image (specific object image) or the face frame (specific object image area) of the photographed image are also detected by the CPU 32 (S77, S79). The CPU 32 calculates the combined fitness of each of the plurality of template images based on the detected transparent area frame and face frame attributes (S95), and the calculated combined fitness of each of the plurality of template images is higher. Specify in order (S99 to S105, S11). Further, the CPU 32 executes a process of multiplexing the designated template image on the photographed image in such a manner that the degree of composition suitability is improved (S111 to S123).

このように、合成適合度は、テンプレート画像上の透過エリア枠の属性と撮影画像上の顔枠の属性とに基づいて算出される。撮影画像に多重されるテンプレート画像は合成適合度が高い方から順に指定され、テンプレート画像を撮影画像に多重する処理は合成適合度が向上する態様で実行される。これによって、良好な合成画像が得られる。   As described above, the composite suitability is calculated based on the attribute of the transparent area frame on the template image and the attribute of the face frame on the photographed image. Template images to be multiplexed with the captured image are designated in order from the highest composite fitness level, and the process of multiplexing the template image with the captured image is executed in a manner that improves the composite fitness level. As a result, a good composite image can be obtained.

なお、顔枠(特定物画像エリア)の属性は、顔画像(特定物画像)の属性の1つに相当する。つまり、顔画像の属性の下位概念として、顔枠の属性が存在する。   The attribute of the face frame (specific object image area) corresponds to one of the attributes of the face image (specific object image). That is, the face frame attribute exists as a subordinate concept of the face image attribute.

この実施例を別の視点で眺めると、テンプレート画像上に設けられた複数の透過エリア枠の各々の属性は、CPU32によって検出される(S87)。撮影画像が有する顔枠の属性も、CPU32によって検出される(S77)。CPU32は、テンプレート画像から検出された複数の属性の各々と撮影画像から検出された属性との相違を算出し(S89)、算出された相違に基づいて複数の透過エリア枠の1つを選択する(S91)。CPU32は、テンプレート画像を撮影画像に多重する処理を、選択された透過エリア枠の属性と顔枠の属性との相違が抑制される態様で実行する(S111~S123)。   When this embodiment is viewed from another viewpoint, the attributes of each of the plurality of transparent area frames provided on the template image are detected by the CPU 32 (S87). The attribute of the face frame included in the captured image is also detected by the CPU 32 (S77). The CPU 32 calculates a difference between each of the plurality of attributes detected from the template image and the attribute detected from the captured image (S89), and selects one of the plurality of transparent area frames based on the calculated difference. (S91). The CPU 32 executes the process of multiplexing the template image on the photographed image in such a manner that the difference between the attribute of the selected transparent area frame and the attribute of the face frame is suppressed (S111 to S123).

このように、多重処理のために注目される透過エリア枠は、複数の透過エリア枠の各々の属性と顔枠の属性との相違に基づいて選択される。また、多重処理は、透過エリア枠と顔枠との相違が抑制される態様で実行される。これによって、複数の透過エリアを有する既定画像を撮影画像に良好に合成することができる。   As described above, the transparent area frame to be noticed for the multiple processing is selected based on the difference between the attribute of each of the plurality of transparent area frames and the attribute of the face frame. Further, the multiple processing is executed in a manner in which the difference between the transparent area frame and the face frame is suppressed. As a result, a default image having a plurality of transmission areas can be satisfactorily combined with a captured image.

この実施例をさらに別の視点で眺めると、CPU32は、撮影画像が有する顔枠の属性とテンプレート画像上に設けられた透過エリア枠の属性とに基づいて、合成処理パラメータ(合成処理パラメータ:撮影画像の倍率およびテンプレート画像の多重位置)を算出する(S115, S117)。CPU32はまた、テンプレート画像を撮影画像に多重する処理を算出された合成処理パラメータと正規化倍率/多重位置補正量(補正係数)とに基づいて実行する(S117~S123)。正規化倍率/多重位置補正量は、多重処理が完了した後の倍率/位置補正操作に応答して、CPU32によって更新される(S27, S21)。テンプレート画像を撮影画像に多重する処理は、倍率/位置補正操作に従う態様で再度実行される(S29)。CPU32は、テンプレート画像更新操作を受け付けたとき、テンプレート画像を更新して合成処理パラメータの算出処理を再起動する。   If this embodiment is viewed from a different viewpoint, the CPU 32 determines the composition processing parameter (composition processing parameter: photographing) based on the face frame attribute of the photographed image and the transparent area frame attribute provided on the template image. Image magnification and template image multiple position) are calculated (S115, S117). The CPU 32 also executes processing for multiplexing the template image on the captured image based on the calculated synthesis processing parameter and the normalized magnification / multiple position correction amount (correction coefficient) (S117 to S123). The normalized magnification / multiple position correction amount is updated by the CPU 32 in response to the magnification / position correction operation after completion of the multiplexing process (S27, S21). The process of multiplexing the template image on the captured image is executed again in a manner according to the magnification / position correction operation (S29). When receiving a template image update operation, the CPU 32 updates the template image and restarts the synthesis process parameter calculation process.

したがって、多重処理の態様は、顔枠および透過エリア枠の属性に基づく合成処理パラメータと正規化倍率/多重位置補正量とに依存する。倍率/位置補正操作が行われると、多重処理の態様が変化し、かつ正規化倍率/多重位置補正量が更新される。テンプレート画像更新操作が行われると、テンプレート画像が更新され、合成処理パラメータが再度算出される。更新されたテンプレート画像を用いた多重処理の態様は、新たに算出された合成処理パラメータと更新された正規化倍率/多重位置補正量に依存する。この結果、更新前のテンプレート画像を用いた多重処理の態様が更新後のテンプレート画像を用いた多重処理に反映され、更新後のテンプレート画像を撮影画像に良好に合成することができる。   Therefore, the mode of the multiprocessing depends on the synthesis processing parameter based on the attributes of the face frame and the transparent area frame and the normalization magnification / multiple position correction amount. When the magnification / position correction operation is performed, the mode of multiple processing changes, and the normalized magnification / multiple position correction amount is updated. When the template image update operation is performed, the template image is updated, and the synthesis processing parameter is calculated again. The mode of multiple processing using the updated template image depends on the newly calculated synthesis processing parameter and the updated normalized magnification / multiple position correction amount. As a result, the mode of multiple processing using the template image before update is reflected in the multiple processing using the template image after update, and the template image after update can be satisfactorily combined with the captured image.

なお、この実施例では、テンプレート画像上に複数の透過エリア枠が存在するとき、顔枠のサイズとの相違が最も小さいサイズを有する透過エリア枠を選択するようにしている(S89, S91)。また、テンプレート画像をリストL1からリストL2に移動させるとき、透過エリア枠の中心座標と顔枠の中心座標との相違が小さい方から順に選択するようにしている(S95, S101, S103)。   In this embodiment, when there are a plurality of transparent area frames on the template image, the transparent area frame having the smallest difference from the face frame size is selected (S89, S91). Further, when the template image is moved from the list L1 to the list L2, the template image is selected in order from the smallest difference between the center coordinates of the transparent area frame and the center coordinates of the face frame (S95, S101, S103).

しかし、顔枠の中心座標との相違が最も小さい中心座標を有する透過エリア枠をテンプレート画像上の複数の透過エリア枠から選択するようにしてもよいし、テンプレート画像をリストL1からリストL2に移動させるとき透過エリア枠のサイズと顔枠のサイズとの相違が小さい方から順に選択するようにしてもよい。   However, a transparent area frame having a center coordinate with the smallest difference from the center coordinate of the face frame may be selected from a plurality of transparent area frames on the template image, or the template image is moved from the list L1 to the list L2. When performing the selection, the transparent area frame size and the face frame size may be selected in ascending order.

なお、この実施例では、テンプレート画像への順位の割り当てにあたってテンプレート画像に設定された季節を考慮するようにしている(S69, S99~S103)。しかし、季節に代えて月別の行事のような時節の情報をテンプレート画像に設定し、設定された時節を考慮してテンプレート画像に順位を割り当てるようにしてもよい。なお、ここでは、“時節”を“季節”の上位概念として捉えている。   In this embodiment, the season set in the template image is taken into consideration when assigning the rank to the template image (S69, S99 to S103). However, time information such as a monthly event may be set in the template image instead of the season, and the order may be assigned to the template image in consideration of the set time. Here, “time” is considered as a superordinate concept of “season”.

また、この実施例では、顔画像を特定物画像として想定しているが、サッカーボール、花などを特定物画像として想定するようにしてもよい。   In this embodiment, the face image is assumed as the specific object image, but a soccer ball, a flower, or the like may be assumed as the specific object image.

さらに、この実施例では、多重処理の際に倍率調整は撮影画像に対して実行する一方、位置調整はテンプレート画像に対して実行するようにしているが、位置調整は撮影画像に対して実行するようにしてもよい。   Further, in this embodiment, the magnification adjustment is performed on the captured image during the multiple processing, while the position adjustment is performed on the template image. However, the position adjustment is performed on the captured image. You may do it.

この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図1実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。It is an illustration figure which shows an example of the mapping state of SDRAM applied to FIG. 1 Example. 撮影画像を収めたJPEGファイルの構造の一例を示す図解図である。It is an illustration figure which shows an example of the structure of the JPEG file which stored the picked-up image. テンプレート画像を収めたJPEGファイルの構造の一例を示す図解図である。It is an illustration figure which shows an example of the structure of the JPEG file which accommodated the template image. (A)は撮影画像の一例を示す図解図であり、(B)は撮影画像の他の一例を示す図解図である。(A) is an illustration figure which shows an example of a picked-up image, (B) is an illustration figure which shows another example of a picked-up image. (A)はテンプレート画像の一例を示す図解図であり、(B)はテンプレート画像の他の一例を示す図解図であり、(C)はテンプレート画像のその他の一例を示す図解図であり、(D)はテンプレート画像のさらにその他の一例を示す図解図である。(A) is an illustrative view showing an example of a template image, (B) is an illustrative view showing another example of the template image, (C) is an illustrative view showing another example of the template image, ( D) is an illustrative view showing still another example of a template image. (A)はテンプレート画像抽出処理動作の一例を示す図解図であり、(B)はテンプレート画像抽出処理動作の他の一例を示す図解図である。(A) is an illustration figure which shows an example of a template image extraction process operation, (B) is an illustration figure which shows another example of a template image extraction process operation. (A)は画像合成処理のために選択された撮影画像の一例を示す図解図であり、(B)は画像合成処理のために選択されたテンプレート画像の一例を示す図解図であり、(C)はテンプレート画像および撮影画像からそれぞれ検出された透過エリア枠および顔枠の一例を示す図解図であり、(D)は顔枠の一例を示す図解図であり、(E)は透過エリア枠および顔枠の配置の一例を示す図解図であり、(F)は撮影画像へのテンプレート画像の多重状態の一例を示す図解図であり、そして(G)は合成画像の一例を示す図解図である。(A) is an illustrative view showing an example of a photographed image selected for image composition processing, (B) is an illustrative view showing an example of a template image selected for image composition processing, (C ) Is an illustrative view showing an example of a transparent area frame and a face frame detected from a template image and a photographed image, respectively. (D) is an illustrative view showing an example of a face frame. It is an illustration figure which shows an example of arrangement | positioning of a face frame, (F) is an illustration figure which shows an example of the multiplexing state of the template image to a picked-up image, and (G) is an illustration figure which shows an example of a synthesized image. . (A)は透過エリア枠および顔枠の配置の他の一例を示す図解図であり、(B)は合成画像の他の一例を示す図解図であり、(C)は画像合成処理のために選択されたテンプレート画像の他の一例を示す図解図であり、(D)は透過エリア枠および顔枠の配置の一例を示す図解図であり、(E)は透過エリア枠および顔枠の配置の他の一例を示す図解図であり、(F)は合成画像のその他の一例を示す図解図であり、(G)は合成画像のさらにその他の一例を示す図解図である。(A) is an illustrative view showing another example of the arrangement of the transparent area frame and the face frame, (B) is an illustrative view showing another example of the synthesized image, and (C) is for image synthesis processing. It is an illustration figure which shows another example of the selected template image, (D) is an illustration figure which shows an example of arrangement | positioning of a transparent area frame and a face frame, (E) is arrangement | positioning of a transmission area frame and a face frame. It is an illustration figure which shows another example, (F) is an illustration figure which shows the other example of a synthesized image, (G) is an illustration figure which shows another example of a synthesized image. (A)は画像合成処理のために選択された撮影画像の一例を示す図解図であり、(B)は画像合成処理のために選択されたテンプレート画像の一例を示す図解図であり、(C)はテンプレート画像および撮影画像からそれぞれ検出された透過エリア枠および顔枠の一例を示す図解図であり、(D)は顔枠の一例を示す図解図であり、(E)は透過エリア枠および顔枠の配置の一例を示す図解図であり、(F)は撮影画像へのテンプレート画像の多重状態の一例を示す図解図であり、そして(G)は合成画像の一例を示す図解図である。(A) is an illustrative view showing an example of a photographed image selected for image composition processing, (B) is an illustrative view showing an example of a template image selected for image composition processing, (C ) Is an illustrative view showing an example of a transparent area frame and a face frame detected from a template image and a photographed image, respectively. (D) is an illustrative view showing an example of a face frame. It is an illustration figure which shows an example of arrangement | positioning of a face frame, (F) is an illustration figure which shows an example of the multiplexing state of the template image to a picked-up image, and (G) is an illustration figure which shows an example of a synthesized image. . (A)は透過エリア枠および拡大顔枠の配置の他の一例を示す図解図であり、(B)は合成画像の他の一例を示す図解図であり、(C)は画像合成処理のために選択されたテンプレート画像の他の一例を示す図解図であり、(D)は透過エリア枠および顔枠の配置の一例を示す図解図であり、(E)は透過エリア枠および顔枠の配置の他の一例を示す図解図であり、(F)は合成画像のその他の一例を示す図解図であり、(G)は合成画像のさらにその他の一例を示す図解図である。(A) is an illustrative view showing another example of the arrangement of the transparent area frame and the enlarged face frame, (B) is an illustrative view showing another example of the synthesized image, and (C) is for image synthesis processing. FIG. 4D is an illustrative view showing another example of the template image selected in FIG. 2D, FIG. 4D is an illustrative view showing an example of the arrangement of the transparent area frame and the face frame, and FIG. FIG. 8F is an illustrative view showing another example of the above, (F) is an illustrative view showing another example of the composite image, and (G) is an illustrative view showing still another example of the composite image. 図1実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 12 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 1. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example.

符号の説明Explanation of symbols

10 …ディジタルカメラ
14 …撮像装置
16 …カメラ処理回路
20 …SDRAM
24 …LCDモニタ
26 …JPEGコーデック
30 …記録媒体
32 …CPU
34 …傾斜センサ
36 …フラッシュメモリ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 14 ... Imaging device 16 ... Camera processing circuit 20 ... SDRAM
24 ... LCD monitor 26 ... JPEG codec 30 ... Recording medium 32 ... CPU
34 ... Tilt sensor 36 ... Flash memory

Claims (18)

M個(M:2以上の整数)の既定画像の各々に設けられた透過エリアの属性を検出する第1検出手段、
撮影画像が有する特定物画像の属性を検出する第2検出手段、
前記第1検出手段によって検出されたM個の属性の各々と前記第2検出手段によって検出された属性との相違の小ささに相当する合成適合度を算出する算出手段、
前記M個の既定画像の1つを前記算出手段によって算出された合成適合度が高い方から順に指定する指定手段、および
前記指定手段によって指定された既定画像と前記撮影画像を合成する第1合成手段を備える、画像合成装置。
First detection means for detecting an attribute of a transparent area provided in each of M (M: an integer of 2 or more) predetermined images;
Second detection means for detecting an attribute of the specific object image included in the captured image;
Calculating means for calculating a combined fitness corresponding to a small difference between each of the M attributes detected by the first detecting means and the attributes detected by the second detecting means;
Designation means for designating one of the M default images in descending order of the composite fitness calculated by the calculation means, and first synthesis for synthesizing the captured image with the default image designated by the designation means An image composition device comprising means.
前記第1検出手段は前記透過エリアの位置を前記属性の1つとして検出する第1位置検出手段を含み、
前記第2検出手段は前記特定物画像の位置を前記属性の1つとして検出する第2位置検出手段を含み、
前記算出手段は前記第1位置検出手段によって検出された位置と前記第2位置検出手段によって検出された位置との相違が小さいほど前記合成適合度を高くする、請求項1記載の画像合成装置。
The first detection means includes first position detection means for detecting the position of the transparent area as one of the attributes,
The second detection means includes second position detection means for detecting the position of the specific object image as one of the attributes,
The image synthesis apparatus according to claim 1, wherein the calculation unit increases the combination suitability as a difference between the position detected by the first position detection unit and the position detected by the second position detection unit is small.
前記撮影画像を特定物が正立するように回転させる回転手段をさらに備え、
前記算出手段は前記回転手段によって回転された後の前記特定物画像の位置に注目する、請求項2記載の画像合成装置。
Rotating means for rotating the photographed image so that a specific object stands upright,
The image synthesizing apparatus according to claim 2, wherein the calculating unit focuses on a position of the specific object image after being rotated by the rotating unit.
前記M個の既定画像の各々は1または2以上の透過エリアを有し、
前記第1検出手段は前記1または2以上の透過エリアの各々のサイズを前記属性の他の1つとして検出する第1サイズ検出手段をさらに含み、
前記第1位置検出手段は前記第1サイズ検出手段によって検出されたサイズのうちサイズ条件を満足するサイズを有する透過エリアについて位置検出処理を実行する、請求項2または3記載の画像合成装置。
Each of the M default images has one or more transmissive areas,
The first detection means further includes first size detection means for detecting the size of each of the one or more transparent areas as another one of the attributes,
The image synthesizing apparatus according to claim 2 or 3, wherein the first position detecting unit executes a position detecting process on a transmissive area having a size that satisfies a size condition among the sizes detected by the first size detecting unit.
前記第2検出手段は前記特定物画像のサイズを前記属性の他の1つとして検出する第2サイズ検出手段をさらに含み、
前記サイズ条件は前記第2検出手段によって検出されたサイズとの相違が最も小さいという条件を含む、請求項4記載の画像合成装置。
The second detection means further includes second size detection means for detecting the size of the specific object image as another one of the attributes,
The image composition device according to claim 4, wherein the size condition includes a condition that a difference from the size detected by the second detection unit is the smallest.
N個(N:M以上の整数)の既定画像の中から時節設定を有する既定画像を抽出する抽出手段、および
前記抽出手段によって抽出された既定画像のうち前記撮影画像の日付に適合しない時節設定を有する既定画像を排除する排除手段をさらに備え、
前記N個の既定画像のうち前記排除手段の排除処理の後に残った既定画像が前記M個の既定画像に相当する、請求項1ないし5のいずれかに記載の画像合成装置。
Extraction means for extracting a default image having a time setting from N (N: integer greater than or equal to M) default images, and time setting that does not match the date of the photographed image among the default images extracted by the extraction means An exclusion means for eliminating the default image having
The image composition device according to any one of claims 1 to 5, wherein a predetermined image remaining after the exclusion processing of the exclusion unit among the N predetermined images corresponds to the M predetermined images.
前記指定手段は、時節設定を有する既定画像に前記合成適合度に従う順位を割り当てる第1割り当て手段、および時節設定を有しない既定画像に前記合成適合度に従いかつ前記第1割り当て手段によって割り当てられた順位よりも低い順位を割り当てる第2割り当て手段を含む、請求項6記載の画像合成装置。   The designation means assigns a rank according to the composite fitness to a default image having a time setting, and a rank assigned to the default image not having a time setting according to the synthesis fitness and by the first allocation means. The image synthesizing apparatus according to claim 6, further comprising a second assigning unit that assigns a lower rank. 前記指定手段は前記第1合成手段によって合成される既定画像を画像更新操作を受け付ける毎に更新する更新手段を含む、請求項1ないし7のいずれかに記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the specifying unit includes an updating unit that updates the default image synthesized by the first synthesizing unit every time an image updating operation is received. 前記第1合成手段は、前記特定物画像のサイズが前記透過エリアのサイズに近づくように前記撮影画像の倍率を調整する倍率調整手段、および前記透過エリアの位置が前記特定物画像の位置に近づくように合成位置を調整する位置調整手段を含む、請求項1ないし8のいずれかに記載の画像合成装置。   The first combining means adjusts the magnification of the captured image so that the size of the specific object image approaches the size of the transparent area, and the position of the transparent area approaches the position of the specific object image. The image synthesizing apparatus according to claim 1, further comprising position adjusting means for adjusting the synthesis position. 倍率補正操作に応答して前記撮影画像の倍率を補正する第1倍率補正手段、
位置補正操作に応答して合成位置を補正する第1位置補正手段、および
前記指定手段によって指定された既定画像と前記撮影画像を前記第1倍率補正手段および/または前記第1位置補正手段の補正結果を参照して再度合成する第2合成手段をさらに備える、請求項9記載の画像合成装置。
First magnification correction means for correcting the magnification of the captured image in response to a magnification correction operation;
A first position correction unit that corrects a composite position in response to a position correction operation; and a correction of the first magnification correction unit and / or the first position correction unit by using the predetermined image and the photographed image designated by the designation unit. The image synthesizing apparatus according to claim 9, further comprising second synthesizing means for synthesizing again with reference to the result.
前記第1倍率補正手段による倍率補正量を前記指定手段によって指定された既定画像上の透過エリアのサイズに基づいて正規化する倍率補正量正規化手段をさらに備え、
前記第1合成手段は前記指定手段によって指定された既定画像上の透過エリアのサイズと前記倍率補正量正規化手段によって正規化された倍率補正量とに基づいて前記撮影画像の倍率を補正する第2倍率補正手段をさらに含む、請求項10記載の画像合成装置。
A magnification correction amount normalizing unit for normalizing a magnification correction amount by the first magnification correcting unit based on a size of a transparent area on the default image designated by the designation unit;
The first synthesizing unit corrects the magnification of the photographed image based on the size of the transparent area on the default image designated by the designation unit and the magnification correction amount normalized by the magnification correction amount normalizing unit. The image composition apparatus according to claim 10, further comprising a two-magnification correction unit.
前記第1位置補正手段による位置補正量を前記指定手段によって指定された既定画像上の透過エリアのサイズに基づいて正規化する位置補正量正規化手段をさらに備え、
前記第1合成手段は前記指定手段によって指定された既定画像上の透過エリアのサイズと前記位置補正量正規化手段によって正規化された位置補正量とに基づいて合成位置を補正する第2位置補正手段をさらに含む、請求項10または11記載の画像合成装置。
A position correction amount normalizing unit that normalizes the position correction amount by the first position correcting unit based on the size of the transparent area on the default image specified by the specifying unit;
The first combining unit corrects the combined position based on the size of the transparent area on the default image specified by the specifying unit and the position correction amount normalized by the position correction amount normalizing unit. The image composition device according to claim 10 or 11, further comprising means.
前記第1合成手段によって合成された既定画像の外縁からはみ出した前記撮影画像の一部を切り取る切り取り手段をさらに備える、請求項1ないし12のいずれかに記載の画像合成装置。   The image synthesizing apparatus according to claim 1, further comprising a cutting unit that cuts out a part of the photographed image protruding from an outer edge of the predetermined image synthesized by the first synthesizing unit. 前記特定物画像は顔画像に相当する、請求項1ないし13のいずれかに記載の画像合成装置。   The image composition device according to claim 1, wherein the specific object image corresponds to a face image. 前記第1検出手段によって注目されるべき撮影画像を選択する画像選択操作を受け付ける受付手段、および
前記画像選択操作によって選択された撮影画像が前記特定物画像を有しないとき警告を発生する発生手段をさらに備える、請求項1ないし14のいずれかに記載の画像合成装置。
Receiving means for receiving an image selection operation for selecting a photographed image to be noticed by the first detection means; and generating means for generating a warning when the photographed image selected by the image selection operation does not have the specific object image. The image composition device according to claim 1, further comprising:
前記第1合成手段は前記算出手段によって算出された合成適合度が増大する態様で合成処理を実行する、請求項1ないし15のいずれかに記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the first synthesizing unit executes the synthesizing process in such a manner that the synthesis fitness calculated by the calculating unit increases. 画像合成装置のプロセサに、
M個(M:2以上の整数)の既定画像の各々に設けられた透過エリアの属性を検出する第1検出ステップ、
撮影画像が有する特定物画像の属性を検出する第2検出ステップ、
前記第1検出ステップによって検出されたM個の属性の各々と前記第2検出ステップによって検出された属性との相違の小ささに相当する合成適合度を算出する算出ステップ、
前記M個の既定画像の1つを前記算出ステップによって算出された合成適合度が高い方から順に指定する指定ステップ、および
前記指定ステップによって指定された既定画像と前記撮影画像を合成する合成ステップを実行させるための、画像合成プログラム。
In the processor of the image synthesizer,
A first detection step of detecting an attribute of a transparent area provided in each of M (M: an integer of 2 or more) predetermined images;
A second detection step of detecting an attribute of the specific object image included in the captured image;
A calculation step of calculating a composite fitness corresponding to a small difference between each of the M attributes detected by the first detection step and the attribute detected by the second detection step;
A designation step for designating one of the M default images in descending order of the synthesis fitness calculated by the calculation step; and a synthesis step for synthesizing the captured image with the default image designated by the designation step. An image composition program to be executed.
画像合成装置によって実行される画像合成方法であって、
M個(M:2以上の整数)の既定画像の各々に設けられた透過エリアの属性を検出する第1検出ステップ、
撮影画像が有する特定物画像の属性を検出する第2検出ステップ、
前記第1検出ステップによって検出されたM個の属性の各々と前記第2検出ステップによって検出された属性との相違の小ささに相当する合成適合度を算出する算出ステップ、
前記M個の既定画像の1つを前記算出ステップによって算出された合成適合度が高い方から順に指定する指定ステップ、および
前記指定ステップによって指定された既定画像と前記撮影画像を合成する合成ステップを備える、画像合成方法。
An image composition method executed by an image composition device,
A first detection step of detecting an attribute of a transmission area provided in each of M (M: an integer of 2 or more) predetermined images;
A second detection step of detecting an attribute of the specific object image included in the captured image;
A calculation step of calculating a composite fitness corresponding to a small difference between each of the M attributes detected by the first detection step and the attribute detected by the second detection step;
A designation step for designating one of the M default images in descending order of the synthesis fitness calculated by the calculation step; and a synthesis step for synthesizing the captured image with the default image designated by the designation step. An image composition method.
JP2007309641A 2007-11-30 2007-11-30 Image composing device Pending JP2009135720A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007309641A JP2009135720A (en) 2007-11-30 2007-11-30 Image composing device
US12/324,356 US20090142001A1 (en) 2007-11-30 2008-11-26 Image composing apparatus
CNA2008101819325A CN101448064A (en) 2007-11-30 2008-11-28 Image composing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007309641A JP2009135720A (en) 2007-11-30 2007-11-30 Image composing device

Publications (1)

Publication Number Publication Date
JP2009135720A true JP2009135720A (en) 2009-06-18

Family

ID=40743443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007309641A Pending JP2009135720A (en) 2007-11-30 2007-11-30 Image composing device

Country Status (2)

Country Link
JP (1) JP2009135720A (en)
CN (1) CN101448064A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046667A (en) * 2014-08-22 2016-04-04 ブラザー工業株式会社 Image processing system
JP2019526861A (en) * 2016-08-22 2019-09-19 スノー コーポレーション Message sharing method for sharing image data reflecting each user's state via chat room, and computer program for executing the method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718439B (en) * 2016-03-04 2018-10-26 广州微印信息科技有限公司 A kind of photo automatic composing method based on recognition of face

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263522A (en) * 1995-03-24 1996-10-11 Dainippon Screen Mfg Co Ltd Image retrieving method
JP2001346031A (en) * 2000-06-05 2001-12-14 Fuji Photo Film Co Ltd Method and device for compositing image
JP2003333319A (en) * 2002-05-16 2003-11-21 Fuji Photo Film Co Ltd Attached image extracting apparatus and method for image composition
JP2006185058A (en) * 2004-12-27 2006-07-13 Noritsu Koki Co Ltd Image processor
JP2006287917A (en) * 2005-03-08 2006-10-19 Fuji Photo Film Co Ltd Image output apparatus, image output method and image output program
JP2006338592A (en) * 2005-06-06 2006-12-14 Olympus Imaging Corp Template selection program, template selection device, template selection method and recording medium
JP2007026422A (en) * 2005-06-13 2007-02-01 Fujifilm Corp Album creating apparatus, album creating method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263522A (en) * 1995-03-24 1996-10-11 Dainippon Screen Mfg Co Ltd Image retrieving method
JP2001346031A (en) * 2000-06-05 2001-12-14 Fuji Photo Film Co Ltd Method and device for compositing image
JP2003333319A (en) * 2002-05-16 2003-11-21 Fuji Photo Film Co Ltd Attached image extracting apparatus and method for image composition
JP2006185058A (en) * 2004-12-27 2006-07-13 Noritsu Koki Co Ltd Image processor
JP2006287917A (en) * 2005-03-08 2006-10-19 Fuji Photo Film Co Ltd Image output apparatus, image output method and image output program
JP2006338592A (en) * 2005-06-06 2006-12-14 Olympus Imaging Corp Template selection program, template selection device, template selection method and recording medium
JP2007026422A (en) * 2005-06-13 2007-02-01 Fujifilm Corp Album creating apparatus, album creating method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046667A (en) * 2014-08-22 2016-04-04 ブラザー工業株式会社 Image processing system
JP2019526861A (en) * 2016-08-22 2019-09-19 スノー コーポレーション Message sharing method for sharing image data reflecting each user's state via chat room, and computer program for executing the method
US11025571B2 (en) 2016-08-22 2021-06-01 Snow Corporation Message sharing method for sharing image data reflecting status of each user via chat room and computer program for executing same method

Also Published As

Publication number Publication date
CN101448064A (en) 2009-06-03

Similar Documents

Publication Publication Date Title
US20090142001A1 (en) Image composing apparatus
JP3863327B2 (en) Digital still camera with composition advice function and operation control method thereof
JP4861952B2 (en) Image processing apparatus and imaging apparatus
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
JP2012242821A (en) Display image generation method
JP4994204B2 (en) Image synthesizer
JP4854786B2 (en) Imaging device, imaging method, and integrated circuit
JP2009135720A (en) Image composing device
JP5332493B2 (en) Camera, image sharing server, and image sharing program
JP5318863B2 (en) Imaging device, imaging method, and integrated circuit
JP2010239464A (en) Image composition device, image reproduction device, and program
JP2007267309A (en) Electronic camera
KR102321646B1 (en) Method for editing photo and server implementing thereof
JP2013115444A (en) Electronic camera
JP2009118084A (en) Digital camera
JP5106333B2 (en) Image processing apparatus, image processing program, and image processing method
US12244845B2 (en) Image processing apparatus capable of converting image file such that all annotation information can be used, control method therefor, and storage medium
WO2013157412A1 (en) Image processing device
JP2007288409A (en) Imaging apparatus with image data classifying function and program
CN119678481A (en) Image generation method, image file creation method, and image generation device
JP6815806B2 (en) Image processing equipment, image processing methods and computer programs
CN119698844A (en) Image file creation method and image file creation device
CN119678485A (en) Image file creation method and image file creation device
JP5725821B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5088037B2 (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111213