[go: up one dir, main page]

JP2006119844A - Image processor, image processing method and image processing program - Google Patents

Image processor, image processing method and image processing program Download PDF

Info

Publication number
JP2006119844A
JP2006119844A JP2004305990A JP2004305990A JP2006119844A JP 2006119844 A JP2006119844 A JP 2006119844A JP 2004305990 A JP2004305990 A JP 2004305990A JP 2004305990 A JP2004305990 A JP 2004305990A JP 2006119844 A JP2006119844 A JP 2006119844A
Authority
JP
Japan
Prior art keywords
image
face
unit
template
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004305990A
Other languages
Japanese (ja)
Inventor
Akira Suzuki
亮 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004305990A priority Critical patent/JP2006119844A/en
Priority to US11/247,194 priority patent/US20060078173A1/en
Publication of JP2006119844A publication Critical patent/JP2006119844A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device, method and program for image processing, capable of selecting a facial image most suitable for viewing for every person and synthesizing it to a "background" template image. <P>SOLUTION: An eye opening and closing detection part specifies eye areas where the eyes are present in a plurality of facial images of the same person. The eye areas can be determined based on the relative positional relation between a facial contour and the eyes. The eye opening and closing detection part detects vertical black pixel numbers in the eye areas of the plurality of facial images, respectively. The eye opening and closing detection part specifies a facial image with the closed eyes based on the vertical black pixcel number in each eye area E. A face selection part 13 selects one facial image except the facial image with the closed eyes from facial images classified by person as a best shot facial image. A synthesis part 15 arranges the best shot facial image fn* in a synthesis area Pn, and synthesizes the facial image fn* with a template image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は画像処理装置、画像処理方法及び画像処理プログラムに係り、特に人物の顔部分を抽出してテンプレート画像の所定位置に合成する装置、方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly, to an apparatus, a method, and a program for extracting a face portion of a person and synthesizing it at a predetermined position of a template image.

従来、人物画像の顔部分の画像である顔画像と背景画像や服装画像を容易に合成するための技術が様々開発されている。例えば特許文献1によると、背景画像や服装画像などに合成の基準となる2点を指定する一方、顔画像の頭髪領域と顔輪郭の内部を合成に用いる領域とし、顔画像の合成の基準となる2点を指定する。顔画像の合成の基準となる2点は、あごの先端を通る水平線上で、その2点を結ぶ線分の中点があごの先端に、長さが顔の横幅になるように指定する。そして、顔画像に指定された2点と背景画像などに指定された2点が重なるように、顔画像の合成に用いる領域をマッピングして肖像画像を生成する。
特開平10−222649号公報
Conventionally, various techniques for easily synthesizing a face image, which is an image of a face portion of a person image, a background image, and a clothing image have been developed. For example, according to Patent Document 1, while specifying two points as a reference for synthesis in a background image, a clothing image, and the like, the hair region of the face image and the inside of the face outline are used as a region for synthesis, Specify two points. Two points serving as a reference for the synthesis of the face image are specified so that the midpoint of the line connecting the two points is on the tip of the jaw on the horizontal line passing through the tip of the jaw and the length is the width of the face. Then, the portrait image is generated by mapping the region used for the synthesis of the face image so that the two points designated for the face image and the two points designated for the background image overlap.
Japanese Patent Laid-Open No. 10-222649

ところで最近、人物キャラクタの顔部分がくり抜かれたように空白にしておき、その空白部分に別途複数の人物を撮影した画像から抽出された顔画像をはめ込んで合成するいわゆる「かきわり」状のテンプレート画像が開発されている。特許文献1の技術では、顔画像の抽出元となる撮影画像の中に記録される人物が複数である場合、どの人物の顔画像を合成するのかを全く選択することができない。つまり、集合写真から仲の良い人物など特定の人物の顔だけをテンプレートに合成したいというニーズには応えることができない。本発明はこのような問題点に鑑みてなされたもので、所望の顔画像を選択して「かきわり」状のテンプレート画像に合成できる画像処理装置、方法及びプログラムを提供することを目的とする。   By the way, recently, the character character's face part is blanked out, and a so-called “skin” -like template is created by inserting a face image extracted from an image obtained by photographing a plurality of persons into the blank part. Images are being developed. In the technique of Patent Document 1, when there are a plurality of persons recorded in a photographed image from which a face image is extracted, it is impossible to select which person's face image is to be combined. In other words, it cannot meet the need to compose only the face of a specific person such as a good friend from a group photo into a template. The present invention has been made in view of such problems, and an object of the present invention is to provide an image processing apparatus, method, and program capable of selecting a desired face image and synthesizing it into a “crisp” template image. .

上述の課題を解決するため、本願発明に係る画像処理装置は、人物の顔部分を記録した撮影画像を入力する撮影画像入力部と、人物の顔部分を検出する検出部と、検出された顔部分から所望の顔部分の選択を受け付ける顔選択部と、選択された顔部分の画像である顔画像を撮影画像から抽出する抽出部と、抽出された顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力部と、抽出された顔画像をテンプレート画像の合成領域に配置し、合成領域に配置された顔画像とテンプレート画像とを合成した合成画像を作成する合成部と、を備える。   In order to solve the above-described problems, an image processing apparatus according to the present invention includes a captured image input unit that inputs a captured image in which a person's face portion is recorded, a detection unit that detects a person's face portion, and a detected face A face selection unit that accepts selection of a desired face part from a part, an extraction part that extracts a face image that is an image of the selected face part from a photographed image, and a synthesis that is a blank area in which the extracted face image is placed A template image input unit for inputting a template image having a region, and a composition in which the extracted face image is arranged in a template image synthesis region, and a composite image is created by synthesizing the face image arranged in the synthesis region and the template image. A section.

この発明によると、デジタルカメラや記録媒体などから入力された撮影画像から検出された顔部分から任意の顔部分の選択を受け付け、選択された顔部分の画像である顔画像を抽出し、「かきわり」状のテンプレート画像の空白部分に合成した合成画像を作成できる。即ち、集合写真から自分の仲間など特定の人物の顔画像だけがテンプレート画像に合成された面白い画像を提供することができる。   According to the present invention, selection of an arbitrary face part from a face part detected from a photographed image input from a digital camera or a recording medium is accepted, and a face image that is an image of the selected face part is extracted. It is possible to create a composite image that is synthesized with the blank portion of the template image in the form of a “blade”. That is, it is possible to provide an interesting image in which only a face image of a specific person such as his / her friend is combined with a template image from the group photo.

顔選択部はネットワークを介して接続された端末から所望の顔部分の選択を受け付けてもよい。あるいは、操作入力を受け付ける操作部をさらに備え、顔選択部は操作部から所望の顔部分の選択を受け付けてもよい。   The face selection unit may accept selection of a desired face portion from a terminal connected via a network. Alternatively, an operation unit that receives an operation input may be further provided, and the face selection unit may receive a selection of a desired face portion from the operation unit.

入力された撮影画像の中から所望の撮影画像の選択を受け付ける撮影画像選択部をさらに備え、検出部は選択された撮影画像の中から顔部分を検出してもよい。   A captured image selection unit that accepts selection of a desired captured image from the input captured images may be further included, and the detection unit may detect a face portion from the selected captured image.

合成画像を所定の装置に出力する出力部をさらに備えてもよい。   You may further provide the output part which outputs a synthesized image to a predetermined | prescribed apparatus.

所定の装置はネットワークを介して接続された端末である。あるいは、所定の装置はプリンタ又はメディアライタである。   The predetermined device is a terminal connected via a network. Alternatively, the predetermined device is a printer or a media writer.

また、上述の課題を解決するため、本願発明に係る画像処理方法は、人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分を検出する検出ステップと、検出された顔部分から所望の顔部分の選択を受け付ける顔選択ステップと、選択された顔部分の画像である顔画像を撮影画像から抽出する抽出ステップと、抽出された顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、抽出された顔画像をテンプレート画像の合成領域に配置し、合成領域に配置された顔画像とテンプレート画像とを合成した合成画像を作成する合成ステップと、を含む。   In order to solve the above-described problem, an image processing method according to the present invention includes a captured image input step for inputting a captured image in which a human face portion is recorded, a detection step for detecting a human face portion, and a detection step. A face selection step for accepting selection of a desired face portion from the selected face portion, an extraction step for extracting a face image, which is an image of the selected face portion, from a photographed image, and a blank area for arranging the extracted face image A template image input step for inputting a template image having a certain synthesis area, and the extracted face image is arranged in the synthesis area of the template image, and a synthesized image is created by synthesizing the face image arranged in the synthesis area and the template image. And a synthesizing step.

この画像処理方法は、上述の画像処理装置と同様の作用効果を奏する。   This image processing method has the same effects as the above-described image processing apparatus.

また、上述の課題を解決するため、本願発明に係る画像処理プログラムは、人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分を検出する検出ステップと、検出された顔部分から所望の顔部分の選択を受け付ける顔選択ステップと、選択された顔部分の画像である顔画像を撮影画像から抽出する抽出ステップと、抽出された顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、抽出された顔画像をテンプレート画像の合成領域に配置し、合成領域に配置された顔画像とテンプレート画像とを合成した合成画像を作成する合成ステップと、をコンピュータに実行させる。   In order to solve the above-described problems, an image processing program according to the present invention detects a photographed image input step for inputting a photographed image in which a person's face is recorded, a detection step for detecting a person's face. A face selection step for accepting selection of a desired face portion from the selected face portion, an extraction step for extracting a face image, which is an image of the selected face portion, from a photographed image, and a blank area for arranging the extracted face image A template image input step for inputting a template image having a certain synthesis area, and the extracted face image is arranged in the synthesis area of the template image, and a synthesized image is created by synthesizing the face image arranged in the synthesis area and the template image. And a synthesizing step to be executed by a computer.

この画像処理プログラムは、上述の画像処理装置と同様の作用効果を奏する。この画像処理プログラムは、CD−ROM、DVD、MOその他のコンピュータ読み取り可能な記録媒体に記録して提供してもよい。   This image processing program has the same effects as the above-described image processing apparatus. The image processing program may be provided by being recorded on a CD-ROM, DVD, MO, or other computer-readable recording medium.

この発明によると、デジタルカメラや記録媒体などから入力された撮影画像から検出された顔部分から任意の顔部分の選択を受け付け、選択された顔部分の画像である顔画像を抽出し、「かきわり」状のテンプレート画像の空白部分に合成した合成画像を作成できる。即ち、集合写真から自分の仲間など特定の人物の顔画像だけがテンプレート画像に合成された面白い画像を提供することができる。   According to the present invention, selection of an arbitrary face part from a face part detected from a photographed image input from a digital camera or a recording medium is accepted, and a face image that is an image of the selected face part is extracted. It is possible to create a composite image that is synthesized with the blank portion of the template image in the form of a “blade”. That is, it is possible to provide an interesting image in which only a face image of a specific person such as his / her friend is combined with a template image from the group photo.

以下、添付した図面を参照し本発明の好ましい実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
[概略構成]
図1は、本発明の好ましい第1の実施形態に係る画像処理装置100及び該装置を利用した合成写真提供システムの概略機能構成図である。合成写真提供システムは、画像処理装置100、パソコン200及び店頭端末300がインターネットなどのネットワーク400を介して互いに接続されることで構成される。この図では、パソコン200及び店頭端末300はそれぞれ1つずつしか図示されていないが、実際は複数のパソコン200及び店頭端末300が画像処理装置100に接続される。この場合、画像処理装置100は、パソコン200あるいは店頭端末300の各々を固有の識別情報で識別する。即ち、パソコン200あるいは店頭端末300は、ネットワークを介してパラレルに画像処理装置100に接続された端末である。以下これらの端末の識別情報を端末IDで表す。画像処理装置100は端末からの接続を端末IDに加えパスワードで認証し、認証の完了した端末のみ接続するようにしてもよい。端末IDは、ユーザによってパソコン200及び店頭端末300の操作部304から入力される情報であってもよいし、ネットワークアドレスなど端末に予め割り当てられた固有の情報であってもよい。
<First Embodiment>
[Schematic configuration]
FIG. 1 is a schematic functional configuration diagram of an image processing apparatus 100 and a composite photograph providing system using the apparatus according to a preferred first embodiment of the present invention. The composite photograph providing system is configured by connecting the image processing apparatus 100, the personal computer 200, and the storefront terminal 300 to each other via a network 400 such as the Internet. In this figure, only one personal computer 200 and one store terminal 300 are shown, but actually, a plurality of personal computers 200 and store terminals 300 are connected to the image processing apparatus 100. In this case, the image processing apparatus 100 identifies each of the personal computer 200 or the storefront terminal 300 with unique identification information. That is, the personal computer 200 or the storefront terminal 300 is a terminal connected to the image processing apparatus 100 in parallel via a network. Hereinafter, identification information of these terminals is represented by terminal IDs. The image processing apparatus 100 may authenticate the connection from the terminal with a password in addition to the terminal ID, and connect only the terminal for which authentication has been completed. The terminal ID may be information input by the user from the personal computer 200 and the operation unit 304 of the storefront terminal 300, or may be unique information previously assigned to the terminal such as a network address.

画像処理装置100は、CPUやワンチップマイコンなどによって構成される処理部1、半導体メモリで構成される記憶部2、ネットワーク400に処理部1を接続するネットワークI/F3、メディアリーダやUSBポートなど各種データ入力装置で構成されるテンプレート入力部4、及びハードディスクなどの各種大容量記憶装置で構成される撮影画像DB5を有している。処理部1は、記憶部2に記憶されたプログラムである撮影画像入力部10、撮影画像選択部11、顔検出部12、顔選択部13、顔抽出部14、合成部15及び出力部16を適宜記憶部2から読み出して実行する。撮影画像入力部10は、デジタルスチルカメラやフィルムスキャナなどによってデジタル記録された撮影画像を、パソコン200あるいは店頭端末300からネットワーク400及びネットワークI/F3を介して入力する。撮影画像入力部1は、FTP(File Transfer Protocol)サーバのファイルアップロード機能などで実現できる。入力された撮影画像はその画像を一意に識別する情報である画像IDと対応づけられて撮影画像DB5に記憶される。   The image processing apparatus 100 includes a processing unit 1 configured by a CPU, a one-chip microcomputer, a storage unit 2 configured by a semiconductor memory, a network I / F 3 that connects the processing unit 1 to a network 400, a media reader, a USB port, and the like It has a template input unit 4 composed of various data input devices and a photographed image DB 5 composed of various mass storage devices such as a hard disk. The processing unit 1 includes a captured image input unit 10, a captured image selection unit 11, a face detection unit 12, a face selection unit 13, a face extraction unit 14, a synthesis unit 15, and an output unit 16 that are programs stored in the storage unit 2. Read from the storage unit 2 as appropriate and execute. The captured image input unit 10 inputs a captured image digitally recorded by a digital still camera, a film scanner, or the like from the personal computer 200 or the store terminal 300 via the network 400 and the network I / F 3. The captured image input unit 1 can be realized by a file upload function of an FTP (File Transfer Protocol) server. The input captured image is stored in the captured image DB 5 in association with an image ID that is information for uniquely identifying the image.

図2は撮影画像DB5に記憶される情報の概念説明図である。この図に示すように、撮影画像DB5には画像IDと撮影画像とが対応づけられて記憶される。画像IDは一意的な情報であれば何でもよく、撮影画像のファイル名が一意的であればこれを画像IDとしてもよい。   FIG. 2 is a conceptual explanatory diagram of information stored in the photographed image DB 5. As shown in this figure, the captured image DB 5 stores an image ID and a captured image in association with each other. The image ID may be anything as long as it is unique information, and may be used as the image ID if the file name of the photographed image is unique.

撮影画像選択部11は、撮影画像DB5に記憶された撮影画像から所望の撮影画像の選択をパソコン200あるいは店頭端末300から受け付ける。選択された撮影画像は記憶部2に記憶される。なお、パソコン200あるいは店頭端末300を操作するユーザに応じて選択できる画像を制限できるようにしてもよい。この場合、図3に示すように、撮影画像DB5には、ユーザの識別情報であるユーザIDと画像IDと撮影画像とが対応づけられて記憶され、撮影画像選択部11はパソコン200あるいは店頭端末300を操作するユーザのユーザIDに対応する撮影画像の中から所望の撮影画像を選択させる。ユーザIDと画像IDとの対応は、学校のクラス、イベントの参加者、ツアー旅行の参加者などあるグループに属するユーザ(例えば図3ではユーザID「u001」及び「u002」)に割り当てられたユーザIDには同一の画像IDを対応させるようにすれば(例えば図3では画像ID「I001」)、同一のグループの構成員が同一の撮影画像を選択できる。   The captured image selection unit 11 receives selection of a desired captured image from the captured image stored in the captured image DB 5 from the personal computer 200 or the store terminal 300. The selected photographed image is stored in the storage unit 2. It should be noted that the images that can be selected according to the user operating the personal computer 200 or the storefront terminal 300 may be limited. In this case, as shown in FIG. 3, the photographed image DB 5 stores a user ID, which is user identification information, an image ID, and a photographed image in association with each other. A desired photographed image is selected from the photographed images corresponding to the user ID of the user who operates 300. The correspondence between the user ID and the image ID is a user assigned to a user belonging to a certain group such as a school class, an event participant, or a tour trip participant (for example, user IDs “u001” and “u002” in FIG. 3). If the same image ID is made to correspond to the ID (for example, the image ID “I001” in FIG. 3), members of the same group can select the same captured image.

顔検出部12は、記憶部2に記憶された撮影画像から、公知の顔認識技術により人物の顔部分を検出する。撮影画像に複数の人物が記録されている場合は、複数の顔部分を個別に検出する。検出された顔部分は記憶部2に記憶される。   The face detection unit 12 detects a face portion of a person from a captured image stored in the storage unit 2 by a known face recognition technique. When a plurality of persons are recorded in the captured image, a plurality of face portions are individually detected. The detected face portion is stored in the storage unit 2.

顔選択部13は、検出された顔部分から所望の顔部分の選択をパソコン200あるいは店頭端末300から受け付ける。顔抽出部14は、顔選択部13が選択を受け付けた顔部分の画像である顔画像を撮影画像から抽出する。抽出された顔画像は記憶部2に記憶される。   The face selection unit 13 receives a selection of a desired face part from the detected face part from the personal computer 200 or the store terminal 300. The face extraction unit 14 extracts a face image, which is an image of a face part that has been selected by the face selection unit 13, from the captured image. The extracted face image is stored in the storage unit 2.

テンプレート入力部4は、メディアリーダやUSBポートなどで構成され、CD−Rなどからテンプレート画像の入力を受け付ける。図4に示すように、テンプレート画像は、顔画像を合成する「かきわり」状の空白領域である合成領域(この図ではPn:n=1〜3)を有している。合成領域の形状や数、テンプレート画像の図柄は図示したものに限定されない。   The template input unit 4 includes a media reader, a USB port, and the like, and accepts template image input from a CD-R or the like. As shown in FIG. 4, the template image has a synthesis area (Pn: n = 1 to 3 in this figure) that is a “clear” -shaped blank area that synthesizes the face image. The shape and number of composite areas and the design of the template image are not limited to those shown in the figure.

合成部15は、記憶部2の顔画像をテンプレート画像の合成領域に配置して合成した合成画像を作成する。作成された合成画像は、記憶部2に記憶されてもよいし、撮影画像及び顔部分を選択したパソコン200あるいは店頭端末300を識別するユーザIDに対応づけられて撮影画像DB5に記憶してもよい。出力部16は、作成された合成画像を、ネットワーク400を介してパソコン200あるいは店頭端末300に送出する。   The synthesis unit 15 creates a synthesized image by arranging the face image stored in the storage unit 2 in the template image synthesis area. The created composite image may be stored in the storage unit 2 or may be stored in the captured image DB 5 in association with the user ID for identifying the personal computer 200 or the store terminal 300 that has selected the captured image and the face portion. Good. The output unit 16 sends the created composite image to the personal computer 200 or the store terminal 300 via the network 400.

店頭端末300は、撮影画像あるいは合成画像のプリント注文を有償で受け付けてプリントを行う端末であり、出力部16から送出された合成画像や撮影画像を印刷するプリンタ301、合成画像をCD−Rなどの所定の記憶媒体に書き込むメディアライタ302、液晶ディスプレイなどで構成された表示部303、タッチパネルやポインティングデバイスなどで構成された操作部304、プリント注文料金の現金清算を行うコインマシン305、CD−ROMやコンパクトフラッシュなどの各種記録媒体から撮影画像を読み出すメディアリーダ306などを有している。パソコン200も同様にメディアライタ302、表示部303、操作部304、メディアリーダ304などを有している。合成画像のプリントを現金で販売するには、店頭端末300のみから撮影画像の選択及び顔部分の選択を行えるようにし、パソコン200からは撮影画像の入力のみを行えるようにしてもよい。また、図示しないが、画像処理装置100あるいはパソコン200は、合成画像を印刷するプリンタ301と接続されていてもよいし、合成画像を所定の記憶媒体に記憶するメディアライタ302を有していてもよい。   The store terminal 300 is a terminal that receives a print order of a photographed image or a composite image for a fee, and prints it. The printer 301 that prints the composite image or the photographed image sent from the output unit 16, the composite image as a CD-R, or the like. A media writer 302 that writes to a predetermined storage medium, a display unit 303 configured by a liquid crystal display, an operation unit 304 configured by a touch panel, a pointing device, etc., a coin machine 305 that performs cash settlement of a print order fee, a CD-ROM And a media reader 306 for reading a photographed image from various recording media such as a compact flash or the like. Similarly, the personal computer 200 includes a media writer 302, a display unit 303, an operation unit 304, a media reader 304, and the like. In order to sell the print of the composite image in cash, the photographed image and the face portion can be selected only from the store terminal 300, and only the photographed image can be input from the personal computer 200. Although not shown, the image processing apparatus 100 or the personal computer 200 may be connected to a printer 301 that prints a composite image, or may include a media writer 302 that stores the composite image in a predetermined storage medium. Good.

[処理の流れ]
次に、図5のフローチャートに基づき、画像処理装置100の実行する合成画像提供処理の流れを説明する。
[Process flow]
Next, the flow of the composite image providing process executed by the image processing apparatus 100 will be described based on the flowchart of FIG.

S1では、撮影画像入力部10はパソコン200あるいは店頭端末300のメディアリーダ306からネットワーク400を介して撮影画像を入力する。図6は撮影画像入力部10に入力される撮影画像の一例である。撮影画像には、複数の人物Fn(ここではn=1〜6)が団体集合写真として記録されている。入力する撮影画像の被写体は複数の人物を含んでいる以外特に限定されない。撮影画像入力部10は、入力された撮影画像に一意的な画像IDを付与し、これと撮影画像を対応づけて撮影画像DB5に記憶する。   In S <b> 1, the captured image input unit 10 inputs a captured image via the network 400 from the personal computer 200 or the media reader 306 of the storefront terminal 300. FIG. 6 is an example of a captured image input to the captured image input unit 10. In the photographed image, a plurality of persons Fn (here, n = 1 to 6) are recorded as a group photo. The subject of the captured image to be input is not particularly limited except that it includes a plurality of persons. The captured image input unit 10 assigns a unique image ID to the input captured image, and associates this with the captured image and stores it in the captured image DB 5.

S2では、撮影画像選択部11は、撮影画像DB5に記憶された撮影画像から所望の撮影画像の選択をパソコン200あるいは店頭端末300の操作部304から受け付ける。なお、撮影画像を入力するパソコン200あるいは店頭端末300と、撮影画像を選択するパソコン200あるいは店頭端末300とは無関係であってよい。ただし、上述のように、撮影画像を選択しようとするパソコン200あるいは店頭端末300を使用するユーザに割り当てられたユーザIDに対応する撮影画像の中から所望の撮影画像を選択させるという制限を課すこともできる。   In S <b> 2, the photographed image selection unit 11 receives selection of a desired photographed image from the photographed images stored in the photographed image DB 5 from the personal computer 200 or the operation unit 304 of the store terminal 300. Note that the personal computer 200 or the storefront terminal 300 for inputting a captured image and the personal computer 200 or the storefront terminal 300 for selecting a captured image may be irrelevant. However, as described above, there is a restriction that a desired photographed image is selected from photographed images corresponding to the user ID assigned to the user who uses the personal computer 200 or the storefront terminal 300 to select the photographed image. You can also.

S3では、顔検出部12は、選択された撮影画像から、人物の顔部分を検出する。図6では、6人の人物F1〜F6の顔部分f1〜f6が検出されている。顔部分の検出結果は出力部16がWebページなどパソコン200や店頭端末300で閲覧可能なデータに変換してパソコン200や店頭端末300に送出し、表示部303に表示される。   In S <b> 3, the face detection unit 12 detects a human face portion from the selected captured image. In FIG. 6, face portions f1 to f6 of six persons F1 to F6 are detected. The detection result of the face portion is converted by the output unit 16 into data that can be viewed on the personal computer 200 or the store terminal 300 such as a Web page, and is sent to the personal computer 200 or the store terminal 300 and displayed on the display unit 303.

S4では、顔選択部13は、検出された顔部分から所望の顔部分の選択をパソコン200あるいは店頭端末300の操作部304から受け付ける。選択結果は表示部303に表示される。図6では、顔部分f1、f5、f6が選択されている。選択された顔部分の周辺には、それぞれマーカーX1、X5、X6が表示されており、これによりどの顔部分が選択されているかをパソコン200あるいは店頭端末300の表示部303で確認できる。   In S <b> 4, the face selection unit 13 receives selection of a desired face part from the detected face part from the personal computer 200 or the operation unit 304 of the storefront terminal 300. The selection result is displayed on the display unit 303. In FIG. 6, the face portions f1, f5, and f6 are selected. Markers X 1, X 5, and X 6 are displayed around the selected face portion, so that it can be confirmed on the display unit 303 of the personal computer 200 or the store terminal 300 which face portion is selected.

S5では、顔抽出部14は、顔選択部13が選択を受け付けた顔部分の画像である顔画像を撮影画像から抽出(トリミング)する。   In S <b> 5, the face extraction unit 14 extracts (trims) a face image, which is an image of the face part that is selected by the face selection unit 13, from the captured image.

S6では、抽出された顔画像をテンプレート画像の合成領域に配置して合成する。なお、どの顔画像をどの合成領域に配置するかは任意であり、ランダムに配置してもよいし、パソコン200や店頭端末300の操作部304から指定できるようにしてもよい。例えば、図7に示すように、操作部304により選択した顔部分を所望の合成位置までドラッグアンドドロップすることで顔画像の配置位置を指定できるようにしてもよい。図8は、合成領域P1〜P3にそれぞれ顔部分f1、f5、f6の顔画像が配置されて合成された状態を概念的に示している。   In S6, the extracted face image is placed in the template image combining region and combined. Note that which face image is arranged in which composition area is arbitrary, and may be arranged randomly, or may be designated from the operation unit 304 of the personal computer 200 or the store terminal 300. For example, as shown in FIG. 7, the face image layout position may be specified by dragging and dropping the face portion selected by the operation unit 304 to a desired composition position. FIG. 8 conceptually shows a state in which the face images of the face portions f1, f5, and f6 are arranged and combined in the combining regions P1 to P3, respectively.

S7では、出力部16は、作成された合成画像を、ネットワーク400を介してパソコン200あるいは店頭端末300に送出する。店頭端末300は、合成画像のプリント料金をコインマシン305で清算すると、出力部16から送出された合成画像をプリンタ301で印刷する。撮影画像入力部10に入力された撮影画像も合わせてプリンタ301で印刷し、撮影画像と合成画像をセットで提供してもよい。合成画像の印刷と同時あるいは別の時点でメディアライタ302にセットされたCD−Rなどの各種記録媒体に出力部16から送出された合成画像を記録してもよい。   In S <b> 7, the output unit 16 sends the created composite image to the personal computer 200 or the storefront terminal 300 via the network 400. The store terminal 300 prints the composite image sent from the output unit 16 with the printer 301 when the coin machine 305 settles the print charge of the composite image. The captured image input to the captured image input unit 10 may also be printed by the printer 301, and the captured image and the composite image may be provided as a set. The composite image sent from the output unit 16 may be recorded on various recording media such as a CD-R set in the media writer 302 at the same time as printing the composite image or at another time.

なお、上述のステップS1〜7を処理部1に実行させるプログラム、即ち処理部1を撮影画像入力部10、撮影画像選択部11、顔検出部12、顔選択部13、顔抽出部14、合成部15及び出力部16として機能させるプログラムは、記憶部2に記憶されている。このプログラムはCD−ROMなどの各種コンピュータ読み取り可能な記録媒体に記録した上で有償・無償で提供してもよいし、ネットワーク経由で提供してもよい。   A program for causing the processing unit 1 to execute the above-described steps S1 to 7, that is, the processing unit 1 is the captured image input unit 10, the captured image selection unit 11, the face detection unit 12, the face selection unit 13, the face extraction unit 14, and the synthesis. Programs that function as the unit 15 and the output unit 16 are stored in the storage unit 2. The program may be recorded on various computer-readable recording media such as a CD-ROM, and may be provided free of charge or via a network.

以上説明した通り、パソコン200あるいは店頭端末300から任意の撮影画像を入力して撮影画像DB5に蓄え、この撮影画像から任意の撮影画像の選択を受け付けて選択された撮影画像から顔部分を検出し、検出された顔部分から所望の顔部分の選択を受け付け、選択された顔部分の画像を抽出して「かきわり」状のテンプレート画像の空白部分に合成した合成画像を作成し、パソコン200あるいは店頭端末300に送出することができる。即ち、集合写真から自分の仲間など特定の人物の顔画像だけがテンプレート画像に合成された面白い画像を提供することができる。   As described above, an arbitrary photographed image is input from the personal computer 200 or the storefront terminal 300 and stored in the photographed image DB 5. The selection of an arbitrary photographed image is accepted from the photographed image and a face portion is detected from the selected photographed image. Accepting selection of a desired face portion from the detected face portion, extracting an image of the selected face portion and creating a composite image synthesized with a blank portion of a “crack” -shaped template image; It can be sent to the storefront terminal 300. That is, it is possible to provide an interesting image in which only a face image of a specific person such as his / her friend is combined with a template image from the group photo.

<第2実施形態>
画像処理装置100は、店頭端末300に包含させてもよい。この場合、図9に示すように、本実施形態に係る店頭端末300は、第1実施形態の画像処理装置100の出力部16に、プリンタ301及びメディアライタ302が接続された構成を有し、合成画像がネットワークを介さず直接プリンタ301又はメディアライタ302に出力される。また、本実施形態に係る店頭端末300は、第1実施形態の画像処理装置100の撮影画像入力部10に、メディアリーダ306が接続された構成を有し、撮影画像がネットワークを介さず直接撮影画像入力部10に入力される。また、本実施形態に係る店頭端末300は、第1実施形態の画像処理装置100の処理部1に表示部303、操作部304及びコインマシン305が接続されており、各部の機能及び処理部1の実行する処理は第1実施形態と同様である。店頭端末300は、ネットワークI/F3を有していてもよいし、なくてもよい。この店頭端末300は、ネットワーク400を介さずスタンドアロンで顔部分の選択及び合成画像の提供を行うことができる。
Second Embodiment
The image processing apparatus 100 may be included in the store terminal 300. In this case, as shown in FIG. 9, the storefront terminal 300 according to the present embodiment has a configuration in which a printer 301 and a media writer 302 are connected to the output unit 16 of the image processing apparatus 100 of the first embodiment. The composite image is directly output to the printer 301 or the media writer 302 without going through the network. The store terminal 300 according to the present embodiment has a configuration in which the media reader 306 is connected to the captured image input unit 10 of the image processing apparatus 100 of the first embodiment, and the captured image is directly captured without a network. The image is input to the image input unit 10. Further, in the store terminal 300 according to the present embodiment, a display unit 303, an operation unit 304, and a coin machine 305 are connected to the processing unit 1 of the image processing apparatus 100 according to the first embodiment. The process executed by is the same as in the first embodiment. The storefront terminal 300 may or may not have the network I / F 3. This storefront terminal 300 can stand by itself and provide a composite image without going through the network 400.

第1実施形態に係る画像処理装置の概略機能構成図1 is a schematic functional configuration diagram of an image processing apparatus according to a first embodiment. 撮影画像DBに記憶される情報の概念説明図Conceptual explanatory diagram of information stored in photographed image DB 撮影画像DBに記憶される情報の概念説明図Conceptual explanatory diagram of information stored in photographed image DB テンプレート画像の一例を示す図The figure which shows an example of a template image 合成画像提供処理の流れを示すフローチャートFlow chart showing flow of composite image providing process 撮影画像の一例を示す図The figure which shows an example of the photographed image 顔部分の合成領域への配置指定の一例を示す図The figure which shows an example of arrangement | positioning designation | designated to the synthetic | combination area | region of a face part 合成画像の一例を示す図Diagram showing an example of a composite image 第2実施形態に係る店頭端末の概略機能構成図Schematic functional block diagram of the storefront terminal according to the second embodiment

符号の説明Explanation of symbols

1:処理部、2:記憶部、3:ネットワークI/F、4:テンプレート入力部、10:撮影画像入力部、11:撮影画像選択部、12:顔検出部、13:顔選択部、14:顔抽出部、15:合成部、16:出力部 1: processing unit, 2: storage unit, 3: network I / F, 4: template input unit, 10: captured image input unit, 11: captured image selection unit, 12: face detection unit, 13: face selection unit, 14 : Face extraction unit, 15: synthesis unit, 16: output unit

Claims (9)

人物の顔部分を記録した撮影画像を入力する撮影画像入力部と、
前記人物の顔部分を検出する検出部と、
前記検出された顔部分から所望の顔部分の選択を受け付ける顔選択部と、
前記選択された顔部分の画像である顔画像を前記撮影画像から抽出する抽出部と、
前記抽出された顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力部と、
前記抽出された顔画像を前記テンプレート画像の合成領域に配置し、前記合成領域に配置された顔画像と前記テンプレート画像とを合成した合成画像を作成する合成部と、
を備える画像処理装置。
A captured image input unit for inputting a captured image in which a person's face is recorded;
A detection unit for detecting a face portion of the person;
A face selection unit that accepts selection of a desired face part from the detected face part;
An extraction unit that extracts a face image that is an image of the selected face portion from the captured image;
A template image input unit for inputting a template image having a composite area which is a blank area in which the extracted face image is placed;
A composition unit that arranges the extracted face image in a composition area of the template image and creates a composition image obtained by combining the face image arranged in the composition area and the template image;
An image processing apparatus comprising:
前記顔選択部はネットワークを介して接続された端末から所望の顔部分の選択を受け付ける請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the face selection unit receives selection of a desired face portion from a terminal connected via a network. 操作入力を受け付ける操作部をさらに備え、
前記顔選択部は前記操作部から所望の顔部分の選択を受け付ける請求項1に記載の画像処理装置。
It further includes an operation unit that accepts operation input,
The image processing apparatus according to claim 1, wherein the face selection unit receives selection of a desired face portion from the operation unit.
前記入力された撮影画像の中から所望の撮影画像の選択を受け付ける撮影画像選択部をさらに備え、
前記検出部は前記選択された撮影画像の中から顔部分を検出する請求項1〜3のいずれかに記載の画像処理装置。
A photographic image selection unit that accepts selection of a desired photographic image from the input photographic images;
The image processing apparatus according to claim 1, wherein the detection unit detects a face portion from the selected captured image.
前記合成画像を所定の装置に出力する出力部をさらに備える請求項1〜4のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an output unit that outputs the composite image to a predetermined apparatus. 前記所定の装置はネットワークを介して接続された端末である請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the predetermined apparatus is a terminal connected via a network. 前記所定の装置はプリンタ又はメディアライタである請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the predetermined apparatus is a printer or a media writer. 人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分を検出する検出ステップと、
前記検出された顔部分から所望の顔部分の選択を受け付ける顔選択ステップと、
前記選択された顔部分の画像である顔画像を前記撮影画像から抽出する抽出ステップと、
前記抽出された顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、
前記抽出された顔画像を前記テンプレート画像の合成領域に配置し、前記合成領域に配置された顔画像と前記テンプレート画像とを合成した合成画像を作成する合成ステップと、
を含む画像処理方法。
A captured image input step for inputting a captured image in which a person's face is recorded;
A detection step of detecting a face portion of the person;
A face selection step of accepting selection of a desired face portion from the detected face portion;
An extraction step of extracting a face image that is an image of the selected face portion from the captured image;
A template image input step of inputting a template image having a composite area which is a blank area in which the extracted face image is placed;
A composition step of placing the extracted face image in a composition region of the template image and creating a composite image obtained by compositing the face image disposed in the composition region and the template image;
An image processing method including:
人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分を検出する検出ステップと、
前記検出された顔部分から所望の顔部分の選択を受け付ける顔選択ステップと、
前記選択された顔部分の画像である顔画像を前記撮影画像から抽出する抽出ステップと、
前記抽出された顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、
前記抽出された顔画像を前記テンプレート画像の合成領域に配置し、前記合成領域に配置された顔画像と前記テンプレート画像とを合成した合成画像を作成する合成ステップと、
をコンピュータに実行させる画像処理プログラム。
A captured image input step for inputting a captured image in which a person's face is recorded;
A detection step of detecting a face portion of the person;
A face selection step of accepting selection of a desired face portion from the detected face portion;
An extraction step of extracting a face image that is an image of the selected face portion from the captured image;
A template image input step of inputting a template image having a composite area which is a blank area in which the extracted face image is placed;
A composition step of placing the extracted face image in a composition region of the template image and creating a composite image obtained by compositing the face image disposed in the composition region and the template image;
An image processing program for causing a computer to execute.
JP2004305990A 2004-10-13 2004-10-20 Image processor, image processing method and image processing program Pending JP2006119844A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004305990A JP2006119844A (en) 2004-10-20 2004-10-20 Image processor, image processing method and image processing program
US11/247,194 US20060078173A1 (en) 2004-10-13 2005-10-12 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004305990A JP2006119844A (en) 2004-10-20 2004-10-20 Image processor, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2006119844A true JP2006119844A (en) 2006-05-11

Family

ID=36537679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004305990A Pending JP2006119844A (en) 2004-10-13 2004-10-20 Image processor, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2006119844A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
JP2015185877A (en) * 2014-03-20 2015-10-22 フリュー株式会社 Management server, terminal device, photograph seal creation device, image generation method, program, and recording medium
WO2017013936A1 (en) * 2015-07-21 2017-01-26 ソニー株式会社 Information processing device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
JP2015185877A (en) * 2014-03-20 2015-10-22 フリュー株式会社 Management server, terminal device, photograph seal creation device, image generation method, program, and recording medium
WO2017013936A1 (en) * 2015-07-21 2017-01-26 ソニー株式会社 Information processing device, information processing method, and program
JPWO2017013936A1 (en) * 2015-07-21 2018-05-10 ソニー株式会社 Information processing apparatus, information processing method, and program
US10916044B2 (en) 2015-07-21 2021-02-09 Sony Corporation Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5686673B2 (en) Image processing apparatus, image processing method, and program
EP1701308B1 (en) Image layout apparatus, image layout method and image layout program
US8345118B2 (en) Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium
US20130050747A1 (en) Automated photo-product specification method
US20060210165A1 (en) Image extracting apparatus, image extracting method, and image extracting program
JP2009176208A (en) Face authentication device, system, method and program
JP2005049939A (en) Image output apparatus, image output method, image output processing program, image distribution server, and image distribution processing program
JP4760172B2 (en) Image processing apparatus, user ID storage terminal apparatus, photography apparatus, image processing terminal apparatus, image processing method, and image processing system
US20060078173A1 (en) Image processing apparatus, image processing method and image processing program
WO2002009024A1 (en) Identity systems
JP5024028B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2007122400A (en) Authentication device, program, and recording medium
JP7159681B2 (en) Issuing system, server, issuing device, issuing method, program
JP4117675B2 (en) Method and program for creating card photo data
JP2006119844A (en) Image processor, image processing method and image processing program
US20130050745A1 (en) Automated photo-product specification method
US20130050744A1 (en) Automated photo-product specification method
US9105110B2 (en) Method of simulating an imaging effect on a digital image using a computing device
JP4235825B2 (en) Photo service system and method
JP2017075999A (en) Id card issuance application apparatus and id card issuance application method
JP6492964B2 (en) ID card creation device and ID card creation system
JP2004288082A (en) Portrait creation method, portrait creation device, as well as program
JP4424072B2 (en) Photo service system
JP2021131792A (en) Authenticity determination terminal and program
JP5218687B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090519