[go: up one dir, main page]

JP2015128259A - Image processing device, photographing device, photographing system, image processing method, and computer program - Google Patents

Image processing device, photographing device, photographing system, image processing method, and computer program Download PDF

Info

Publication number
JP2015128259A
JP2015128259A JP2013273431A JP2013273431A JP2015128259A JP 2015128259 A JP2015128259 A JP 2015128259A JP 2013273431 A JP2013273431 A JP 2013273431A JP 2013273431 A JP2013273431 A JP 2013273431A JP 2015128259 A JP2015128259 A JP 2015128259A
Authority
JP
Japan
Prior art keywords
subject
photographing
image
photographed
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013273431A
Other languages
Japanese (ja)
Inventor
誠 榎本
Makoto Enomoto
誠 榎本
池田 裕章
Hiroaki Ikeda
裕章 池田
妙子 山▲崎▼
Taeko Yamazaki
妙子 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013273431A priority Critical patent/JP2015128259A/en
Publication of JP2015128259A publication Critical patent/JP2015128259A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that enables good photographing even when the number of images is insufficient.SOLUTION: Provided is an image processing device receiving images from each of a plurality of photographing devices used at respective photographing points. Storage means stores a correspondence between the photographing device and the used photographing point, and the number of images that is required to be photographed. Specifying means adds a tag for each subject photographed in the received image, calculates the number of images in which the subject is photographed, and specifies a subject for which the number of photographed images is insufficient as a to-be-photographed subject. Generation means specifies at least one photographing point where the to-be-photographed subject will pass after the current time as an instruction transmission point, calculates a time when the to-be-photographed subject will arrive at the instruction transmission point, and generates a photographing instruction at least including at least a part of subject information on the to-be-photographed subject and the calculated arrival time. Transmission means transmits the photographing instruction to the photographing device used at the instruction transmission point.

Description

本発明は、競技大会などで写真から写っている人物(被写体)を同定し、配布・販売をする画像処理装置、撮影装置、撮影システム、画像処理方法、コンピュータプログラムに関するものである。   The present invention relates to an image processing apparatus, a photographing apparatus, a photographing system, an image processing method, and a computer program that identify a person (subject) taken from a photograph at a competition or the like and distribute / sell it.

一般参加型のマラソン大会などで、撮影者が複数の撮影箇所で競技参加者を撮影し、競技大会終了後に参加者に参加者自身が写っている写真を販売するサービスが実施されている。そこで競技参加者の購買意欲を向上させる写りの良い写真、例えば参加者自身が写真中央に大きく写っている写真などを、十分な枚数撮影し、参加者にすばやく提示することが求められている。   In general participation-type marathon competitions, etc., a service is provided in which photographers take pictures of competition participants at multiple shooting locations and sell the participants' photographs of the participants themselves after the competition. Therefore, it is required to take a sufficient number of photographs that improve the willingness of purchase of the competition participants, for example, a photograph of the participant himself / herself in the center of the photograph and present it to the participants quickly.

例えば特許文献1では、競技大会で計測ポイントへの通過予測時間から、大会を撮影した動画像中に写っている参加者を検索し、参加者向けに映像編集を行う手法が提案されている。
しかし、参加者によっては写っている写真の枚数が少なかったり、あるいはブレやボケ、顔が隠れてしまっているなど、写りの良い写真が少なかったりといった状況が起きていた。従来より、撮影の必要な人物(被写体)を特定し、撮影するといった手法が提案されている。例えば特許文献1では、イベントなどで参加者を撮影し撮影時間や写りの大きさなどをポイントとして蓄積し、ポイントの少ない参加者を写すよう選択する方法が提案されている。
For example, Patent Document 1 proposes a method of searching for participants in a moving image obtained by shooting a tournament from a predicted passing time to a measurement point in a tournament, and editing a video for the participant.
However, depending on the participants, there were situations where the number of photos in the photo was small, or there were few photos that were good, such as blurring, blurring, or hiding their faces. Conventionally, a technique has been proposed in which a person (subject) that needs to be photographed is identified and photographed. For example, Patent Document 1 proposes a method in which a participant is photographed at an event or the like, the shooting time or the size of the image is stored as points, and a participant with few points is selected to be photographed.

特開2008−28764号公報JP 2008-28764 A

しかし従来の技術では、撮影可能な対象から人物(被写体)を選択するため、マラソン大会などの撮影ポイントを次々と通過していく場合では、十分な枚数を撮影することができない。
本発明は上記の課題に鑑みてなされたものであり、撮影枚数が不十分な参加者の被写体情報を、その参加者がこれから通過するポイントに配置された撮影装置に通知可能なシステム等を提供することを目的とする。撮影枚数が不十分な参加者の被写体情報とは、その参加者が着けているゼッケン番号やその参加者が到着すると予測される時刻等である。
However, in the conventional technology, since a person (subject) is selected from subjects that can be photographed, a sufficient number of images cannot be photographed when passing through photographing points such as a marathon event one after another.
The present invention has been made in view of the above problems, and provides a system and the like that can notify subject information of a participant whose number of shots is insufficient to a photographing device placed at a point where the participant will pass. The purpose is to do. The subject information of a participant with an insufficient number of shots is a bib number assigned to the participant, a time when the participant is expected to arrive, and the like.

上述の課題を解決するために本発明に係る画像処理装置は、
複数の被写体が複数の撮影地点を所定の順序で通過するイベントを撮影するために各撮影地点において使用される複数の撮影装置のそれぞれから画像を受信する画像処理装置であって、
前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを記憶する記憶手段と、
受信した前記画像中に写っている被写体ごとにタグ付けし、前記タグ付けされた被写体ごとに前記被写体が撮影された画像の枚数を算出し、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する特定手段と、
前記要撮影被写体が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影被写体が前記指示送信地点に到達する時刻を算出し、
前記要撮影被写体の被写体情報の少なくとも一部および
前記算出された時刻
を少なくとも含む撮影指示を生成する生成手段と、
前記撮影指示を、前記指示送信地点において使用されている前記撮影装置に送信する送信手段と、を有する。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An image processing device that receives images from each of a plurality of photographing devices used at each photographing point in order to photograph an event in which a plurality of subjects pass through a plurality of photographing points in a predetermined order,
Storage means for storing the correspondence between the photographing device and the photographing point where the photographing device is used, and the number of images that need to be photographed;
Tagging is performed for each subject appearing in the received image, and the number of images in which the subject is photographed is calculated for each tagged subject, and the number of photographed images is required to be photographed. A specifying means for specifying a subject that is less than the number of images as a subject to be photographed;
Specifying at least one of the shooting points through which the subject subject to be photographed passes after the current time as an instruction transmission point, and calculating a time at which the subject subject to photograph reaches the instruction transmission point;
Generating means for generating a shooting instruction including at least a part of the subject information of the subject to be shot and at least the calculated time;
Transmitting means for transmitting the photographing instruction to the photographing apparatus used at the instruction transmission point.

競技大会中で、写真を撮影する際に、写真枚数の少ない参加者(被写体)がこれから通過する撮影地点の撮影装置に、この参加者の到着予測時刻などを通知し、この参加者を撮影するように促すことで、参加者ごとの写真枚数の偏りを減らすことができる。   When taking a photo during a competition, a participant (subject) with a small number of photos will be notified of the expected arrival time of the participant to the shooting device at the shooting point where the participant will pass, and the participant will be shot. By encouraging this, it is possible to reduce the bias in the number of photographs for each participant.

本発明の画像処理装置および撮影装置を用いた撮影システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the imaging | photography system using the image processing apparatus and imaging | photography apparatus of this invention. 図1の画像処理装置100および撮影装置110の機能の構成例を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a configuration example of functions of the image processing apparatus 100 and the imaging apparatus 110 in FIG. 1. 撮影システムで扱うデータの構成例である。It is a structural example of the data handled with an imaging | photography system. 被写体特定部における処理の例を示すフローチャートである。It is a flowchart which shows the example of the process in a to-be-identified part. 図4中の顔・人物情報紐付け処理の例を示すフローチャートである。It is a flowchart which shows the example of the face / person information link process in FIG. 被写体特定部において処理する画像およびデータ構成の例である。It is an example of the image and data structure which are processed in the subject specifying unit. 顔・人物情報紐付け処理を実行した後の画像情報の例である。It is an example of the image information after performing a face / person information link process. 顔・人物情報紐付け処理を実行した後の人物情報の例である。It is an example of the person information after performing the face / person information link process. 図4中のゼッケン検出・認識処理の出力例である。It is an example of an output of a number detection and recognition process in FIG. 被写体特定部における実行対象画像と実行後のデータ構成の例である。It is an example of an execution object image in a subject specific part, and a data structure after execution. 被写体特定部における実行対象画像と実行後のデータ構成の例である。It is an example of an execution object image in a subject specific part, and a data structure after execution. 被写体特定部における処理を実行した後の人物情報の例である。It is an example of person information after performing processing in a subject specific part. 実施形態1における画像選択部で用いる画像評価基準の例である。3 is an example of an image evaluation standard used in an image selection unit in the first embodiment. 実施形態1における画像選択部で生成されるフォトアルバムの例である。4 is an example of a photo album generated by the image selection unit in the first embodiment. 実施形態1における入力データを示す表である。3 is a table showing input data in the first embodiment. 実施形態1における処理を示すフロー図である。FIG. 3 is a flowchart showing processing in the first embodiment. 実施形態1または2における表示例を示す図である。6 is a diagram illustrating a display example in Embodiment 1 or 2. FIG. 実施形態2、3における入力データを示す表である。10 is a table showing input data in the second and third embodiments. 実施形態5における表示例を示す図である。FIG. 10 is a diagram illustrating a display example in the fifth embodiment. 実施形態5における処理を示すフロー図である。FIG. 10 is a flowchart showing processing in the fifth embodiment. 実施形態3における入力データを示す表である。10 is a table showing input data in the third embodiment.

本発明は、複数の参加者が複数の撮影地点を所定の順序で通過するイベント(例えば、マラソン大会)を撮影するための撮影システムに関する。この撮影システムは、各撮影地点において使用される複数の撮影装置と、各撮影装置から画像を受信する画像処理装置を必要とする。
前記画像処理装置は、記憶手段、特定手段、および生成手段を有する。
前記記憶手段は、前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを記憶する。
前記特定手段は、受信した前記画像中に写っている被写体ごとに人物IDなどのタグを付け、タグ付けされた人物ごとに前記人物が撮影された画像の枚数を算出する。そして、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない人物を要撮影人物(要撮影被写体)として特定する。
The present invention relates to a photographing system for photographing an event (for example, a marathon event) in which a plurality of participants pass a plurality of photographing points in a predetermined order. This photographing system requires a plurality of photographing devices used at each photographing point and an image processing device that receives an image from each photographing device.
The image processing apparatus includes a storage unit, a specifying unit, and a generation unit.
The storage means stores a correspondence relationship between the photographing apparatus and the photographing point where the photographing apparatus is used, and the number of images that need to be photographed.
The specifying unit attaches a tag such as a person ID to each subject in the received image, and calculates the number of images in which the person is photographed for each tagged person. Then, a person whose number of photographed images is less than the number of images that need to be photographed is identified as a person to be photographed (photographable subject).

前記生成手段は、前記要撮影人物が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影人物が前記指示送信地点に到達する時刻を算出する。
例えば、要撮影人物が現在時刻にスタート地点から4km離れた地点を既に通過し、スタート地点から8km離れた地点に向かって走っている場合は、現在時刻後に通過する8km地点を指示送信地点として特定する。そして、要撮影人物が8km地点に到達する時刻を算出する。そして、前記要撮影人物の人物情報(被写体情報)の少なくとも一部(例えば、顔の特徴量)および前記算出された時刻を少なくとも含む撮影指示を、8km地点において使用されている撮影装置Cに、送信する。
The generating means specifies at least one shooting point through which the person requiring photographing passes after the current time as an instruction transmission point, and calculates a time when the person requiring photographing reaches the instruction transmission point.
For example, if the photographer is already passing a point 4 km away from the start point at the current time and is running toward a point 8 km away from the start point, the 8 km point passing after the current time is specified as the instruction transmission point To do. Then, the time at which the person requiring photographing reaches the 8 km point is calculated. Then, a photographing instruction including at least a part of the person information (subject information) of the person who needs to be photographed (for example, facial feature amount) and at least the calculated time is sent to the photographing apparatus C used at the 8 km point. Send.

[実施形態1]
図1は本発明の画像処理装置および撮影装置を用いた撮影システムの構成の一例を示す図である。
画像処理装置100は、CPU101、メモリ102、ハードディスク103、およびネットワークI/F104から成る。CPU101は、撮影画像の制御や認識処理を施すためのプログラムを実行する。メモリ102は、該プログラムを実行する際のワークメモリやデータの一時保存などに利用される。ハードディスク103は、該プログラムや撮影画像などのデータを格納する。ネットワークI/F104は、撮影装置110とデータの入出力を行う。
[Embodiment 1]
FIG. 1 is a diagram showing an example of the configuration of a photographing system using the image processing apparatus and photographing apparatus of the present invention.
The image processing apparatus 100 includes a CPU 101, a memory 102, a hard disk 103, and a network I / F 104. The CPU 101 executes a program for performing control of a captured image and recognition processing. The memory 102 is used for a work memory or temporary storage of data when the program is executed. The hard disk 103 stores data such as the program and captured images. The network I / F 104 performs data input / output with the imaging apparatus 110.

撮影装置110は、CPU111、メモリ112、記録メディア113、カメラユニット114、ディスプレイ115、操作ユニット116、およびネットワークI/F117から成る。CPU111は、撮影制御や画像符号化処理などを施すためのプログラムを実行する。メモリ112は、該プログラムや該プログラムを実行する際のワークメモリやデータの一時保存などに利用される。
記録メディア113は、撮影画像などのデータを格納する。カメラユニット114は、レンズを介して外光をデジタルデータに変換する。ディスプレイ115は、撮影のUIや画像を表示する。操作ユニット116は、シャッターなどの操作を検知する。ネットワークI/F117は、画像処理装置とデータの入出力を行う。
The photographing apparatus 110 includes a CPU 111, a memory 112, a recording medium 113, a camera unit 114, a display 115, an operation unit 116, and a network I / F 117. The CPU 111 executes a program for performing shooting control, image encoding processing, and the like. The memory 112 is used for temporary storage of the program, a work memory when executing the program, data, and the like.
The recording medium 113 stores data such as photographed images. The camera unit 114 converts external light into digital data via a lens. The display 115 displays a shooting UI and an image. The operation unit 116 detects an operation such as a shutter. A network I / F 117 inputs and outputs data with the image processing apparatus.

画像処理装置100と撮影装置110はそれぞれネットワークI/F104、117を介してLANやインターネットなどの有線または無線のネットワーク120に接続されている。撮影装置110から撮影画像が送信され、画像処理装置100で受信しハードディスク103に蓄積するなどが可能である。画像処理装置100から撮影装置110へは撮影指示データが送信される。また撮影装置110は複数存在し、ネットワーク120へ無線通信によって接続されていることが好ましい。   The image processing apparatus 100 and the photographing apparatus 110 are connected to a wired or wireless network 120 such as a LAN or the Internet via network I / Fs 104 and 117, respectively. A photographed image can be transmitted from the photographing device 110, received by the image processing device 100, and stored in the hard disk 103. Imaging instruction data is transmitted from the image processing apparatus 100 to the imaging apparatus 110. In addition, it is preferable that a plurality of photographing apparatuses 110 exist and are connected to the network 120 by wireless communication.

図2は、図1の画像処理装置100および撮影装置110の機能の構成例を示す機能ブロック図である。ここに示す構成はハードウェアとソフトウェアの組み合わせによって実現できるものであって、一つの機能ブロックが一つのハードウェアに対応するものではない。
撮影部200、撮影制御部201、送信部211、受信部212、表示部213、被写体検出部214、自動焦点調節部215、自動露出制御部216、およびフレーミング支援部217は、撮影装置110内の機能ブロックである。
被写体特定部202、画像評価量算出部203、画像選択部204、撮影指示部205および記憶部206は、画像処理装置100内の機能ブロックである。
撮影装置の撮影部200によって競技大会の写真を撮影し画像を取得する。取得された画像は、送信部211から送信され、ネットワーク120を経由して画像処理装置100の受信部207にて受信され、画像処理装置100のハードディスクに格納される。
FIG. 2 is a functional block diagram illustrating a configuration example of functions of the image processing apparatus 100 and the imaging apparatus 110 in FIG. The configuration shown here can be realized by a combination of hardware and software, and one functional block does not correspond to one hardware.
The imaging unit 200, the imaging control unit 201, the transmission unit 211, the reception unit 212, the display unit 213, the subject detection unit 214, the automatic focus adjustment unit 215, the automatic exposure control unit 216, and the framing support unit 217 are included in the imaging device 110. It is a functional block.
The subject specifying unit 202, the image evaluation amount calculation unit 203, the image selection unit 204, the shooting instruction unit 205, and the storage unit 206 are functional blocks in the image processing apparatus 100.
The photographing unit 200 of the photographing device takes a picture of the competition and acquires an image. The acquired image is transmitted from the transmission unit 211, received by the reception unit 207 of the image processing apparatus 100 via the network 120, and stored in the hard disk of the image processing apparatus 100.

<画像処理装置>
画像処理装置100の被写体特定部202は、撮影制御部201から得られた画像中に写っている人物を特定し、画像情報に対して人物情報(被写体情報)を付加する。1つの画像中に複数の人物が写っていれば、1つの画像情報に複数の人物情報を付加する(紐付ける)。
<Image processing device>
The subject specifying unit 202 of the image processing apparatus 100 specifies a person shown in the image obtained from the shooting control unit 201 and adds person information (subject information) to the image information. If a plurality of persons are shown in one image, a plurality of person information is added (linked) to one image information.

画像評価量算出部203は、撮影制御部201から得られた画像に対して、被写体特定部202から得られた人物情報(被写体情報)ごとに後述の得点計算手法により得点付けを行う。対象とする人物毎に、写っている位置、大きさなどが異なるため、同じ画像に写っていても、対象人物が異なれば同一の得点とはならない。
画像選択部204は、画像評価量算出部203によって得られた得点に基づいて、参加者に画像を提示する。この提示結果は写真販売等に利用することができる。
The image evaluation amount calculation unit 203 scores the image obtained from the shooting control unit 201 for each person information (subject information) obtained from the subject specifying unit 202 by a score calculation method described later. Since the position and size of the image are different for each target person, even if they are captured in the same image, the same score is not obtained if the target person is different.
The image selection unit 204 presents an image to the participant based on the score obtained by the image evaluation amount calculation unit 203. This presentation result can be used for photo sales.

撮影指示部205は、被写体特定部202によって特定された人物情報(被写体情報)を元に、撮影が必要な人物を割り出し、撮影を指示する。撮影指示部205の処理は、撮影が必要な人物を割り出すために人物情報が付加された画像を所定の数以上、必要とする。その為、被写体特定部202によって、所定数以上処理が行われた時点で実施する。例えば、競技大会で先頭の参加者が中間地点を通過した後や、人物情報の数が全参加者分揃った時点で開始する。
撮影指示は、送信部208から送信され、撮影装置110の受信部212にて受信される。
撮影制御部201は受信した撮影指示の内容をディスプレイに表示したり、その撮影指示に従って撮影部200を直接制御したりする。
被写体特定部202、画像評価量算出部203、画像選択部204、撮影指示部205の内部処理の詳細は後述する。
The shooting instruction unit 205 determines a person who needs to be shot based on the person information (subject information) specified by the subject specifying unit 202 and instructs the shooting. The processing of the shooting instruction unit 205 requires a predetermined number or more of images with person information added in order to determine a person who needs to be shot. Therefore, it is performed when a predetermined number of processes are performed by the subject specifying unit 202. For example, it starts after the first participant in the competition has passed an intermediate point or when the number of pieces of personal information has been obtained for all participants.
The imaging instruction is transmitted from the transmission unit 208 and received by the reception unit 212 of the imaging device 110.
The imaging control unit 201 displays the content of the received imaging instruction on the display, or directly controls the imaging unit 200 according to the imaging instruction.
Details of internal processing of the subject specifying unit 202, the image evaluation amount calculation unit 203, the image selection unit 204, and the shooting instruction unit 205 will be described later.

<撮影装置>
撮影装置は、複数の参加者が複数の撮影地点を所定の順序で通過するイベントを撮影するために各撮影地点において使用される。図2に示すように、撮影装置110は、撮影部200、撮影制御部201、送信部211、受信部212、および表示部213を有する。また、撮影装置110は、被写体検出部214、自動焦点調節部215、自動露出制御部216、およびフレーミング支援部217を有することが好ましい。
撮影制御部201は、撮影部200、送信部211、受信部212、表示部213等を制御する。
撮影部200は、被写体を撮影して映像信号を出力する。
送信部211は、撮影した画像を送信する。
受信部212は、通過することが予測される要撮影人物(要撮影被写体)の特徴量を含む人物情報(被写体情報)、および前記人物が通過すると予測される時刻を受信する。
表示部213は、
前記人物情報および
前記通過すると予測される時刻または前記通過すると予測される時刻から現在時刻を減算して得られる時間、を表示する。
<Photographing device>
The photographing device is used at each photographing point to photograph an event in which a plurality of participants pass a plurality of photographing points in a predetermined order. As illustrated in FIG. 2, the imaging apparatus 110 includes an imaging unit 200, an imaging control unit 201, a transmission unit 211, a reception unit 212, and a display unit 213. In addition, the photographing apparatus 110 preferably includes a subject detection unit 214, an automatic focus adjustment unit 215, an automatic exposure control unit 216, and a framing support unit 217.
The imaging control unit 201 controls the imaging unit 200, the transmission unit 211, the reception unit 212, the display unit 213, and the like.
The photographing unit 200 photographs a subject and outputs a video signal.
The transmission unit 211 transmits the captured image.
The receiving unit 212 receives person information (subject information) including a feature amount of a person who needs to be photographed (photographable subject) predicted to pass, and a time when the person is predicted to pass.
The display unit 213 is
The person information and the time predicted to pass or the time obtained by subtracting the current time from the time predicted to pass are displayed.

自動露出制御部216によって自動露出制御(AE)機能が実現される。自動露出制御部216は、被写体検出部214によって検出された要撮影人物を含む所定の領域の輝度に基づいて、露出値を制御する。撮影装置110は、自動露出制御機能として、絞り優先AEモード、シャッタースピード優先AEモード、プログラムAEモードを有するものとする。また、撮影感度を自動露出制御機能によって決定可能とするかどうかをユーザが設定可能であるものとする。   The automatic exposure control unit 216 realizes an automatic exposure control (AE) function. The automatic exposure control unit 216 controls the exposure value based on the luminance of a predetermined area including the person to be photographed detected by the subject detection unit 214. The photographing apparatus 110 has an aperture priority AE mode, a shutter speed priority AE mode, and a program AE mode as automatic exposure control functions. Further, it is assumed that the user can set whether or not the photographing sensitivity can be determined by the automatic exposure control function.

フレーミング支援部217によってフレーミング支援機能が実現される。光学ズーム機能および電子ズーム機能を使用することで遠くの被写体を大きく撮影することが可能であるが、被写体が動いていたり撮影者の手ブレが大きかったりする場合には被写体が画角外に外れやすくなってしまう。このような場合に被写体を再び画角内に入れるための機能をフレーミング支援機能と呼ぶ。
例えば、要撮影人物が画角外に外れた際に、所定量だけ広角側に光学ズームおよび/または電子ズームが駆動される。画角が広くなると、先程見失った要撮影人物が発見されやすくなる。要撮影人物が発見されたら、光学ズームおよび/または電子ズームが望遠側に駆動され、元の画角に戻る。
A framing support function is realized by the framing support unit 217. Using the optical zoom function and electronic zoom function, it is possible to shoot a large subject far away, but if the subject is moving or the camera shake is significant, the subject will fall out of the field of view. It becomes easy. In such a case, a function for bringing the subject into the angle of view again is called a framing support function.
For example, when a person who needs to be photographed deviates from the angle of view, the optical zoom and / or the electronic zoom are driven to the wide angle side by a predetermined amount. When the angle of view becomes wider, it becomes easier to find a person who needs to be photographed that has been lost. When a person who needs to be photographed is found, the optical zoom and / or electronic zoom are driven to the telephoto side, and the original angle of view is restored.

図14(B)は本発明の撮影装置を用いた競技大会写真撮影システムによって自動生成されるフォトアルバムの一例である。
参加者(被写体)ごとに画面あるいは紙の上に、競技大会中の参加者が写った画像が複数枚レイアウトされたフォトアルバムとなっている。複数枚の画像は、ストーリーにそって配置されている。
このように本発明では、競技中に撮影した大量の画像群から特定の参加者が写った画像を抽出し、さらに、フォトアルバムのテンプレートの画像位置のそれぞれに最も好適な写真を選択し配置し、参加者に画像を提示することを目的とする。
FIG. 14B is an example of a photo album that is automatically generated by a competition photography system using the photographing apparatus of the present invention.
Each participant (subject) is a photo album in which a plurality of images showing participants in the competition are laid out on a screen or paper. Multiple images are arranged along the story.
As described above, in the present invention, an image showing a specific participant is extracted from a large group of images taken during the competition, and the most suitable photo is selected and arranged for each of the image positions of the template of the photo album. The purpose is to present images to participants.

図3は、本実施形態で処理するデータ構造の例である。
本データ構造は、画像処理装置100のハードディスク103に保管される。データは木構造になっており、最上位にデータ自体の種類名、その下のブロックはそれぞれ属性名となっている。
図3(A)は、画像情報の構造を示した図である。画像情報は撮影装置110によって撮影された撮影画像ごとに作成される。画像ID属性は画像情報ごとにユニークに設定されるIDである。
FIG. 3 shows an example of a data structure processed in this embodiment.
This data structure is stored in the hard disk 103 of the image processing apparatus 100. The data has a tree structure, with the type name of the data itself at the top and the attribute blocks in the blocks below it.
FIG. 3A shows the structure of image information. Image information is created for each photographed image photographed by the photographing device 110. The image ID attribute is an ID uniquely set for each image information.

画像実体属性は画像情報のバイナリデータの保存場所を示すポインタ情報、あるいはバイナリデータそのものである。
被写人物属性は、画像に写っている人物ごとに可変複数個の人物属性を持つ。被写人物属性の個数で該当する画像に写っている人物の人数が判明する。人物属性以下に設定される属性とその値はまとめて被写体人物情報と称する。
撮影位置属性は、画像が撮影されたポイントの位置である。ここでは説明の簡略化のために競技大会のスタート地点からの道程とする。
撮影時刻属性は、撮影された時刻である。ここでは説明の簡略化のために競技大会のスタートからの経過時間の情報とする。
ランドマーク属性は、画像に含まれているランドマークの情報である。
The image entity attribute is pointer information indicating a storage location of binary data of image information, or binary data itself.
The subject person attribute has a plurality of variable person attributes for each person shown in the image. The number of persons in the corresponding image is determined by the number of person attributes. Attributes set below the person attribute and their values are collectively referred to as subject person information.
The shooting position attribute is the position of the point at which the image was shot. Here, for the sake of simplicity, the distance from the starting point of the competition is used.
The shooting time attribute is the time when the image was taken. Here, in order to simplify the explanation, information on the elapsed time from the start of the competition is used.
The landmark attribute is information on a landmark included in the image.

人物属性以下に設定される被写体人物情報とは、人物ID属性、画像内で人物が写っている状態を示す顔位置属性、顔大きさ属性、表情属性、ブレ属性、ぼけ属性の6つの属性で構成される。
人物ID属性は後述の人物情報を紐付けるIDである。
顔位置属性は、画像の左上の頂点を原点として、顔の位置を矩形で表した時のその矩形の左上の頂点のX、Y座標をそれぞれX属性、Y属性として持つ。
顔大きさ属性は、顔の位置を矩形で表した時の矩形幅、矩形高さをそれぞれW属性、H属性として持つ。
表情属性は、人物が笑顔であるか、泣き顔であるかなどの状態である。ブレ属性は被写人物のブレの度合いである。ぼけ属性は被写人物への合焦の度合いである。
The subject person information set below the person attribute includes six attributes: a person ID attribute, a face position attribute indicating a state in which the person is captured in the image, a face size attribute, a facial expression attribute, a blur attribute, and a blur attribute. Composed.
The person ID attribute is an ID associated with person information to be described later.
The face position attribute has, as an X attribute and a Y attribute, the X and Y coordinates of the upper left vertex of the rectangle when the face position is represented by a rectangle with the upper left vertex of the image as the origin.
The face size attribute has a rectangular width and a rectangular height when the position of the face is represented by a rectangle as a W attribute and an H attribute, respectively.
The expression attribute is a state such as whether the person is smiling or crying. The blur attribute is the degree of blur of the subject person. The blur attribute is the degree of focus on the subject.

図3(B)は、人物情報の構造を示した図である。人物情報は競技参加者が画像から認識されるごとに作成され、画像情報とは多対多の関係となる。人物ID属性は、人物情報ごとにユニークに設定されるIDである。特徴量属性は、人物の顔や服装などの特徴を表す情報である。ゼッケン番号属性は、競技参加者のゼッケン番号である。画像属性は、該人物が写っている画像のIDを画像ID属性として複数持つ。
本データ構造は一例であり、それぞれの情報をキーとして検索・取得が可能であればその他の構造で保管されていてもよい。
FIG. 3B is a diagram showing the structure of the person information. The person information is created each time a competition participant is recognized from an image, and has a many-to-many relationship with the image information. The person ID attribute is an ID uniquely set for each person information. The feature amount attribute is information representing features such as a person's face and clothes. The bib number attribute is the bib number of the competition participant. The image attribute has a plurality of IDs of images of the person as image ID attributes.
This data structure is an example, and may be stored in other structures as long as each information can be searched / acquired as a key.

以下、図2で示したブロック図の各処理部の詳細を説明する。
<被写体特定部>
図4は被写体特定部202の内部処理を説明したフローチャートである。
ステップS401では、撮影制御部201によって撮影された画像を取得する。
ステップS402では、画像中にある顔の特徴量と人物情報とを関連付ける(紐付ける)。
Details of each processing unit in the block diagram shown in FIG. 2 will be described below.
<Subject identification part>
FIG. 4 is a flowchart illustrating the internal processing of the subject specifying unit 202.
In step S401, an image photographed by the photographing control unit 201 is acquired.
In step S402, the facial feature amount in the image is associated (linked) with the person information.

<顔・人物情報紐付け処理>
図5を用いてステップS402の顔・人物情報紐付け処理について詳細な説明を行う。また、具体例として、図6(A)に示す画像が入力された場合を事例とする。ただし、本ステップでは1枚の画像情報を処理して次ステップへ遷移してもよいし、複数枚の画像情報を一括して処理してもよい。
ステップS501では、入力画像から顔が存在する領域を検出する。顔検出には公知技術を用いればよく、特開平8−063597号公報においては、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定するという方法が提案されている。図6(B)に示す画像中の顔検出結果601,602,603はステップS501にて顔検出をした結果の一例である
<Face / person information linking process>
The face / person information linking process in step S402 will be described in detail with reference to FIG. Further, as a specific example, a case where the image shown in FIG. However, in this step, one piece of image information may be processed and a transition may be made to the next step, or a plurality of pieces of image information may be processed collectively.
In step S501, a region where a face exists is detected from the input image. A known technique may be used for face detection. In Japanese Patent Laid-Open No. 8-063597, a face candidate area corresponding to the shape of a human face is extracted, and the face area is determined from the feature amount in the area. Has been proposed. The face detection results 601, 602, and 603 in the image shown in FIG. 6B are examples of results of face detection in step S 501.

ステップS502では、人物情報群を取得する。図6(C)は取得した人物情報群の一例である。ここでは、ハードディスク103に蓄積されている2名分の人物情報を取得したとして説明を進める。
ステップS503以降は、ステップS501で検出した入力画像中の顔ごとに処理を実行する。
ステップS503は、入力画像中の顔の特徴量を算出する。ここはステップS501で用いた特徴量を流用してもよい。
In step S502, a person information group is acquired. FIG. 6C is an example of the acquired person information group. Here, the description will proceed assuming that the personal information for two persons stored in the hard disk 103 has been acquired.
From step S503, the process is executed for each face in the input image detected in step S501.
In step S503, the feature amount of the face in the input image is calculated. Here, the feature amount used in step S501 may be used.

ステップS504では、S502で取得した人物情報群の各人物情報から顔の特徴量を取得する。
ステップS505では、入力画像中から検出した顔の特徴量と人物情報から取得した顔の特徴量を比較し、2つの顔の特徴量の差が閾値以内かを判定する。
判定がYES、すなわち、入力画像中から検出した顔の特徴量と人物情報から取得した顔の特徴量の差が閾値よりも小さいと判断された場合、ステップS507へ遷移し、両者を紐付ける。具体的には人物情報の画像ID属性に入力画像の画像IDを追記する。
In step S504, a facial feature amount is acquired from each piece of person information in the person information group acquired in step S502.
In step S505, the facial feature value detected from the input image is compared with the facial feature value obtained from the person information to determine whether the difference between the two facial feature values is within a threshold.
If the determination is YES, that is, if it is determined that the difference between the facial feature value detected from the input image and the facial feature value acquired from the person information is smaller than the threshold value, the process proceeds to step S507 and the two are associated. Specifically, the image ID of the input image is added to the image ID attribute of the person information.

たとえば、画像ID:101の顔検出結果601の特徴量と、人物ID A100の特徴量との差が閾値よりも小さいと判断された場合、人物ID:A100の人物情報の画像IDにID101が追記される。
判定がNO、すなわち、入力画像中から検出した顔の特徴量と人物情報から取得した顔の特徴量の差が大きいと判断された場合、ステップS504へ戻り、他の人物情報から顔の特徴量を取得する
For example, when it is determined that the difference between the feature amount of the face detection result 601 of the image ID: 101 and the feature amount of the person ID A100 is smaller than the threshold, the ID 101 is added to the image ID of the person information of the person ID: A100. Is done.
If the determination is NO, that is, if it is determined that the difference between the facial feature value detected from the input image and the facial feature value obtained from the person information is large, the process returns to step S504, and the facial feature value is obtained from the other personal information. To get

ステップS506は、入力画像中から取得した顔の特徴量と一致する人物情報が1つも蓄積されていなかった場合に遷移し、入力画像中から取得した顔の特徴量から新規に人物情報を生成する。
たとえば、画像ID:101の顔検出結果603は、蓄積されている全ての人物情報の顔の特徴量と比較したが、いずれの特徴量とも一致しなかった(差が閾値よりも小さいと判断されなかった)ため、人物ID:A300として新規の人物情報が生成される。
The step S506 transitions to the case where no person information matching the facial feature amount acquired from the input image has been accumulated, and newly generates personal information from the facial feature amount acquired from the input image. .
For example, the face detection result 603 of the image ID: 101 is compared with the face feature amounts of all the stored personal information, but does not match any feature amount (the difference is determined to be smaller than the threshold value). Therefore, new person information is generated as person ID: A300.

図7はステップS402の顔・人物情報紐付け処理後の画像情報、図8は人物情報である。図3(A)と比較し、項目が存在しない属性は属性値がない状態を意味している。この段階では、人物情報の顔の特徴量と画像IDとが紐付けされているだけなので、個人の特定はされない。つまり、このデータからはゼッケン番号を用いて特定の競技者(被写体)が写っている画像を抽出することはできない。
以上がステップS402の顔・人物情報紐付け処理の詳細である。以降、図4に戻って被写体特定部の説明を続ける。
FIG. 7 shows image information after the face / person information linking process in step S402, and FIG. 8 shows person information. Compared to FIG. 3A, an attribute with no item means a state with no attribute value. At this stage, since the feature amount of the face of the person information and the image ID are only associated with each other, the individual is not specified. That is, from this data, it is not possible to extract an image showing a specific player (subject) using the bib number.
The above is the details of the face / person information linking process in step S402. Hereinafter, returning to FIG. 4, the description of the subject specifying unit will be continued.

<ゼッケン検出・認識処理>
ステップS403以降は画像情報ごと、すなわち画像IDごとに処理を実行する。
ステップS403は、入力画像からゼッケンが存在する領域、すなわち文字領域を抽出し、文字認識を実行する。
ゼッケン領域抽出(文字領域抽出)には、公知技術を用いればよく、例えば特開2009−123205号公報に開示されている技術が挙げられる。
特開2009−123205号公報では以下の方法で文字領域を抽出している。
<Number detection / recognition processing>
After step S403, the process is executed for each image information, that is, for each image ID.
In step S403, a region where a race bib exists, that is, a character region is extracted from the input image, and character recognition is executed.
For the bib region extraction (character region extraction), a publicly known technique may be used, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2009-123205.
In Japanese Patent Laid-Open No. 2009-123205, character areas are extracted by the following method.

入力画像からエッジ画像を生成し、エッジ画像から連結画素塊(Connected Component。以後「CC」と呼ぶ)を生成する。CCの大きさなどの特徴量から文字らしいと推定される候補CCの座標位置をハフ変換した結果、直線に並ぶ候補CC群を文字領域と判定する。
以上の方法により抽出したゼッケン領域(文字領域)に対し、公知の文字認識技術を実行し、ゼッケン番号を取得する。
An edge image is generated from the input image, and a connected pixel block (Connected Component, hereinafter referred to as “CC”) is generated from the edge image. As a result of the Hough transform of the coordinate positions of candidate CCs that are presumed to be characters from the feature quantity such as the size of the CC, the candidate CCs arranged in a straight line are determined to be character regions.
A known character recognition technique is executed on the bib region (character region) extracted by the above method to obtain the bib number.

図9は入力画像に対し、ゼッケン検出・認識処理を実行した後に得られるゼッケン認識結果の一例である。
実際の競技中の画像では、ゼッケンが競技者(被写体)本人の腕や、他の競技者の体に遮られたり、競技者の体の動きでゼッケンが歪んだりしてゼッケン検出が成功しない場合もあり得る。たとえば、図9(A)は、2人の競技者が写っているが、ゼッケンの検出数は1である。図9(B)は、3人の競技者が写っているが、ゼッケンの検出数は1である。
図9(C)は3人の競技者(被写体)が写っているがゼッケンの検出数は0である。競技者が写っている画像をゼッケンだけで検索してもこのような画像はヒットしない。そこで、先に生成した人物情報とゼッケンの認識結果を組み合わせて、画像に写っている被写体の個人を特定する。
図9(D)は、2人の競技者が写っているが、ゼッケンの検出数は1である。
FIG. 9 shows an example of the number recognition result obtained after executing the number detection / recognition processing on the input image.
In the actual image during competition, the race bib is not successfully detected because the race bib is obstructed by the player's (subject) 's arm or the body of another player, or the race bib is distorted by the movement of the rider's body. There is also a possibility. For example, in FIG. 9A, two athletes are shown, but the number of bib detection is one. In FIG. 9B, three athletes are shown, but the number of the race bib detected is one.
In FIG. 9C, three athletes (subjects) are shown, but the number of bibs detected is zero. Searching for an image of a competitor using only a bib will not hit such an image. Therefore, the individual of the subject in the image is specified by combining the previously generated person information and the number recognition result.
In FIG. 9D, two athletes are shown, but the number of the race bib detected is one.

ステップS404以降は、ステップS403で取得したゼッケン番号ごとに処理を実行する。
ステップS404は、画像情報に含まれる人物IDごとに、入力画像中の顔の位置とゼッケン番号の位置を比較し、ゼッケンと顔が対応するかを判定する。
具体的には、ゼッケン領域の中心から顔領域の中心までの距離が閾値以下であって、かつゼッケン領域の中心より縦方向上部に顔領域の中心が位置するという条件を満たす顔領域が存在するか判定する。前記条件を満たす顔領域が複数あった場合は、ゼッケン領域により近いものを選択する。「ゼッケン領域により近い」は、ゼッケン領域の中心から顔領域の中心までの直線距離などに基づいて判断する。
In step S404 and subsequent steps, processing is executed for each number number acquired in step S403.
In step S404, for each person ID included in the image information, the position of the face in the input image is compared with the position of the number number to determine whether the number corresponds to the face.
Specifically, there is a face area that satisfies the condition that the distance from the center of the race bib area to the center of the face area is equal to or less than a threshold value and the center of the face area is located vertically above the center of the race bib area. To determine. If there are a plurality of face areas that satisfy the condition, the face area closer to the bib area is selected. “Closer to the race bib region” is determined based on the straight line distance from the center of the race bib region to the center of the face region.

判定がYES、すなわち、対応する顔領域とゼッケン領域の組み合わせがあった場合、ステップS405へ遷移し、対応する顔領域に紐付けられた人物情報のゼッケン番号の項目に、対応するゼッケン領域から認識されたゼッケン番号を追記する。ステップS405の処理の後は入力画像中の他のゼッケン番号を取得し、さらに画像情報中の他の人物IDを取得し、ステップS404へ遷移する。
判定がNOであった場合、画像情報に含まれる他の人物IDを取得し、ステップS404へ遷移する。
If the determination is YES, that is, if there is a combination of the corresponding face area and the number area, the process proceeds to step S405, and the number number item of the person information associated with the corresponding face area is recognized from the corresponding number area. Add the bib number that was assigned. After the process of step S405, another number number in the input image is acquired, and another person ID in the image information is acquired, and the process proceeds to step S404.
If the determination is NO, another person ID included in the image information is acquired, and the process proceeds to step S404.

ステップS404、S405の処理を図10、図11を具体例として再度説明する。処理の順番は画像ID:100、画像ID:101とするが、処理の順番に特段の意図はない。
まず、画像ID:100に対して処理を実行する。
図10(A)の1003は画像ID:100の画像を入力とし、ステップS403で抽出したゼッケン領域である。1001、1002は画像ID:100の画像を入力とし、ステップS402で抽出した顔領域を表す。
The processing in steps S404 and S405 will be described again using FIGS. 10 and 11 as specific examples. The processing order is image ID: 100 and image ID: 101, but there is no particular intention in the processing order.
First, processing is performed on the image ID: 100.
Reference numeral 1003 in FIG. 10A denotes a race bib region extracted from the image with the image ID: 100 and extracted in step S403. Reference numerals 1001 and 1002 denote the face areas extracted from the image having the image ID: 100 and extracted in step S402.

ステップS404では、ゼッケン領域1003と顔領域1001、1002の位置関係を比較する。
顔領域1001はゼッケン領域1003の上方にないため、対応しないと判定する。顔領域1002はゼッケン領域1003の上方かつ近接した位置にある(距離が閾値以下である)ため、ステップS405へ遷移する。
In step S404, the positional relationship between the bib area 1003 and the face areas 1001 and 1002 is compared.
Since the face area 1001 is not above the bib area 1003, it is determined that it does not correspond. Since the face area 1002 is located above and adjacent to the race bib area 1003 (the distance is equal to or smaller than the threshold value), the process proceeds to step S405.

ステップS405では、図10(B)に示す画像ID:100の画像情報を参照し、顔領域1002に該当する人物IDを取得する。
図10の事例では人物ID:A100が取得できる。次に、取得した人物IDの人物情報を取得し、人物情報のゼッケン属性を追記する。
具体的には、図10(C)に示す人物ID:A100の人物情報のゼッケン番号に画像ID:100で認識したゼッケン番号Z001を追記する。
対応するゼッケンが検出されなかった人物ID:A200の人物情報のゼッケン番号の属性値の情報は追記されない。
次に、画像ID:101の処理を実行する。
In step S405, the person ID corresponding to the face area 1002 is acquired by referring to the image information of the image ID: 100 shown in FIG.
In the example of FIG. 10, the person ID: A100 can be acquired. Next, the personal information of the acquired personal ID is acquired, and the bib attribute of the personal information is added.
Specifically, the number number Z001 recognized by the image ID: 100 is added to the number number of the person information of the person ID: A100 shown in FIG.
Information on the attribute value of the bib number of the person information of the person ID: A200 for which no corresponding bib is detected is not added.
Next, the process of image ID: 101 is executed.

図11の1104は画像ID:101を入力とし、ステップS403で抽出したゼッケン領域である。1101、1102,1103は画像ID:101を入力とし、ステップS402で抽出した顔領域を表す。
ステップS404では、ゼッケン領域1104と顔領域1101、1102,1103の位置関係を比較する。顔領域1101はゼッケン領域1104の上方にないため、対応しないと判定する。顔領域1102、1103はともにゼッケン領域1104の上方にある。この場合、ゼッケン領域1104により近接した位置にある顔領域1102を対応する顔領域とし、ステップS405へ遷移する。
Reference numeral 1104 in FIG. 11 is a bib number area extracted in step S403 with the image ID: 101 as an input. Reference numerals 1101, 1102, and 1103 denote the face areas extracted in step S402 with the image ID: 101 as an input.
In step S404, the positional relationship between the race bib area 1104 and the face areas 1101, 1102, and 1103 is compared. Since the face area 1101 is not above the bib area 1104, it is determined that the face area 1101 does not correspond. The face areas 1102 and 1103 are both above the bib area 1104. In this case, the face area 1102 located closer to the race bib area 1104 is set as the corresponding face area, and the process proceeds to step S405.

ステップS405では、図11(B)に示す画像ID:101の画像情報を参照し、顔領域1102に該当する人物IDを取得する。
図11の事例では人物ID:A200が取得できる。次に、取得した人物IDの人物情報を取得し、人物情報のゼッケン属性を追記する。
具体的には、図11(C)に示す人物ID:A200の人物情報のゼッケン番号に画像ID:101で認識したゼッケン番号Z200を追記する。もし、ここで取得した人物情報にすでにゼッケン番号がある場合、上書きせずに順次ゼッケン番号を追記したリストを作り、ゼッケンの文字認識結果の信頼度を元にソートしてもよい。
図11(C)は画像ID:101に含まれるゼッケン番号、人物IDをステップS404,S405ですべて処理した後の人物情報である
In step S405, the person ID corresponding to the face area 1102 is acquired with reference to the image information of the image ID: 101 shown in FIG.
In the case of FIG. 11, the person ID: A200 can be acquired. Next, the personal information of the acquired personal ID is acquired, and the bib attribute of the personal information is added.
Specifically, the bib number Z200 recognized by the image ID: 101 is added to the bib number of the person information of the person ID: A200 shown in FIG. If the number information already exists in the acquired personal information, a list in which the number numbers are sequentially added without being overwritten may be created and sorted based on the reliability of the character recognition result of the number number.
FIG. 11C shows the person information after all the bib number and person ID included in the image ID: 101 are processed in steps S404 and S405.

図12は画像ID:100,101に対して実施した処理を画像ID:102,103に対しても実行した後の人物情報である。
図12(A)〜(C)いずれの人物情報にも、そのゼッケン属性に番号が入っている。したがって、まずゼッケン番号をキーにして人物情報を抽出し、次に人物情報の保持する画像IDを参照することで、特定の人物が写った画像のみを抽出することが可能になる

以上、被写体特定部202の内部処理について説明した。
FIG. 12 shows personal information after the processing performed on the image IDs: 100 and 101 is also performed on the image IDs: 102 and 103.
Each person information in FIGS. 12A to 12C has a number in its bib attribute. Therefore, by first extracting the person information using the bib number as a key and then referring to the image ID held by the person information, it is possible to extract only an image showing a specific person.
The internal processing of the subject specifying unit 202 has been described above.

<画像評価量算出部>
画像評価量算出部203は、撮影制御部201から得られた画像に対して、画像評価量を算出する。
まず、1つの画像情報に対し、被写体人物情報である顔大きさ属性、表情属性、ブレ属性、ぼけ属性をそれぞれ算出し、算出値を格納する。各属性の算出には公知の技術を用いればよい。
<Image evaluation amount calculation unit>
The image evaluation amount calculation unit 203 calculates an image evaluation amount for the image obtained from the imaging control unit 201.
First, a face size attribute, an expression attribute, a blur attribute, and a blur attribute, which are subject person information, are calculated for each piece of image information, and the calculated values are stored. A known technique may be used to calculate each attribute.

また、画像に一緒に写り込んでいるランドマークの情報を画像情報のランドマーク属性の値に格納する。
ここでは、撮影位置属性値と、この撮影位置から撮影した場合に写り込みが予想されるランドマークとの関係を先にテーブルに用意しておき、こちらを参照することでランドマーク属性の値を決定する。そのほか、撮影するカメラの位置が競技中固定であるならば、特定の撮影カメラで撮った画像には特定のランドマークが写り込むものとして値を設定してもよい。
In addition, the information on the landmarks reflected in the image is stored in the landmark attribute value of the image information.
Here, the relationship between the shooting position attribute value and the landmark that is expected to be captured when shooting from this shooting position is prepared in a table first, and the landmark attribute value can be obtained by referring to this table. decide. In addition, if the position of the camera to be photographed is fixed during the competition, a value may be set on the assumption that a specific landmark is reflected in an image photographed by a specific photographing camera.

<画像選択部>
画像選択部204は、被写体特定部202で作成した人物情報を元に抽出した特定人物が写った画像群を対象とし、画像評価量算出部203で算出した画像評価量に基づき、前もって用意した画像評価基準に当てはめて画像を選択する。
図13(A)は、記憶部206に記憶されている画像評価基準の一例である。評価基準は大きく2つにわかれる。1つは重み付けする評価点である。これは顔の表情や顔の位置などの被写体人物情報に存在するパラメータに対し、どのパラメータを重視するかを重み付けする。もうひとつは必須条件で、ここで設定した条件を満たす画像のみ選択対象となる。
<Image selection part>
The image selection unit 204 targets an image group in which a specific person extracted based on the person information created by the subject specifying unit 202 is captured, and an image prepared in advance based on the image evaluation amount calculated by the image evaluation amount calculating unit 203. An image is selected according to the evaluation criteria.
FIG. 13A is an example of an image evaluation criterion stored in the storage unit 206. There are two major evaluation criteria. One is an evaluation point to be weighted. This weights which parameter is important for parameters existing in the subject person information such as facial expressions and face positions. The other is an essential condition, and only images satisfying the conditions set here are selected.

評価点は画像評価量算出部203で算出した被写体人物情報の属性値を直接用いてもよいし、さらに好適な画像選択のために被写体人物情報の属性値を元にした別のパラメータや条件を設定してもよい。たとえば、画像情報がもつ人物属性の数から、画像中に写っている人物の人数が分かるので、画像評価基準1301にはこの属性値を元にした被写人物の数1302に対する条件を追加している。   For the evaluation point, the attribute value of the subject person information calculated by the image evaluation amount calculation unit 203 may be used directly, or another parameter or condition based on the attribute value of the subject person information is selected for a more suitable image selection. It may be set. For example, since the number of persons in the image can be known from the number of person attributes included in the image information, a condition for the number 1302 of persons to be photographed based on the attribute value is added to the image evaluation standard 1301. Yes.

また、単に顔大きさ属性だけで重み付けすると、図13(B)に示すように手前の人物1304の顔は十分大きく写っているため、図13(B)に示す画像が人物1304にとって好適な画像として選択される可能性がある。しかし、人物1304は写真の端に位置しているので、人物1304が写っている画像群の中で図13(B)に示す画像の評価は低いとも考えられる。よって、顔領域の中心から画像中央までの距離を別途算出し、この距離を「顔位置の中央からの距離」1303として画像評価基準に追加している。
画像評価基準はフォトアルバムのテンプレートにおける画像の配置位置ごとに切り替えられる。
Further, if weighting is simply performed using only the face size attribute, the face of the person 1304 in the foreground is sufficiently large as shown in FIG. 13B, so that the image shown in FIG. 13B is an image suitable for the person 1304. May be selected. However, since the person 1304 is located at the end of the photograph, the evaluation of the image shown in FIG. 13B in the image group in which the person 1304 is captured is considered to be low. Therefore, the distance from the center of the face area to the center of the image is separately calculated, and this distance is added to the image evaluation standard as “distance from the center of the face position” 1303.
The image evaluation criterion is switched for each image arrangement position in the photo album template.

図14(A)はフォトアルバムのテンプレートと画像評価基準の関係の一例である。配置位置1401では評価1に基づいて選出した画像を配置する。同じく、配置位置1408では、評価3に基づいて選出した画像を配置する。
テンプレートにおける配置位置ごとに評価基準を設定するのではなく、全ての配置位置について基本の評価基準は同じとして、配置位置ごとにさらに追加の評価基準を設けるとしてもよい。
FIG. 14A shows an example of the relationship between a photo album template and image evaluation criteria. In the arrangement position 1401, an image selected based on the evaluation 1 is arranged. Similarly, at the arrangement position 1408, an image selected based on the evaluation 3 is arranged.
Instead of setting an evaluation criterion for each arrangement position in the template, the basic evaluation standard may be the same for all arrangement positions, and an additional evaluation criterion may be provided for each arrangement position.

たとえば、配置位置1402,1403,1407の画像評価基準は評価2としておく。評価2はランドマークの属性値があることが必須条件になっている。これに加えて、それぞれの配置ごとに写り込むランドマークを特定する。たとえば、配置位置1402ではランドマーク=”○○橋”、配置位置1403ではランドマーク=”丸の内ビル群”、配置位置1407ではランドマーク=”××タワー”と追加の基準を設けておく。
また、配置位置1404,1405,1406の画像評価基準は評価4としておき、1404,1405,1406においては画像を時間順で並べるという追加の基準を設けておく。
For example, the image evaluation standard of the arrangement positions 1402, 1403, and 1407 is set to evaluation 2. In the evaluation 2, it is an essential condition that there is a landmark attribute value. In addition to this, landmarks to be reflected are specified for each arrangement. For example, an additional reference is set such that landmark = “XX bridge” at the arrangement position 1402, landmark = “Marunouchi building group” at the arrangement position 1403, and landmark = “xx tower” at the arrangement position 1407.
In addition, the image evaluation standard of the arrangement positions 1404, 1405, and 1406 is set as an evaluation 4, and an additional standard for arranging the images in time order is provided in 1404, 1405, and 1406.

以上の画像評価基準に基づき、特定人物が写った画像群を選択し、テンプレートに画像を配置した例が図14(B)である。
この画像配置処理は多数の画像に対して得点付けを行い分類・選択を行うことが前提であるが、参加者によっては画像の提示を行うために十分な画像の量が存在しないことがある。以下、画像の参加者ごとの偏りをなくすための撮影指示部205の処理の詳細を説明する。
FIG. 14B shows an example in which an image group showing a specific person is selected based on the above image evaluation criteria and an image is arranged on a template.
This image placement process is premised on scoring and classifying / selecting a large number of images, but some participants may not have a sufficient amount of images to present the images. Hereinafter, the details of the processing of the imaging instruction unit 205 for eliminating the bias for each participant of the image will be described.

<撮影指示部>
図15(A)は、撮影装置と、その撮影装置に撮影指示を送信する際の送信先アドレスと、その撮影装置が配置された撮影地点のスタート地点からの距離の例を示したものである。図15(B)は競技大会開始1時間30分後の画像情報、人物情報の例を図示したものである。図15(A)および(B)に示す表は、記憶部206に記憶されている。
図15(A)の表1501に示す情報は、撮影装置とそのアドレス(例えば、IPアドレス)その設置位置(配置位置)に関する情報である。これは競技大会前から予め有している静的な情報である。
撮影装置Aがスタートから0kmすなわちスタート地点、撮影装置Bが4km地点、撮影装置Cが8km地点、撮影装置Dが12km地点、撮影装置Eが16km、撮影装置Fが20km、撮影装置Zが42.195km地点であることを示している。撮影装置Aにより撮影された画像情報は、撮影位置属性に0という値が入る。
<Shooting instruction unit>
FIG. 15A shows an example of a photographing apparatus, a transmission destination address when a photographing instruction is transmitted to the photographing apparatus, and a distance from the start point of the photographing point where the photographing apparatus is arranged. . FIG. 15B illustrates an example of image information and person information 1 hour and 30 minutes after the start of the competition. The tables shown in FIGS. 15A and 15B are stored in the storage unit 206.
Information shown in a table 1501 in FIG. 15A is information regarding an imaging device and its address (for example, an IP address) and its installation position (arrangement position). This is static information that has been held before the competition.
The shooting device A is 0 km from the start, that is, the starting point, the shooting device B is 4 km point, the shooting device C is 8 km point, the shooting device D is 12 km point, the shooting device E is 16 km, the shooting device F is 20 km, and the shooting device Z is 42. It shows that it is a 195km point. The image information captured by the imaging apparatus A has a value of 0 in the imaging position attribute.

図15(B)の1502は、競技大会開始1時間30分後の人物情報と該人物情報に紐付いた画像情報をまとめた表である。1行目は人物情報につけられた人物ID、2行目はゼッケン番号である。3行目には人物情報の画像属性の持つ画像IDの数をカウントした数を画像枚数として記載している。4行目は、人物情報の画像属性の持つ画像IDの中で、最も撮影時刻が新しい画像の画像IDである。5行目は、最新の画像の撮影時刻である。本実施形態では競技大会の開始時刻を「0:0」とした場合の時刻(つまり、「開始時刻からの経過時間」)である。   Reference numeral 1502 in FIG. 15B is a table in which the person information one hour and thirty minutes after the start of the competition and the image information associated with the person information are collected. The first line is a person ID attached to the person information, and the second line is a bib number. In the third line, the number of image IDs having the image attribute of the personal information is described as the number of images. The fourth line is the image ID of the image with the newest shooting time among the image IDs possessed by the image attributes of the person information. The fifth line is the shooting time of the latest image. In this embodiment, it is the time when the start time of the competition is “0: 0” (that is, “elapsed time from the start time”).

6行目は、最新の画像の撮影位置である。本実施形態では競技大会のスタート地点からの道程の長さである。例えば、人物IDがZ01である人物は、ゼッケン番号が02番であり、画像枚数25枚、最新画像IDはI77である。IDがI77の画像は、撮影時刻が競技開始後1時間27分で、撮影位置はスタート地点から20kmである。本実施形態では説明の都合上、参加者を6名としているがもちろんこの数字に限られるものではない。本システムは数十人、数百人あるいはそれ以上の規模の競技大会の撮影を想定している。
以下、撮影指示部205の処理について、競技大会1時間30分経過時点でのデータ(表1501、1502に示すデータ)を入力の例として説明する。
The sixth line is the shooting position of the latest image. In this embodiment, it is the length of the journey from the starting point of the competition. For example, the person whose person ID is Z01 has the number number 02, the number of images is 25, and the latest image ID is I77. The image with ID I77 is 1 hour and 27 minutes after the start of the competition, and the shooting position is 20 km from the starting point. In this embodiment, for convenience of explanation, the number of participants is six, but it is of course not limited to this number. This system is intended for shooting competitions of tens, hundreds or more.
Hereinafter, the processing of the shooting instruction unit 205 will be described by taking data (data shown in Tables 1501 and 1502) at the time when the competition 1 hour and 30 minutes have passed as an input example.

図16は、撮影指示部205の処理を詳細に説明したフローチャートである。
ステップS1601乃至S1604を画像処理装置100で実施し、ステップS1605およびS1606を撮影装置110で実施する。
ステップS1601では、撮影指示の対象となる人物を特定する。例えば、人物情報の持つ画像IDの数、すなわち写っている写真の枚数、が最も少ない人物を撮影指示の対象となる人物として特定、その人物の人物情報を取得する。図15(B)の入力例では、画像枚数が7枚のZ03の人物情報を処理対象として取得し、ステップS1602へ進む。本実施形態では説明のために最も少ない人物としているが、撮影画像枚数属性の値が所定値以下という条件で複数の人物情報を取得してもよい。その場合は、ステップS1602以降の処理を取得した人物情報の数だけ繰り返す。
FIG. 16 is a flowchart illustrating in detail the processing of the shooting instruction unit 205.
Steps S1601 to S1604 are performed by the image processing apparatus 100, and steps S1605 and S1606 are performed by the photographing apparatus 110.
In step S1601, the person who is the subject of the shooting instruction is specified. For example, the person with the smallest number of image IDs held by the person information, that is, the number of photographed images, is specified as the person who is the subject of the shooting instruction, and the person information of the person is acquired. In the input example of FIG. 15B, Z03 personal information with seven images is acquired as a processing target, and the process advances to step S1602. In the present embodiment, the number of persons is the smallest for the sake of explanation, but a plurality of pieces of person information may be acquired under the condition that the value of the number of captured images attribute is equal to or less than a predetermined value. In that case, the processes in and after step S1602 are repeated as many times as the number of acquired personal information.

ステップS1602では、ステップS1601で取得した人物情報の持つ画像IDから画像情報を取得し、その中で最も撮影時刻が新しい画像情報を取得する。画像中から識別されて作成された人物情報に関しては、必ず1つ以上の画像情報が得られる。図15(B)より、Z03の人物IDに紐付けられた最新画像IDはI53である。画像I53の撮影時刻として1時間12分、撮影位置として12kmを取得し、ステップS1603へ進む。   In step S1602, the image information is acquired from the image ID of the person information acquired in step S1601, and the image information with the newest shooting time is acquired. As for the person information identified and created from the image, at least one piece of image information is always obtained. From FIG. 15B, the latest image ID associated with the person ID of Z03 is I53. 1 hour and 12 minutes are acquired as the imaging time of the image I53 and 12 km are acquired as the imaging position, and the process proceeds to step S1603.

ステップS1603では、現在位置(以下「現在地点」とも記載する)を予測する。具体的には、ステップS1602で取得した画像情報の撮影位置の情報を取得し、現在位置を予測する。
予測された現在位置から、撮影指示対象人物が次に通過する撮影地点(次の撮影地点)を特定する。
その後、次の撮影地点を通過する時刻、または次の撮影地点を通過する時刻は現在時刻から何分何秒後かを予測する。
本実施形態では、まず、最新画像の撮影位置(スタート地点からの距離)を最新画像の撮影時刻(競技開始時刻からの経過時間)で除算することで平均速度を取得する。
次に、取得した平均速度と、競技開始時刻から現在時刻までの経過時間とを乗算することで現在地点を予測する。
通過予測時間は、「スタート地点から撮影地点までの距離をステップS1603で得た平均時速で除算して得られる時間」から「競技開始時刻から現在時刻までに経過した時間」を減算することによって算出すればよい。 ステップS1602で取得した最新画像の撮影位置12kmを撮影時刻の1時間12分(1.2時間)で除算してやることで、平均速度として時速10kmが得られる。そして、平均速度と現在時刻1時間30分(1.5時間)とを乗算することによって、人物IDがZ03の人物の現在位置は15km地点であると予測され、ステップS1604へ進む。
この手法は一例であって、例えば該人物の写る全画像情報の撮影位置、撮影時刻から2次元の座標上にマッピングを行い、曲線近似式を求め、次の撮影地点を予測するなどの手法を用いてもよい。
In step S1603, the current position (hereinafter also referred to as “current position”) is predicted. Specifically, information on the shooting position of the image information acquired in step S1602 is acquired, and the current position is predicted.
A shooting point (next shooting point) through which the shooting instruction target person passes next is specified from the predicted current position.
After that, the time for passing the next shooting point or the time for passing the next shooting point is predicted how many minutes and seconds after the current time.
In this embodiment, first, the average speed is acquired by dividing the shooting position of the latest image (distance from the start point) by the shooting time of the latest image (elapsed time from the competition start time).
Next, the current location is predicted by multiplying the acquired average speed by the elapsed time from the competition start time to the current time.
The estimated passing time is calculated by subtracting “the time elapsed from the competition start time to the current time” from “the time obtained by dividing the distance from the start point to the shooting point by the average speed obtained in step S1603”. do it. By dividing the shooting position 12 km of the latest image acquired in step S1602 by 1 hour 12 minutes (1.2 hours) of the shooting time, an average speed of 10 km is obtained. Then, by multiplying the average speed by the current time of 1 hour 30 minutes (1.5 hours), the current position of the person whose person ID is Z03 is predicted to be a 15 km point, and the process proceeds to step S1604.
This method is an example. For example, mapping is performed on two-dimensional coordinates from the shooting position and shooting time of all image information in which the person is photographed, a curve approximation formula is obtained, and the next shooting point is predicted. It may be used.

ステップS1604では、画像処理装置100がステップS1603で求めた現在地点を元に、人物IDがZ03の人物が次に通過する撮影地点の撮影装置(以下「次の撮影装置」とも記載する)を特定し、この撮影装置に人物情報を送信する。図15(A)の表1501に示すデータから、次の撮影装置は撮影地点16kmにある撮影装置Eであることがわかる。よって、人物IDがZ03である人物の人物情報を16km地点の撮影装置Eに送信し、ステップS1605へ進む。また、次の撮影装置に限らず今後通過が予測される撮影装置全てに送信してもよい。   In step S1604, based on the current location obtained by the image processing apparatus 100 in step S1603, the imaging device (hereinafter also referred to as “next imaging device”) at the imaging point where the person whose person ID is Z03 passes next is specified. Then, the person information is transmitted to the photographing apparatus. From the data shown in the table 1501 of FIG. 15A, it can be seen that the next photographing apparatus is the photographing apparatus E at the photographing point 16 km. Therefore, the person information of the person whose person ID is Z03 is transmitted to the imaging device E at the 16 km point, and the process proceeds to step S1605. Moreover, you may transmit to not only the following imaging | photography apparatus but all the imaging | photography apparatuses with which passage is predicted from now on.

ステップS1605では、撮影装置EがステップS1604で送信された人物情報を受信し、ステップS1606へ進む。
ステップS1606では、撮影装置EがステップS1605で受信した人物情報をUI(ユーザインタフェース)に表示することによって、撮影装置Eの撮影者へ人物IDがZ03である人物を撮影するように促し、処理を完了する。
In step S1605, the photographing apparatus E receives the person information transmitted in step S1604, and the process proceeds to step S1606.
In step S1606, the person information received by the photographing apparatus E in step S1605 is displayed on a UI (user interface), thereby prompting the photographer of the photographing apparatus E to photograph a person whose person ID is Z03, and processing. Complete.

図17は、撮影装置110のUIであるディスプレイ115への通知の表示例である。図17(A)の1701は、ステップS1605で受信したZ03の人物情報である。人物情報として、本例では、上からゼッケン番号の03、現在の撮影枚数、撮影地点の通過予測時間を表示している。「通過予測時間」は、現在時刻から通過予測時刻までの時間を意味し、通過予測時刻は「Z03の人物が、Z03の人物の人物情報を受信した撮影装置が配置されている撮影地点を通過すると予測される時刻」を意味する。
通過予測時間は、通過予測時刻から現在時刻を減算することによって算出することができる。
FIG. 17 is a display example of a notification on the display 115 which is a UI of the photographing apparatus 110. 1701 in FIG. 17A is the personal information of Z03 received in step S1605. In this example, the number number 03, the current number of shots, and the estimated passage time of the shooting point are displayed from the top as the person information. The “predicted passage time” means the time from the current time to the predicted passage time, and the predicted passage time is “the person of Z03 passes through the photographing point where the photographing device that has received the personal information of the person of Z03 is arranged. Then, it means “predicted time”.
The predicted passage time can be calculated by subtracting the current time from the predicted passage time.

1702は、人物情報に紐付いた画像から、対象人物を切り抜きした画像を表示している。このような画像情報をステップS1604およびS1605で人物情報に加えて送受信することで、撮影者に撮影対象の情報を視覚的に通知することが可能となる。撮影者はこれらの情報を元に参加者を探し、対象が見つかれば重点的に撮影を行うことができる。
以上説明した通り、実施形態1によれば、撮影枚数に偏りがあっても、撮影者にその旨を通知して撮影を促し、撮影者が通知内容に従って撮影することによって撮影枚数の偏りを減らし、ユーザに十分な枚数の画像を提示することが可能となる。
Reference numeral 1702 displays an image obtained by cutting out the target person from the image associated with the person information. By transmitting and receiving such image information in addition to the person information in steps S1604 and S1605, it becomes possible to visually notify the photographer of information about the object to be photographed. The photographer searches for participants based on this information and can focus on photographing if a target is found.
As described above, according to the first embodiment, even if there is a bias in the number of shots, the photographer is notified of the fact and the shooting is encouraged, and the photographer shoots according to the notification content to reduce the bias in the number of shots. It is possible to present a sufficient number of images to the user.

[実施形態2]
実施形態1では、ステップS1601において、撮影枚数の量の少ない人物を撮影指示対象としたが、画像評価量算出部203で算出した画像評価量を用いて撮影指示対象を選んでもよい。
例えば、ぼけのない、つまり参加者の顔に焦点があっており、カメラや参加者の動きによってブレが生じていない画像を、成功画像として枚数を計算し、成功画像の枚数が最も少ない参加者を撮影が必要な対象として選択する。
[Embodiment 2]
In the first embodiment, in step S1601, a person with a small number of shots is set as the shooting instruction target. However, the shooting instruction target may be selected using the image evaluation amount calculated by the image evaluation amount calculation unit 203.
For example, a participant who has the least number of successful images by calculating the number of images that are not blurred, that is, the focus on the participant's face, and that is not blurred by the movement of the camera or participant as a successful image. Is selected as an object that needs to be shot.

図18(A)に示す表1801は、1時間30分時点のデータをまとめた図15(B)の表に、画像評価量算出部203で算出した評価量を追加したものである。4行目に、成功画像の枚数が追加されている。表1801の場合、成功画像の枚数の最も少ない人物Z06を撮影指示対象として選択する。
撮影指示対象となる人物を特定した後のステップS1602乃至ステップS1606の処理は実施形態1と同様のため説明を省略する。
A table 1801 shown in FIG. 18A is obtained by adding the evaluation amount calculated by the image evaluation amount calculation unit 203 to the table of FIG. In the fourth line, the number of successful images is added. In the case of the table 1801, the person Z06 with the smallest number of successful images is selected as a shooting instruction target.
Since the processing from step S1602 to step S1606 after specifying the person who is the subject of the imaging instruction is the same as that in the first embodiment, the description thereof is omitted.

その他、ブレやぼけ以外の指標、例えば人物が十分な大きさで写っている枚数が最も少ない人物を指示対象者として選んでもよい。
図18(A)の表1801の5行目は、人物がアップ、つまり大写しで写っている枚数の情報である。大写しであるかどうかは、顔検出時の顔領域の大きさ情報(幅、高さ)に基づいて判断すればよい。表1801の場合では、人物IDがZ04である人物がアップ画像の枚数が最も少ないため、撮影指示対象の人物として特定される。撮影指示対象の人物が特定された後は、実施形態1と同様にステップS1602乃至ステップS1606の処理を行う。
図17(B)は、アップ画像の枚数が最も少ないために、人物IDがZ04である人物が撮影指示対象の人物として特定された場合の指示UIを図示したものである。領域1711に、大写しでの撮影を促す指示メッセージとして「アップで写して下さい」が表示されている。
以上説明した通り、実施形態2によれば、写りのよい写真や、大写しの写真などの枚数に不足・偏りがある場合に、撮影者にその旨を通知して不足している写真の撮影を促すことが可能となる。
In addition, an index other than blurring and blurring, for example, the person with the smallest number of people in a sufficient size may be selected as the instruction target person.
The fifth line of the table 1801 in FIG. 18A is information on the number of people who are up, that is, a large image. Whether or not the image is a large copy may be determined based on the size information (width and height) of the face area at the time of face detection. In the case of Table 1801, the person whose person ID is Z04 has the smallest number of up images, and is therefore identified as the person who is the subject of the shooting instruction. After the person to be imaged is specified, the processing from step S1602 to step S1606 is performed as in the first embodiment.
FIG. 17B illustrates an instruction UI when a person whose person ID is Z04 is identified as a person who is a photographing instruction target because the number of up images is the smallest. In a region 1711, “Please take a close-up photo” is displayed as an instruction message for encouraging a close-up shot.
As described above, according to the second embodiment, when there is a deficiency / bias in the number of good-looking photos or large-sized photos, the photographer is notified so that the lacking photos can be taken. It is possible to prompt.

[実施形態3]
実施形態1では、撮影された画像枚数の少ない人物を撮影指示対象とした。また実施形態2では所定の画像(アップ画像など)の枚数が少ない人物を撮影指示対象とした。しかし、画像の総枚数が多く、かつ所定の画像(アップ画像など)が所定枚数以上あったとしても、複数の評価基準の中の特定の評価基準を満たす画像枚数が少なくフォトアルバムのテンプレートの画像位置の一部に画像が配置できないこともある。
このため、ステップS1601において、複数の評価基準のいずれかについて必須条件を満たす画像の枚数が所定値より少ない人物を、撮影指示対象として特定するとしてもよい。
[Embodiment 3]
In the first embodiment, a person with a small number of captured images is set as a shooting instruction target. In the second embodiment, a person with a small number of predetermined images (such as an up image) is set as a shooting instruction target. However, even if the total number of images is large and there are more than a predetermined number of predetermined images (up images, etc.), the number of images satisfying a specific evaluation criterion among a plurality of evaluation criteria is small, and the photo album template image An image may not be arranged at a part of the position.
For this reason, in step S1601, a person whose number of images satisfying the indispensable condition for any one of the plurality of evaluation criteria is less than a predetermined value may be specified as an imaging instruction target.

図21(A)に示す表2101は、1時間30分時点のデータをまとめた図18(A)の表に、各評価の必須条件を満たす画像の枚数を追加したものである。
図21(A)の表2101の10行目は評価1の必須条件を満たす画像の枚数、11行目は評価2の必須条件を満たす画像の枚数、12行目は評価3の必須条件を満たす画像の枚数、13行目は評価4の必須条件を満たす画像の枚数をそれぞれ示す。
A table 2101 shown in FIG. 21A is obtained by adding the number of images that satisfy the essential conditions for each evaluation to the table of FIG.
In FIG. 21A, the 10th line of the table 2101 is the number of images satisfying the essential condition of evaluation 1, the 11th line is the number of images satisfying the essential condition of evaluation 2, and the 12th line satisfies the essential condition of evaluation 3. The number of images and the 13th line indicate the number of images satisfying the essential condition of evaluation 4, respectively.

図21(B)に示す表2102は画像評価基準の一例である。必須条件の4行目は必要枚数である。
表2101の場合、人物IDがZ01である人物の評価4の必須条件を満たす画像の枚数は「2」であるから、評価4の必要枚数「3以上」を満たさない。このため人物IDがZ01である人物は、ステップS1601において、撮影指示対象の人物として特定される。
撮影指示対象の人物が特定された後は、実施形態1と同様にステップS1602乃至ステップS1606の処理を行う。
A table 2102 illustrated in FIG. 21B is an example of an image evaluation criterion. The required number of lines is the required number.
In the case of Table 2101, since the number of images satisfying the essential condition of evaluation 4 for the person whose person ID is Z01 is “2”, the required number of evaluations “3 or more” is not satisfied. For this reason, the person whose person ID is Z01 is identified as the person who is the subject of the shooting instruction in step S1601.
After the person to be imaged is specified, the processing from step S1602 to step S1606 is performed as in the first embodiment.

これにより、図14(A)に示すようなテンプレートを用いて、図14(B)に示すようなフォトアルバムを作成するために、様々な評価基準を満たす画像を参加者に提示する場合に、特定の評価基準を満たす画像が不足するという事態の発生を防ぐことができる。
以上説明した通り、実施形態3によれば、フォトアルバムのテンプレートの各画像位置に配置する画像が必要枚数未満となることを回避することができる。
Thereby, in order to create a photo album as shown in FIG. 14 (B) using a template as shown in FIG. 14 (A), when an image satisfying various evaluation criteria is presented to a participant, It is possible to prevent the occurrence of a situation where there is a shortage of images that satisfy a specific evaluation criterion.
As described above, according to the third embodiment, it is possible to avoid that the number of images arranged at each image position of the photo album template is less than the required number.

[実施形態4]
実施形態1乃至実施形態3では、現在地点を割り出し、次に通過する撮影装置にて撮影指示を行ったが、不足する画像に対して、好適な撮影が可能な撮影装置に撮影指示をさせてもよい。
図18(A)の表1801の6行目は、ランドマークが写った画像の枚数の情報である。実施形態1および2におけるステップS1601の処理で、ランドマークが撮影された画像の枚数の最も少ない人物を撮影指示対象として選択する。
[Embodiment 4]
In the first to third embodiments, the current location is determined, and a shooting instruction is given by the next shooting apparatus. However, for a shortage of images, the shooting apparatus that can perform suitable shooting is instructed to take a shooting instruction. Also good.
The sixth line of the table 1801 in FIG. 18A is information on the number of images in which landmarks are shown. In the processing in step S1601 in the first and second embodiments, the person with the smallest number of images in which the landmarks are photographed is selected as the photographing instruction target.

図18(B)の表1802は、図15(A)の表1501の4行目にランドマーク情報を付加したものである。「○」はランドマークを撮影可能な撮影地点であることを示し、「×」はランドマークを撮影不可能な撮影地点であることを示す。ランドマークは撮影場所によって、写り込むか否かがわかるため、事前に撮影装置ごとに情報を持たせておくことで、撮影された画像がランドマークを含む画像かを判別することができる。もちろん、公知の画像オブジェクト認識技術などを用いて、ランドマークを認識して情報を付加してもよい。   A table 1802 in FIG. 18B is obtained by adding landmark information to the fourth row of the table 1501 in FIG. “◯” indicates that the landmark can be photographed, and “x” indicates that the landmark cannot be photographed. Since it can be determined whether or not the landmark is reflected depending on the shooting location, it is possible to determine whether the shot image includes the landmark by providing information for each shooting device in advance. Of course, a landmark may be recognized and information may be added using a known image object recognition technique or the like.

表1801の例では、ランドマークが撮影された画像が最も少ない人物Z05が撮影指示対象として選択される。ステップS1602では、実施形態1と同様に人物Z05の画像を取得し、ステップS1603ではZ05と紐付けられた最も新しい画像I65の撮影時刻、撮影位置から現在位置を予測する。計算の結果1時間30分時点では、14.4km地点にいると予測される。   In the example of the table 1801, the person Z05 having the smallest image in which the landmark is photographed is selected as the photographing instruction target. In step S1602, an image of the person Z05 is acquired as in the first embodiment, and in step S1603, the current position is predicted from the shooting time and shooting position of the newest image I65 associated with Z05. As a result of the calculation, it is predicted that the vehicle is at the 14.4 km point at 1 hour 30 minutes.

ステップS1604では、実施形態1と同様の方法で次の撮影装置を求めると撮影地点16kmにある撮影装置Eとなる。しかしE地点にはランドマークが存在しないため、ランドマーク撮影可能な次の撮影地点は撮影地点20kmにある撮影装置Fとなり、撮影装置Fに人物情報を送信する。
本実施形態で説明した評価は一例であり、その他の方法で得点付けされた画像の枚数に基づいて、好適な撮影可能な撮影装置へ撮影指示を行ってもよい。
以上説明した通り、実施形態4によれば、ランドマークなど特定の撮影装置でのみ撮影可能な画像を、適切な撮影装置にて通知することで撮影を促すことが可能となる。
In step S1604, when the next photographing apparatus is obtained by the same method as in the first embodiment, the photographing apparatus E at the photographing point 16km is obtained. However, since there is no landmark at the E point, the next shooting point where the landmark can be shot is the shooting device F at the shooting point 20 km, and the person information is transmitted to the shooting device F.
The evaluation described in the present embodiment is an example, and based on the number of images scored by other methods, a photographing instruction may be issued to a suitable photographing device.
As described above, according to the fourth embodiment, it is possible to prompt photographing by notifying an appropriate photographing device of an image that can be photographed only by a specific photographing device such as a landmark.

[実施形態5]
実施形態1では撮影者にUIによって通知するのみであったが、人物情報のもつ特徴量を用いて、撮影装置110の被写体検出部214が自動で人物を検出・認識してもよい。
図19は、競技大会中に撮影装置110にて、カメラユニット114が取得した画像をディスプレイ115に表示している例である。本実施形態ではカメラユニット114は、定期的に外光を取得し、ディスプレイ115上に表示されている。撮影者がディスプレイ115を確認しながら操作ユニット116でシャッター操作を行うと、CPU111で画像符号化などの処理を行い、記録メディア113に保存する仕組みになっている。
[Embodiment 5]
In the first embodiment, the photographer is only notified by the UI, but the subject detection unit 214 of the photographing apparatus 110 may automatically detect and recognize a person using the feature amount of the person information.
FIG. 19 shows an example in which an image acquired by the camera unit 114 is displayed on the display 115 by the photographing device 110 during the competition. In the present embodiment, the camera unit 114 periodically acquires external light and is displayed on the display 115. When the photographer performs a shutter operation with the operation unit 116 while checking the display 115, the CPU 111 performs processing such as image encoding and the like and stores it in the recording medium 113.

図20は、図16のステップS1605および、その後の処理を示したフローチャートである。図19(A)の画像を入力例として、図20のフローチャートを用いて処理の詳細を説明する。
ステップS1605で、撮影装置は撮影指示対象の人物情報を受信し、ステップS2001へ進む。本実施形態では、人物IDがZ06である人物が撮影指示対象であるとする。
FIG. 20 is a flowchart showing step S1605 of FIG. 16 and subsequent processing. The details of the processing will be described using the image of FIG. 19A as an input example and the flowchart of FIG.
In step S1605, the photographing apparatus receives the person information of the photographing instruction target, and proceeds to step S2001. In the present embodiment, it is assumed that a person whose person ID is Z06 is a shooting instruction target.

ステップS2001では、図19(A)の115のライブ画像が取得され、ステップS2002へ進む。
ステップS2002では、顔検出の処理を行い、ライブ画像115から結果として3つの顔領域1901、1902、1903を検出し、ステップS2003へ進む
ステップS2003では、被写体検出部214によって検出された顔領域ごとに処理を行う。顔領域1901、1902、1903の順に処理を行い、まず顔領域1901を処理対象として、顔領域1901の特徴量が撮影指示対象(人物IDがZ06の人物)の人物情報の特徴量と一致するかを判断する。一致しなければ、次の顔領域1902を処理対象としてステップS2003の処理を再度実行する。「特徴量が一致する」とは、2つの特徴量の差が所定の閾値以内であることを意味する。
2度目のステップS2003では、顔領域1902の特徴量と、撮影指示対象(人物IDがZ06の人物)の人物情報の特徴量が一致するため、ステップS2004へ進む。
ステップS2004では、UIでの強調表示や撮影設定などを行い、ステップS2001へ進み、次のタイミングの画像に対しても同様の処理を行う。
In step S2001, the live image 115 in FIG. 19A is acquired, and the process proceeds to step S2002.
In step S2002, face detection processing is performed, and as a result, three face areas 1901, 1902, and 1903 are detected from the live image 115, and the process proceeds to step S2003. In step S2003, each face area detected by the subject detection unit 214 is detected. Process. Processes are performed in the order of the face areas 1901, 1902, and 1903. First, whether the feature amount of the face area 1901 matches the feature amount of the person information of the shooting instruction target (person with the person ID Z06), with the face area 1901 as the processing target. Judging. If they do not match, the process of step S2003 is executed again with the next face area 1902 as the processing target. “The feature amounts match” means that the difference between the two feature amounts is within a predetermined threshold.
In the second step S2003, since the feature amount of the face area 1902 and the feature amount of the person information of the photographing instruction target (person with the person ID Z06) match, the process proceeds to step S2004.
In step S2004, UI highlighting, shooting settings, and the like are performed, and the process advances to step S2001 to perform the same processing for the next timing image.

図19(B)は、撮影指示対象であると判断された顔領域1902に、要撮影被写体であることを示す「要撮影者」という文字列をガイド1911と共に表示した例である。この様に自動で撮影指示対象の認識を行い、ガイドを表示することで、撮影者が撮影対象者を発見しやすくなるように支援することができる。
また、ガイド表示は一例であり、その他の処理を行ってもよい。
例えば、撮影指示対象を認識した際に、自動焦点調節部215によって撮影指示対象に合焦したり、自動露出制御部216によって露出合わせを行ったり、連写モードに変更することで失敗写真を減らしたり、撮影装置が自動で撮影を行ってもよい。
以上説明した通り、実施形態5によれば、撮影指示対象者が撮影可能なことを提示し、重点的に撮影をすることが容易にできる。
FIG. 19B shows an example in which a character string “photographer required” indicating a subject to be photographed is displayed together with a guide 1911 in a face area 1902 that is determined to be a photographing instruction target. Thus, by automatically recognizing the photographing instruction target and displaying the guide, it is possible to assist the photographer to easily find the photographing target person.
Further, the guide display is an example, and other processing may be performed.
For example, when the shooting instruction target is recognized, the auto focus adjustment unit 215 focuses on the shooting instruction target, the automatic exposure control unit 216 performs exposure adjustment, or the continuous shooting mode is used to reduce failed photos. Or, the photographing apparatus may automatically perform photographing.
As described above, according to the fifth embodiment, it is possible to show that the person to be instructed to shoot can shoot and to easily focus on shooting.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

100 画像処理装置
101 CPU
102 メモリ
103 ハードディスク
104 ネットワークI/F
110 撮影装置
111 CPU
112 メモリ
113 記録メディア
114 カメラユニット
115 ディスプレイ
116 操作ユニット
117 ネットワークI/F
120 ネットワーク
200 撮影部
201 撮影制御部
202 被写体特定部
203 画像評価量算出部
204 画像選択部
205 撮影指示部
206 記憶部
213 表示部
214 被写体検出部
215 自動焦点調節部
216 自動露出制御部
217 フレーミング支援部

100 Image processing apparatus 101 CPU
102 Memory 103 Hard disk 104 Network I / F
110 Imaging device 111 CPU
112 Memory 113 Recording medium 114 Camera unit 115 Display 116 Operation unit 117 Network I / F
120 Network 200 Shooting Unit 201 Shooting Control Unit 202 Subject Identification Unit 203 Image Evaluation Amount Calculation Unit 204 Image Selection Unit 205 Shooting Instruction Unit 206 Storage Unit 213 Display Unit 214 Subject Detection Unit 215 Automatic Focus Control Unit 216 Automatic Exposure Control Unit 217 Framing Support Part

Claims (13)

複数の被写体が複数の撮影地点を所定の順序で通過するイベントを撮影するために各撮影地点において使用される複数の撮影装置のそれぞれから画像を受信する画像処理装置であって、
前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを記憶する記憶手段と、
受信した前記画像中に写っている被写体ごとにタグ付けし、前記タグ付けされた被写体ごとに前記被写体が撮影された画像の枚数を算出し、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する特定手段と、
前記要撮影被写体が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影被写体が前記指示送信地点に到達する時刻を算出し、
前記要撮影被写体の被写体情報の少なくとも一部および
前記算出された時刻
を少なくとも含む撮影指示を生成する生成手段と、
前記撮影指示を、前記指示送信地点において使用されている前記撮影装置に送信する送信手段と
を有することを特徴とする画像処理装置。
An image processing device that receives images from each of a plurality of photographing devices used at each photographing point in order to photograph an event in which a plurality of subjects pass through a plurality of photographing points in a predetermined order,
Storage means for storing the correspondence between the photographing device and the photographing point where the photographing device is used, and the number of images that need to be photographed;
Tagging is performed for each subject appearing in the received image, and the number of images in which the subject is photographed is calculated for each tagged subject, and the number of photographed images is required to be photographed. A specifying means for specifying a subject that is less than the number of images as a subject to be photographed;
Specifying at least one of the shooting points through which the subject subject to be photographed passes after the current time as an instruction transmission point, and calculating a time at which the subject subject to photograph reaches the instruction transmission point;
Generating means for generating a shooting instruction including at least a part of the subject information of the subject to be shot and at least the calculated time;
An image processing apparatus comprising: a transmission unit configured to transmit the photographing instruction to the photographing apparatus used at the instruction transmission point.
前記記憶手段は、
少なくとも1つの画像評価基準と評価基準ごとの撮影が必要な画像の枚数をさらに記憶し、
前記特定手段は、
前記評価基準ごとに、前記評価基準を満たす画像の枚数を算出し、前記評価基準ごとの撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する
ことを特徴とする請求項1に記載の画像処理装置。
The storage means
Further storing at least one image evaluation criterion and the number of images that need to be photographed for each evaluation criterion;
The specifying means is:
The number of images satisfying the evaluation criterion is calculated for each of the evaluation criteria, and a subject that does not satisfy the number of images that need to be photographed for each of the evaluation criteria is identified as a subject to be photographed. The image processing apparatus described.
前記生成手段は、前記要撮影被写体の画像を含む前記撮影指示を生成することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates the shooting instruction including an image of the subject requiring shooting. 前記記憶手段は、
第1の撮影地点と、第2の撮影地点と、前記第1および第2の撮影地点から撮影可能なランドマークとの対応関係を記憶し、かつ
前記ランドマークが撮影されていることを必須条件とする第1の評価基準を前記評価基準の一部として記憶し、
前記特定手段は、
前記第1の撮影地点を通過したが、前記第1の評価基準を満たす画像が前記第1の評価基準における撮影が必要な枚数に満たない被写体を要撮影被写体として特定し、
前記生成手段は、
前記第1の評価基準を満たす画像が前記第1の評価基準における撮影が必要な枚数に満たない被写体の被写体情報を含み、かつ前記第2の撮影地点の撮影装置を送信先とする撮影指示を生成することを特徴とする請求項2又は3に記載の画像処理装置。
The storage means
An essential condition is that the correspondence between the first shooting point, the second shooting point, and the landmarks that can be shot from the first and second shooting points is stored, and that the landmark is shot. And storing the first evaluation criterion as a part of the evaluation criterion,
The specifying means is:
A subject that has passed through the first shooting point but does not satisfy the number of images required for shooting in the first evaluation criterion as an image that satisfies the first evaluation criterion is identified as a subject to be shot.
The generating means includes
A shooting instruction in which an image satisfying the first evaluation criterion includes subject information of a subject that does not satisfy the number of images required for photographing according to the first evaluation criterion, and the photographing device at the second photographing point is a transmission destination. The image processing apparatus according to claim 2, wherein the image processing apparatus generates the image processing apparatus.
前記生成手段は、
前記被写体情報として前記要撮影被写体の特徴量を含む撮影指示を生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The generating means includes
The image processing apparatus according to claim 1, wherein a shooting instruction including a feature amount of the subject to be shot is generated as the subject information.
複数の被写体が複数の撮影地点を所定の順序で通過するイベントを撮影するために各撮影地点において使用される撮影装置であって、
被写体を撮影して映像信号を出力する撮影手段と、
撮影した画像を送信する送信手段と、
通過することが予測される要撮影被写体の特徴量を含む被写体情報、および前記被写体が通過すると予測される時刻を受信する受信手段と、
前記被写体情報および
前記通過すると予測される時刻または前記通過すると予測される時刻から現在時刻を減算して得られる時間
を表示する表示手段と
を有することを特徴とする撮影装置。
An imaging device used at each imaging point to capture an event in which a plurality of subjects pass through a plurality of imaging points in a predetermined order,
Photographing means for photographing a subject and outputting a video signal;
A transmission means for transmitting the captured image;
Receiving means for receiving subject information including a characteristic amount of a subject requiring photographing that is predicted to pass, and a time at which the subject is predicted to pass;
An imaging apparatus comprising: the subject information; and a display means for displaying the time predicted to pass or the time obtained by subtracting the current time from the time predicted to pass.
前記受信した要撮影被写体の特徴量と、前記表示手段に表示されているライブ画像の中の被写体の特徴量とを比較することによって、前記ライブ画像の中の被写体から要撮影被写体を検出する被写体検出手段、
をさらに有することを特徴とする請求項6に記載の撮影装置。
A subject for detecting a subject to be photographed from subjects in the live image by comparing the received feature amount of the subject to be photographed with the feature amount of the subject in the live image displayed on the display means. Detection means,
The imaging apparatus according to claim 6, further comprising:
前記被写体検出手段によって検出された要撮影被写体に合焦するように、焦点調節を行う自動焦点調節手段、
をさらに有することを特徴とする請求項7に記載の撮影装置。
Automatic focus adjustment means for performing focus adjustment so as to focus on a subject to be detected detected by the subject detection means;
The photographing apparatus according to claim 7, further comprising:
前記被写体検出手段によって検出された要撮影被写体を含む所定の領域の輝度に基づいて、露出値を制御する自動露出制御手段、
をさらに有することを特徴とする請求項7または8に記載の撮影装置。
Automatic exposure control means for controlling the exposure value based on the luminance of a predetermined area including the subject to be detected detected by the subject detection means;
The photographing apparatus according to claim 7, further comprising:
前記被写体検出手段によって検出された要撮影被写体に対するフレーミングを支援するフレーミング支援手段、
をさらに有することを特徴とする請求項7乃至9のいずれか1項に記載の撮影装置。
Framing support means for supporting framing for a subject requiring photographing detected by the subject detection means;
The imaging apparatus according to claim 7, further comprising:
請求項1乃至5のいずれか1項に記載の画像処理装置と、請求項6乃至10のいずれか1項に記載の撮影装置と、を備えることを特徴とする撮影システム。   An imaging system comprising: the image processing device according to any one of claims 1 to 5; and the imaging device according to any one of claims 6 to 10. 複数の被写体が複数の撮影地点を所定の順序で通過するイベントを撮影するために各撮影地点において使用される複数の撮影装置のそれぞれから受信した画像を処理する画像処理方法であって、
前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを予め記憶する記憶工程と、
受信した前記画像中に写っている被写体ごとにタグ付けし、前記タグ付けされた被写体ごとに前記被写体が撮影された画像の枚数を算出し、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する特定工程と、
前記要撮影被写体が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影被写体が前記指示送信地点に到達する時刻を算出し、
前記要撮影被写体の被写体情報の少なくとも一部および
前記算出された時刻
を少なくとも含む撮影指示を生成する生成工程と、
前記撮影指示を、前記指示送信地点において使用されている前記撮影装置に送信する送信工程と
を有することを特徴とする画像処理方法。
An image processing method for processing images received from each of a plurality of photographing devices used at each photographing point in order to photograph an event in which a plurality of subjects pass a plurality of photographing points in a predetermined order,
A storage step of storing in advance the correspondence between the photographing device and the photographing point where the photographing device is used, and the number of images that need to be photographed;
Tagging is performed for each subject appearing in the received image, and the number of images in which the subject is photographed is calculated for each tagged subject, and the number of photographed images is required to be photographed. A specific step of identifying a subject that is less than the number of images as a subject to be photographed;
Specifying at least one of the shooting points through which the subject subject to be photographed passes after the current time as an instruction transmission point, and calculating a time at which the subject subject to photograph reaches the instruction transmission point;
Generating a shooting instruction including at least a part of subject information of the subject to be shot and at least the calculated time;
An image processing method comprising: a transmission step of transmitting the imaging instruction to the imaging device used at the instruction transmission point.
請求項12に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。

A program for causing a computer to execute each step of the image processing method according to claim 12.

JP2013273431A 2013-12-27 2013-12-27 Image processing device, photographing device, photographing system, image processing method, and computer program Pending JP2015128259A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013273431A JP2015128259A (en) 2013-12-27 2013-12-27 Image processing device, photographing device, photographing system, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013273431A JP2015128259A (en) 2013-12-27 2013-12-27 Image processing device, photographing device, photographing system, image processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2015128259A true JP2015128259A (en) 2015-07-09

Family

ID=53838056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013273431A Pending JP2015128259A (en) 2013-12-27 2013-12-27 Image processing device, photographing device, photographing system, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2015128259A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016110560A1 (en) 2015-06-26 2016-12-29 Toyota Jidosha Kabushiki Kaisha Fuel cell system and method for controlling a fuel cell
JP2017069618A (en) * 2015-09-28 2017-04-06 京セラ株式会社 Electronic apparatus and imaging method
JP2017161993A (en) * 2016-03-07 2017-09-14 富士フイルム株式会社 Image processing device, image processing method, program and recording medium
JP2021005744A (en) * 2019-06-25 2021-01-14 Kddi株式会社 Server, client, program and method for forming object video
JP2021052279A (en) * 2019-09-24 2021-04-01 大日本印刷株式会社 Photographing terminal, management device, photographing system, photographing method, and program
WO2021250814A1 (en) * 2020-06-10 2021-12-16 日本電気株式会社 Image providing device, image providing system, image providing method, and non-transitory computer-readable medium
WO2021250817A1 (en) * 2020-06-10 2021-12-16 日本電気株式会社 Image providing device, image providing system, image providing method, and non-temporary computer-readable medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016110560A1 (en) 2015-06-26 2016-12-29 Toyota Jidosha Kabushiki Kaisha Fuel cell system and method for controlling a fuel cell
JP2017069618A (en) * 2015-09-28 2017-04-06 京セラ株式会社 Electronic apparatus and imaging method
JP2017161993A (en) * 2016-03-07 2017-09-14 富士フイルム株式会社 Image processing device, image processing method, program and recording medium
JP2021005744A (en) * 2019-06-25 2021-01-14 Kddi株式会社 Server, client, program and method for forming object video
JP7107629B2 (en) 2019-06-25 2022-07-27 Kddi株式会社 Server, client, program and method for generating target video
JP2021052279A (en) * 2019-09-24 2021-04-01 大日本印刷株式会社 Photographing terminal, management device, photographing system, photographing method, and program
WO2021250814A1 (en) * 2020-06-10 2021-12-16 日本電気株式会社 Image providing device, image providing system, image providing method, and non-transitory computer-readable medium
WO2021250817A1 (en) * 2020-06-10 2021-12-16 日本電気株式会社 Image providing device, image providing system, image providing method, and non-temporary computer-readable medium
JP7533579B2 (en) 2020-06-10 2024-08-14 日本電気株式会社 IMAGE PROVIDING DEVICE, IMAGE PROVIDING SYSTEM, IMAGE PROVIDING METHOD, AND IMAGE PROVIDING PROGRAM
JP7548306B2 (en) 2020-06-10 2024-09-10 日本電気株式会社 IMAGE PROVIDING DEVICE, IMAGE PROVIDING SYSTEM, IMAGE PROVIDING METHOD, AND IMAGE PROVIDING PROGRAM
US12249182B2 (en) 2020-06-10 2025-03-11 Nec Corporation Image providing apparatus, image providing system, image providing method, and non-transitory computer readable medium

Similar Documents

Publication Publication Date Title
JP2015128259A (en) Image processing device, photographing device, photographing system, image processing method, and computer program
CN103369234B (en) server, client terminal and system
JP5300585B2 (en) Information processing apparatus and information processing method
US20170280047A1 (en) Image processing apparatus, image processing method, and program
WO2015145769A1 (en) Imaging device, information processing device, photography assistance system, photography assistance program, and photography assistance method
JP6688975B2 (en) Monitoring device and monitoring system
US20080088717A1 (en) Image capturing apparatus, image capturing method, image processing apparatus, image processing method and computer-readable medium
JP5153478B2 (en) Image processing apparatus and image processing method
JP2009004873A (en) Camera control system and method, program and storage medium
JP2008035125A (en) Image pickup device, image processing method, and program
JP6210807B2 (en) Display control device and control method of display control device
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
JP6410427B2 (en) Information processing apparatus, information processing method, and program
KR20180075506A (en) Information processing apparatus, information processing method, and program
JP2012094979A (en) Photographing support system, information processor, program, and photographing support method
JP2015217122A (en) Image notification device, imaging device, image notification method, and image notification program
JP7282519B2 (en) Image processing device or image processing server
JP2018025910A (en) Information processing apparatus and grouping program
JP5743017B2 (en) Image management apparatus and program
JP2005286379A (en) Photographing support system and photographing support method
JP2013126012A (en) Photographic system, photographic device, and information management device
JP2020077952A (en) Image processing device
JP2013165321A (en) Image processor and image processing method
JP5582924B2 (en) Image processing apparatus, image processing method, and program
JP2012015912A (en) Electronic device