JP2015128259A - Image processing device, photographing device, photographing system, image processing method, and computer program - Google Patents
Image processing device, photographing device, photographing system, image processing method, and computer program Download PDFInfo
- Publication number
- JP2015128259A JP2015128259A JP2013273431A JP2013273431A JP2015128259A JP 2015128259 A JP2015128259 A JP 2015128259A JP 2013273431 A JP2013273431 A JP 2013273431A JP 2013273431 A JP2013273431 A JP 2013273431A JP 2015128259 A JP2015128259 A JP 2015128259A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- photographing
- image
- photographed
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、競技大会などで写真から写っている人物(被写体)を同定し、配布・販売をする画像処理装置、撮影装置、撮影システム、画像処理方法、コンピュータプログラムに関するものである。 The present invention relates to an image processing apparatus, a photographing apparatus, a photographing system, an image processing method, and a computer program that identify a person (subject) taken from a photograph at a competition or the like and distribute / sell it.
一般参加型のマラソン大会などで、撮影者が複数の撮影箇所で競技参加者を撮影し、競技大会終了後に参加者に参加者自身が写っている写真を販売するサービスが実施されている。そこで競技参加者の購買意欲を向上させる写りの良い写真、例えば参加者自身が写真中央に大きく写っている写真などを、十分な枚数撮影し、参加者にすばやく提示することが求められている。 In general participation-type marathon competitions, etc., a service is provided in which photographers take pictures of competition participants at multiple shooting locations and sell the participants' photographs of the participants themselves after the competition. Therefore, it is required to take a sufficient number of photographs that improve the willingness of purchase of the competition participants, for example, a photograph of the participant himself / herself in the center of the photograph and present it to the participants quickly.
例えば特許文献1では、競技大会で計測ポイントへの通過予測時間から、大会を撮影した動画像中に写っている参加者を検索し、参加者向けに映像編集を行う手法が提案されている。
しかし、参加者によっては写っている写真の枚数が少なかったり、あるいはブレやボケ、顔が隠れてしまっているなど、写りの良い写真が少なかったりといった状況が起きていた。従来より、撮影の必要な人物(被写体)を特定し、撮影するといった手法が提案されている。例えば特許文献1では、イベントなどで参加者を撮影し撮影時間や写りの大きさなどをポイントとして蓄積し、ポイントの少ない参加者を写すよう選択する方法が提案されている。
For example,
However, depending on the participants, there were situations where the number of photos in the photo was small, or there were few photos that were good, such as blurring, blurring, or hiding their faces. Conventionally, a technique has been proposed in which a person (subject) that needs to be photographed is identified and photographed. For example,
しかし従来の技術では、撮影可能な対象から人物(被写体)を選択するため、マラソン大会などの撮影ポイントを次々と通過していく場合では、十分な枚数を撮影することができない。
本発明は上記の課題に鑑みてなされたものであり、撮影枚数が不十分な参加者の被写体情報を、その参加者がこれから通過するポイントに配置された撮影装置に通知可能なシステム等を提供することを目的とする。撮影枚数が不十分な参加者の被写体情報とは、その参加者が着けているゼッケン番号やその参加者が到着すると予測される時刻等である。
However, in the conventional technology, since a person (subject) is selected from subjects that can be photographed, a sufficient number of images cannot be photographed when passing through photographing points such as a marathon event one after another.
The present invention has been made in view of the above problems, and provides a system and the like that can notify subject information of a participant whose number of shots is insufficient to a photographing device placed at a point where the participant will pass. The purpose is to do. The subject information of a participant with an insufficient number of shots is a bib number assigned to the participant, a time when the participant is expected to arrive, and the like.
上述の課題を解決するために本発明に係る画像処理装置は、
複数の被写体が複数の撮影地点を所定の順序で通過するイベントを撮影するために各撮影地点において使用される複数の撮影装置のそれぞれから画像を受信する画像処理装置であって、
前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを記憶する記憶手段と、
受信した前記画像中に写っている被写体ごとにタグ付けし、前記タグ付けされた被写体ごとに前記被写体が撮影された画像の枚数を算出し、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する特定手段と、
前記要撮影被写体が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影被写体が前記指示送信地点に到達する時刻を算出し、
前記要撮影被写体の被写体情報の少なくとも一部および
前記算出された時刻
を少なくとも含む撮影指示を生成する生成手段と、
前記撮影指示を、前記指示送信地点において使用されている前記撮影装置に送信する送信手段と、を有する。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An image processing device that receives images from each of a plurality of photographing devices used at each photographing point in order to photograph an event in which a plurality of subjects pass through a plurality of photographing points in a predetermined order,
Storage means for storing the correspondence between the photographing device and the photographing point where the photographing device is used, and the number of images that need to be photographed;
Tagging is performed for each subject appearing in the received image, and the number of images in which the subject is photographed is calculated for each tagged subject, and the number of photographed images is required to be photographed. A specifying means for specifying a subject that is less than the number of images as a subject to be photographed;
Specifying at least one of the shooting points through which the subject subject to be photographed passes after the current time as an instruction transmission point, and calculating a time at which the subject subject to photograph reaches the instruction transmission point;
Generating means for generating a shooting instruction including at least a part of the subject information of the subject to be shot and at least the calculated time;
Transmitting means for transmitting the photographing instruction to the photographing apparatus used at the instruction transmission point.
競技大会中で、写真を撮影する際に、写真枚数の少ない参加者(被写体)がこれから通過する撮影地点の撮影装置に、この参加者の到着予測時刻などを通知し、この参加者を撮影するように促すことで、参加者ごとの写真枚数の偏りを減らすことができる。 When taking a photo during a competition, a participant (subject) with a small number of photos will be notified of the expected arrival time of the participant to the shooting device at the shooting point where the participant will pass, and the participant will be shot. By encouraging this, it is possible to reduce the bias in the number of photographs for each participant.
本発明は、複数の参加者が複数の撮影地点を所定の順序で通過するイベント(例えば、マラソン大会)を撮影するための撮影システムに関する。この撮影システムは、各撮影地点において使用される複数の撮影装置と、各撮影装置から画像を受信する画像処理装置を必要とする。
前記画像処理装置は、記憶手段、特定手段、および生成手段を有する。
前記記憶手段は、前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを記憶する。
前記特定手段は、受信した前記画像中に写っている被写体ごとに人物IDなどのタグを付け、タグ付けされた人物ごとに前記人物が撮影された画像の枚数を算出する。そして、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない人物を要撮影人物(要撮影被写体)として特定する。
The present invention relates to a photographing system for photographing an event (for example, a marathon event) in which a plurality of participants pass a plurality of photographing points in a predetermined order. This photographing system requires a plurality of photographing devices used at each photographing point and an image processing device that receives an image from each photographing device.
The image processing apparatus includes a storage unit, a specifying unit, and a generation unit.
The storage means stores a correspondence relationship between the photographing apparatus and the photographing point where the photographing apparatus is used, and the number of images that need to be photographed.
The specifying unit attaches a tag such as a person ID to each subject in the received image, and calculates the number of images in which the person is photographed for each tagged person. Then, a person whose number of photographed images is less than the number of images that need to be photographed is identified as a person to be photographed (photographable subject).
前記生成手段は、前記要撮影人物が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影人物が前記指示送信地点に到達する時刻を算出する。
例えば、要撮影人物が現在時刻にスタート地点から4km離れた地点を既に通過し、スタート地点から8km離れた地点に向かって走っている場合は、現在時刻後に通過する8km地点を指示送信地点として特定する。そして、要撮影人物が8km地点に到達する時刻を算出する。そして、前記要撮影人物の人物情報(被写体情報)の少なくとも一部(例えば、顔の特徴量)および前記算出された時刻を少なくとも含む撮影指示を、8km地点において使用されている撮影装置Cに、送信する。
The generating means specifies at least one shooting point through which the person requiring photographing passes after the current time as an instruction transmission point, and calculates a time when the person requiring photographing reaches the instruction transmission point.
For example, if the photographer is already passing a
[実施形態1]
図1は本発明の画像処理装置および撮影装置を用いた撮影システムの構成の一例を示す図である。
画像処理装置100は、CPU101、メモリ102、ハードディスク103、およびネットワークI/F104から成る。CPU101は、撮影画像の制御や認識処理を施すためのプログラムを実行する。メモリ102は、該プログラムを実行する際のワークメモリやデータの一時保存などに利用される。ハードディスク103は、該プログラムや撮影画像などのデータを格納する。ネットワークI/F104は、撮影装置110とデータの入出力を行う。
[Embodiment 1]
FIG. 1 is a diagram showing an example of the configuration of a photographing system using the image processing apparatus and photographing apparatus of the present invention.
The
撮影装置110は、CPU111、メモリ112、記録メディア113、カメラユニット114、ディスプレイ115、操作ユニット116、およびネットワークI/F117から成る。CPU111は、撮影制御や画像符号化処理などを施すためのプログラムを実行する。メモリ112は、該プログラムや該プログラムを実行する際のワークメモリやデータの一時保存などに利用される。
記録メディア113は、撮影画像などのデータを格納する。カメラユニット114は、レンズを介して外光をデジタルデータに変換する。ディスプレイ115は、撮影のUIや画像を表示する。操作ユニット116は、シャッターなどの操作を検知する。ネットワークI/F117は、画像処理装置とデータの入出力を行う。
The photographing
The
画像処理装置100と撮影装置110はそれぞれネットワークI/F104、117を介してLANやインターネットなどの有線または無線のネットワーク120に接続されている。撮影装置110から撮影画像が送信され、画像処理装置100で受信しハードディスク103に蓄積するなどが可能である。画像処理装置100から撮影装置110へは撮影指示データが送信される。また撮影装置110は複数存在し、ネットワーク120へ無線通信によって接続されていることが好ましい。
The
図2は、図1の画像処理装置100および撮影装置110の機能の構成例を示す機能ブロック図である。ここに示す構成はハードウェアとソフトウェアの組み合わせによって実現できるものであって、一つの機能ブロックが一つのハードウェアに対応するものではない。
撮影部200、撮影制御部201、送信部211、受信部212、表示部213、被写体検出部214、自動焦点調節部215、自動露出制御部216、およびフレーミング支援部217は、撮影装置110内の機能ブロックである。
被写体特定部202、画像評価量算出部203、画像選択部204、撮影指示部205および記憶部206は、画像処理装置100内の機能ブロックである。
撮影装置の撮影部200によって競技大会の写真を撮影し画像を取得する。取得された画像は、送信部211から送信され、ネットワーク120を経由して画像処理装置100の受信部207にて受信され、画像処理装置100のハードディスクに格納される。
FIG. 2 is a functional block diagram illustrating a configuration example of functions of the
The
The
The photographing
<画像処理装置>
画像処理装置100の被写体特定部202は、撮影制御部201から得られた画像中に写っている人物を特定し、画像情報に対して人物情報(被写体情報)を付加する。1つの画像中に複数の人物が写っていれば、1つの画像情報に複数の人物情報を付加する(紐付ける)。
<Image processing device>
The
画像評価量算出部203は、撮影制御部201から得られた画像に対して、被写体特定部202から得られた人物情報(被写体情報)ごとに後述の得点計算手法により得点付けを行う。対象とする人物毎に、写っている位置、大きさなどが異なるため、同じ画像に写っていても、対象人物が異なれば同一の得点とはならない。
画像選択部204は、画像評価量算出部203によって得られた得点に基づいて、参加者に画像を提示する。この提示結果は写真販売等に利用することができる。
The image evaluation
The
撮影指示部205は、被写体特定部202によって特定された人物情報(被写体情報)を元に、撮影が必要な人物を割り出し、撮影を指示する。撮影指示部205の処理は、撮影が必要な人物を割り出すために人物情報が付加された画像を所定の数以上、必要とする。その為、被写体特定部202によって、所定数以上処理が行われた時点で実施する。例えば、競技大会で先頭の参加者が中間地点を通過した後や、人物情報の数が全参加者分揃った時点で開始する。
撮影指示は、送信部208から送信され、撮影装置110の受信部212にて受信される。
撮影制御部201は受信した撮影指示の内容をディスプレイに表示したり、その撮影指示に従って撮影部200を直接制御したりする。
被写体特定部202、画像評価量算出部203、画像選択部204、撮影指示部205の内部処理の詳細は後述する。
The
The imaging instruction is transmitted from the
The
Details of internal processing of the
<撮影装置>
撮影装置は、複数の参加者が複数の撮影地点を所定の順序で通過するイベントを撮影するために各撮影地点において使用される。図2に示すように、撮影装置110は、撮影部200、撮影制御部201、送信部211、受信部212、および表示部213を有する。また、撮影装置110は、被写体検出部214、自動焦点調節部215、自動露出制御部216、およびフレーミング支援部217を有することが好ましい。
撮影制御部201は、撮影部200、送信部211、受信部212、表示部213等を制御する。
撮影部200は、被写体を撮影して映像信号を出力する。
送信部211は、撮影した画像を送信する。
受信部212は、通過することが予測される要撮影人物(要撮影被写体)の特徴量を含む人物情報(被写体情報)、および前記人物が通過すると予測される時刻を受信する。
表示部213は、
前記人物情報および
前記通過すると予測される時刻または前記通過すると予測される時刻から現在時刻を減算して得られる時間、を表示する。
<Photographing device>
The photographing device is used at each photographing point to photograph an event in which a plurality of participants pass a plurality of photographing points in a predetermined order. As illustrated in FIG. 2, the
The
The photographing
The
The receiving
The
The person information and the time predicted to pass or the time obtained by subtracting the current time from the time predicted to pass are displayed.
自動露出制御部216によって自動露出制御(AE)機能が実現される。自動露出制御部216は、被写体検出部214によって検出された要撮影人物を含む所定の領域の輝度に基づいて、露出値を制御する。撮影装置110は、自動露出制御機能として、絞り優先AEモード、シャッタースピード優先AEモード、プログラムAEモードを有するものとする。また、撮影感度を自動露出制御機能によって決定可能とするかどうかをユーザが設定可能であるものとする。
The automatic
フレーミング支援部217によってフレーミング支援機能が実現される。光学ズーム機能および電子ズーム機能を使用することで遠くの被写体を大きく撮影することが可能であるが、被写体が動いていたり撮影者の手ブレが大きかったりする場合には被写体が画角外に外れやすくなってしまう。このような場合に被写体を再び画角内に入れるための機能をフレーミング支援機能と呼ぶ。
例えば、要撮影人物が画角外に外れた際に、所定量だけ広角側に光学ズームおよび/または電子ズームが駆動される。画角が広くなると、先程見失った要撮影人物が発見されやすくなる。要撮影人物が発見されたら、光学ズームおよび/または電子ズームが望遠側に駆動され、元の画角に戻る。
A framing support function is realized by the framing
For example, when a person who needs to be photographed deviates from the angle of view, the optical zoom and / or the electronic zoom are driven to the wide angle side by a predetermined amount. When the angle of view becomes wider, it becomes easier to find a person who needs to be photographed that has been lost. When a person who needs to be photographed is found, the optical zoom and / or electronic zoom are driven to the telephoto side, and the original angle of view is restored.
図14(B)は本発明の撮影装置を用いた競技大会写真撮影システムによって自動生成されるフォトアルバムの一例である。
参加者(被写体)ごとに画面あるいは紙の上に、競技大会中の参加者が写った画像が複数枚レイアウトされたフォトアルバムとなっている。複数枚の画像は、ストーリーにそって配置されている。
このように本発明では、競技中に撮影した大量の画像群から特定の参加者が写った画像を抽出し、さらに、フォトアルバムのテンプレートの画像位置のそれぞれに最も好適な写真を選択し配置し、参加者に画像を提示することを目的とする。
FIG. 14B is an example of a photo album that is automatically generated by a competition photography system using the photographing apparatus of the present invention.
Each participant (subject) is a photo album in which a plurality of images showing participants in the competition are laid out on a screen or paper. Multiple images are arranged along the story.
As described above, in the present invention, an image showing a specific participant is extracted from a large group of images taken during the competition, and the most suitable photo is selected and arranged for each of the image positions of the template of the photo album. The purpose is to present images to participants.
図3は、本実施形態で処理するデータ構造の例である。
本データ構造は、画像処理装置100のハードディスク103に保管される。データは木構造になっており、最上位にデータ自体の種類名、その下のブロックはそれぞれ属性名となっている。
図3(A)は、画像情報の構造を示した図である。画像情報は撮影装置110によって撮影された撮影画像ごとに作成される。画像ID属性は画像情報ごとにユニークに設定されるIDである。
FIG. 3 shows an example of a data structure processed in this embodiment.
This data structure is stored in the
FIG. 3A shows the structure of image information. Image information is created for each photographed image photographed by the photographing
画像実体属性は画像情報のバイナリデータの保存場所を示すポインタ情報、あるいはバイナリデータそのものである。
被写人物属性は、画像に写っている人物ごとに可変複数個の人物属性を持つ。被写人物属性の個数で該当する画像に写っている人物の人数が判明する。人物属性以下に設定される属性とその値はまとめて被写体人物情報と称する。
撮影位置属性は、画像が撮影されたポイントの位置である。ここでは説明の簡略化のために競技大会のスタート地点からの道程とする。
撮影時刻属性は、撮影された時刻である。ここでは説明の簡略化のために競技大会のスタートからの経過時間の情報とする。
ランドマーク属性は、画像に含まれているランドマークの情報である。
The image entity attribute is pointer information indicating a storage location of binary data of image information, or binary data itself.
The subject person attribute has a plurality of variable person attributes for each person shown in the image. The number of persons in the corresponding image is determined by the number of person attributes. Attributes set below the person attribute and their values are collectively referred to as subject person information.
The shooting position attribute is the position of the point at which the image was shot. Here, for the sake of simplicity, the distance from the starting point of the competition is used.
The shooting time attribute is the time when the image was taken. Here, in order to simplify the explanation, information on the elapsed time from the start of the competition is used.
The landmark attribute is information on a landmark included in the image.
人物属性以下に設定される被写体人物情報とは、人物ID属性、画像内で人物が写っている状態を示す顔位置属性、顔大きさ属性、表情属性、ブレ属性、ぼけ属性の6つの属性で構成される。
人物ID属性は後述の人物情報を紐付けるIDである。
顔位置属性は、画像の左上の頂点を原点として、顔の位置を矩形で表した時のその矩形の左上の頂点のX、Y座標をそれぞれX属性、Y属性として持つ。
顔大きさ属性は、顔の位置を矩形で表した時の矩形幅、矩形高さをそれぞれW属性、H属性として持つ。
表情属性は、人物が笑顔であるか、泣き顔であるかなどの状態である。ブレ属性は被写人物のブレの度合いである。ぼけ属性は被写人物への合焦の度合いである。
The subject person information set below the person attribute includes six attributes: a person ID attribute, a face position attribute indicating a state in which the person is captured in the image, a face size attribute, a facial expression attribute, a blur attribute, and a blur attribute. Composed.
The person ID attribute is an ID associated with person information to be described later.
The face position attribute has, as an X attribute and a Y attribute, the X and Y coordinates of the upper left vertex of the rectangle when the face position is represented by a rectangle with the upper left vertex of the image as the origin.
The face size attribute has a rectangular width and a rectangular height when the position of the face is represented by a rectangle as a W attribute and an H attribute, respectively.
The expression attribute is a state such as whether the person is smiling or crying. The blur attribute is the degree of blur of the subject person. The blur attribute is the degree of focus on the subject.
図3(B)は、人物情報の構造を示した図である。人物情報は競技参加者が画像から認識されるごとに作成され、画像情報とは多対多の関係となる。人物ID属性は、人物情報ごとにユニークに設定されるIDである。特徴量属性は、人物の顔や服装などの特徴を表す情報である。ゼッケン番号属性は、競技参加者のゼッケン番号である。画像属性は、該人物が写っている画像のIDを画像ID属性として複数持つ。
本データ構造は一例であり、それぞれの情報をキーとして検索・取得が可能であればその他の構造で保管されていてもよい。
FIG. 3B is a diagram showing the structure of the person information. The person information is created each time a competition participant is recognized from an image, and has a many-to-many relationship with the image information. The person ID attribute is an ID uniquely set for each person information. The feature amount attribute is information representing features such as a person's face and clothes. The bib number attribute is the bib number of the competition participant. The image attribute has a plurality of IDs of images of the person as image ID attributes.
This data structure is an example, and may be stored in other structures as long as each information can be searched / acquired as a key.
以下、図2で示したブロック図の各処理部の詳細を説明する。
<被写体特定部>
図4は被写体特定部202の内部処理を説明したフローチャートである。
ステップS401では、撮影制御部201によって撮影された画像を取得する。
ステップS402では、画像中にある顔の特徴量と人物情報とを関連付ける(紐付ける)。
Details of each processing unit in the block diagram shown in FIG. 2 will be described below.
<Subject identification part>
FIG. 4 is a flowchart illustrating the internal processing of the
In step S401, an image photographed by the photographing
In step S402, the facial feature amount in the image is associated (linked) with the person information.
<顔・人物情報紐付け処理>
図5を用いてステップS402の顔・人物情報紐付け処理について詳細な説明を行う。また、具体例として、図6(A)に示す画像が入力された場合を事例とする。ただし、本ステップでは1枚の画像情報を処理して次ステップへ遷移してもよいし、複数枚の画像情報を一括して処理してもよい。
ステップS501では、入力画像から顔が存在する領域を検出する。顔検出には公知技術を用いればよく、特開平8−063597号公報においては、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定するという方法が提案されている。図6(B)に示す画像中の顔検出結果601,602,603はステップS501にて顔検出をした結果の一例である
<Face / person information linking process>
The face / person information linking process in step S402 will be described in detail with reference to FIG. Further, as a specific example, a case where the image shown in FIG. However, in this step, one piece of image information may be processed and a transition may be made to the next step, or a plurality of pieces of image information may be processed collectively.
In step S501, a region where a face exists is detected from the input image. A known technique may be used for face detection. In Japanese Patent Laid-Open No. 8-063597, a face candidate area corresponding to the shape of a human face is extracted, and the face area is determined from the feature amount in the area. Has been proposed. The
ステップS502では、人物情報群を取得する。図6(C)は取得した人物情報群の一例である。ここでは、ハードディスク103に蓄積されている2名分の人物情報を取得したとして説明を進める。
ステップS503以降は、ステップS501で検出した入力画像中の顔ごとに処理を実行する。
ステップS503は、入力画像中の顔の特徴量を算出する。ここはステップS501で用いた特徴量を流用してもよい。
In step S502, a person information group is acquired. FIG. 6C is an example of the acquired person information group. Here, the description will proceed assuming that the personal information for two persons stored in the
From step S503, the process is executed for each face in the input image detected in step S501.
In step S503, the feature amount of the face in the input image is calculated. Here, the feature amount used in step S501 may be used.
ステップS504では、S502で取得した人物情報群の各人物情報から顔の特徴量を取得する。
ステップS505では、入力画像中から検出した顔の特徴量と人物情報から取得した顔の特徴量を比較し、2つの顔の特徴量の差が閾値以内かを判定する。
判定がYES、すなわち、入力画像中から検出した顔の特徴量と人物情報から取得した顔の特徴量の差が閾値よりも小さいと判断された場合、ステップS507へ遷移し、両者を紐付ける。具体的には人物情報の画像ID属性に入力画像の画像IDを追記する。
In step S504, a facial feature amount is acquired from each piece of person information in the person information group acquired in step S502.
In step S505, the facial feature value detected from the input image is compared with the facial feature value obtained from the person information to determine whether the difference between the two facial feature values is within a threshold.
If the determination is YES, that is, if it is determined that the difference between the facial feature value detected from the input image and the facial feature value acquired from the person information is smaller than the threshold value, the process proceeds to step S507 and the two are associated. Specifically, the image ID of the input image is added to the image ID attribute of the person information.
たとえば、画像ID:101の顔検出結果601の特徴量と、人物ID A100の特徴量との差が閾値よりも小さいと判断された場合、人物ID:A100の人物情報の画像IDにID101が追記される。
判定がNO、すなわち、入力画像中から検出した顔の特徴量と人物情報から取得した顔の特徴量の差が大きいと判断された場合、ステップS504へ戻り、他の人物情報から顔の特徴量を取得する
For example, when it is determined that the difference between the feature amount of the
If the determination is NO, that is, if it is determined that the difference between the facial feature value detected from the input image and the facial feature value obtained from the person information is large, the process returns to step S504, and the facial feature value is obtained from the other personal information. To get
ステップS506は、入力画像中から取得した顔の特徴量と一致する人物情報が1つも蓄積されていなかった場合に遷移し、入力画像中から取得した顔の特徴量から新規に人物情報を生成する。
たとえば、画像ID:101の顔検出結果603は、蓄積されている全ての人物情報の顔の特徴量と比較したが、いずれの特徴量とも一致しなかった(差が閾値よりも小さいと判断されなかった)ため、人物ID:A300として新規の人物情報が生成される。
The step S506 transitions to the case where no person information matching the facial feature amount acquired from the input image has been accumulated, and newly generates personal information from the facial feature amount acquired from the input image. .
For example, the
図7はステップS402の顔・人物情報紐付け処理後の画像情報、図8は人物情報である。図3(A)と比較し、項目が存在しない属性は属性値がない状態を意味している。この段階では、人物情報の顔の特徴量と画像IDとが紐付けされているだけなので、個人の特定はされない。つまり、このデータからはゼッケン番号を用いて特定の競技者(被写体)が写っている画像を抽出することはできない。
以上がステップS402の顔・人物情報紐付け処理の詳細である。以降、図4に戻って被写体特定部の説明を続ける。
FIG. 7 shows image information after the face / person information linking process in step S402, and FIG. 8 shows person information. Compared to FIG. 3A, an attribute with no item means a state with no attribute value. At this stage, since the feature amount of the face of the person information and the image ID are only associated with each other, the individual is not specified. That is, from this data, it is not possible to extract an image showing a specific player (subject) using the bib number.
The above is the details of the face / person information linking process in step S402. Hereinafter, returning to FIG. 4, the description of the subject specifying unit will be continued.
<ゼッケン検出・認識処理>
ステップS403以降は画像情報ごと、すなわち画像IDごとに処理を実行する。
ステップS403は、入力画像からゼッケンが存在する領域、すなわち文字領域を抽出し、文字認識を実行する。
ゼッケン領域抽出(文字領域抽出)には、公知技術を用いればよく、例えば特開2009−123205号公報に開示されている技術が挙げられる。
特開2009−123205号公報では以下の方法で文字領域を抽出している。
<Number detection / recognition processing>
After step S403, the process is executed for each image information, that is, for each image ID.
In step S403, a region where a race bib exists, that is, a character region is extracted from the input image, and character recognition is executed.
For the bib region extraction (character region extraction), a publicly known technique may be used, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2009-123205.
In Japanese Patent Laid-Open No. 2009-123205, character areas are extracted by the following method.
入力画像からエッジ画像を生成し、エッジ画像から連結画素塊(Connected Component。以後「CC」と呼ぶ)を生成する。CCの大きさなどの特徴量から文字らしいと推定される候補CCの座標位置をハフ変換した結果、直線に並ぶ候補CC群を文字領域と判定する。
以上の方法により抽出したゼッケン領域(文字領域)に対し、公知の文字認識技術を実行し、ゼッケン番号を取得する。
An edge image is generated from the input image, and a connected pixel block (Connected Component, hereinafter referred to as “CC”) is generated from the edge image. As a result of the Hough transform of the coordinate positions of candidate CCs that are presumed to be characters from the feature quantity such as the size of the CC, the candidate CCs arranged in a straight line are determined to be character regions.
A known character recognition technique is executed on the bib region (character region) extracted by the above method to obtain the bib number.
図9は入力画像に対し、ゼッケン検出・認識処理を実行した後に得られるゼッケン認識結果の一例である。
実際の競技中の画像では、ゼッケンが競技者(被写体)本人の腕や、他の競技者の体に遮られたり、競技者の体の動きでゼッケンが歪んだりしてゼッケン検出が成功しない場合もあり得る。たとえば、図9(A)は、2人の競技者が写っているが、ゼッケンの検出数は1である。図9(B)は、3人の競技者が写っているが、ゼッケンの検出数は1である。
図9(C)は3人の競技者(被写体)が写っているがゼッケンの検出数は0である。競技者が写っている画像をゼッケンだけで検索してもこのような画像はヒットしない。そこで、先に生成した人物情報とゼッケンの認識結果を組み合わせて、画像に写っている被写体の個人を特定する。
図9(D)は、2人の競技者が写っているが、ゼッケンの検出数は1である。
FIG. 9 shows an example of the number recognition result obtained after executing the number detection / recognition processing on the input image.
In the actual image during competition, the race bib is not successfully detected because the race bib is obstructed by the player's (subject) 's arm or the body of another player, or the race bib is distorted by the movement of the rider's body. There is also a possibility. For example, in FIG. 9A, two athletes are shown, but the number of bib detection is one. In FIG. 9B, three athletes are shown, but the number of the race bib detected is one.
In FIG. 9C, three athletes (subjects) are shown, but the number of bibs detected is zero. Searching for an image of a competitor using only a bib will not hit such an image. Therefore, the individual of the subject in the image is specified by combining the previously generated person information and the number recognition result.
In FIG. 9D, two athletes are shown, but the number of the race bib detected is one.
ステップS404以降は、ステップS403で取得したゼッケン番号ごとに処理を実行する。
ステップS404は、画像情報に含まれる人物IDごとに、入力画像中の顔の位置とゼッケン番号の位置を比較し、ゼッケンと顔が対応するかを判定する。
具体的には、ゼッケン領域の中心から顔領域の中心までの距離が閾値以下であって、かつゼッケン領域の中心より縦方向上部に顔領域の中心が位置するという条件を満たす顔領域が存在するか判定する。前記条件を満たす顔領域が複数あった場合は、ゼッケン領域により近いものを選択する。「ゼッケン領域により近い」は、ゼッケン領域の中心から顔領域の中心までの直線距離などに基づいて判断する。
In step S404 and subsequent steps, processing is executed for each number number acquired in step S403.
In step S404, for each person ID included in the image information, the position of the face in the input image is compared with the position of the number number to determine whether the number corresponds to the face.
Specifically, there is a face area that satisfies the condition that the distance from the center of the race bib area to the center of the face area is equal to or less than a threshold value and the center of the face area is located vertically above the center of the race bib area. To determine. If there are a plurality of face areas that satisfy the condition, the face area closer to the bib area is selected. “Closer to the race bib region” is determined based on the straight line distance from the center of the race bib region to the center of the face region.
判定がYES、すなわち、対応する顔領域とゼッケン領域の組み合わせがあった場合、ステップS405へ遷移し、対応する顔領域に紐付けられた人物情報のゼッケン番号の項目に、対応するゼッケン領域から認識されたゼッケン番号を追記する。ステップS405の処理の後は入力画像中の他のゼッケン番号を取得し、さらに画像情報中の他の人物IDを取得し、ステップS404へ遷移する。
判定がNOであった場合、画像情報に含まれる他の人物IDを取得し、ステップS404へ遷移する。
If the determination is YES, that is, if there is a combination of the corresponding face area and the number area, the process proceeds to step S405, and the number number item of the person information associated with the corresponding face area is recognized from the corresponding number area. Add the bib number that was assigned. After the process of step S405, another number number in the input image is acquired, and another person ID in the image information is acquired, and the process proceeds to step S404.
If the determination is NO, another person ID included in the image information is acquired, and the process proceeds to step S404.
ステップS404、S405の処理を図10、図11を具体例として再度説明する。処理の順番は画像ID:100、画像ID:101とするが、処理の順番に特段の意図はない。
まず、画像ID:100に対して処理を実行する。
図10(A)の1003は画像ID:100の画像を入力とし、ステップS403で抽出したゼッケン領域である。1001、1002は画像ID:100の画像を入力とし、ステップS402で抽出した顔領域を表す。
The processing in steps S404 and S405 will be described again using FIGS. 10 and 11 as specific examples. The processing order is image ID: 100 and image ID: 101, but there is no particular intention in the processing order.
First, processing is performed on the image ID: 100.
ステップS404では、ゼッケン領域1003と顔領域1001、1002の位置関係を比較する。
顔領域1001はゼッケン領域1003の上方にないため、対応しないと判定する。顔領域1002はゼッケン領域1003の上方かつ近接した位置にある(距離が閾値以下である)ため、ステップS405へ遷移する。
In step S404, the positional relationship between the
Since the
ステップS405では、図10(B)に示す画像ID:100の画像情報を参照し、顔領域1002に該当する人物IDを取得する。
図10の事例では人物ID:A100が取得できる。次に、取得した人物IDの人物情報を取得し、人物情報のゼッケン属性を追記する。
具体的には、図10(C)に示す人物ID:A100の人物情報のゼッケン番号に画像ID:100で認識したゼッケン番号Z001を追記する。
対応するゼッケンが検出されなかった人物ID:A200の人物情報のゼッケン番号の属性値の情報は追記されない。
次に、画像ID:101の処理を実行する。
In step S405, the person ID corresponding to the
In the example of FIG. 10, the person ID: A100 can be acquired. Next, the personal information of the acquired personal ID is acquired, and the bib attribute of the personal information is added.
Specifically, the number number Z001 recognized by the image ID: 100 is added to the number number of the person information of the person ID: A100 shown in FIG.
Information on the attribute value of the bib number of the person information of the person ID: A200 for which no corresponding bib is detected is not added.
Next, the process of image ID: 101 is executed.
図11の1104は画像ID:101を入力とし、ステップS403で抽出したゼッケン領域である。1101、1102,1103は画像ID:101を入力とし、ステップS402で抽出した顔領域を表す。
ステップS404では、ゼッケン領域1104と顔領域1101、1102,1103の位置関係を比較する。顔領域1101はゼッケン領域1104の上方にないため、対応しないと判定する。顔領域1102、1103はともにゼッケン領域1104の上方にある。この場合、ゼッケン領域1104により近接した位置にある顔領域1102を対応する顔領域とし、ステップS405へ遷移する。
In step S404, the positional relationship between the
ステップS405では、図11(B)に示す画像ID:101の画像情報を参照し、顔領域1102に該当する人物IDを取得する。
図11の事例では人物ID:A200が取得できる。次に、取得した人物IDの人物情報を取得し、人物情報のゼッケン属性を追記する。
具体的には、図11(C)に示す人物ID:A200の人物情報のゼッケン番号に画像ID:101で認識したゼッケン番号Z200を追記する。もし、ここで取得した人物情報にすでにゼッケン番号がある場合、上書きせずに順次ゼッケン番号を追記したリストを作り、ゼッケンの文字認識結果の信頼度を元にソートしてもよい。
図11(C)は画像ID:101に含まれるゼッケン番号、人物IDをステップS404,S405ですべて処理した後の人物情報である
In step S405, the person ID corresponding to the
In the case of FIG. 11, the person ID: A200 can be acquired. Next, the personal information of the acquired personal ID is acquired, and the bib attribute of the personal information is added.
Specifically, the bib number Z200 recognized by the image ID: 101 is added to the bib number of the person information of the person ID: A200 shown in FIG. If the number information already exists in the acquired personal information, a list in which the number numbers are sequentially added without being overwritten may be created and sorted based on the reliability of the character recognition result of the number number.
FIG. 11C shows the person information after all the bib number and person ID included in the image ID: 101 are processed in steps S404 and S405.
図12は画像ID:100,101に対して実施した処理を画像ID:102,103に対しても実行した後の人物情報である。
図12(A)〜(C)いずれの人物情報にも、そのゼッケン属性に番号が入っている。したがって、まずゼッケン番号をキーにして人物情報を抽出し、次に人物情報の保持する画像IDを参照することで、特定の人物が写った画像のみを抽出することが可能になる
。
以上、被写体特定部202の内部処理について説明した。
FIG. 12 shows personal information after the processing performed on the image IDs: 100 and 101 is also performed on the image IDs: 102 and 103.
Each person information in FIGS. 12A to 12C has a number in its bib attribute. Therefore, by first extracting the person information using the bib number as a key and then referring to the image ID held by the person information, it is possible to extract only an image showing a specific person.
The internal processing of the
<画像評価量算出部>
画像評価量算出部203は、撮影制御部201から得られた画像に対して、画像評価量を算出する。
まず、1つの画像情報に対し、被写体人物情報である顔大きさ属性、表情属性、ブレ属性、ぼけ属性をそれぞれ算出し、算出値を格納する。各属性の算出には公知の技術を用いればよい。
<Image evaluation amount calculation unit>
The image evaluation
First, a face size attribute, an expression attribute, a blur attribute, and a blur attribute, which are subject person information, are calculated for each piece of image information, and the calculated values are stored. A known technique may be used to calculate each attribute.
また、画像に一緒に写り込んでいるランドマークの情報を画像情報のランドマーク属性の値に格納する。
ここでは、撮影位置属性値と、この撮影位置から撮影した場合に写り込みが予想されるランドマークとの関係を先にテーブルに用意しておき、こちらを参照することでランドマーク属性の値を決定する。そのほか、撮影するカメラの位置が競技中固定であるならば、特定の撮影カメラで撮った画像には特定のランドマークが写り込むものとして値を設定してもよい。
In addition, the information on the landmarks reflected in the image is stored in the landmark attribute value of the image information.
Here, the relationship between the shooting position attribute value and the landmark that is expected to be captured when shooting from this shooting position is prepared in a table first, and the landmark attribute value can be obtained by referring to this table. decide. In addition, if the position of the camera to be photographed is fixed during the competition, a value may be set on the assumption that a specific landmark is reflected in an image photographed by a specific photographing camera.
<画像選択部>
画像選択部204は、被写体特定部202で作成した人物情報を元に抽出した特定人物が写った画像群を対象とし、画像評価量算出部203で算出した画像評価量に基づき、前もって用意した画像評価基準に当てはめて画像を選択する。
図13(A)は、記憶部206に記憶されている画像評価基準の一例である。評価基準は大きく2つにわかれる。1つは重み付けする評価点である。これは顔の表情や顔の位置などの被写体人物情報に存在するパラメータに対し、どのパラメータを重視するかを重み付けする。もうひとつは必須条件で、ここで設定した条件を満たす画像のみ選択対象となる。
<Image selection part>
The
FIG. 13A is an example of an image evaluation criterion stored in the
評価点は画像評価量算出部203で算出した被写体人物情報の属性値を直接用いてもよいし、さらに好適な画像選択のために被写体人物情報の属性値を元にした別のパラメータや条件を設定してもよい。たとえば、画像情報がもつ人物属性の数から、画像中に写っている人物の人数が分かるので、画像評価基準1301にはこの属性値を元にした被写人物の数1302に対する条件を追加している。
For the evaluation point, the attribute value of the subject person information calculated by the image evaluation
また、単に顔大きさ属性だけで重み付けすると、図13(B)に示すように手前の人物1304の顔は十分大きく写っているため、図13(B)に示す画像が人物1304にとって好適な画像として選択される可能性がある。しかし、人物1304は写真の端に位置しているので、人物1304が写っている画像群の中で図13(B)に示す画像の評価は低いとも考えられる。よって、顔領域の中心から画像中央までの距離を別途算出し、この距離を「顔位置の中央からの距離」1303として画像評価基準に追加している。
画像評価基準はフォトアルバムのテンプレートにおける画像の配置位置ごとに切り替えられる。
Further, if weighting is simply performed using only the face size attribute, the face of the
The image evaluation criterion is switched for each image arrangement position in the photo album template.
図14(A)はフォトアルバムのテンプレートと画像評価基準の関係の一例である。配置位置1401では評価1に基づいて選出した画像を配置する。同じく、配置位置1408では、評価3に基づいて選出した画像を配置する。
テンプレートにおける配置位置ごとに評価基準を設定するのではなく、全ての配置位置について基本の評価基準は同じとして、配置位置ごとにさらに追加の評価基準を設けるとしてもよい。
FIG. 14A shows an example of the relationship between a photo album template and image evaluation criteria. In the
Instead of setting an evaluation criterion for each arrangement position in the template, the basic evaluation standard may be the same for all arrangement positions, and an additional evaluation criterion may be provided for each arrangement position.
たとえば、配置位置1402,1403,1407の画像評価基準は評価2としておく。評価2はランドマークの属性値があることが必須条件になっている。これに加えて、それぞれの配置ごとに写り込むランドマークを特定する。たとえば、配置位置1402ではランドマーク=”○○橋”、配置位置1403ではランドマーク=”丸の内ビル群”、配置位置1407ではランドマーク=”××タワー”と追加の基準を設けておく。
また、配置位置1404,1405,1406の画像評価基準は評価4としておき、1404,1405,1406においては画像を時間順で並べるという追加の基準を設けておく。
For example, the image evaluation standard of the arrangement positions 1402, 1403, and 1407 is set to
In addition, the image evaluation standard of the arrangement positions 1404, 1405, and 1406 is set as an
以上の画像評価基準に基づき、特定人物が写った画像群を選択し、テンプレートに画像を配置した例が図14(B)である。
この画像配置処理は多数の画像に対して得点付けを行い分類・選択を行うことが前提であるが、参加者によっては画像の提示を行うために十分な画像の量が存在しないことがある。以下、画像の参加者ごとの偏りをなくすための撮影指示部205の処理の詳細を説明する。
FIG. 14B shows an example in which an image group showing a specific person is selected based on the above image evaluation criteria and an image is arranged on a template.
This image placement process is premised on scoring and classifying / selecting a large number of images, but some participants may not have a sufficient amount of images to present the images. Hereinafter, the details of the processing of the
<撮影指示部>
図15(A)は、撮影装置と、その撮影装置に撮影指示を送信する際の送信先アドレスと、その撮影装置が配置された撮影地点のスタート地点からの距離の例を示したものである。図15(B)は競技大会開始1時間30分後の画像情報、人物情報の例を図示したものである。図15(A)および(B)に示す表は、記憶部206に記憶されている。
図15(A)の表1501に示す情報は、撮影装置とそのアドレス(例えば、IPアドレス)その設置位置(配置位置)に関する情報である。これは競技大会前から予め有している静的な情報である。
撮影装置Aがスタートから0kmすなわちスタート地点、撮影装置Bが4km地点、撮影装置Cが8km地点、撮影装置Dが12km地点、撮影装置Eが16km、撮影装置Fが20km、撮影装置Zが42.195km地点であることを示している。撮影装置Aにより撮影された画像情報は、撮影位置属性に0という値が入る。
<Shooting instruction unit>
FIG. 15A shows an example of a photographing apparatus, a transmission destination address when a photographing instruction is transmitted to the photographing apparatus, and a distance from the start point of the photographing point where the photographing apparatus is arranged. . FIG. 15B illustrates an example of image information and
Information shown in a table 1501 in FIG. 15A is information regarding an imaging device and its address (for example, an IP address) and its installation position (arrangement position). This is static information that has been held before the competition.
The shooting device A is 0 km from the start, that is, the starting point, the shooting device B is 4 km point, the shooting device C is 8 km point, the shooting device D is 12 km point, the shooting device E is 16 km, the shooting device F is 20 km, and the shooting device Z is 42. It shows that it is a 195km point. The image information captured by the imaging apparatus A has a value of 0 in the imaging position attribute.
図15(B)の1502は、競技大会開始1時間30分後の人物情報と該人物情報に紐付いた画像情報をまとめた表である。1行目は人物情報につけられた人物ID、2行目はゼッケン番号である。3行目には人物情報の画像属性の持つ画像IDの数をカウントした数を画像枚数として記載している。4行目は、人物情報の画像属性の持つ画像IDの中で、最も撮影時刻が新しい画像の画像IDである。5行目は、最新の画像の撮影時刻である。本実施形態では競技大会の開始時刻を「0:0」とした場合の時刻(つまり、「開始時刻からの経過時間」)である。
6行目は、最新の画像の撮影位置である。本実施形態では競技大会のスタート地点からの道程の長さである。例えば、人物IDがZ01である人物は、ゼッケン番号が02番であり、画像枚数25枚、最新画像IDはI77である。IDがI77の画像は、撮影時刻が競技開始後1時間27分で、撮影位置はスタート地点から20kmである。本実施形態では説明の都合上、参加者を6名としているがもちろんこの数字に限られるものではない。本システムは数十人、数百人あるいはそれ以上の規模の競技大会の撮影を想定している。
以下、撮影指示部205の処理について、競技大会1時間30分経過時点でのデータ(表1501、1502に示すデータ)を入力の例として説明する。
The sixth line is the shooting position of the latest image. In this embodiment, it is the length of the journey from the starting point of the competition. For example, the person whose person ID is Z01 has the
Hereinafter, the processing of the
図16は、撮影指示部205の処理を詳細に説明したフローチャートである。
ステップS1601乃至S1604を画像処理装置100で実施し、ステップS1605およびS1606を撮影装置110で実施する。
ステップS1601では、撮影指示の対象となる人物を特定する。例えば、人物情報の持つ画像IDの数、すなわち写っている写真の枚数、が最も少ない人物を撮影指示の対象となる人物として特定、その人物の人物情報を取得する。図15(B)の入力例では、画像枚数が7枚のZ03の人物情報を処理対象として取得し、ステップS1602へ進む。本実施形態では説明のために最も少ない人物としているが、撮影画像枚数属性の値が所定値以下という条件で複数の人物情報を取得してもよい。その場合は、ステップS1602以降の処理を取得した人物情報の数だけ繰り返す。
FIG. 16 is a flowchart illustrating in detail the processing of the
Steps S1601 to S1604 are performed by the
In step S1601, the person who is the subject of the shooting instruction is specified. For example, the person with the smallest number of image IDs held by the person information, that is, the number of photographed images, is specified as the person who is the subject of the shooting instruction, and the person information of the person is acquired. In the input example of FIG. 15B, Z03 personal information with seven images is acquired as a processing target, and the process advances to step S1602. In the present embodiment, the number of persons is the smallest for the sake of explanation, but a plurality of pieces of person information may be acquired under the condition that the value of the number of captured images attribute is equal to or less than a predetermined value. In that case, the processes in and after step S1602 are repeated as many times as the number of acquired personal information.
ステップS1602では、ステップS1601で取得した人物情報の持つ画像IDから画像情報を取得し、その中で最も撮影時刻が新しい画像情報を取得する。画像中から識別されて作成された人物情報に関しては、必ず1つ以上の画像情報が得られる。図15(B)より、Z03の人物IDに紐付けられた最新画像IDはI53である。画像I53の撮影時刻として1時間12分、撮影位置として12kmを取得し、ステップS1603へ進む。 In step S1602, the image information is acquired from the image ID of the person information acquired in step S1601, and the image information with the newest shooting time is acquired. As for the person information identified and created from the image, at least one piece of image information is always obtained. From FIG. 15B, the latest image ID associated with the person ID of Z03 is I53. 1 hour and 12 minutes are acquired as the imaging time of the image I53 and 12 km are acquired as the imaging position, and the process proceeds to step S1603.
ステップS1603では、現在位置(以下「現在地点」とも記載する)を予測する。具体的には、ステップS1602で取得した画像情報の撮影位置の情報を取得し、現在位置を予測する。
予測された現在位置から、撮影指示対象人物が次に通過する撮影地点(次の撮影地点)を特定する。
その後、次の撮影地点を通過する時刻、または次の撮影地点を通過する時刻は現在時刻から何分何秒後かを予測する。
本実施形態では、まず、最新画像の撮影位置(スタート地点からの距離)を最新画像の撮影時刻(競技開始時刻からの経過時間)で除算することで平均速度を取得する。
次に、取得した平均速度と、競技開始時刻から現在時刻までの経過時間とを乗算することで現在地点を予測する。
通過予測時間は、「スタート地点から撮影地点までの距離をステップS1603で得た平均時速で除算して得られる時間」から「競技開始時刻から現在時刻までに経過した時間」を減算することによって算出すればよい。 ステップS1602で取得した最新画像の撮影位置12kmを撮影時刻の1時間12分(1.2時間)で除算してやることで、平均速度として時速10kmが得られる。そして、平均速度と現在時刻1時間30分(1.5時間)とを乗算することによって、人物IDがZ03の人物の現在位置は15km地点であると予測され、ステップS1604へ進む。
この手法は一例であって、例えば該人物の写る全画像情報の撮影位置、撮影時刻から2次元の座標上にマッピングを行い、曲線近似式を求め、次の撮影地点を予測するなどの手法を用いてもよい。
In step S1603, the current position (hereinafter also referred to as “current position”) is predicted. Specifically, information on the shooting position of the image information acquired in step S1602 is acquired, and the current position is predicted.
A shooting point (next shooting point) through which the shooting instruction target person passes next is specified from the predicted current position.
After that, the time for passing the next shooting point or the time for passing the next shooting point is predicted how many minutes and seconds after the current time.
In this embodiment, first, the average speed is acquired by dividing the shooting position of the latest image (distance from the start point) by the shooting time of the latest image (elapsed time from the competition start time).
Next, the current location is predicted by multiplying the acquired average speed by the elapsed time from the competition start time to the current time.
The estimated passing time is calculated by subtracting “the time elapsed from the competition start time to the current time” from “the time obtained by dividing the distance from the start point to the shooting point by the average speed obtained in step S1603”. do it. By dividing the
This method is an example. For example, mapping is performed on two-dimensional coordinates from the shooting position and shooting time of all image information in which the person is photographed, a curve approximation formula is obtained, and the next shooting point is predicted. It may be used.
ステップS1604では、画像処理装置100がステップS1603で求めた現在地点を元に、人物IDがZ03の人物が次に通過する撮影地点の撮影装置(以下「次の撮影装置」とも記載する)を特定し、この撮影装置に人物情報を送信する。図15(A)の表1501に示すデータから、次の撮影装置は撮影地点16kmにある撮影装置Eであることがわかる。よって、人物IDがZ03である人物の人物情報を16km地点の撮影装置Eに送信し、ステップS1605へ進む。また、次の撮影装置に限らず今後通過が予測される撮影装置全てに送信してもよい。
In step S1604, based on the current location obtained by the
ステップS1605では、撮影装置EがステップS1604で送信された人物情報を受信し、ステップS1606へ進む。
ステップS1606では、撮影装置EがステップS1605で受信した人物情報をUI(ユーザインタフェース)に表示することによって、撮影装置Eの撮影者へ人物IDがZ03である人物を撮影するように促し、処理を完了する。
In step S1605, the photographing apparatus E receives the person information transmitted in step S1604, and the process proceeds to step S1606.
In step S1606, the person information received by the photographing apparatus E in step S1605 is displayed on a UI (user interface), thereby prompting the photographer of the photographing apparatus E to photograph a person whose person ID is Z03, and processing. Complete.
図17は、撮影装置110のUIであるディスプレイ115への通知の表示例である。図17(A)の1701は、ステップS1605で受信したZ03の人物情報である。人物情報として、本例では、上からゼッケン番号の03、現在の撮影枚数、撮影地点の通過予測時間を表示している。「通過予測時間」は、現在時刻から通過予測時刻までの時間を意味し、通過予測時刻は「Z03の人物が、Z03の人物の人物情報を受信した撮影装置が配置されている撮影地点を通過すると予測される時刻」を意味する。
通過予測時間は、通過予測時刻から現在時刻を減算することによって算出することができる。
FIG. 17 is a display example of a notification on the
The predicted passage time can be calculated by subtracting the current time from the predicted passage time.
1702は、人物情報に紐付いた画像から、対象人物を切り抜きした画像を表示している。このような画像情報をステップS1604およびS1605で人物情報に加えて送受信することで、撮影者に撮影対象の情報を視覚的に通知することが可能となる。撮影者はこれらの情報を元に参加者を探し、対象が見つかれば重点的に撮影を行うことができる。
以上説明した通り、実施形態1によれば、撮影枚数に偏りがあっても、撮影者にその旨を通知して撮影を促し、撮影者が通知内容に従って撮影することによって撮影枚数の偏りを減らし、ユーザに十分な枚数の画像を提示することが可能となる。
As described above, according to the first embodiment, even if there is a bias in the number of shots, the photographer is notified of the fact and the shooting is encouraged, and the photographer shoots according to the notification content to reduce the bias in the number of shots. It is possible to present a sufficient number of images to the user.
[実施形態2]
実施形態1では、ステップS1601において、撮影枚数の量の少ない人物を撮影指示対象としたが、画像評価量算出部203で算出した画像評価量を用いて撮影指示対象を選んでもよい。
例えば、ぼけのない、つまり参加者の顔に焦点があっており、カメラや参加者の動きによってブレが生じていない画像を、成功画像として枚数を計算し、成功画像の枚数が最も少ない参加者を撮影が必要な対象として選択する。
[Embodiment 2]
In the first embodiment, in step S1601, a person with a small number of shots is set as the shooting instruction target. However, the shooting instruction target may be selected using the image evaluation amount calculated by the image evaluation
For example, a participant who has the least number of successful images by calculating the number of images that are not blurred, that is, the focus on the participant's face, and that is not blurred by the movement of the camera or participant as a successful image. Is selected as an object that needs to be shot.
図18(A)に示す表1801は、1時間30分時点のデータをまとめた図15(B)の表に、画像評価量算出部203で算出した評価量を追加したものである。4行目に、成功画像の枚数が追加されている。表1801の場合、成功画像の枚数の最も少ない人物Z06を撮影指示対象として選択する。
撮影指示対象となる人物を特定した後のステップS1602乃至ステップS1606の処理は実施形態1と同様のため説明を省略する。
A table 1801 shown in FIG. 18A is obtained by adding the evaluation amount calculated by the image evaluation
Since the processing from step S1602 to step S1606 after specifying the person who is the subject of the imaging instruction is the same as that in the first embodiment, the description thereof is omitted.
その他、ブレやぼけ以外の指標、例えば人物が十分な大きさで写っている枚数が最も少ない人物を指示対象者として選んでもよい。
図18(A)の表1801の5行目は、人物がアップ、つまり大写しで写っている枚数の情報である。大写しであるかどうかは、顔検出時の顔領域の大きさ情報(幅、高さ)に基づいて判断すればよい。表1801の場合では、人物IDがZ04である人物がアップ画像の枚数が最も少ないため、撮影指示対象の人物として特定される。撮影指示対象の人物が特定された後は、実施形態1と同様にステップS1602乃至ステップS1606の処理を行う。
図17(B)は、アップ画像の枚数が最も少ないために、人物IDがZ04である人物が撮影指示対象の人物として特定された場合の指示UIを図示したものである。領域1711に、大写しでの撮影を促す指示メッセージとして「アップで写して下さい」が表示されている。
以上説明した通り、実施形態2によれば、写りのよい写真や、大写しの写真などの枚数に不足・偏りがある場合に、撮影者にその旨を通知して不足している写真の撮影を促すことが可能となる。
In addition, an index other than blurring and blurring, for example, the person with the smallest number of people in a sufficient size may be selected as the instruction target person.
The fifth line of the table 1801 in FIG. 18A is information on the number of people who are up, that is, a large image. Whether or not the image is a large copy may be determined based on the size information (width and height) of the face area at the time of face detection. In the case of Table 1801, the person whose person ID is Z04 has the smallest number of up images, and is therefore identified as the person who is the subject of the shooting instruction. After the person to be imaged is specified, the processing from step S1602 to step S1606 is performed as in the first embodiment.
FIG. 17B illustrates an instruction UI when a person whose person ID is Z04 is identified as a person who is a photographing instruction target because the number of up images is the smallest. In a
As described above, according to the second embodiment, when there is a deficiency / bias in the number of good-looking photos or large-sized photos, the photographer is notified so that the lacking photos can be taken. It is possible to prompt.
[実施形態3]
実施形態1では、撮影された画像枚数の少ない人物を撮影指示対象とした。また実施形態2では所定の画像(アップ画像など)の枚数が少ない人物を撮影指示対象とした。しかし、画像の総枚数が多く、かつ所定の画像(アップ画像など)が所定枚数以上あったとしても、複数の評価基準の中の特定の評価基準を満たす画像枚数が少なくフォトアルバムのテンプレートの画像位置の一部に画像が配置できないこともある。
このため、ステップS1601において、複数の評価基準のいずれかについて必須条件を満たす画像の枚数が所定値より少ない人物を、撮影指示対象として特定するとしてもよい。
[Embodiment 3]
In the first embodiment, a person with a small number of captured images is set as a shooting instruction target. In the second embodiment, a person with a small number of predetermined images (such as an up image) is set as a shooting instruction target. However, even if the total number of images is large and there are more than a predetermined number of predetermined images (up images, etc.), the number of images satisfying a specific evaluation criterion among a plurality of evaluation criteria is small, and the photo album template image An image may not be arranged at a part of the position.
For this reason, in step S1601, a person whose number of images satisfying the indispensable condition for any one of the plurality of evaluation criteria is less than a predetermined value may be specified as an imaging instruction target.
図21(A)に示す表2101は、1時間30分時点のデータをまとめた図18(A)の表に、各評価の必須条件を満たす画像の枚数を追加したものである。
図21(A)の表2101の10行目は評価1の必須条件を満たす画像の枚数、11行目は評価2の必須条件を満たす画像の枚数、12行目は評価3の必須条件を満たす画像の枚数、13行目は評価4の必須条件を満たす画像の枚数をそれぞれ示す。
A table 2101 shown in FIG. 21A is obtained by adding the number of images that satisfy the essential conditions for each evaluation to the table of FIG.
In FIG. 21A, the 10th line of the table 2101 is the number of images satisfying the essential condition of
図21(B)に示す表2102は画像評価基準の一例である。必須条件の4行目は必要枚数である。
表2101の場合、人物IDがZ01である人物の評価4の必須条件を満たす画像の枚数は「2」であるから、評価4の必要枚数「3以上」を満たさない。このため人物IDがZ01である人物は、ステップS1601において、撮影指示対象の人物として特定される。
撮影指示対象の人物が特定された後は、実施形態1と同様にステップS1602乃至ステップS1606の処理を行う。
A table 2102 illustrated in FIG. 21B is an example of an image evaluation criterion. The required number of lines is the required number.
In the case of Table 2101, since the number of images satisfying the essential condition of
After the person to be imaged is specified, the processing from step S1602 to step S1606 is performed as in the first embodiment.
これにより、図14(A)に示すようなテンプレートを用いて、図14(B)に示すようなフォトアルバムを作成するために、様々な評価基準を満たす画像を参加者に提示する場合に、特定の評価基準を満たす画像が不足するという事態の発生を防ぐことができる。
以上説明した通り、実施形態3によれば、フォトアルバムのテンプレートの各画像位置に配置する画像が必要枚数未満となることを回避することができる。
Thereby, in order to create a photo album as shown in FIG. 14 (B) using a template as shown in FIG. 14 (A), when an image satisfying various evaluation criteria is presented to a participant, It is possible to prevent the occurrence of a situation where there is a shortage of images that satisfy a specific evaluation criterion.
As described above, according to the third embodiment, it is possible to avoid that the number of images arranged at each image position of the photo album template is less than the required number.
[実施形態4]
実施形態1乃至実施形態3では、現在地点を割り出し、次に通過する撮影装置にて撮影指示を行ったが、不足する画像に対して、好適な撮影が可能な撮影装置に撮影指示をさせてもよい。
図18(A)の表1801の6行目は、ランドマークが写った画像の枚数の情報である。実施形態1および2におけるステップS1601の処理で、ランドマークが撮影された画像の枚数の最も少ない人物を撮影指示対象として選択する。
[Embodiment 4]
In the first to third embodiments, the current location is determined, and a shooting instruction is given by the next shooting apparatus. However, for a shortage of images, the shooting apparatus that can perform suitable shooting is instructed to take a shooting instruction. Also good.
The sixth line of the table 1801 in FIG. 18A is information on the number of images in which landmarks are shown. In the processing in step S1601 in the first and second embodiments, the person with the smallest number of images in which the landmarks are photographed is selected as the photographing instruction target.
図18(B)の表1802は、図15(A)の表1501の4行目にランドマーク情報を付加したものである。「○」はランドマークを撮影可能な撮影地点であることを示し、「×」はランドマークを撮影不可能な撮影地点であることを示す。ランドマークは撮影場所によって、写り込むか否かがわかるため、事前に撮影装置ごとに情報を持たせておくことで、撮影された画像がランドマークを含む画像かを判別することができる。もちろん、公知の画像オブジェクト認識技術などを用いて、ランドマークを認識して情報を付加してもよい。 A table 1802 in FIG. 18B is obtained by adding landmark information to the fourth row of the table 1501 in FIG. “◯” indicates that the landmark can be photographed, and “x” indicates that the landmark cannot be photographed. Since it can be determined whether or not the landmark is reflected depending on the shooting location, it is possible to determine whether the shot image includes the landmark by providing information for each shooting device in advance. Of course, a landmark may be recognized and information may be added using a known image object recognition technique or the like.
表1801の例では、ランドマークが撮影された画像が最も少ない人物Z05が撮影指示対象として選択される。ステップS1602では、実施形態1と同様に人物Z05の画像を取得し、ステップS1603ではZ05と紐付けられた最も新しい画像I65の撮影時刻、撮影位置から現在位置を予測する。計算の結果1時間30分時点では、14.4km地点にいると予測される。
In the example of the table 1801, the person Z05 having the smallest image in which the landmark is photographed is selected as the photographing instruction target. In step S1602, an image of the person Z05 is acquired as in the first embodiment, and in step S1603, the current position is predicted from the shooting time and shooting position of the newest image I65 associated with Z05. As a result of the calculation, it is predicted that the vehicle is at the 14.4 km point at 1
ステップS1604では、実施形態1と同様の方法で次の撮影装置を求めると撮影地点16kmにある撮影装置Eとなる。しかしE地点にはランドマークが存在しないため、ランドマーク撮影可能な次の撮影地点は撮影地点20kmにある撮影装置Fとなり、撮影装置Fに人物情報を送信する。
本実施形態で説明した評価は一例であり、その他の方法で得点付けされた画像の枚数に基づいて、好適な撮影可能な撮影装置へ撮影指示を行ってもよい。
以上説明した通り、実施形態4によれば、ランドマークなど特定の撮影装置でのみ撮影可能な画像を、適切な撮影装置にて通知することで撮影を促すことが可能となる。
In step S1604, when the next photographing apparatus is obtained by the same method as in the first embodiment, the photographing apparatus E at the photographing point 16km is obtained. However, since there is no landmark at the E point, the next shooting point where the landmark can be shot is the shooting device F at the shooting point 20 km, and the person information is transmitted to the shooting device F.
The evaluation described in the present embodiment is an example, and based on the number of images scored by other methods, a photographing instruction may be issued to a suitable photographing device.
As described above, according to the fourth embodiment, it is possible to prompt photographing by notifying an appropriate photographing device of an image that can be photographed only by a specific photographing device such as a landmark.
[実施形態5]
実施形態1では撮影者にUIによって通知するのみであったが、人物情報のもつ特徴量を用いて、撮影装置110の被写体検出部214が自動で人物を検出・認識してもよい。
図19は、競技大会中に撮影装置110にて、カメラユニット114が取得した画像をディスプレイ115に表示している例である。本実施形態ではカメラユニット114は、定期的に外光を取得し、ディスプレイ115上に表示されている。撮影者がディスプレイ115を確認しながら操作ユニット116でシャッター操作を行うと、CPU111で画像符号化などの処理を行い、記録メディア113に保存する仕組みになっている。
[Embodiment 5]
In the first embodiment, the photographer is only notified by the UI, but the
FIG. 19 shows an example in which an image acquired by the
図20は、図16のステップS1605および、その後の処理を示したフローチャートである。図19(A)の画像を入力例として、図20のフローチャートを用いて処理の詳細を説明する。
ステップS1605で、撮影装置は撮影指示対象の人物情報を受信し、ステップS2001へ進む。本実施形態では、人物IDがZ06である人物が撮影指示対象であるとする。
FIG. 20 is a flowchart showing step S1605 of FIG. 16 and subsequent processing. The details of the processing will be described using the image of FIG. 19A as an input example and the flowchart of FIG.
In step S1605, the photographing apparatus receives the person information of the photographing instruction target, and proceeds to step S2001. In the present embodiment, it is assumed that a person whose person ID is Z06 is a shooting instruction target.
ステップS2001では、図19(A)の115のライブ画像が取得され、ステップS2002へ進む。
ステップS2002では、顔検出の処理を行い、ライブ画像115から結果として3つの顔領域1901、1902、1903を検出し、ステップS2003へ進む
ステップS2003では、被写体検出部214によって検出された顔領域ごとに処理を行う。顔領域1901、1902、1903の順に処理を行い、まず顔領域1901を処理対象として、顔領域1901の特徴量が撮影指示対象(人物IDがZ06の人物)の人物情報の特徴量と一致するかを判断する。一致しなければ、次の顔領域1902を処理対象としてステップS2003の処理を再度実行する。「特徴量が一致する」とは、2つの特徴量の差が所定の閾値以内であることを意味する。
2度目のステップS2003では、顔領域1902の特徴量と、撮影指示対象(人物IDがZ06の人物)の人物情報の特徴量が一致するため、ステップS2004へ進む。
ステップS2004では、UIでの強調表示や撮影設定などを行い、ステップS2001へ進み、次のタイミングの画像に対しても同様の処理を行う。
In step S2001, the
In step S2002, face detection processing is performed, and as a result, three
In the second step S2003, since the feature amount of the
In step S2004, UI highlighting, shooting settings, and the like are performed, and the process advances to step S2001 to perform the same processing for the next timing image.
図19(B)は、撮影指示対象であると判断された顔領域1902に、要撮影被写体であることを示す「要撮影者」という文字列をガイド1911と共に表示した例である。この様に自動で撮影指示対象の認識を行い、ガイドを表示することで、撮影者が撮影対象者を発見しやすくなるように支援することができる。
また、ガイド表示は一例であり、その他の処理を行ってもよい。
例えば、撮影指示対象を認識した際に、自動焦点調節部215によって撮影指示対象に合焦したり、自動露出制御部216によって露出合わせを行ったり、連写モードに変更することで失敗写真を減らしたり、撮影装置が自動で撮影を行ってもよい。
以上説明した通り、実施形態5によれば、撮影指示対象者が撮影可能なことを提示し、重点的に撮影をすることが容易にできる。
FIG. 19B shows an example in which a character string “photographer required” indicating a subject to be photographed is displayed together with a
Further, the guide display is an example, and other processing may be performed.
For example, when the shooting instruction target is recognized, the auto
As described above, according to the fifth embodiment, it is possible to show that the person to be instructed to shoot can shoot and to easily focus on shooting.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
100 画像処理装置
101 CPU
102 メモリ
103 ハードディスク
104 ネットワークI/F
110 撮影装置
111 CPU
112 メモリ
113 記録メディア
114 カメラユニット
115 ディスプレイ
116 操作ユニット
117 ネットワークI/F
120 ネットワーク
200 撮影部
201 撮影制御部
202 被写体特定部
203 画像評価量算出部
204 画像選択部
205 撮影指示部
206 記憶部
213 表示部
214 被写体検出部
215 自動焦点調節部
216 自動露出制御部
217 フレーミング支援部
100
102
110
112
Claims (13)
前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを記憶する記憶手段と、
受信した前記画像中に写っている被写体ごとにタグ付けし、前記タグ付けされた被写体ごとに前記被写体が撮影された画像の枚数を算出し、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する特定手段と、
前記要撮影被写体が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影被写体が前記指示送信地点に到達する時刻を算出し、
前記要撮影被写体の被写体情報の少なくとも一部および
前記算出された時刻
を少なくとも含む撮影指示を生成する生成手段と、
前記撮影指示を、前記指示送信地点において使用されている前記撮影装置に送信する送信手段と
を有することを特徴とする画像処理装置。 An image processing device that receives images from each of a plurality of photographing devices used at each photographing point in order to photograph an event in which a plurality of subjects pass through a plurality of photographing points in a predetermined order,
Storage means for storing the correspondence between the photographing device and the photographing point where the photographing device is used, and the number of images that need to be photographed;
Tagging is performed for each subject appearing in the received image, and the number of images in which the subject is photographed is calculated for each tagged subject, and the number of photographed images is required to be photographed. A specifying means for specifying a subject that is less than the number of images as a subject to be photographed;
Specifying at least one of the shooting points through which the subject subject to be photographed passes after the current time as an instruction transmission point, and calculating a time at which the subject subject to photograph reaches the instruction transmission point;
Generating means for generating a shooting instruction including at least a part of the subject information of the subject to be shot and at least the calculated time;
An image processing apparatus comprising: a transmission unit configured to transmit the photographing instruction to the photographing apparatus used at the instruction transmission point.
少なくとも1つの画像評価基準と評価基準ごとの撮影が必要な画像の枚数をさらに記憶し、
前記特定手段は、
前記評価基準ごとに、前記評価基準を満たす画像の枚数を算出し、前記評価基準ごとの撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する
ことを特徴とする請求項1に記載の画像処理装置。 The storage means
Further storing at least one image evaluation criterion and the number of images that need to be photographed for each evaluation criterion;
The specifying means is:
The number of images satisfying the evaluation criterion is calculated for each of the evaluation criteria, and a subject that does not satisfy the number of images that need to be photographed for each of the evaluation criteria is identified as a subject to be photographed. The image processing apparatus described.
第1の撮影地点と、第2の撮影地点と、前記第1および第2の撮影地点から撮影可能なランドマークとの対応関係を記憶し、かつ
前記ランドマークが撮影されていることを必須条件とする第1の評価基準を前記評価基準の一部として記憶し、
前記特定手段は、
前記第1の撮影地点を通過したが、前記第1の評価基準を満たす画像が前記第1の評価基準における撮影が必要な枚数に満たない被写体を要撮影被写体として特定し、
前記生成手段は、
前記第1の評価基準を満たす画像が前記第1の評価基準における撮影が必要な枚数に満たない被写体の被写体情報を含み、かつ前記第2の撮影地点の撮影装置を送信先とする撮影指示を生成することを特徴とする請求項2又は3に記載の画像処理装置。 The storage means
An essential condition is that the correspondence between the first shooting point, the second shooting point, and the landmarks that can be shot from the first and second shooting points is stored, and that the landmark is shot. And storing the first evaluation criterion as a part of the evaluation criterion,
The specifying means is:
A subject that has passed through the first shooting point but does not satisfy the number of images required for shooting in the first evaluation criterion as an image that satisfies the first evaluation criterion is identified as a subject to be shot.
The generating means includes
A shooting instruction in which an image satisfying the first evaluation criterion includes subject information of a subject that does not satisfy the number of images required for photographing according to the first evaluation criterion, and the photographing device at the second photographing point is a transmission destination. The image processing apparatus according to claim 2, wherein the image processing apparatus generates the image processing apparatus.
前記被写体情報として前記要撮影被写体の特徴量を含む撮影指示を生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The generating means includes
The image processing apparatus according to claim 1, wherein a shooting instruction including a feature amount of the subject to be shot is generated as the subject information.
被写体を撮影して映像信号を出力する撮影手段と、
撮影した画像を送信する送信手段と、
通過することが予測される要撮影被写体の特徴量を含む被写体情報、および前記被写体が通過すると予測される時刻を受信する受信手段と、
前記被写体情報および
前記通過すると予測される時刻または前記通過すると予測される時刻から現在時刻を減算して得られる時間
を表示する表示手段と
を有することを特徴とする撮影装置。 An imaging device used at each imaging point to capture an event in which a plurality of subjects pass through a plurality of imaging points in a predetermined order,
Photographing means for photographing a subject and outputting a video signal;
A transmission means for transmitting the captured image;
Receiving means for receiving subject information including a characteristic amount of a subject requiring photographing that is predicted to pass, and a time at which the subject is predicted to pass;
An imaging apparatus comprising: the subject information; and a display means for displaying the time predicted to pass or the time obtained by subtracting the current time from the time predicted to pass.
をさらに有することを特徴とする請求項6に記載の撮影装置。 A subject for detecting a subject to be photographed from subjects in the live image by comparing the received feature amount of the subject to be photographed with the feature amount of the subject in the live image displayed on the display means. Detection means,
The imaging apparatus according to claim 6, further comprising:
をさらに有することを特徴とする請求項7に記載の撮影装置。 Automatic focus adjustment means for performing focus adjustment so as to focus on a subject to be detected detected by the subject detection means;
The photographing apparatus according to claim 7, further comprising:
をさらに有することを特徴とする請求項7または8に記載の撮影装置。 Automatic exposure control means for controlling the exposure value based on the luminance of a predetermined area including the subject to be detected detected by the subject detection means;
The photographing apparatus according to claim 7, further comprising:
をさらに有することを特徴とする請求項7乃至9のいずれか1項に記載の撮影装置。 Framing support means for supporting framing for a subject requiring photographing detected by the subject detection means;
The imaging apparatus according to claim 7, further comprising:
前記撮影装置と、前記撮影装置が使用されている前記撮影地点との対応関係と、撮影が必要な画像の枚数とを予め記憶する記憶工程と、
受信した前記画像中に写っている被写体ごとにタグ付けし、前記タグ付けされた被写体ごとに前記被写体が撮影された画像の枚数を算出し、前記撮影された画像の枚数が前記撮影が必要な画像の枚数に満たない被写体を要撮影被写体として特定する特定工程と、
前記要撮影被写体が現在時刻後に通過する少なくとも1つの前記撮影地点を指示送信地点として特定し、前記要撮影被写体が前記指示送信地点に到達する時刻を算出し、
前記要撮影被写体の被写体情報の少なくとも一部および
前記算出された時刻
を少なくとも含む撮影指示を生成する生成工程と、
前記撮影指示を、前記指示送信地点において使用されている前記撮影装置に送信する送信工程と
を有することを特徴とする画像処理方法。 An image processing method for processing images received from each of a plurality of photographing devices used at each photographing point in order to photograph an event in which a plurality of subjects pass a plurality of photographing points in a predetermined order,
A storage step of storing in advance the correspondence between the photographing device and the photographing point where the photographing device is used, and the number of images that need to be photographed;
Tagging is performed for each subject appearing in the received image, and the number of images in which the subject is photographed is calculated for each tagged subject, and the number of photographed images is required to be photographed. A specific step of identifying a subject that is less than the number of images as a subject to be photographed;
Specifying at least one of the shooting points through which the subject subject to be photographed passes after the current time as an instruction transmission point, and calculating a time at which the subject subject to photograph reaches the instruction transmission point;
Generating a shooting instruction including at least a part of subject information of the subject to be shot and at least the calculated time;
An image processing method comprising: a transmission step of transmitting the imaging instruction to the imaging device used at the instruction transmission point.
A program for causing a computer to execute each step of the image processing method according to claim 12.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013273431A JP2015128259A (en) | 2013-12-27 | 2013-12-27 | Image processing device, photographing device, photographing system, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013273431A JP2015128259A (en) | 2013-12-27 | 2013-12-27 | Image processing device, photographing device, photographing system, image processing method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015128259A true JP2015128259A (en) | 2015-07-09 |
Family
ID=53838056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013273431A Pending JP2015128259A (en) | 2013-12-27 | 2013-12-27 | Image processing device, photographing device, photographing system, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015128259A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016110560A1 (en) | 2015-06-26 | 2016-12-29 | Toyota Jidosha Kabushiki Kaisha | Fuel cell system and method for controlling a fuel cell |
JP2017069618A (en) * | 2015-09-28 | 2017-04-06 | 京セラ株式会社 | Electronic apparatus and imaging method |
JP2017161993A (en) * | 2016-03-07 | 2017-09-14 | 富士フイルム株式会社 | Image processing device, image processing method, program and recording medium |
JP2021005744A (en) * | 2019-06-25 | 2021-01-14 | Kddi株式会社 | Server, client, program and method for forming object video |
JP2021052279A (en) * | 2019-09-24 | 2021-04-01 | 大日本印刷株式会社 | Photographing terminal, management device, photographing system, photographing method, and program |
WO2021250814A1 (en) * | 2020-06-10 | 2021-12-16 | 日本電気株式会社 | Image providing device, image providing system, image providing method, and non-transitory computer-readable medium |
WO2021250817A1 (en) * | 2020-06-10 | 2021-12-16 | 日本電気株式会社 | Image providing device, image providing system, image providing method, and non-temporary computer-readable medium |
-
2013
- 2013-12-27 JP JP2013273431A patent/JP2015128259A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016110560A1 (en) | 2015-06-26 | 2016-12-29 | Toyota Jidosha Kabushiki Kaisha | Fuel cell system and method for controlling a fuel cell |
JP2017069618A (en) * | 2015-09-28 | 2017-04-06 | 京セラ株式会社 | Electronic apparatus and imaging method |
JP2017161993A (en) * | 2016-03-07 | 2017-09-14 | 富士フイルム株式会社 | Image processing device, image processing method, program and recording medium |
JP2021005744A (en) * | 2019-06-25 | 2021-01-14 | Kddi株式会社 | Server, client, program and method for forming object video |
JP7107629B2 (en) | 2019-06-25 | 2022-07-27 | Kddi株式会社 | Server, client, program and method for generating target video |
JP2021052279A (en) * | 2019-09-24 | 2021-04-01 | 大日本印刷株式会社 | Photographing terminal, management device, photographing system, photographing method, and program |
WO2021250814A1 (en) * | 2020-06-10 | 2021-12-16 | 日本電気株式会社 | Image providing device, image providing system, image providing method, and non-transitory computer-readable medium |
WO2021250817A1 (en) * | 2020-06-10 | 2021-12-16 | 日本電気株式会社 | Image providing device, image providing system, image providing method, and non-temporary computer-readable medium |
JP7533579B2 (en) | 2020-06-10 | 2024-08-14 | 日本電気株式会社 | IMAGE PROVIDING DEVICE, IMAGE PROVIDING SYSTEM, IMAGE PROVIDING METHOD, AND IMAGE PROVIDING PROGRAM |
JP7548306B2 (en) | 2020-06-10 | 2024-09-10 | 日本電気株式会社 | IMAGE PROVIDING DEVICE, IMAGE PROVIDING SYSTEM, IMAGE PROVIDING METHOD, AND IMAGE PROVIDING PROGRAM |
US12249182B2 (en) | 2020-06-10 | 2025-03-11 | Nec Corporation | Image providing apparatus, image providing system, image providing method, and non-transitory computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015128259A (en) | Image processing device, photographing device, photographing system, image processing method, and computer program | |
CN103369234B (en) | server, client terminal and system | |
JP5300585B2 (en) | Information processing apparatus and information processing method | |
US20170280047A1 (en) | Image processing apparatus, image processing method, and program | |
WO2015145769A1 (en) | Imaging device, information processing device, photography assistance system, photography assistance program, and photography assistance method | |
JP6688975B2 (en) | Monitoring device and monitoring system | |
US20080088717A1 (en) | Image capturing apparatus, image capturing method, image processing apparatus, image processing method and computer-readable medium | |
JP5153478B2 (en) | Image processing apparatus and image processing method | |
JP2009004873A (en) | Camera control system and method, program and storage medium | |
JP2008035125A (en) | Image pickup device, image processing method, and program | |
JP6210807B2 (en) | Display control device and control method of display control device | |
JP6323548B2 (en) | Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method | |
JP6410427B2 (en) | Information processing apparatus, information processing method, and program | |
KR20180075506A (en) | Information processing apparatus, information processing method, and program | |
JP2012094979A (en) | Photographing support system, information processor, program, and photographing support method | |
JP2015217122A (en) | Image notification device, imaging device, image notification method, and image notification program | |
JP7282519B2 (en) | Image processing device or image processing server | |
JP2018025910A (en) | Information processing apparatus and grouping program | |
JP5743017B2 (en) | Image management apparatus and program | |
JP2005286379A (en) | Photographing support system and photographing support method | |
JP2013126012A (en) | Photographic system, photographic device, and information management device | |
JP2020077952A (en) | Image processing device | |
JP2013165321A (en) | Image processor and image processing method | |
JP5582924B2 (en) | Image processing apparatus, image processing method, and program | |
JP2012015912A (en) | Electronic device |