JP6091217B2 - Image search device, image search method, search source image providing device, search source image providing method, and program - Google Patents
Image search device, image search method, search source image providing device, search source image providing method, and program Download PDFInfo
- Publication number
- JP6091217B2 JP6091217B2 JP2013001080A JP2013001080A JP6091217B2 JP 6091217 B2 JP6091217 B2 JP 6091217B2 JP 2013001080 A JP2013001080 A JP 2013001080A JP 2013001080 A JP2013001080 A JP 2013001080A JP 6091217 B2 JP6091217 B2 JP 6091217B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- search
- features
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 107
- 230000008569 process Effects 0.000 claims description 70
- 238000000605 extraction Methods 0.000 claims description 44
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 57
- 238000013139 quantization Methods 0.000 description 38
- 238000004891 communication Methods 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000009467 reduction Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 241000238631 Hexapoda Species 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000422 nocturnal effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は画像の特徴量の抽出技術、特に、類似画像の比較のために利用する局所特徴に係る技術に関するものである。 The present invention relates to an image feature extraction technique, and more particularly to a technique related to local features used for comparison of similar images.
画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する(非特許文献1)。また、当該局所特徴点とその周辺の画像情報とに基づいて、当該局所特徴点に対応する特徴量(局所特徴量)を計算する技術も知られている(非特許文献2)。画像の検索は、局所特徴量同士のマッチングによって行う。 There has been proposed a method of searching for a similar image using a local feature amount (local feature amount) of an image. In this method, first, characteristic points (local feature points) are extracted from an image (Non-Patent Document 1). A technique for calculating a feature amount (local feature amount) corresponding to the local feature point based on the local feature point and surrounding image information is also known (Non-Patent Document 2). Image retrieval is performed by matching local feature amounts.
局所特徴量を利用する手法においては、局所特徴量を回転不変・拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、検索を可能にする。局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話である。実際のデジタル画像においては、画像の回転や拡大・縮小処理を行う際に計算誤差が発生するため、これらの処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。 In the technique using the local feature quantity, the local feature quantity is defined as information composed of a plurality of elements that are invariant to rotation, enlargement, and reduction. Thereby, even when the image is rotated, enlarged or reduced, the search can be performed. The local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature quantity is rotation invariant and expansion / reduction invariant. In actual digital images, calculation errors occur when image rotation or enlargement / reduction processing is performed, so there is a slight variation between these local feature values before processing and the corresponding local feature values after processing. Occurs.
回転不変の局所特徴量抽出のために、たとえば非特許文献2では、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量算出時に主方向を基準に局所領域を回転させて方向の正規化を行う。また、拡大・縮小不変の局所特徴量を算出するために、異なるスケールの画像を内部で生成し、各スケールの画像からそれぞれ局所特徴点の抽出と局所特徴量の算出を行う。ここで、内部で生成した一連の異なるスケールの画像集合は一般的にスケールスペースと呼ばれる。
In order to extract the rotation-invariant local feature value, for example, in Non-Patent
特許文献1では、画像データから特徴点を抽出するための画像特徴点抽出方法において、画像を変動させて複数枚の画像データを取得し、安定した特徴点に絞り込んでいる。また、特許文献2では、局所特徴点の再現性を評価し、再現性の高いものから記述し局所特徴量の個数を制御する。
In
局所特徴量を用いた画像検索では、1枚の画像から複数の局所特徴点を抽出し、それぞれの局所特徴点から算出した局所特徴量同士の比較を行うことによりマッチングを行う。クエリ画像から多くの局所特徴点が抽出されると、局所特徴量同士の比較回数が増大し検索速度が低下するため、局所特徴点の数は多くなり過ぎないことと、クエリ画像に特有の希少性の高い(判別性能の高い)特徴を持つ特徴点が含まれていることが望ましい。 In an image search using local feature amounts, matching is performed by extracting a plurality of local feature points from one image and comparing the local feature amounts calculated from the respective local feature points. When many local feature points are extracted from the query image, the number of comparisons between local feature amounts increases and the search speed decreases, so the number of local feature points does not increase too much, and the rareness unique to query images It is desirable that feature points having high characteristics (high discrimination performance) are included.
また、撮影機能と通信機能を備えた携帯電話、スマートフォン、デジタルカメラ等の携帯デバイスが増えており、それらの携帯デバイスで撮影した画像をクエリとし、PC/サーバで検索し、検索結果を携帯デバイスで表示するという用途も考えられてきている。その実現方法として、携帯デバイス内で局所特徴量を算出し、その局所特徴量をPC/サーバに送信する方法がある。その場合、携帯デバイス内で算出された局所特徴量が多いと、PC/サーバへの送信に時間を要し、検索結果表示までの時間が長くかかることがあるため、局所特徴点の数は多くなり過ぎないことが望ましい。また、携帯デバイス、PC/サーバ、通信回線などの制限により、局所特徴量のサイズに上限がある場合もある。 In addition, mobile devices such as mobile phones, smartphones, and digital cameras equipped with a photographing function and a communication function are increasing. Images taken with these portable devices are used as queries, searched on a PC / server, and the search results are taken as portable devices. The use of displaying with is also considered. As an implementation method thereof, there is a method of calculating a local feature amount in a portable device and transmitting the local feature amount to a PC / server. In this case, if there are many local feature values calculated in the mobile device, it takes time to transmit to the PC / server, and it may take a long time to display the search results, so the number of local feature points is large. It is desirable not to become too much. In addition, there may be an upper limit on the size of the local feature amount due to restrictions on the mobile device, the PC / server, the communication line, and the like.
これらのことから、抽出された局所特徴点をすべて利用するのではなく、特許文献1や特許文献2のように、一部の局所特徴点のみを利用することが考えられている。しかしながら、これらの方法は、クエリ画像から抽出された局所特徴点の中から安定して抽出される局所特徴点を絞り込む方法である。例えば、ある場所から撮影し得る複数のランドマークが存在する場合で、そのうちの1つをクエリ画像として検索する場合を考える。
For these reasons, it is considered that not all of the extracted local feature points are used, but only some of the local feature points are used as in
その場合、それらのランドマークに共通して安定して抽出される局所特徴点から算出される局所特徴量が存在する場合、互いのランドマークを区別する事には役に立たない特徴量になってしまい、高い検索精度を得ることはできない。この様な、1枚の画像で閉じた特徴量の最適化には限界が有る。主に1枚の画像から得られる情報を使って特徴量を絞るだけでは、絞られた結果の特徴量が必ずしも、検索において判別性能の高い特徴量となっているとは限らない。 In that case, if there is a local feature amount calculated from the local feature points that are stably extracted in common with those landmarks, the feature amount becomes useless for distinguishing the landmarks from each other. High search accuracy cannot be obtained. There is a limit to the optimization of the feature amount closed by one image like this. If only the feature amount is narrowed down mainly using information obtained from one image, the feature amount as a result of narrowing down does not necessarily become a feature amount with high discrimination performance in the search.
本発明は上記の課題に鑑みてなされたものであり、他の画像との判別性能が高く、検索に有意な局所特徴点および局所特徴量を得る技術を提供しようとするものである。 The present invention has been made in view of the above problems, and intends to provide a technique for obtaining local feature points and local feature quantities that are highly distinguishable from other images and that are significant for search.
本発明の画像検索装置は、画像を入力する入力手段と、前記画像を撮影した際の属性情報を取得する取得手段と、前記画像の画像特徴を抽出する抽出手段と、前記画像と前記属性情報と前記画像特徴を関連付けて記憶する記憶手段と、前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別手段と、前記検索元画像の検索のために使用すると選別された検索元画像の画像特徴と、前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較手段と、を有する。 The image search apparatus according to the present invention includes an input unit for inputting an image, an acquisition unit for acquiring attribute information when the image is captured, an extraction unit for extracting an image feature of the image, the image and the attribute information. And an image extracted by the extraction unit for a search source image input by the input unit based on the number of image features co-occurring in the image for each attribute information Screening means for selecting image features to be used for searching the search source image and image features to be restricted from being used, and image features of the search source image selected to be used for searching the search source image And comparison means for comparing the image characteristics of the registered image stored in the storage means.
本発明によれば、他の画像との判別性能が高く、検索に有意な局所特徴点および局所特徴量を得ることができる。 According to the present invention, it is possible to obtain local feature points and local feature amounts that are highly distinguishable from other images and that are significant for search.
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。第1の実施形態は、検索クエリ画像から画像特徴抽出を行い、その画像特徴群を使って検索を行い、検索結果を表示する画像検索システムの例である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. The first embodiment is an example of an image search system that performs image feature extraction from a search query image, performs a search using the image feature group, and displays a search result.
図1は、本実施形態における画像検索装置の機能構成例を示すブロック図である。図1に示す各構成における動作の詳細については、後述する。 FIG. 1 is a block diagram illustrating a functional configuration example of an image search apparatus according to the present embodiment. Details of the operation in each configuration shown in FIG. 1 will be described later.
図1において、画像入力部101は、登録画像およびクエリ画像(検索元画像)の入力を行う。画像特徴算出部102は、画像入力部101から入力された登録画像およびクエリ画像の画像特徴群を算出する。
In FIG. 1, an
差別化画像特徴リスト生成部103は、例えばGPSによる位置情報や、それに加え時間情報、季節などの属性情報に合致した被写体オブジェクト群の画像を予め用意する。そしてそれらの画像に対し、被写体オブジェクト単位での画像特徴の共起性を求める。そして、共起性の低い画像特徴から順に採用する事により、同じ属性情報に対応する画像間で判別性能が高い差別化画像特徴リスト生成を行う。
The differentiated image feature
画像特徴選別部104は、差別化画像特徴リストに有る判別性能が高い画像特徴群を参照し、クエリ画像の画像特徴群のうち差別化画像特徴リストに有る画像特徴群を画像特徴比較部105の処理に優先的に使用するように画像特徴群を選別する。
The image
画像特徴比較部105は、画像特徴選別部104で選別されたクエリ画像の画像特徴群を用いて画像特徴比較を行う。画像特徴比較結果表示部106は、画像特徴比較部105の画像特徴比較結果を表示する。記憶部107は処理中のデータを記憶する他、画像特徴記憶にも用いるメモリ・HDD等である。
The image
なお、これら各構成は、不図示のCPUにより統括的に制御されている。 Each of these components is centrally controlled by a CPU (not shown).
尚、CPUはプログラムを実行することで各種の手段として機能することが可能である。なお、CPUと協調して動作するASICなどの制御回路がこれらの手段として機能してもよい。また、CPUと画像処理装置の動作を制御する制御回路との協調によってこれらの手段が実現されてもよい。また、CPUは単一のものである必要はなく、複数であってもよい。この場合、複数のCPUは分散して処理を実行することが可能である。また、複数のCPUは単一のコンピュータに配置されていてもよいし、物理的に異なる複数のコンピュータに配置されていてもよい。なお、CPUがプログラムを実行することで実現する手段が専用の回路によって実現されてもよい。 The CPU can function as various means by executing a program. Note that a control circuit such as an ASIC that operates in cooperation with the CPU may function as these means. These means may be realized by cooperation between the CPU and a control circuit that controls the operation of the image processing apparatus. Further, the CPU need not be a single one, and may be a plurality. In this case, a plurality of CPUs can perform processing in a distributed manner. The plurality of CPUs may be arranged in a single computer, or may be arranged in a plurality of physically different computers. Note that the means realized by the CPU executing the program may be realized by a dedicated circuit.
[画像登録処理]
図2は、第1の実施形態の画像検索装置における画像登録処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Image registration process]
FIG. 2 is a flowchart illustrating an example of an image registration processing procedure in the image search apparatus according to the first embodiment. The flowchart is realized when the CPU executes a control program.
まず、ステップS201において、画像入力部101を介して登録画像が入力される。入力された画像は、記憶部107に保存される。
First, in step S <b> 201, a registered image is input via the
次に、画像特徴算出部102において、ステップS202からステップS207の処理が行われる。まずステップS202で、入力された登録画像から輝度成分を抽出し、抽出した輝度成分に基づいて輝度成分画像を生成する。
Next, the image
次にステップS203で、輝度成分画像を倍率(縮小率)pに従って順次縮小することを繰り返し、オリジナルのサイズの画像から段階的に縮小した、オリジナルの画像を含めてn枚の縮小画像を生成する。ここで、倍率p及び縮小画像の枚数nは予め決められているものとする。 Next, in step S203, it repeatedly repeats the reduction of the luminance component image in accordance with the magnification (reduction rate) p, and n reduced images including the original image, which are reduced stepwise from the original size image, are generated. . Here, it is assumed that the magnification p and the number n of reduced images are determined in advance.
図3は、縮小画像生成処理の一例を示す図である。図3に示す例は、倍率pが「2の−(1/4)乗」、縮小画像の枚数nが「9」の場合である。もちろん、倍率pは必ずしも「2の−(1/4)乗」で無くとも良い。図3において、符号301はステップS202で生成された輝度成分画像である。符号302は当該輝度成分画像301から倍率pに従って再帰的に4回の縮小処理を行って得られた縮小画像である。そして、符号303は当該輝度成分画像301から倍率pに従って8回縮小された縮小画像である。
FIG. 3 is a diagram illustrating an example of a reduced image generation process. The example shown in FIG. 3 is a case where the magnification p is “2 to the power of − (1/4)” and the number n of reduced images is “9”. Of course, the magnification p is not necessarily "2 to the power of-(1/4)". In FIG. 3,
この例では、縮小画像302は輝度成分画像301が1/2に縮小された画像となり、縮小画像303は輝度成分画像301が1/4に縮小された画像となる。尚、画像を縮小する方法は、第1の実施形態では、線形補間による縮小方法により縮小画像を生成するものとする。画像の縮小をその他の方法で行っても良い。
In this example, the reduced
次に、ステップS204では、n枚の縮小画像の各々に画像の回転があってもロバスト(robust)に抽出されるような局所的な特徴点(局所特徴点)を抽出する。この局所特徴点の抽出方法として、第1の実施形態ではHarris作用素を用いる(非特許文献1:C.Harris and M.J. Stephens, “A combined corner and edge detector,” In Alvey Vision Conference, pages 147−152, 1988.参照)。 Next, in step S204, local feature points (local feature points) that are robustly extracted even if there is image rotation in each of the n reduced images are extracted. As a method for extracting local feature points, a Harris operator is used in the first embodiment (Non-patent Document 1: C. Harris and MJ Stephens, “A combined corner and edge detector,” In Alvery Vision Conference, pages. 147-152, 1988.).
具体的には、Harris作用素を作用させて得られた出力画像H上の画素について、当該画素及び当該画素の8近傍にある画素(合計9画素)の画素値を調べる。そして、当該画素が局所極大になる(当該9画素の中で当該画素の画素値が最大になる)点を局所特徴点として抽出する。ここで、当該画素が局所極大になったときでも、当該画素の値がしきい値以下の場合には局所特徴点として抽出しないようにする。 Specifically, with respect to the pixel on the output image H obtained by applying the Harris operator, the pixel values of the pixel and pixels in the vicinity of the pixel (eight pixels in total) (total nine pixels) are examined. Then, a point at which the pixel becomes a local maximum (a pixel value of the pixel becomes the maximum among the nine pixels) is extracted as a local feature point. Here, even when the pixel reaches a local maximum, it is not extracted as a local feature point if the value of the pixel is less than or equal to the threshold value.
尚、局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。 Note that any feature point extraction method is applicable as long as it is a method capable of extracting local feature points, not limited to the feature point extraction method using the Harris operator described above.
次に、ステップS205で、ステップS204で抽出された局所特徴点の各々について、画像の回転があっても不変となるように定義された特徴量(局所特徴量)を算出する。この局所特徴量の算出方法として、第1の実施形態ではLocal Jet及びそれらの導関数の組み合わせを用いる(J.J.Koenderink and A.J.van Doorn, “Representation of local geometry in the visual system,” Riological Cybernetics, vol.55, pp.367−375, 1987.参照)。 Next, in step S205, for each of the local feature points extracted in step S204, a feature quantity (local feature quantity) defined so as to remain unchanged even when the image is rotated is calculated. As a method for calculating this local feature amount, the first embodiment uses a local jet and a combination of derivatives thereof (JJ Koenderink and AJ van Doorn, “Representation of local geometry in the visual system, "Riologic Cybernetics, vol. 55, pp. 367-375, 1987.).
具体的には、以下の式(1)により局所特徴量Vを算出する。 Specifically, the local feature amount V is calculated by the following equation (1).
ただし、式(1)の右辺で用いている記号は、以下に示す式(2)から式(7)で定義される。ここで、式(2)右辺のG(x,y)はガウス関数、I(x,y)は画像の座標(x,y)における画素値であり、“*”は畳み込み演算を表す記号である。また、式(3)は式(2)で定義された変数Lのxに関する偏導関数、式(4)は当該変数Lのyに関する偏導関数である。式(5)は式(3)で定義された変数Lxのyに関する偏導関数、式(6)は式(3)で定義された変数Lxのxに関する偏導関数、式(7)は式(4)で定義されたLyのyに関する偏導関数である。 However, the symbols used on the right side of the equation (1) are defined by the following equations (2) to (7). Here, G (x, y) on the right side of Expression (2) is a Gaussian function, I (x, y) is a pixel value at image coordinates (x, y), and “*” is a symbol representing a convolution operation. is there. Equation (3) is a partial derivative of variable L defined by equation (2) with respect to x, and equation (4) is a partial derivative of variable L with respect to y. Equation (5) is the partial derivative of variable Lx defined in equation (3) with respect to y, equation (6) is the partial derivative of variable Lx defined in equation (3) with respect to x, and equation (7) is the equation. It is a partial derivative with respect to y of Ly defined in (4).
尚、局所特徴量を算出可能な方法であれば、上述したような特徴量算出方法に限らず、どのような特徴量算出方法でも適用可能である。 It should be noted that any feature amount calculation method is applicable as long as it is a method capable of calculating a local feature amount, not limited to the above-described feature amount calculation method.
次に、ステップS206で、ステップS205で算出された局所特徴量の各々について、量子化を行い、ラベル値を付与する。第一の実施形態で使用している局所特徴量、すなわち、Local Jetおよびそれらの導関数の組み合わせにより、1つの局所特徴点からN次元の局所特徴量が算出される。ここでは、各次元について、K個に量子化を行う。ここで、NおよびKはあらかじめ決められているものとする。 Next, in step S206, each local feature amount calculated in step S205 is quantized, and a label value is assigned. An N-dimensional local feature value is calculated from one local feature point by a combination of local feature values used in the first embodiment, that is, Local Jet and their derivatives. Here, K quantization is performed for each dimension. Here, N and K are assumed to be determined in advance.
具体的には以下の式(8)により、量子化を行う。 Specifically, quantization is performed by the following equation (8).
Qn=(Vn*K)/(Vnmax−Vnmin+1) ・・・(8)
ここで、Qnは、N次元のうちのn番目の次元の特徴量Vnを量子化した値である。VnmaxとVnminはそれぞれn番目の次元の特徴量の取りうる値の最大値、および、最小値である。
Qn = (Vn * K) / (Vnmax−Vnmin + 1) (8)
Here, Qn is a value obtained by quantizing the feature quantity Vn of the nth dimension among the N dimensions. Vnmax and Vnmin are the maximum value and the minimum value that can be taken by the feature quantity of the nth dimension, respectively.
各次元についての量子化を行った後、以下の式(9)により、ラベル化を行う。 After quantization for each dimension, labeling is performed by the following equation (9).
尚、量子化、ラベル化可能な算出方法であれば、上述したような算出方法に限らずに、どのような量子化、ラベル化方法でも適用可能である。 Note that any calculation method capable of quantization and labeling is not limited to the calculation method as described above, and any quantization and labeling method can be applied.
次に、ステップS207では、それらの特徴量、および、量子化ラベルを、画像特徴リストとしてまとめる。図4は、画像特徴リストの一例である。量子化ラベルをキーとしてリストを生成する。1つの量子化ラベルに複数の画像特徴リストが関連付けられることもある。 Next, in step S207, those feature amounts and quantization labels are collected as an image feature list. FIG. 4 is an example of an image feature list. A list is generated using the quantization label as a key. A plurality of image feature lists may be associated with one quantization label.
尚、第一の実施形態では、特徴量、および、量子化ラベルを、画像特徴リストとしてまとめているが、量子化ラベルのみを画像特徴リストとしてまとめることも可能である。また、特徴点の座標などのその他の情報を画像特徴リストに含めることも可能である。 In the first embodiment, the feature amounts and the quantization labels are collected as an image feature list. However, only the quantization labels can be collected as an image feature list. Also, other information such as the coordinates of feature points can be included in the image feature list.
最後に、ステップS208で、画像特徴リストを登録画像と関連付けて記憶部107に登録する。図5は、画像特徴リストが登録画像と関連付けて登録されたデータベースの一例である。量子化ラベルをキーとしてデータベースに登録する。また、登録画像には画像IDを割り振り、そのIDをデータベースに登録する。同じ画像を複数回登録した場合、類似する画像を登録した場合など、1つの量子化ラベルに複数の画像IDが関連付けられることもある。また、使用されない量子化ラベルが存在することもある。
Finally, in step S208, the image feature list is registered in the
[差別化画像特徴リスト生成処理]
図6は、画像検索装置の差別化画像特徴リスト生成部103における差別化画像特徴リスト生成処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Different image feature list generation processing]
FIG. 6 is a flowchart illustrating an example of a differentiated image feature list generation processing procedure in the differentiated image feature
差別化画像特徴リストとは、例えばGPSによる位置情報や、それに加え時間情報、季節などの前記属性情報に対応する被写体オブジェクト単位で画像特徴の共起性を求め、共起性の低さをもとにまとめた、判別性能が高く差別化が可能な画像特徴リストである。ステップS207で作成した画像特徴リストに載っている画族特徴群の部分リストである。共起値の低い画像特徴を順にソートしておき、閾値以下の共起値の部分を差別化画像特徴リストとしてもよい。 The differentiated image feature list is, for example, determining the co-occurrence of image features in units of subject objects corresponding to the attribute information such as position information by GPS, time information, season, etc. These are image feature lists that have high discrimination performance and can be differentiated. It is a partial list of group feature groups included in the image feature list created in step S207. Image features with low co-occurrence values may be sorted in order, and the portion of co-occurrence values below the threshold may be used as a differentiated image feature list.
差別化画像特徴リスト生成部103は、それぞれの属性情報に対応する被写体オブジェクト群の画像を予め用意し、被写体オブジェクト単位での画像特徴の共起性を画像特徴の記憶情報を参照して求める。そして、共起性の低い画像特徴から順に採用する事により、同じ属性情報に対応する画像間で判別性能が高い画像特徴リストを生成する。
The differentiated image feature
画像特徴選別部104は、差別化画像特徴リストに有る画像特徴群を参照し、クエリ画像の画像特徴群から差別化画像特徴リストに載っている判別性能が高い画像特徴群を選別する。
The image
本実施形態では、撮影環境の情報取得にGPSを用いる例を示す。位置の属性情報を用いている。またこの例では差別化画像特徴リストを生成する対象をランドマークとする。ランドマークが存在する位置のGPS情報とそのランドマーク画像を対にした知識ベースを構築しておく。 In the present embodiment, an example is shown in which GPS is used to acquire information about the shooting environment. Position attribute information is used. In this example, a target for generating a differentiated image feature list is a landmark. A knowledge base is constructed by pairing the GPS information of the position where the landmark exists and the landmark image.
まず、ステップS601において、知識ベースを用いて、クエリ画像のGPS情報に基づき近傍のランドマーク群を推定する。 そして、ステップS602において、近傍のランドマーク群の画像特徴群を得る。ステップS603において、差別化画像特徴を生成する対象である被写体オブジェクトとしてのランドマークの単位で特徴の共起値を算出する。 First, in step S601, a nearby landmark group is estimated based on the GPS information of the query image using the knowledge base. In step S602, image feature groups of neighboring landmark groups are obtained. In step S603, a feature co-occurrence value is calculated in units of landmarks as subject objects that are targets for generating differentiated image features.
図7は、ステップS603の共起値を算出するための処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。 FIG. 7 is a flowchart illustrating an example of a processing procedure for calculating the co-occurrence value in step S603. The flowchart is realized when the CPU executes a control program.
ステップS701にて差別化画像特徴を生成する際の基準となるGPS情報を得る。
このGPS情報は、予め有名なランドマークのあるGPS情報のリストを得て置き、そのそれぞれのGPS情報に対して、図7の処理を行う事で、数多くのランドマークに対応することが可能である。もちろん、GPS情報を適切なインターバルで自動生成しても良い。
ステップS702にて基準となるGPS値の近傍のランドマークを得てその個数をM個とする。予めランドマークとGPS値と画像データと画像特徴群を対応付けた知識ベースを準備しておき、基準となるGPS値との距離が予め定めた値以内のランドマークを求めれば良い。GPS情報は高さ情報も含むが、その項は含んでいても含まなくとも構わない。
In step S701, GPS information serving as a reference when generating differentiated image features is obtained.
This GPS information can correspond to many landmarks by obtaining a list of GPS information with famous landmarks in advance and performing the processing of FIG. 7 for each GPS information. is there. Of course, GPS information may be automatically generated at appropriate intervals.
In step S702, landmarks in the vicinity of the reference GPS value are obtained, and the number thereof is M. A knowledge base in which landmarks, GPS values, image data, and image feature groups are associated in advance is prepared, and landmarks whose distance from a reference GPS value is within a predetermined value may be obtained. The GPS information includes height information, but the term may or may not be included.
ステップS703にてM個のランドマーク画像に対応する画像特徴の個数等の下記の値を上記知識データからメモリへ読み込む。
・各ランドマークiに対応する画像の個数をNumP(i) i=1,…,M
・ランドマークiに対応する画像を Pic[i] [j] j=1,…, NumP(i)
・各画像の特徴の個数をnumFeat[ Pic[i] [j] ]
・各画像のk番目の特徴をFeat[ Pic[i] [j] ] [k] k=1,…, numFeat[ Pic[i] [j] ]
また、i= 1 とし、特徴毎の共起値CO[]=0 で初期化する。
尚、共起値COの配列部[]には、特徴量の量子化ラベルの値が入る。
In step S703, the following values such as the number of image features corresponding to the M landmark images are read from the knowledge data into the memory.
The number of images corresponding to each landmark i is expressed as NumP (i) i = 1,.
An image corresponding to the landmark i is represented by Pic [i] [j] j = 1,... NumP (i)
NumFeat [Pic [i] [j]] for the number of features in each image
The k-th feature of each image is Feat [Pic [i] [j]] [k] k = 1, numFeat [Pic [i] [j]]
Also, i is set to 1 and initialization is performed with a co-occurrence value CO [] = 0 for each feature.
The co-occurrence value CO array portion [] contains the quantization label value of the feature quantity.
ステップS704にて比較基準と成る画像を現すカウンタがM以下であるか、即ち比較基準となるランドマーク画像の残りがあるかどうかを判断し、無いと判断すれば処理を終了する。 In step S704, it is determined whether the counter representing the image serving as the comparison reference is equal to or less than M, that is, whether there is a remaining landmark image serving as the comparison reference.
ステップS704からステップS713の処理は、比較基準のランドマークをM個まで切り替えながら、ランドマークに対する画像群を切り替え、更に画像の特徴量の参照をするための Feat[ Pic[i] [j] ] [k] を生成する。 In the processing from step S704 to step S713, Feat [Pic [i] [j]] for switching the image group for the landmark while referring to M landmarks for comparison, and for referring to the feature amount of the image. [K] is generated.
ランドマークに対応する画像全ての特徴量を基準に、その他の画像がどの位同じ特徴量をランドマーク単位で含んでいるかを求める処理で有る。 This is a process for determining how much the other images contain the same feature quantity in units of landmarks based on the feature quantities of all the images corresponding to the landmarks.
尚、特徴量は全て量子化を行い、量子化ラベルで扱う。(この実施形態では、特徴量の同一性ではなく、量子化ラベルの同一性で共起性を求める)
ステップS705にて、ランドマークiに対応する画像群の何番目の画像であるかを示すjを1に初期化する。
All feature quantities are quantized and handled by quantization labels. (In this embodiment, the co-occurrence is obtained not by the feature quantity identity but by the quantization label identity.)
In step S705, j indicating the number of the image in the image group corresponding to the landmark i is initialized to 1.
ステップS706にてjがランドマークiに対応する画像群の個数を超えていないか判断し、超えていればステップS707にて、次のランドマーク画像にiを1つ増して変更させ、ステップS704に戻る。 In step S706, it is determined whether j does not exceed the number of image groups corresponding to the landmark i. If it exceeds, i is incremented by 1 in the next landmark image and changed in step S704. Return to.
ステップS706にてjがランドマークiに対応する画像群の個数を超えていないと判断したら、ステップS709にて特徴量を参照するためのカウンタkを1に初期化する。 If it is determined in step S706 that j does not exceed the number of image groups corresponding to the landmark i, a counter k for referring to the feature value is initialized to 1 in step S709.
ステップS709ではkがランドマークiの関連するj番目画像の特徴量個数を超えていないか判断する。そして、超えていなければステップS711の比較先のランドマーク画像を表すi2を1に初期化し、ステップS712以降のステップS721までの参照比較先の特徴量Feat[ Pic[i2] [j2] ] [k2] を参照するための処理に移る。 In step S709, it is determined whether k does not exceed the number of feature quantities of the j-th image associated with the landmark i. If not, i2 representing the landmark image of the comparison destination in step S711 is initialized to 1, and the reference comparison target feature amount Feat [Pic [i2] [j2]] [k2] from step S712 to step S721. ] Go to processing to refer to.
ステップS709ではkがランドマークiの関連するj番目画像の特徴量個数を超えたと判断した場合にはステップS710にて関連する画像を表すjを1つ増加させ、再びステップS706に戻る。 If it is determined in step S709 that k has exceeded the number of features of the j-th image associated with the landmark i, j representing the associated image is incremented by 1 in step S710, and the process returns to step S706 again.
ステップS712では、比較するランドマークを表すi2がランドマーク数Mを超えていないか判断する。 In step S712, it is determined whether i2 representing the landmark to be compared does not exceed the number M of landmarks.
超えている場合には、ステップS713にてkを1つ増加させ基準となるランドマークの特徴量を更新する処理に戻る。 If it exceeds, in step S713, k is incremented by 1, and the process returns to the process of updating the reference landmark feature quantity.
もし、ランドマークiの画像特徴群を全て比較し終えた場合には、ステップS713、709、710、706を経てステップS707にて次のランドマークを比較基準に更新する事に成る。 If all the image feature groups of the landmark i have been compared, the next landmark is updated to the comparison reference in step S707 through steps S713, 709, 710, and 706.
ステップS712からステップS724の処理は、比較先となるランドマークをM個まで切り替えながら、ランドマークに対する画像群を切り替え、更に画像の特徴量の参照用の Feat[ Pic[i2] [j2] ] [k2] を生成する。そして参照する特徴量をステップS722で比較処理を行う。 In the processing from step S712 to step S724, the image group for the landmark is switched while switching up to M landmarks as comparison destinations, and Feat [Pic [i2] [j2]] [ k2]. Then, the reference feature quantity is compared in step S722.
ランドマークに対応する画像全ての特徴量を基準に、その他の画像がどの位同じ特徴量をランドマーク単位で含んでいるかを求める処理で有る。 This is a process for determining how much the other images contain the same feature quantity in units of landmarks based on the feature quantities of all the images corresponding to the landmarks.
ステップS714にて、ランドマークi2に対応する画像群の何番目の画像であるかを示すj2を1に初期化し、更にi2にて既にどれかi2に関連する画像で共起値がインクリメントされているかどうかを表すFlagを0(未インクリメント)に初期化する。
ステップS715にてj2がランドマークi2に対応する画像群の個数を超えていないか判断し、超えていればステップS716にてFlagが1に成っているかどうかを判断し、1になっていれば特徴量量子化値に対応する共起値を1つ増加させる。
In step S714, j2 indicating which image in the image group corresponding to the landmark i2 is initialized to 1, and in i2, the co-occurrence value is already incremented in an image related to any i2. Flag indicating whether or not there is initialized to 0 (not incremented).
In step S715, it is determined whether j2 does not exceed the number of image groups corresponding to the landmark i2, and if so, it is determined in step S716 whether Flag is 1, and if it is 1. The co-occurrence value corresponding to the feature quantity quantization value is increased by one.
そして、ステップS718にて次のランドマーク画像にiを1つ増して変更させ、ステップS712に戻る。 In step S718, i is increased by one to the next landmark image, and the process returns to step S712.
ステップS715にてj2がランドマークi2に対応する画像群の個数を超えていないと判断したら、ステップS719にて特徴量を参照するためのカウンタk2を1に初期化する。 If it is determined in step S715 that j2 does not exceed the number of image groups corresponding to the landmark i2, a counter k2 for referring to the feature value is initialized to 1 in step S719.
ステップS720ではk2がランドマークi2の関連するj2番目画像の特徴量個数を超えていないか判断する。そして、超えていなければステップS722で特徴量 Feat[ Pic[i] [j] ] [k] と Feat[ Pic[i2] [j2] ] [k2] が同じで有るか判断する。同じで有ればステップS723にてFlagを1にし既に同じ特徴が有ったとする。ステップS722で同じ特徴でないと判断した場合には、ステップS724にてk2を1つ増加させステップS720へ戻る。
もし、ランドマークi2の画像特徴群を全て比較し終えた場合には、ステップS724、1620を経て1621にて次のランドマークを比較基準に更新する事に成る。
In step S720, it is determined whether k2 exceeds the number of feature quantities of the j2th image related to the landmark i2. If not, it is determined in step S722 whether the feature values Feat [Pic [i] [j]] [k] and Feat [Pic [i2] [j2]] [k2] are the same. If they are the same, Flag is set to 1 in step S723 and it is assumed that the same feature already exists. If it is determined in step S722 that the features are not the same, k2 is incremented by 1 in step S724, and the process returns to step S720.
If all the image feature groups of the landmark i2 have been compared, the next landmark is updated to the comparison reference in 1621 through steps S724 and 1620.
これにより、共起値col[]には、[]で示される特徴量量子化値に対する共起値が0からM*Mの値で格納される。 As a result, the co-occurrence value col [] stores the co-occurrence value for the feature value quantized value indicated by [] as a value from 0 to M * M.
更に、col[]をM*Mで割り、0から1.0までの値に正規化する。 Further, col [] is divided by M * M and normalized to a value from 0 to 1.0.
0は特徴量が現われない事を意味するので、0より大きい共起値を小さい物からソートし、共起値に対応する特徴量量子化値も合わせてソートする。この特徴量量子化値をソートした結果が差別化画像特徴を生成する情報源となる。 Since 0 means that the feature quantity does not appear, the co-occurrence values larger than 0 are sorted from the smallest, and the feature quantity quantized values corresponding to the co-occurrence values are also sorted. The result of sorting the feature quantity quantization values becomes an information source for generating differentiated image features.
この共起値が大きい場合、極端な場合で1.0の場合には、どのランドマークにも必ず共通に存在する特徴であり、ランドマークを弁別するのには役に立ちにくい事を表す。逆に、共起値が小さい場合にはランドマークを弁別するのに役立つ事を意味する。本実施形態では、差別化画像特徴として共起値の小さい特徴を積極的に採用する。 When this co-occurrence value is large, or 1.0 in an extreme case, it is a feature that always exists in all landmarks, which means that it is difficult to distinguish the landmarks. Conversely, when the co-occurrence value is small, it means that it is useful for discriminating landmarks. In this embodiment, a feature with a small co-occurrence value is positively adopted as a differentiated image feature.
そこで、ステップS604において、共起値の低い順、即ち昇順で量子化ラベルをソートする。 Therefore, in step S604, the quantized labels are sorted in ascending order of co-occurrence values, that is, in ascending order.
ステップS605において、閾値未満の共起値の特徴(量子化ラベル)のリストを作成し、ステップS606において、差別化画像特徴リストとして出力・蓄積する。判別性能があると判断できる共起値を閾値に設定している。 In step S605, a list of features (quantization labels) of co-occurrence values less than the threshold is created, and in step S606, a list of differentiated image features is output and accumulated. A co-occurrence value that can be determined to have discrimination performance is set as a threshold value.
図15は、差別化画像特徴リストの一例である。 FIG. 15 is an example of a differentiated image feature list.
もちろん、ステップS605の処理で閾値を使わずに、共起値の小さいものから所定個数を選ぶとしても良い。もちろん、基準となるGPS情報の周辺に多くのランドマークが存在する場合には、少なくともそのランドマークの数以上の個数を用いる事が好ましい。更に、そのランドマークの数から所定個数を変更、例えば有る数を乗じた数とする事も可能である。 Of course, a predetermined number may be selected from those having a small co-occurrence value without using a threshold value in the process of step S605. Of course, when there are many landmarks around the reference GPS information, it is preferable to use at least the number of landmarks. Further, a predetermined number can be changed from the number of landmarks, for example, a number multiplied by a certain number.
差別化画像特徴リスト生成のタイミングとしては、電源がONや撮影モードや画像検索モードになった場合に現在のGPS情報を用いて、オンディマンド生成を行っても良い。 As the timing of generating the differentiated image feature list, on-demand generation may be performed using the current GPS information when the power is turned on, the shooting mode, or the image search mode.
もちろん、予め複数の差別化画像特徴リストを生成しておき、GPS情報に合わせて差別化画像特徴リストを選択する方法もある。撮影位置のGPS情報を、カメラで有る程度の大きさに映る限界を考慮し100m四方の区画で適切に量子化しておき、その量子化単位で差別化画像特徴リストを生成しておく事で可能である。 Of course, there is a method in which a plurality of differentiated image feature lists are generated in advance and the differentiated image feature lists are selected according to GPS information. It is possible by appropriately quantizing the GPS information of the shooting position in a 100 m square considering the limit reflected in the size of the camera, and generating a differentiated image feature list in that quantization unit It is.
更に、差別化画像特徴リストの精度を高め、且つ個々の差別化画像特徴リストのサイズを小さくする方法がある。各ランドマークに対し、撮影される方向ごとに画像を用意しておく。撮影位置のGPS情報と近傍の各ランドマークの位置のGPS情報から、撮影される方角を得て、共起値を算出する画像を切り替える。これにより、撮影位置から写り得るランドマークの構図に即した差別化画像特徴リストを生成可能となる。撮影される可能性の有るランドマークの数も減る事から、個々の差別化画像特徴リストのサイズを小さくする事が可能である。 Further, there is a method for increasing the accuracy of the differentiated image feature list and reducing the size of each differentiated image feature list. For each landmark, an image is prepared for each shooting direction. The direction to be photographed is obtained from the GPS information of the photographing position and the GPS information of the position of each nearby landmark, and the image for calculating the co-occurrence value is switched. This makes it possible to generate a differentiated image feature list in accordance with the composition of landmarks that can be taken from the shooting position. Since the number of landmarks that can be photographed is also reduced, the size of each differentiated image feature list can be reduced.
但し、もし、ランドマークが存在する位置のGPS情報とそのランドマーク画像を用意出来ない場合には、GPS情報とコンパスによる撮影方位情報の組み合わせを代用する。即ち、そのGPS近傍から、全方位360度を例えば45度単位、即ち8方向の撮影画像に分類し、これら分類に対して特徴の共起値を求めても構わない。 However, if the GPS information of the position where the landmark exists and the landmark image cannot be prepared, the combination of the GPS information and the shooting direction information by the compass is used instead. In other words, 360 degrees from all GPS directions may be classified into, for example, 45-degree units, that is, captured images in eight directions, and feature co-occurrence values may be obtained for these classifications.
ステップS603において、ランドマークの単位で特徴の共起値を算出したが、簡易に行う場合には、ランドマーク単位ではなく、ランドマークを含む画像全体での共起値を代用しても良い。但し、この場合は、精度が下がる可能性が有る。 In step S603, the co-occurrence value of the feature is calculated in the unit of the landmark. However, in the case of performing simply, the co-occurrence value in the entire image including the landmark may be used instead. However, in this case, the accuracy may decrease.
また、人にランドマークの画像を提示し、ランドマークの特色のある領域を指定させ、他方、画像特徴抽出処理により特徴点を検出し、人の指定した領域に存在する特徴点のみを用いて図6の処理を行う事でより精度の高い差別化画像特徴量リストを生成可能である。更に、その差別化画像特徴リストに対応する特徴点とその共起値を可視化表示し、人が選別を行う事で、よりコンパクトで人の感覚に近い差別化画像特徴リストを作成する事が可能となる。人が見てランドマークの特色を現す部分に関連する特徴点から算出される画像特徴群と関連付けられている画像の記憶数あるいは画像特徴群の共起値を表示しそれを考慮して差別化画像特徴リストを生成しても良い。 In addition, the image of the landmark is presented to the person, the area having the characteristic color of the landmark is designated, and the feature point is detected by the image feature extraction process, and only the feature point existing in the area designated by the person is used. By performing the processing of FIG. 6, it is possible to generate a differentiated image feature amount list with higher accuracy. In addition, the feature points and their co-occurrence values corresponding to the differentiated image feature list can be visualized and displayed by a person to create a differentiated image feature list that is more compact and close to the human sense. It becomes. Differentiate by displaying the number of stored image or co-occurrence values of image feature groups associated with image feature groups calculated from the feature points related to the parts that show the features of landmarks An image feature list may be generated.
[画像検索処理]
図8は、第1の実施形態の画像検索装置における画像検索処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Image search processing]
FIG. 8 is a flowchart illustrating an example of an image search processing procedure in the image search apparatus according to the first embodiment. The flowchart is realized when the CPU executes a control program.
まず、ステップS801において、画像入力部101を介してクエリ(検索元)画像が入力される。入力された画像は、記憶部107に保存される。
First, in step S <b> 801, a query (search source) image is input via the
次に、画像特徴算出部102において、ステップS802からステップS807の処理が行われる。本処理は、画像登録処理におけるステップS202からステップS207の処理と同等であるため、詳細の説明は省略する。
Next, the image
但し、画像特徴抽出リストに関しては、2種類の画像特徴抽出リストを使用する。クエリ画像から抽出した特徴をそのまま記憶する第一特徴抽出リストと、差別化画像特徴リストと一致する画像特徴を画像特徴比較部105による比較処理に優先して使用するように反映した特徴を記憶する第二特徴抽出リストである。
However, two types of image feature extraction lists are used for the image feature extraction list. A first feature extraction list that stores features extracted from the query image as they are and a feature that reflects the image features that match the differentiated image feature list to be used in preference to the comparison processing by the image
即ち、画像登録処理における画像特徴抽出リストは、画像検索処理における第一特徴抽出リストに相当する。第二特徴抽出リストは最終的な検索比較処理に用いる特徴を記憶するために使用する。 That is, the image feature extraction list in the image registration process corresponds to the first feature extraction list in the image search process. The second feature extraction list is used for storing features used in the final search comparison process.
次に、ステップS808において、抽出されたクエリ画像の特徴数が、検索時に使用可能な特徴の最大数よりも多い場合、ステップS809に進み、最大数以下の場合は、ステップS814に進む。 Next, in step S808, if the number of features of the extracted query image is larger than the maximum number of features that can be used at the time of search, the process proceeds to step S809, and if it is less than the maximum number, the process proceeds to step S814.
最大数以下としたのは検索に用いる画像特徴の数の上限を制御し検索処理時間のばらつきを少なくすためである。もちろん最大数以下の場合でもステップS809に進んでも良好な結果が得られる場合も有るが、そもそもクエリ画像から取得される特徴自体が非常に少ない場合には特徴数が減りすぎないような注意が必要である。 The reason why the number is not more than the maximum number is to control the upper limit of the number of image features used for the search and reduce the variation in the search processing time. Of course, good results may be obtained even if the number is less than the maximum number or even if the process proceeds to step S809. However, if the number of features acquired from the query image is very small in the first place, care must be taken that the number of features does not decrease too much. It is.
尚、第1の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。 In the first embodiment, the determination is made based on whether or not the number of feature points of the query image is larger than the maximum number of feature points that can be used during the search. However, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.
ステップS809では、差別化画像特徴リストに載っている量子化ラベルと同じ量子化ラベルを第二特徴抽出リストに追記する。第一特徴抽出リストから、差別化画像特徴リストに載っていない量子化ラベルを削除して判別性能の高い画像特徴を第一特徴抽出リストに残すように処理しても良い。その他、第一特徴抽出リストに、差別化画像特徴リストに載っている量子化ラベルかどうか識別子を追記しても良い。 In step S809, the same quantization label as that in the differentiated image feature list is added to the second feature extraction list. Processing may be performed so that quantization labels that are not included in the differentiated image feature list are deleted from the first feature extraction list, and image features with high discrimination performance are left in the first feature extraction list. In addition, an identifier may be added to the first feature extraction list as to whether or not the quantization label is on the differentiated image feature list.
ここで、図9は、ステップS809における差別化画像特徴リストに載っている量子化ラベルと同じ量子化ラベルを第二特徴抽出リストに追記する処理の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。本処理は、画像特徴選別部104による処理である。
Here, FIG. 9 is a flowchart illustrating an example of a process of adding the same quantization label as that in the differentiated image feature list in step S809 to the second feature extraction list. The flowchart is realized when the CPU executes a control program. This process is a process performed by the image
まず、ステップS901において、差別化画像特徴リストの1番目の量子化ラベルを処理対象量子化ラベルに設定する。次に、ステップS902において、処理対象量子化ラベルがクエリ画像の画像特徴リストに存在する場合はステップS903に進み、存在しない場合はステップS905に進む。 First, in step S901, the first quantization label in the differentiated image feature list is set as a processing target quantization label. Next, in step S902, if the processing target quantization label exists in the image feature list of the query image, the process proceeds to step S903, and if not, the process proceeds to step S905.
ステップS903では、処理対象量子化ラベルを第二特徴抽出リストに追記する。そして、ステップS904において、クエリ画像の特徴数が、検索時に使用可能な特徴の最大数以下の場合にステップS905に進み、最大数になった場合は処理を終了する。 In step S903, the processing target quantization label is added to the second feature extraction list. In step S904, if the number of features of the query image is equal to or less than the maximum number of features that can be used at the time of search, the process proceeds to step S905, and if it reaches the maximum number, the process ends.
尚、第1の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、ステップS808と同様に、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。 In the first embodiment, the determination is made based on whether or not the number of feature points of the query image is larger than the maximum number of feature points that can be used during the search. However, as in step S808, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.
ステップS905では、差別化画像特徴リストに未処理の量子化ラベルが存在する場合はステップS906に進み、存在しない場合は、処理を終了する。 In step S905, if an unprocessed quantization label exists in the differentiated image feature list, the process proceeds to step S906, and if not, the process ends.
ステップS906では、差別化画像特徴リストの次の量子化ラベルを処理対象量子化ラベルに設定し、ステップS902に戻る。 In step S906, the next quantization label in the differentiated image feature list is set as a processing target quantization label, and the process returns to step S902.
ステップS809の処理終了後、ステップS810において、第二特徴抽出リストの特徴数が検索時に使用可能な特徴の最小数よりも少ない場合、ステップS811に進み、最小数より多い場合は、ステップS812に進む。 After the process of step S809, if the number of features in the second feature extraction list is smaller than the minimum number of features that can be used at the time of search in step S810, the process proceeds to step S811, and if it is greater than the minimum number, the process proceeds to step S812. .
特徴点ベースの画像検索において、図10の様な投票方式のマッチングおいては少なくとも10点ぐらいの特徴点がランドマークの領域にないと情報が不足する事が経験上判っている。そこで、差別化画像特徴リストにより最小数未満となる場合には、ステップS811により画像特徴を補充する。 In image search based on feature points, it has been found from experience that information is insufficient if at least about 10 feature points are not included in the landmark area in voting matching as shown in FIG. Therefore, if the number is less than the minimum number in the differentiated image feature list, the image features are supplemented in step S811.
尚、第1の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、ステップS808と同様に、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。 In the first embodiment, the determination is made based on whether or not the number of feature points of the query image is larger than the maximum number of feature points that can be used during the search. However, as in step S808, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.
ステップS811では、クエリ画像の第一特徴抽出リストのうち、まだ第二特徴抽出リストに入れていない特徴量の安定性を評価する。そして、安定度の高い特徴量を第二特徴抽出リストに追加することにより、クエリ画像の特徴点数を検索時に使用可能な特徴の最大数を超えない数まで補充する。もちろん、第二特徴抽出リストの画像特徴数が最小数を満たさない場合には、その他の画像特徴を用いる。クエリ画像の特徴量の安定性を利用した特徴点数の選別方法については、特許文献2による方法を用いることで可能となる。
In step S811, the stability of feature quantities that have not yet been included in the second feature extraction list in the first feature extraction list of the query image is evaluated. Then, by adding a feature quantity with high stability to the second feature extraction list, the number of feature points of the query image is replenished to a number that does not exceed the maximum number of features that can be used during the search. Of course, when the number of image features in the second feature extraction list does not satisfy the minimum number, other image features are used. A method for selecting the number of feature points using the stability of the feature amount of the query image can be achieved by using the method according to
すなわち、解析対象の画像を回転或いは縮小する等の画像処理を行う事による、特徴点の位置および特徴量の特徴間距離を求め、これを安定性の指標とする。特徴点の位置の変動が大きいと明らかに特徴量は変化してしまうため、まず、特徴点の位置が定められた閾値範囲内に収まる特徴点に絞る。そして、回転或いは縮小する等の画像処理の前後での特徴量の変化、即ち特徴量間距離を安定性の指標とする。そして、距離の小さな特徴点ほど安定性の高いものと見なし、これを距離の昇順でソートし、特徴点数が、検索時に使用可能な特徴点数に達するまで、安定度の高い特徴量から優先してクエリ画像の画像特徴リストを作成する。 That is, the position of the feature point and the distance between the features of the feature amount are obtained by performing image processing such as rotating or reducing the image to be analyzed, and this is used as a stability index. If the variation of the position of the feature point is large, the feature amount obviously changes. Therefore, first, the feature point is narrowed down to a feature point that falls within the predetermined threshold range. Then, a change in feature quantity before and after image processing such as rotation or reduction, that is, a distance between feature quantities is used as an index of stability. The feature points with smaller distances are considered to be more stable, and are sorted in ascending order of distance, and the feature points with higher stability are prioritized until the number of feature points reaches the number of feature points that can be used during search. Create an image feature list for the query image.
ステップS812では、第二特徴抽出リストの特徴数が検索時に使用可能な特徴の最大数よりも多い場合にステップS813に進み、最大以下の場合は、ステップS815に進む。 In step S812, if the number of features in the second feature extraction list is greater than the maximum number of features that can be used during the search, the process proceeds to step S813. If the number is less than the maximum, the process proceeds to step S815.
ステップS813では、差別化画像特徴のみからなる第二特徴抽出リストの特徴から、共起値の小さいものから優先して画像特徴比較部105による比較処理で使用可能な最大数までの特徴を選択し、改めて第二特徴抽出リストに格納する。もちろん、性能は低くなるが、ランダムに画像特徴比較部105による比較処理で使用可能な最大数までの特徴を選択しても良い。
In step S813, features from the second feature extraction list including only differentiated image features are selected from features having the smallest co-occurrence value up to the maximum number that can be used in the comparison processing by the image
ステップS814では、第一特徴抽出リストの特徴数が最大数に足りていないので、全特徴を採用し、第二特徴抽出リストへ全てコピーする。 In step S814, since the number of features in the first feature extraction list is less than the maximum number, all features are adopted and all are copied to the second feature extraction list.
ステップS815では、記憶部107から画像特徴群を読み込み、画像特徴比較処理を行う。図10は、ステップS815における画像特徴比較処理の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
In step S815, an image feature group is read from the
まず、ステップS1001において、登録画像数分の投票箱を用意し、0でリセットする。次に、ステップS1002において、第二特徴抽出リストの1番目の量子化ラベルを処理対象量子化ラベルに設定する。 First, in step S1001, ballot boxes for the number of registered images are prepared and reset at 0. Next, in step S1002, the first quantization label in the second feature extraction list is set as the processing target quantization label.
次に、ステップS1003において、処理対象量子化ラベルと関連付けて登録されている画像IDがある場合はステップS1004に進み、存在しない場合はステップS1005に進む。 ステップS1004では、処理対象量子化ラベルと関連付けて登録されている画像IDの投票箱に1票投票する。 In step S1003, if there is an image ID registered in association with the processing target quantization label, the process proceeds to step S1004, and if not, the process proceeds to step S1005. In step S1004, one vote is cast in the ballot box of the image ID registered in association with the processing target quantization label.
ステップS1005では、第二特徴抽出リストに未処理の量子化ラベルが存在する場合はステップS1006に進み、存在しない場合は、ステップS1007に進む。 In step S1005, if an unprocessed quantization label exists in the second feature extraction list, the process proceeds to step S1006, and if not, the process proceeds to step S1007.
ステップS1006では、第二特徴抽出リストの次の量子化ラベルを処理対象量子化ラベルに設定し、ステップS1003に戻る。 In step S1006, the next quantization label in the second feature extraction list is set as the processing target quantization label, and the process returns to step S1003.
次に、ステップS1007で投票数の多い順に投票結果をソートし、ステップS1008で投票数の多い方から所定数の画像IDを画像特徴比較結果リストとして出力する。 Next, in step S1007, the voting results are sorted in descending order of the number of votes, and in step S1008, a predetermined number of image IDs from the one with the largest number of votes are output as an image feature comparison result list.
最後にステップS816で画像特徴比較結果を表示する。画像特徴比較結果の表示にあたっては、画像IDと対応する画像を合わせて表示する。 Finally, the image feature comparison result is displayed in step S816. When displaying the image feature comparison result, the image corresponding to the image ID is displayed together.
もし、ランドマークのみを検索する場合には、ランドマークは移動しないのでGPS情報は一意であり、図16の画像属性データを参照し、現在の検索装置のGPS情報から撮影しえる範囲のGPS情報を持つ画像に絞り込む処理をステップS1008で行うと良い。もちろん、ランドマークの様に移動せず、一意のGPS情報と対応づけられるものであれば、同様な処理が可能である。 If only the landmark is searched, the landmark does not move, and therefore the GPS information is unique. With reference to the image attribute data in FIG. 16, GPS information in a range that can be photographed from the GPS information of the current search device. The process of narrowing down to the image having the image may be performed in step S1008. Of course, the same processing is possible as long as it does not move like a landmark and can be associated with unique GPS information.
以上のように第1の実施形態では、検索クエリ画像から抽出した画像特徴群からGPS情報を用いたランドマーク固有の画像特徴を記述した差別化画像特徴リストの差別化度の高い画像特徴を優先して採用した。検索クエリ画像から抽出した画像特徴群のうち差別化画像特徴リストに無く且つ画像特徴の安定度の低い画像特徴ほど使わないようにした。これにより、判別性能の高い特徴量に絞り込む事が可能となった。し、選別した画像特徴群を使って検索を行うようにした。これにより、検索時に使用可能な特徴点の数に制限がある場合であっても、検索精度の劣化を少なく抑えた検索を行うことができる。 As described above, in the first embodiment, priority is given to image features with a high degree of differentiation in the differentiated image feature list in which landmark-specific image features using GPS information are described from the image feature group extracted from the search query image. Adopted. Image features that are not included in the differentiated image feature list and are not stable in the image feature group extracted from the search query image are not used. This makes it possible to narrow down to feature quantities with high discrimination performance. The search is performed using the selected image feature group. Thereby, even when there is a limit to the number of feature points that can be used at the time of search, it is possible to perform a search with reduced deterioration in search accuracy.
(第2の実施形態)
以下、本発明の第2の実施形態について、図面を参照しながら説明する。第2の実施形態は、画像検索端末である検索クライアント(要求元)で撮影することにより検索クエリ画像を生成して画像特徴群を抽出し、その画像特徴群を画像検索サーバに送って画像検索サーバ内で検索を行い、検索クライアントに検索結果を表示する画像検索システムの例である。画像検索クライアントは、検索元画像を提供する検索元画像提供装置である。画像検索サーバへの画像登録処理は、第1の実施形態と同様の方式により行う。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. In the second embodiment, a search query image is generated by photographing with a search client (request source) that is an image search terminal, an image feature group is extracted, and the image feature group is sent to an image search server to perform an image search. It is an example of the image search system which searches in a server and displays a search result on a search client. The image search client is a search source image providing device that provides a search source image. Image registration processing to the image search server is performed by the same method as in the first embodiment.
図11は、本実施形態における画像検索システムの機能構成例を示すブロック図である。図11に示す各構成における動作の詳細については、後述する。 FIG. 11 is a block diagram illustrating a functional configuration example of the image search system according to the present embodiment. Details of the operation in each configuration shown in FIG. 11 will be described later.
図11における画像検索システムは、検索クライアント1101と画像検索サーバ1102からなる。検索クライアント1101と画像検索サーバ1102にはそれぞれ通信部1112、1120があり、該通信部1112、1120の間はネットワーク(有線、無線)で接続されており、該ネットワークを介して、情報通信を行う。
The image search system in FIG. 11 includes a
検索クライアント1101において、画像取得部1103は、カメラ撮影などにより、クエリ(検索元)画像の取得を行う。撮影環境情報送信部1104は、本実施形態ではGPS情報を画像検索サーバ1102へ送信する。
In the
差別化画像特徴リスト受信部1105は、画像検索サーバ1102で生成した差別化可能な画像特徴リストを通信部1112を介して受信する。
The differentiated image feature
例えば、現在の撮影場所から写し得る複数のランドマークが有り、それらのランドマークを区別するのに役立つ特徴量を差別化画像特徴リストで受け取る事を考える。そのために、検索クライアント1001はGPS情報を画像検索サーバ1102へ送信し、GPS情報と対応付けられた差別化画像特徴リストを、通信部1112を介して受信する。差別化画像特徴リストには、例えばGPS情報と日時情報を用い、その場所その季節その時刻で写り得る被写体群を想定し、それらの区別に役立つ差別化画像特徴を記述する事で、検索精度を大きく向上可能である。
For example, it is assumed that there are a plurality of landmarks that can be photographed from the current shooting location, and that feature quantities useful for distinguishing these landmarks are received in the differentiated image feature list. For this purpose, the search client 1001 transmits GPS information to the
画像特徴算出部1106は、画像取得部1103で取得したクエリ画像の画像特徴群を算出する。画像特徴選別部1107は、クエリ画像の画像特徴群から、判別性能が高い画像特徴群を選別する。画像特徴送信部1108は、画像特徴選別部1107で選別された画像特徴群を、通信部1112を介して画像検索サーバ1102に送信する。画像特徴比較結果取得部1109は、画像検索サーバ1102で実行された画像特徴比較結果の受信を、通信部1112を介して行う。画像特徴比較結果表示部1110は、画像特徴比較結果取得部1109で取得した画像特徴比較結果を表示する。記憶部1111は検索クライアントにおいて、処理中のデータを記憶するメモリ・HDD等である。
The image
画像検索サーバ1102において、差別化画像特徴リスト生成部1114は、複数の登録画像から算出された画像特徴群の中から、同じ属性情報に対して出現頻度が低く、同じ撮影環境情報に対応する画像間で判別性能が高い画像特徴リストを生成する。
In the
差別化画像特徴リスト送信部1115は、撮影環境情報受信部1113から得た撮影環境情報に適合する、差別化可能な画像特徴リストの送信を、通信部1120を介して検索クライアント1101に対して行う。画像特徴受信部1116は、検索クライアント1101で算出され、画像特徴選別部1107で優先採用されたクエリ画像の画像特徴群を、通信部1120を介して受信する。画像特徴比較部1117は、画像特徴受信部1116で受信したクエリ画像の画像特徴群を用いて画像特徴比較を行う。画像特徴比較結果送信部1118は、画像特徴比較部1117で実行された画像特徴比較の結果を、通信部1120を介して検索クライアント1101に送信する。記憶部1119は画像検索サーバにおいて、処理中のデータを記憶するメモリ・HDD等である。
The differentiated image feature
尚、画像特徴群選別部1107は画像検索サーバ側にあっても良い。その場合、画像特徴抽出部1106で抽出したクエリ画像の画像特徴群を画像特徴群送信部1108が通信部1112を介して画像検索サーバ1102に送信する。そして、画像検索サーバ1102にある画像特徴群選別部1107は、クエリ画像の画像特徴群から、判別性能が高い画像特徴群を選別する。画像特徴群比較部1117は、画像検索サーバ1102側にある画像特徴群選別部1107で選別された画像特徴群を用いて画像特徴群比較を行う。画像検索処理手順のフローチャートでも、画像特徴群選別部1107が画像検索サーバ1102側にある場合の処理を行うことになる。
The image feature
なお、これら各構成は、不図示のCPUにより統括的に制御されている。 Each of these components is centrally controlled by a CPU (not shown).
尚、CPUはプログラムを実行することで各種の手段として機能することが可能である。なお、CPUと協調して動作するASICなどの制御回路がこれらの手段として機能してもよい。また、CPUと画像処理装置の動作を制御する制御回路との協調によってこれらの手段が実現されてもよい。また、CPUは単一のものである必要はなく、複数であってもよい。この場合、複数のCPUは分散して処理を実行することが可能である。また、複数のCPUは単一のコンピュータに配置されていてもよいし、物理的に異なる複数のコンピュータに配置されていてもよい。なお、CPUがプログラムを実行することで実現する手段が専用の回路によって実現されてもよい。 The CPU can function as various means by executing a program. Note that a control circuit such as an ASIC that operates in cooperation with the CPU may function as these means. These means may be realized by cooperation between the CPU and a control circuit that controls the operation of the image processing apparatus. Further, the CPU need not be a single one, and may be a plurality. In this case, a plurality of CPUs can perform processing in a distributed manner. The plurality of CPUs may be arranged in a single computer, or may be arranged in a plurality of physically different computers. Note that the means realized by the CPU executing the program may be realized by a dedicated circuit.
[差別化画像特徴リスト生成処理]
第2の実施形態の画像検索システムの画像検索サーバの差別化画像特徴リスト生成部1114における差別化画像特徴リスト生成処理は、第1の実施形態の画像検索装置の差別化画像特徴リスト生成部103における差別化画像特徴リスト生成処理と同等である。従って、詳細の説明は省略する。
[Different image feature list generation processing]
The differentiated image feature list generation processing in the differentiated image feature
尚、検索するたびに差別化画像特徴リストを受信する事は処理負荷が増すので、同じGPS情報の場合には検索クライアント1101において差別化画像特徴リストをキャッシュする事が好ましい。
Note that receiving a differentiated image feature list each time a search increases the processing load, so it is preferable to cache the differentiated image feature list in the
[画像検索処理]
図12は、第2の実施形態の画像検索システムにおける画像検索処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Image search processing]
FIG. 12 is a flowchart illustrating an example of an image search processing procedure in the image search system according to the second embodiment. The flowchart is realized when the CPU executes a control program.
まず、ステップS1201では、検索クライアント1101において、カメラ撮影などにより、画像取得部1103を介してクエリ(検索元)画像を取得する。取得した画像は、記憶部1111に保存される。
First, in step S1201, the
次に、画像特徴算出部1106において、ステップS1202からステップS1207の処理が行われる。本処理は、第1の実施形態の画像登録処理におけるステップS202からステップS207、もしくは、第1の実施形態の画像検索処理におけるステップS802からステップS807の処理と同等であるため、詳細の説明は省略する。
Next, the image
次に、ステップS1208において、抽出されたクエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多い場合、ステップS1209に進み、最大数以下の場合は、ステップS1213に進む。 Next, in step S1208, if the number of feature points of the extracted query image is larger than the maximum number of feature points that can be used at the time of search, the process proceeds to step S1209, and if it is less than the maximum number, the process proceeds to step S1213.
尚、第2の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。 In the second embodiment, the determination is made based on whether the number of feature points of the query image is larger than the maximum number of feature points that can be used at the time of search. However, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.
ステップS1209では、差別化画像特徴リストの更新処理を行う。 In step S1209, the differentiated image feature list is updated.
ここで、図13は、差別化画像特徴リストの更新処理の一例を示すステップS1209の詳細なフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。 Here, FIG. 13 is a detailed flowchart of step S1209 showing an example of the update processing of the differentiated image feature list. The flowchart is realized when the CPU executes a control program.
まず、ステップS1301では、検索クライアント1101において、差別化画像特徴リストの更新設定を確認する。この差別化画像特徴リストの更新設定は、検索時に更新するかどうかを設定する。また、検索時に更新する設定の場合は、どのネットワーク接続のときに更新するかを設定する。図14は、差別化画像特徴リストの更新設定のためのユーザインタフェースの一例である。図14のボタン1401では、検索時に更新するかどうかを設定し、ボタン1402では、どのネットワーク接続のときに更新するかを設定する。
First, in step S1301, the
ステップS1302において、前回検索時とGPS情報に変更がある場合にはステップS1303に進み、変更がない場合は、現在保持している差別化画像特徴リストをキャッシュとしてそのまま使用するとし、更新処理を終了する。 In step S1302, if there is a change in GPS information at the time of the previous search, the process proceeds to step S1303. If there is no change, the differentiated image feature list currently held is used as a cache as it is, and the update process ends. To do.
ステップS1303では、接続中のネットワークの確認を行い、ステップS1304において、更新対象ネットワークである場合はステップS1305に進み、更新対象ネットワークではない場合は、差別化画像特徴リストの更新処理を終了する。 In step S1303, the currently connected network is checked. If it is determined in step S1304 that the network is an update target network, the process proceeds to step S1305. If the network is not an update target network, the differentiated image feature list update process ends.
次に、ステップS1305で、差別化画像特徴リスト受信部1105が、通信部1112を介して画像検索サーバ1102から差別化画像特徴リストを取得する。最後に、ステップS1306において、ステップS1305で受信した差別化画像特徴リストを記憶部1111に保存し、差別化画像特徴リストの更新処理を終了する。
In step S <b> 1305, the differentiated image feature
ステップS1209の差別化画像特徴リストの更新処理終了後、ステップS1210からステップS1212にかけて、第一特徴抽出リストから安定特徴を優先して第二特徴抽出リストへ補充処理を行う。これらの処理は、第1の実施形態の画像検索処理におけるステップS809からステップS811の処理と同等であるため、詳細の説明は省略する。 After the update processing of the differentiated image feature list in step S1209 is completed, in step S1210 to step S1212, the second feature extraction list is supplemented by giving priority to the stable feature from the first feature extraction list. Since these processes are equivalent to the processes from step S809 to step S811 in the image search process of the first embodiment, detailed description thereof is omitted.
次にステップS1213では、クエリ画像から抽出され選別された画像特徴リストを、通信部1112を介して画像検索サーバ1102に送信する。
In step S1213, the image feature list extracted and selected from the query image is transmitted to the
ステップS1217では、画像検索サーバ1102において画像特徴比較処理を行う。本処理は、第1の実施形態の画像検索処理におけるステップS815の処理と同等であるため、詳細の説明は省略する。ステップS1218では、ステップS1212により得られた画像特徴比較結果を、通信部1120を介して検索クライアント1101に送信する。
In step S1217, the
最後に、ステップS1219で画像特徴比較結果を表示する。本処理は、第1の実施形態の画像検索処理におけるステップS816の処理と同等である。 Finally, an image feature comparison result is displayed in step S1219. This process is equivalent to the process of step S816 in the image search process of the first embodiment.
以上のように第2の実施形態では、検索クライアントにおいて検索クエリ画像から抽出した画像特徴群のうち、差別化画像特徴を優先して画像検索の比較処理に使用するように選別し、選別した画像特徴群を画像検索サーバに送信し、画像検索サーバで検索を行うようにした。これにより、検索時に使用可能な特徴点の数に制限がある場合であっても、検索精度の劣化を少なく抑えた検索を行うことができる。 As described above, in the second embodiment, the image that has been selected from the image feature group extracted from the search query image by the search client so that the differentiated image feature is preferentially used for the comparison process of the image search. The feature group is transmitted to the image search server, and the search is performed by the image search server. Thereby, even when there is a limit to the number of feature points that can be used at the time of search, it is possible to perform a search with reduced deterioration in search accuracy.
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
GPS情報(撮影場所のカテゴリ)と日時を用いる事で、その場所その時期で撮影され得る動植物などを高精度に検索出来る差別化画像特徴リストを生成する事も可能である。また、天候情報や時間情報などで出現の確率がかわる夜行性の昆虫や動物の差別化画像特徴リストを生成する事も可能である。時間情報はもちろん、ローカルタイムで処理する必要がある。 By using GPS information (category of shooting location) and date and time, it is possible to generate a differentiated image feature list that can accurately search for animals and plants that can be shot at that location and time. It is also possible to generate a differentiated image feature list of nocturnal insects and animals whose appearance probability changes depending on weather information and time information. It is necessary to process not only time information but also local time.
また更に、天気、気温、湿度などにより出現頻度の変わる昆虫や動物の差別化画像特徴リストを生成する事も可能である。 Furthermore, it is also possible to generate a differentiated image feature list of insects and animals whose appearance frequency changes depending on weather, temperature, humidity, and the like.
建物でも、天気により開閉するドームなどの可動物がアピアランスを変える場合にも差別化画像特徴は役に立つ。 Even in buildings, differentiated image features are useful when moving objects such as a dome that opens and closes due to the weather change the appearance.
高山性の動植物などは、GPS情報の撮影高度情報を用いても良いが、気圧をその高度の推定に代用しても良い。 For alpine animals and plants, the shooting altitude information of GPS information may be used, but atmospheric pressure may be used for estimation of the altitude.
またフラッシュの有無、マクロ撮影などのカメラ撮影モードのダイヤル設定を属性情報とし、良く撮影される被写体間で共起性の低い画像特徴群を求める事で、高精度に検索出来る差別化画像特徴リストを生成する事も可能である。 Differentiated image feature list that can be searched with high accuracy by obtaining the image feature group with low co-occurrence between well-captured subjects using attribute settings such as camera shooting mode dial settings such as presence of flash and macro shooting Can also be generated.
望遠撮影では、近づくことの困難な鳥類などを撮影すると仮定して、鳥類同士での共起性の低い画像特徴群を求める事で、高精度に検索出来る差別化画像特徴リストを生成する事も可能である。もちろん、撮影被写体の被写体属性そのものを指定するカメラ撮影モードを指定できる場合には、その属性の有る画像から差別化画像特徴リストを生成する事も可能である。 In telephoto shooting, it is possible to generate a differentiated image feature list that can be searched with high accuracy by obtaining image feature groups with low co-occurrence between birds, assuming that birds that are difficult to approach are shot. Is possible. Of course, when a camera shooting mode for specifying the subject attribute of the shooting subject can be specified, a differentiated image feature list can be generated from an image having the attribute.
101 画像入力部
102 画像特徴算出部
103 差別化画像特徴リスト生成部
104 画像特徴選別部
105 画像特徴比較部
106 画像特徴比較結果表示部
107 記憶部
1101 検索クライアント
1102 画像検索サーバ
1103 画像取得部
1104 撮影環境情報送信部
1105 差別化画像特徴リスト受信部
1106 画像特徴算出部
1107 画像特徴選別部
1108 画像特徴送信部
1109 画像特徴比較結果取得部
1110 画像特徴比較結果表示部
1111 記憶部
1112 通信部
1113 撮影環境情報受信部
1114 差別化画像特徴リスト生成部
1115 差別化画像特徴リスト送信部
1116 画像特徴受信部
1117 画像特徴比較部
1118 画像特徴比較結果送信部
1119 記憶部
1120 通信部
DESCRIPTION OF
Claims (20)
前記画像を撮影した際の属性情報を取得する取得手段と、
前記画像の画像特徴を抽出する抽出手段と、
前記画像と前記属性情報と前記画像特徴を関連付けて記憶する記憶手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別手段と、
前記検索元画像の検索のために使用すると選別された検索元画像の画像特徴と、前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較手段と、
を有することを特徴とする画像検索装置。 An input means for inputting an image;
Acquisition means for acquiring attribute information at the time of photographing the image;
Extracting means for extracting image features of the image;
Storage means for storing the image, the attribute information, and the image feature in association with each other;
Based on the number of image features co-occurring in the image for each attribute information, the search source image input by the input unit is used for searching the search source image among the image features extracted by the extraction unit. A sorting means for sorting into image features and image features whose use is restricted;
Comparison means for comparing the image features of the search source image selected for use in searching the search source image with the image features of the registered image stored in the storage means;
An image search apparatus comprising:
前記選別手段は、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち、前記取得手段で取得した前記検索元画像の前記属性情報に対応する前記画像特徴リストに存在する画像特徴に基づいて検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別することを特徴とする請求項1に記載の画像検索装置。 Further comprising: generating means for generating, for each attribute information, an image feature list in which the number of image features co-occurring in the image for each attribute information is less than a predetermined number;
The selection unit is present in the image feature list corresponding to the attribute information of the search source image acquired by the acquisition unit among the image features extracted by the extraction unit for the search source image input by the input unit. 2. The image search apparatus according to claim 1, wherein an image feature used for searching a search source image and an image feature whose use is restricted are selected based on the image feature to be searched.
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報を、要求に応じて要求元に送信する送信手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報に基づいて、検索元画像の検索のために使用する画像特徴として要求元で選別された画像特徴を受信する受信手段と、
前記受信した検索元画像の画像特徴と前記記憶手段に記憶された画像特徴とを比較する比較手段と、
を有することを特徴とする画像検索装置。 Storage means for storing image features corresponding to an image and attribute information when the image is captured;
Transmitting means for transmitting information on the number of image features co-occurring in the image for each attribute information to a request source in response to a request;
Receiving means for receiving an image feature selected by a request source as an image feature to be used for searching a search source image based on information on the number of image features co-occurring in the image for each attribute information;
Comparing means for comparing the image feature of the received search source image with the image feature stored in the storage means;
An image search apparatus comprising:
前記画像を撮影した際の属性情報を取得する取得工程と、
前記画像の画像特徴を抽出する抽出工程と、
前記画像と前記属性情報と前記画像特徴とを関連付けて記憶手段に記憶させる工程と、前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力工程で入力された検索元画像について前記抽出工程で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別工程と、
前記検索元画像の検索のために使用すると選別された画像特徴と、前記記憶手段に記憶された登録画像の画像特徴とを比較する比較工程と、
を有することを特徴とする画像検索方法。 An input process for inputting an image;
An acquisition step of acquiring attribute information at the time of capturing the image;
An extraction step of extracting image features of the image;
The step of storing the image, the attribute information, and the image feature in association with each other in the storage unit, and the search source input in the input step based on the number of image features that co-occur in the image for each attribute information A selection step of selecting an image feature to be used for search of a search source image and an image feature to be restricted among the image features extracted in the extraction step for the image,
A comparison step of comparing the image features selected to be used for searching the search source image with the image features of the registered image stored in the storage means;
An image search method characterized by comprising:
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報を、要求に応じて要求元に送信する送信工程と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報に基づいて検索元画像の検索のために使用する画像特徴として要求元で選別された画像特徴を受信する受信工程と、
前記受信した検索元画像の画像特徴と前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較工程と、
を有することを特徴とする画像検索方法。 Storing image characteristics corresponding to an image and attribute information at the time of capturing the image in a storage unit;
A transmission step of transmitting information on the number of image features co-occurring in the image for each attribute information to a request source upon request;
A receiving step of receiving an image feature selected by a request source as an image feature to be used for searching a search source image based on information on the number of image features co-occurring in the image for each attribute information;
A comparison step of comparing the image feature of the received search source image with the image feature of the registered image stored in the storage means;
An image search method characterized by comprising:
画像を入力する入力手段と、
前記画像を撮影した際の属性情報を取得する取得手段と、
前記画像の画像特徴を抽出する抽出手段と、
前記画像と前記属性情報と前記画像特徴とを関連付けて記憶する記憶手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別手段と、
前記検索元画像の検索のために使用すると選別された検索元画像の画像特徴と、前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較手段と、
として機能させるためのプログラム。 Computer
An input means for inputting an image;
Acquisition means for acquiring attribute information at the time of photographing the image;
Extracting means for extracting image features of the image;
Storage means for storing the image, the attribute information, and the image feature in association with each other;
Based on the number of image features co-occurring in the image for each attribute information, the search source image input by the input unit is used for searching the search source image among the image features extracted by the extraction unit. A sorting means for sorting into image features and image features whose use is restricted;
Comparison means for comparing the image features of the search source image selected for use in searching the search source image with the image features of the registered image stored in the storage means;
Program to function as.
画像に対応する画像特徴と前記画像を撮影した際の属性情報を記憶する記憶手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報を、要求に応じて要求元に送信する送信手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報に基づいて検索元画像の検索のために使用する画像特徴として要求元で選別された画像特徴を受信する受信手段と、
前記受信した検索元画像の画像特徴と前記記憶手段に記憶された画像特徴とを比較する比較手段と、
として機能させるためのプログラム。 Storage means for storing an image feature corresponding to an image and attribute information when the image is captured;
Transmitting means for transmitting information on the number of image features co-occurring in the image for each attribute information to a request source in response to a request;
Receiving means for receiving an image feature selected by a request source as an image feature to be used for searching a search source image based on information on the number of image features co-occurring in the image for each attribute information;
Comparing means for comparing the image feature of the received search source image with the image feature stored in the storage means;
Program to function as.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001080A JP6091217B2 (en) | 2013-01-08 | 2013-01-08 | Image search device, image search method, search source image providing device, search source image providing method, and program |
US14/148,300 US20140193077A1 (en) | 2013-01-08 | 2014-01-06 | Image retrieval apparatus, image retrieval method, query image providing apparatus, query image providing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001080A JP6091217B2 (en) | 2013-01-08 | 2013-01-08 | Image search device, image search method, search source image providing device, search source image providing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014134858A JP2014134858A (en) | 2014-07-24 |
JP2014134858A5 JP2014134858A5 (en) | 2016-02-25 |
JP6091217B2 true JP6091217B2 (en) | 2017-03-08 |
Family
ID=51413092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013001080A Expired - Fee Related JP6091217B2 (en) | 2013-01-08 | 2013-01-08 | Image search device, image search method, search source image providing device, search source image providing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6091217B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004023656A (en) * | 2002-06-19 | 2004-01-22 | Canon Inc | Image processing device, image processing method, and program |
WO2004047026A1 (en) * | 2002-11-20 | 2004-06-03 | Fujitsu Limited | Image search program |
-
2013
- 2013-01-08 JP JP2013001080A patent/JP6091217B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014134858A (en) | 2014-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20140193077A1 (en) | Image retrieval apparatus, image retrieval method, query image providing apparatus, query image providing method, and program | |
Zamir et al. | Image geo-localization based on multiplenearest neighbor feature matching usinggeneralized graphs | |
KR101417548B1 (en) | Method and system for generating and labeling events in photo collections | |
CN102591868B (en) | System and method for automatic generation of photograph guide | |
JP5563494B2 (en) | Corresponding reference image search device and method, content superimposing device, system and method, and computer program | |
JP5608680B2 (en) | Mobile image retrieval and indexing system and method | |
JP6211407B2 (en) | Image search system, image search device, search server device, image search method, and image search program | |
US10810466B2 (en) | Method for location inference from map images | |
JP2017004252A (en) | Image information processing system | |
JP5223034B2 (en) | Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded | |
US20210326376A1 (en) | Navigating through a set of images | |
JP5671224B2 (en) | Image processing apparatus and image processing method | |
JP6034229B2 (en) | Position information processing apparatus and position information processing method | |
JP4457988B2 (en) | Image management apparatus, image management method, and computer program | |
CN102687147B (en) | Information processor, processing method and integrated circuit | |
JP6143462B2 (en) | Image search device, image search method, search source image providing device, search source image providing method, and program | |
CN113742504A (en) | Method, device, computer program product and computer program for searching images by images | |
CN111191065B (en) | Homologous image determining method and device | |
JP6091217B2 (en) | Image search device, image search method, search source image providing device, search source image providing method, and program | |
JP5272107B2 (en) | Information providing apparatus, information providing processing program, recording medium on which information providing processing program is recorded, and information providing method | |
KR101720685B1 (en) | Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement | |
JP5708868B1 (en) | Program, information processing apparatus and method | |
Peng et al. | KISS: knowing camera prototype system for recognizing and annotating places-of-interest | |
Peng et al. | The knowing camera 2: recognizing and annotating places-of-interest in smartphone photos | |
Kit et al. | Efficient image geotagging using large databases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6091217 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |