[go: up one dir, main page]

JPH0520366A - Animated image collating method - Google Patents

Animated image collating method

Info

Publication number
JPH0520366A
JPH0520366A JP3102786A JP10278691A JPH0520366A JP H0520366 A JPH0520366 A JP H0520366A JP 3102786 A JP3102786 A JP 3102786A JP 10278691 A JP10278691 A JP 10278691A JP H0520366 A JPH0520366 A JP H0520366A
Authority
JP
Japan
Prior art keywords
moving image
moving
frame
target object
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3102786A
Other languages
Japanese (ja)
Inventor
Tomoyuki Kiyosue
悌之 清末
Yuji Oba
有二 大庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3102786A priority Critical patent/JPH0520366A/en
Publication of JPH0520366A publication Critical patent/JPH0520366A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PURPOSE:To easily execute the retrieval by using a timewise feature amount especially, in the case the expression of a scene by a speech is difficult, in the collating method for an animated image for extracting a desired scene from an assembly of animated images. CONSTITUTION:The extraction of information (position, area) of an object body in one frame is executed S1-S4 with regard to all frames, and subsequently, a calculation is executed S5 with regard to timewise feature amounts (speed, locus, area variation), and based on this calculation result, a distance calculation is executed S6 to an index animated image in an animated image data base, several images are presented S7 from the index animated images of a small distance, obtained by this calculation, and a scene intended by a retriever is detected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像データベースか
らの検索時や、マルチメディア文書の編集時において素
材を集めるときなどに必要になる動画像検索方法に関
し、特に動画像を用いて動画像を検索するときの該動画
像照合方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image search method which is required when searching materials from a moving image database or collecting materials when editing a multimedia document. The present invention relates to the moving image matching method when searching for.

【0002】[0002]

【従来の技術】従来の動画像検索方法では、早送り、も
しくは巻き戻しスイッチを押しながら、人間の目視によ
って所望の場面に至ったと判断された際に、それらスイ
ッチを解除するという、人間の存在を前提とする方法し
か存在していなかった。
2. Description of the Related Art In the conventional moving image retrieval method, it is necessary to remove the human presence of pushing the fast-forward or rewind switch and releasing the switch when it is judged by the human eyes that the desired scene is reached. There was only a premised method.

【0003】一方、対象とする画面にキーワードを付与
し、データベースとして管理する方法もある。
On the other hand, there is also a method of assigning a keyword to a target screen and managing it as a database.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、これら
の従来の技術において、前者による人間の存在を前提と
する方法は、目視によって動画像の所望の場面を検索す
るので、スイッチ操作が繁雑で労力を要し、即時性に欠
ける。
However, in these conventional techniques, the former method which presupposes the existence of a human being searches for a desired scene in a moving image by visual observation, and therefore the switch operation is complicated and labor-intensive. In short, it lacks immediacy.

【0005】また後者による画面にキーワードを付与し
データベースとして管理する方法は、画像の解釈が人,
時間,環境によって様々であり、これを限られた言葉で
表現し管理することは無理があった。また、この方法は
静止画を対象にしたデータベース管理方法であり、動画
像を対象にしたものでも、表題程度がキーワードとなっ
ているだけである。
In the latter method of assigning a keyword to a screen and managing it as a database, the interpretation of an image is
It varies depending on the time and environment, and it was impossible to express and manage this with limited words. Further, this method is a database management method for still images, and even in the case of moving images, only the title is a keyword.

【0006】この動画像の内容、とくに時間的に特徴量
をキーワードとして付与することは、言葉としての表現
も微妙であり、インデクサ(キーワードを付与する者)の
労力も多大であり、かつサーチャ(キーワードを用いて
検索する者)もインデクサとの間の解釈のずれを強く意
識せねばならず、多大な労力を要するというと問題があ
った。
[0006] When the contents of the moving image, in particular, the feature amount is temporally added as a keyword, the expression as a word is delicate, the labor of the indexer (the person who gives the keyword) is great, and the searcher ( (A person who searches using a keyword) must also be strongly aware of the difference in interpretation with the indexer, and there is a problem in that much labor is required.

【0007】いずれにしても、時間的な特徴量を用いて
検索する方法は従来技術にはなかった。つまり、「同じ
くらいの早さ」の対象や、「同じような動き」をする移
動物体を自動的に検出する方法はなく、人間の目で探す
しかなかった。
In any case, the prior art does not have a method for searching using a temporal feature amount. In other words, there is no way to automatically detect an object of "same speed" or a moving object that performs "similar motion", and there is no choice but to search with human eyes.

【0008】本発明は、このような従来の問題点を解決
し、動画像の集合から所望のシーンを抽出してくる場合
に必要となる動画像の照合方法において、上記した、言
葉によるシーンの表現が困難な場合、特に時間的な特徴
量を用いて検索する場合の方法を提供することを目的と
するものである。
The present invention solves the above-mentioned conventional problems, and in the moving image collating method required when a desired scene is extracted from a set of moving images, the above-mentioned verbal scene It is an object of the present invention to provide a method for a case where it is difficult to express, especially when a search is performed using a temporal feature amount.

【0009】[0009]

【課題を解決するための手段】本発明は、複数の動画像
間の照合を行なう動画像照合方法において、動画像中の
フレーム毎に対象物体を切り出し、一連のフレーム中の
対象物体の位置情報をもとに算出される移動速度情報を
用いてキー動画像と照合するか、位置情報の連鎖からな
る移動軌跡情報を用いてキー動画像と照合するか、ある
いは、対象物体の画積情報をもとに算出される移動物体
の時間的形状情報を用いてキー動画像と照合を行なうこ
とを特徴とする。
According to the present invention, in a moving image collation method for collating a plurality of moving images, a target object is cut out for each frame in the moving image, and position information of the target object in a series of frames is extracted. Based on the moving speed information, the key moving image is collated, or the moving locus information consisting of a chain of position information is used to collate the key moving image. It is characterized in that matching is performed with the key moving image using the temporal shape information of the moving object calculated based on the original.

【0010】[0010]

【作用】本発明によれば、検索者がまず所望とするシー
ンに近いシーンを提示し、これから自動的に算出される
時間的な特徴量を用い、予め時間的な特徴量を抽出済み
の動画像中から、移動速度情報,移動軌跡情報あるいは
時間的形状情報を用いてキー動作像と照合を行ない、類
似シーンを検索する。
According to the present invention, a searcher first presents a scene close to a desired scene, and a temporal feature quantity automatically calculated from this is used to extract a temporal feature quantity in advance. From the image, the moving speed information, the moving locus information, or the temporal shape information is used to collate with the key operation image to search for a similar scene.

【0011】このような検索照合により、検索者は正確
な表現が期されるキーワードを案出もしくは、選択する
必要がない。検索者は自分の解釈に基づいて、所望とす
るシーンに近いと思われるシーンを提示するだけでよ
く、経験によって培われるノウハウは不要となる。
By such search collation, the searcher does not need to devise or select a keyword for which an accurate expression is expected. The searcher only has to present a scene that seems to be close to the desired scene based on his interpretation, and the know-how cultivated by experience is unnecessary.

【0012】[0012]

【実施例】図1は、本発明の一実施例に係る検索時に用
いられ動画像の模式図であり、図2は、本発明の検索手
順を示すフローチャートである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a schematic diagram of a moving image used in a search according to an embodiment of the present invention, and FIG. 2 is a flow chart showing a search procedure of the present invention.

【0013】図1の(1)は、検索時に検索者が、出力を
意図する画像として、動画像検索システムに入力する動
画像(以下、キー動画像と呼ぶ)である。(2),(3)及び
(4)は、通常の動画像データベースに格納されている各
動画像(以下、インデックス動画像と呼ぶ)である。
FIG. 1A shows a moving image (hereinafter referred to as a key moving image) which is input by the searcher to the moving image search system as an image intended for output by the searcher. (2), (3) and
(4) is each moving image (hereinafter referred to as an index moving image) stored in a normal moving image database.

【0014】ここで、検索者は、キー動画像(1)に似た
動画像を要求しているとし、その検索画像を入力する
(S1)。図1中では、模式的に、動画像中の1フレーム
を1つの正方形で示している。(1)では3つの正方形(1)
−1,(1)−2及び(1)−3が示されているので、(1/3
0)×3=1/10秒の動画像となる。ここでは説明の便宜
上、短い動画像を与えたとする。実際に供与する動画像
検索システムでは、ある程度長い動画像をキー動画像
(1)として設定するほうが利用しやすいことは言うまで
もない。
Here, it is assumed that the searcher requests a moving image similar to the key moving image (1) and inputs the search image.
(S 1 ). In FIG. 1, one frame in the moving image is schematically shown by one square. Three squares in (1) (1)
Since -1, (1) -2 and (1) -3 are shown, (1/3
It becomes a moving image of 0) × 3 = 1/10 seconds. Here, for convenience of explanation, it is assumed that a short moving image is given. In the moving image retrieval system that is actually provided, a certain long moving image is used as a key moving image.
It goes without saying that setting as (1) is easier to use.

【0015】キー動画像中からは、既存の画像処理技術
(例えば、フレーム間差分の方法を用いた移動領域の抽
出など)を用いて、対象物体を各フレーム毎に指定し抽
出する(S2)。
From the key moving image, the existing image processing technology is used.
The target object is designated and extracted for each frame using (for example, extraction of a moving area using a method of inter-frame difference) (S 2 ).

【0016】この対象物体の指定は、その対象物体の写
っている画像を入力することで行なう。
The target object is designated by inputting an image showing the target object.

【0017】そして、全フレームについての抽出を行な
い(S3),(S4)抽出されたフレーム毎の対象物体の位置
情報から、フレーム枠に対する相対速度が算出される。
図1では、1/10秒に、x方向に1/3フレーム枠分、
y方向に1/3フレーム枠分、
Then, extraction is performed for all frames (S 3 ), and (S 4 ) Relative speed with respect to the frame is calculated from the extracted position information of the target object for each frame.
In FIG. 1, 1/10 second, 1/3 frame in the x direction,
1/3 frame in the y direction,

【0018】[0018]

【外1】 [Outer 1]

【0019】一方、別の特徴量として、物体の軌跡y=
f(x)が算出される。図1の(1)の場合、y=xで与え
られる。
On the other hand, as another characteristic amount, the locus y of the object is y =
f (x) is calculated. In the case of (1) in FIG. 1, y = x is given.

【0020】また、抽出されたフレーム毎の対象物体の
面積情報から、対象物体の形状の時間変化aが算出され
る。図1の(1)の場合、フレーム(1)−1からフレーム
(1)−2までの面積変化が、1/30秒あたり(2/3)−
1、またフレーム(1)−2からフレーム(1)−3までの面
積変化が、1/30秒あたり(1/3)−(2/3)、即ち、
aは平均して、
Further, the time change a of the shape of the target object is calculated from the extracted area information of the target object for each frame. In the case of (1) in FIG. 1, from frame (1) -1 to frame
(1) -2 area change per 1/30 second (2/3)-
1. Also, the area change from frame (1) -2 to frame (1) -3 is (1/3)-(2/3) per 1/30 second, that is,
a is on average

【0021】[0021]

【数1】 [Equation 1]

【0022】が時間あたりの面積変化率となる(S5)。Is the area change rate per time (S 5 ).

【0023】即ち、動画像データベースに格納されてい
る各々のインデックス画像(図1の(2),(3),(4))につ
いて、速度,軌跡,面積変化の各特徴量を予め(S5)で
算出しておく。
That is, for each index image ((2), (3), (4) in FIG. 1) stored in the moving image database, the feature amounts of speed, locus, and area change are set in advance (S 5 ).

【0024】そしてステップ(S5)での特徴量算出でも
って、軌跡に関係する対象物体の移動距離は、その対象
物体の重心点の移動距離を用いることで、該対象物体が
剛体,非剛体であっても差が生じにくく距離計算ができ
る。
In the feature amount calculation in the step (S 5 ), the moving distance of the target object related to the locus is calculated by using the moving distance of the center of gravity of the target object. Even if the difference is small, it is possible to calculate the distance.

【0025】また、面積の算出は、領域分割してある領
域の画素数を測定する等の周知手段で行なう。
The area is calculated by a well-known means such as measuring the number of pixels in a divided area.

【0026】次に、特徴量(速度,軌跡,面積変化)算出
後、動画像データベース中のインデックス動画像(図1
の(2),(3),(4))との間で距離計算を行なう(S6)。
Next, after calculating the characteristic amount (speed, locus, area change), the index moving image in the moving image database (see FIG.
(2), (3), and (4)) are calculated (S 6 ).

【0027】即ち、図1の(2)の場合、全体の時間は4
[フレーム]×(1/30)[秒/フレーム]=(2/15)
[秒]となる。
That is, in the case of (2) in FIG. 1, the total time is 4
[Frame] x (1/30) [second / frame] = (2/15)
It becomes [second].

【0028】また、移動速度は、The moving speed is

【0029】[0029]

【数2】 [Equation 2]

【0030】となる。It becomes

【0031】また移動軌跡はy=x。面積変化は、各々
フレーム間で(2/3)−1,(1/3)−(2/3),(1
/6)−(1/3)であるから、これを平均して、
The movement locus is y = x. The area change is (2/3) -1, (1/3)-(2/3), (1
/ 6)-(1/3), so averaging this,

【0032】[0032]

【数3】 [Equation 3]

【0033】となる。It becomes

【0034】同様にして、図1の(3)では、全体の時間
(1/10)[秒]、速度(10/3)[フレーム枠/秒]、軌
跡x=0、面積変化−10[単位面積/秒]となる。図1
の(4)では、全体の時間(1/10)[秒]、速度5[フレ
ーム枠/秒]、軌跡y=0、面積変化0[単位面積/
秒]となる。
Similarly, in (3) of FIG.
(1/10) [second], speed (10/3) [frame frame / second], locus x = 0, area change −10 [unit area / second]. Figure 1
In (4), the total time (1/10) [sec], speed 5 [frame / sec], locus y = 0, area change 0 [unit area /
Seconds].

【0035】このとき、ある適当な距離関数Dを考え、
この値の少ないものを候補画像として検索者へ提示す
る。
At this time, consider an appropriate distance function D,
The one with the smaller value is presented to the searcher as a candidate image.

【0036】上記の距離関数Dの例として、As an example of the above distance function D,

【0037】[0037]

【数4】 [Equation 4]

【0038】などが考えられる。もちろん他の距離関数
が適用できることは言うまでもない。
The following are conceivable. Of course, other distance functions can be applied.

【0039】この距離関数を用いて、検索するときの処
理手順を示す図2の(S6)で、計算して得られた距離の
少ないインデックス動画像からいくつかを(S7)で提示
する。
At (S 6 ) in FIG. 2 showing the processing procedure for retrieval using this distance function, some index moving images with small distances obtained by calculation are presented at (S 7 ). .

【0040】[0040]

【発明の効果】以上説明したように本発明の動画像照合
方法は、人間が画像を解釈しキーワードを案内すること
なしに、動画像の検索が可能となる。また、この方法が
検索のみならず、動画像の編集、解析などにも使用でき
ることは言うまでもない。
As described above, the moving image collation method of the present invention enables a moving image search without a human being interpreting the image and guiding a keyword. Needless to say, this method can be used not only for searching but also for editing and analyzing moving images.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の検索時に用いられる動画像の模式図で
ある。
FIG. 1 is a schematic diagram of a moving image used in a search according to the present invention.

【図2】本発明の検索手順を示すフローチャートであ
る。
FIG. 2 is a flowchart showing a search procedure of the present invention.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 複数の動画像間の照合を行なう動画像照
合方法において、動画像中のフレーム毎に対象物体を切
り出し、一連のフレーム中の対象物体の位置情報をもと
に算出される移動速度情報を用いてキー動画像と照合す
ることを特徴とする動画像照合方法。
1. A moving image collation method for collating a plurality of moving images, wherein a target object is cut out for each frame in a moving image, and movement is calculated based on position information of the target object in a series of frames. A moving image matching method characterized by matching with a key moving image using speed information.
【請求項2】 複数の動画像間の照合を行なう動画像照
合方法において、動画像中のフレーム毎に対象物体を切
り出し、一連のフレーム中の対象物体の位置情報の連鎖
からなる移動軌跡情報を用いてキー動画像と照合するこ
とを特徴とする動画像照合方法。
2. A moving image collation method for collating a plurality of moving images, wherein a target object is cut out for each frame in a moving image, and movement locus information consisting of a chain of position information of the target object in a series of frames is obtained. A moving image matching method characterized by using the key to match a moving image.
【請求項3】 複数の動画像間の照合を行なう動画像照
合方法において、動画像中のフレーム毎に対象物体を切
り出し、一連のフレーム中の対象物体の画積情報をもと
に算出される移動物体の時間的形状情報を用いてキー動
画像と照合することを特徴とする動画像照合方法。
3. A moving image collating method for collating a plurality of moving images, wherein a target object is cut out for each frame in a moving image and calculated based on image area information of the target object in a series of frames. A moving image matching method characterized by matching with a key moving image using temporal shape information of a moving object.
JP3102786A 1991-05-08 1991-05-08 Animated image collating method Pending JPH0520366A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3102786A JPH0520366A (en) 1991-05-08 1991-05-08 Animated image collating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3102786A JPH0520366A (en) 1991-05-08 1991-05-08 Animated image collating method

Publications (1)

Publication Number Publication Date
JPH0520366A true JPH0520366A (en) 1993-01-29

Family

ID=14336815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3102786A Pending JPH0520366A (en) 1991-05-08 1991-05-08 Animated image collating method

Country Status (1)

Country Link
JP (1) JPH0520366A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114567A (en) * 1993-10-20 1995-05-02 Hitachi Ltd Method and device for retrieving video
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
JP2002007458A (en) * 2000-06-21 2002-01-11 Nippon Telegr & Teleph Corp <Ntt> Video viewing method and device, and recording medium with the method recorded thereon
JP2004127311A (en) * 1993-10-25 2004-04-22 Hitachi Ltd Associative retrieval device of image
JP2007323268A (en) * 2006-05-31 2007-12-13 Oki Electric Ind Co Ltd Video providing device
JP2009081845A (en) * 2007-08-22 2009-04-16 Adobe Systems Inc Bidirectional video frame search system and method
JP2009147603A (en) * 2007-12-13 2009-07-02 Omron Corp Moving image identification apparatus
JP2010213052A (en) * 2009-03-11 2010-09-24 Casio Computer Co Ltd Imaging apparatus, imaging method, and imaging program
WO2012133028A1 (en) * 2011-03-25 2012-10-04 株式会社ニコン Electronic apparatus, selection method, acquisition method, electronic device, combination method and combination program
JP2012203657A (en) * 2011-03-25 2012-10-22 Nikon Corp Electronic device and acquisition method
JP2012221401A (en) * 2011-04-13 2012-11-12 Nikon Corp Electronic instrument and selection method
JP2012531130A (en) * 2009-06-26 2012-12-06 インテル・コーポレーション Video copy detection technology

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114567A (en) * 1993-10-20 1995-05-02 Hitachi Ltd Method and device for retrieving video
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
JP2004127311A (en) * 1993-10-25 2004-04-22 Hitachi Ltd Associative retrieval device of image
JP2002007458A (en) * 2000-06-21 2002-01-11 Nippon Telegr & Teleph Corp <Ntt> Video viewing method and device, and recording medium with the method recorded thereon
JP2007323268A (en) * 2006-05-31 2007-12-13 Oki Electric Ind Co Ltd Video providing device
JP2009081845A (en) * 2007-08-22 2009-04-16 Adobe Systems Inc Bidirectional video frame search system and method
JP2009147603A (en) * 2007-12-13 2009-07-02 Omron Corp Moving image identification apparatus
JP2010213052A (en) * 2009-03-11 2010-09-24 Casio Computer Co Ltd Imaging apparatus, imaging method, and imaging program
JP2012531130A (en) * 2009-06-26 2012-12-06 インテル・コーポレーション Video copy detection technology
WO2012133028A1 (en) * 2011-03-25 2012-10-04 株式会社ニコン Electronic apparatus, selection method, acquisition method, electronic device, combination method and combination program
JP2012203657A (en) * 2011-03-25 2012-10-22 Nikon Corp Electronic device and acquisition method
JP2012221401A (en) * 2011-04-13 2012-11-12 Nikon Corp Electronic instrument and selection method

Similar Documents

Publication Publication Date Title
US5805733A (en) Method and system for detecting scenes and summarizing video sequences
CN102855463B (en) Face recognition device and control method thereof and face recognition method
JP4168940B2 (en) Video display system
EP1258816A2 (en) Image search method and apparatus
JP5602135B2 (en) Method and system for automatic personal annotation of video content
Ju et al. Summarization of videotaped presentations: automatic analysis of motion and gesture
JP3952216B2 (en) Translation device and dictionary search device
US8379931B2 (en) Image processing apparatus for retrieving object from moving image and method thereof
KR20170007747A (en) Natural language image search
JPH0520366A (en) Animated image collating method
JPH06101018B2 (en) Search of moving image database
JP4536940B2 (en) Image processing apparatus, image processing method, storage medium, and computer program
EP3627354A1 (en) Information processing system, method for controlling information processing system, and storage medium
JPH08249349A (en) Image data base device
KR100305591B1 (en) Video Retrieval Method Using Joint Point Based Motion Information
JP2006163527A (en) Image retrieval device and method
JPH08255171A (en) Information processor
CN104504162A (en) Video retrieval method based on robot vision platform
JP2002304415A (en) Image search device
JP2007304771A (en) Subject recognition device, subject recognition program and image retrieval service provision method
JP3330348B2 (en) Video search method and apparatus, and recording medium storing video search program
US20230131717A1 (en) Search processing device, search processing method, and computer program product
JPH0680510B2 (en) Image information retrieval device
KR20120128094A (en) Face recognition apparatus, control method thereof, face recognition method
Ioka et al. Estimation of motion vectors and their application to scene retrieval