[go: up one dir, main page]

JP2002092618A - Device and method for target detection processing - Google Patents

Device and method for target detection processing

Info

Publication number
JP2002092618A
JP2002092618A JP2000284401A JP2000284401A JP2002092618A JP 2002092618 A JP2002092618 A JP 2002092618A JP 2000284401 A JP2000284401 A JP 2000284401A JP 2000284401 A JP2000284401 A JP 2000284401A JP 2002092618 A JP2002092618 A JP 2002092618A
Authority
JP
Japan
Prior art keywords
image processing
target
segment
frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000284401A
Other languages
Japanese (ja)
Inventor
Minoru Kikuchi
稔 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000284401A priority Critical patent/JP2002092618A/en
Publication of JP2002092618A publication Critical patent/JP2002092618A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To sufficiently ensure the continuity of target detection. SOLUTION: Image processing of the input image of frame structure is executed simultaneously in parallel by a static image processing part 11 and a dynamic image processing part 12. A segment collation processing part 20 determines relative relation between image processing systems or between frames on each feature quantity obtained by each image processing system, and determines the identity of a target object on the basis of the determined result. The segment collation processing part 20 is provided with a feature quantity holding function for storing the feature quantity extracted from each frame, in a database, a segment detecting function for detecting whether or not a segment is included in each frame; and a feature quantity interpolation processing function for reading the feature quantity of a front frame corresponding to the segment, from the database, and interpolating it between the present frame and the following frame.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、特に画像処理シ
ステムを利用して、目標対象物の監視や追随処理を行な
う目標判定処理装置及び目標判定処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a target determination processing apparatus and a target determination processing method for monitoring and following a target object by using an image processing system.

【0002】[0002]

【従来の技術】周知のように、例えば監視システムで
は、航空機等の目標対象物の検出・追随処理を行なうた
めに、当該目標対象物を特定するための目標判定処理装
置が設けられている。
2. Description of the Related Art As is well known, for example, in a monitoring system, a target determination processing device for specifying a target object such as an aircraft is provided in order to detect and follow the target object.

【0003】目標判定処理装置は、例えばカメラなどの
撮像装置から得られた入力画像データを入力し、当該画
像データから対象物候補を抽出し、各対象物候補に対応
する画像処理特徴量により目標領域(セグメント)を検
出する。ここで、多くの特徴量を抽出するために、目標
判定処理装置は、同一画像に対し、複数種の画像処理方
式により画像処理を行なう。この時、各処理の求めた特
徴量を統合するセグメント照合には、セグメント特徴量
のうち、位置情報を使用する。
A target determination processing device inputs input image data obtained from an imaging device such as a camera, extracts target candidates from the image data, and sets target targets based on image processing feature amounts corresponding to each target candidate. Detect an area (segment). Here, in order to extract many feature values, the target determination processing device performs image processing on the same image using a plurality of image processing methods. At this time, the position information among the segment feature amounts is used for the segment matching for integrating the feature amounts obtained by the respective processes.

【0004】[0004]

【発明が解決しようとする課題】しかし、上記目標判定
処理装置では、画像処理方式が異なるため、抽出される
領域は異なることが多い。特に、画像状況変化、雑音等
により、一部の処理において一時的に目標を検出できな
い場合がある。目標検出できない処理結果では、セグメ
ント及び位置情報が存在せず、特徴量の統合が不完全に
なる。この時、対象セグメントは特徴量不十分となり、
対象物候補から外れ、以後、検出・追随が不可能になる
恐れがある。
However, in the above-described target determination processing device, since the image processing method is different, the extracted area is often different. In particular, a target may not be detected temporarily in some processes due to a change in image status, noise, or the like. In the processing result in which the target cannot be detected, there is no segment and position information, and the integration of the feature amounts is incomplete. At this time, the target segment has insufficient features,
There is a possibility that detection / following will become impossible after deviating from the object candidate.

【0005】このような問題に対し、従来では、一時的
にセグメントが検出不可となった場合に、セグメントの
位置・速度情報を基に、次フレームにおける処理対象領
域を限定し、目標抽出を行なうようにしている。この場
合、処理領域を限定することで、目標を再検出できる可
能性は向上するが、十分とはいえない。
In order to solve such a problem, conventionally, when a segment cannot be detected temporarily, a target area in the next frame is limited and a target is extracted based on the position / speed information of the segment. Like that. In this case, limiting the processing area increases the possibility of re-detecting the target, but is not sufficient.

【0006】そこで、この発明の目的は、画像状況変
化、雑音等により入力画像が変化した場合でも、目標検
出の連続性を十分に確保し得る目標判定処理装置及び目
標判定処理方法を提供することにある。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a target determination processing apparatus and a target determination processing method capable of ensuring sufficient continuity of target detection even when an input image changes due to a change in image conditions, noise, or the like. It is in.

【0007】[0007]

【課題を解決するための手段】この発明に係る目標判定
処理装置は、画像処理を利用して目標対象物を判定する
目標判定処理装置であって、目標対象物を含むフレーム
構造の画像データを入力し、複数種の画像処理方式によ
り当該入力画像データを処理する画像入力手段と、この
画像入力手段の各画像処理方式の画像処理により得られ
る対象物候補に対応する各特徴量を抽出し、フレーム間
における各特徴量の相対関係及び各画像処理方式間にお
ける各特徴量の相対関係のうちの少なくとも一方に基づ
いて目標対象物の同一性を判定する判定処理手段とを備
えるようにしたものである。
SUMMARY OF THE INVENTION A target determination processing device according to the present invention is a target determination processing device for determining a target object by using image processing, wherein image data having a frame structure including the target object is converted. An image input unit that inputs and processes the input image data by a plurality of types of image processing methods, and extracts each feature amount corresponding to an object candidate obtained by image processing of each image processing method of the image input unit, A determination processing unit configured to determine the identity of the target object based on at least one of a relative relationship of each feature amount between frames and a relative relationship of each feature amount between each image processing method. is there.

【0008】なお、上記画像入力手段は、複数種の画像
処理方式を同時、並列に実行させて対象物候補の抽出結
果を含む時系列の各画像処理結果を生成することを特徴
とし、上記判定処理手段は、各画像処理方式間もしくは
フレーム間で得られる特徴量の重なりによる相関処理に
より目標対象物の同一性を判定することを特徴とする。
The image input means may execute a plurality of types of image processing methods simultaneously and in parallel to generate time-series image processing results including target object extraction results. The processing means is characterized in that the identity of the target object is determined by a correlation process based on overlapping feature amounts obtained between the respective image processing methods or between frames.

【0009】この構成によれば、複数種の画像処理方式
を同時、並列に実行するようにしているので、環境変化
や雑音などにより一部の処理結果が無効になるような事
態でも、十分な特徴量を確保することができ、各画像処
理方式により得られる各特徴量に対し画像処理方式間も
しくはフレーム間における相対関係を判定し、この判定
結果に基づいて目標対象物の同一性を判断するようにし
ているので、目標対象物判定処理までに要する時間の短
縮にも寄与できるとともに、画像状況変化や雑音等に影
響されることなく目標対象物の同一性を正確に判断で
き、目標判定処理精度を向上させることができる。な
お、過去の画像処理結果との相関の有無を判定する場合
に、過去の対象物候補に対応する特徴量と現対象物候補
に対応する特徴量との重なりの度合いについて相関をと
り、両相関処理結果から目標対象物の同一性を判定する
ようにしているので、移動の速い目標対象物に対する同
一性の判定を高精度に行なうことができるようになる。
また、画像処理方式間における画像処理結果との相関の
有無を判定する場合にも、各画像処理結果に対応する特
徴量の重なりの度合いについて相関をとり、両相関処理
結果から目標対象物の同一性を判定するようにしている
ので、多くの対象物候補に対する同一性の判定を高精度
に行なうことができる。
According to this configuration, since a plurality of types of image processing methods are executed simultaneously and in parallel, even in a situation where some processing results are invalidated due to environmental changes, noise, or the like, sufficient results can be obtained. A feature amount can be secured, a relative relationship between image processing methods or between frames is determined for each feature amount obtained by each image processing method, and the identity of the target object is determined based on the determination result. As a result, the time required for the target object determination processing can be reduced, and the identity of the target object can be accurately determined without being affected by changes in image conditions or noise, and the target determination processing can be performed. Accuracy can be improved. When determining whether or not there is a correlation with the past image processing result, the degree of overlap between the feature amount corresponding to the past target object candidate and the feature amount corresponding to the current target object candidate is determined. Since the identity of the target object is determined from the processing result, it is possible to determine the identity of the fast moving target object with high accuracy.
Also, when determining whether or not there is a correlation with the image processing results between the image processing methods, the degree of overlap of the feature amounts corresponding to the respective image processing results is correlated, and the same target object is determined from both correlation processing results. Since the gender is determined, the identity of many target objects can be determined with high accuracy.

【0010】また、上記判定処理手段は、フレームから
抽出される特徴量を保持する特徴量保持手段と、フレー
ム中に対象物候補が含まれているか否かを検出する対象
物候補検出手段と、この対象物候補検出手段により現フ
レーム中の対象物候補が一時的に検出されない場合に、
特徴量保持手段から当該対象物候補に対応する前フレー
ムの特徴量を読み出して現フレームと次フレームとの間
に補間する補間手段とを備えることを特徴とする。この
ようにすることで、入力画像が変化して継続的に検出さ
れていた対象物候補が一時的に検出されなかった場合で
も、保持した前フレームの特徴量を補間して、擬似的に
目標検出の連続性を確保することができる。
[0010] The determination processing means may include a feature amount holding means for holding a feature amount extracted from the frame, an object candidate detecting means for detecting whether or not the frame includes an object candidate, When the object candidate in the current frame is not temporarily detected by the object candidate detection means,
Interpolation means for reading out the characteristic amount of the previous frame corresponding to the target object candidate from the characteristic amount holding means and interpolating between the current frame and the next frame. In this way, even if the input image changes and the continuously detected target candidate is not temporarily detected, the retained feature amount of the previous frame is interpolated and the target Continuity of detection can be ensured.

【0011】[0011]

【発明の実施の形態】以下、この発明の実施形態につい
て図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0012】図1は、この発明に係わる目標判定処理装
置の一実施形態の構成を示すブロック図である。この目
標判定処理装置は、大別して、画像入力系10と、セグ
メント照合処理部20とから構成されている。
FIG. 1 is a block diagram showing a configuration of an embodiment of a target determination processing device according to the present invention. This target determination processing device is roughly composed of an image input system 10 and a segment matching processing unit 20.

【0013】画像入力系10は、複数種の画像処理方式
による例えば静止画像処理部11及び動画像処理部(動
ベクトル処理部)12を有する。画像入力系10は、フ
レーム構造の入力画像に対して、異なる各画像処理を同
時、並列に実行して、それぞれの画像処理データ(S
D),(MD)を生成する。ここで、入力画像は、目標
対象物を含む範囲をカメラなどの撮像装置(図示せず)
により撮像された画像データである。
The image input system 10 has, for example, a still image processing unit 11 and a moving image processing unit (moving vector processing unit) 12 using a plurality of types of image processing systems. The image input system 10 executes different image processing on an input image having a frame structure simultaneously and in parallel, and executes respective image processing data (S
D) and (MD) are generated. Here, as for the input image, an imaging device (not shown) such as a camera covers a range including the target object.
Is the image data captured by.

【0014】静止画像処理部11は、例えば額縁平滑処
理と2値化処理などを利用した処理部であり、入力画像
から輝度、コントラストの強い領域を検出して、画像処
理データ(SD)として出力する。また、動画像処理部
12は、入力画像から移動ベクトル処理を実行して、移
動領域を検出して、画像処理データ(MD)として出力
する。
The still image processing unit 11 is a processing unit using, for example, a frame smoothing process and a binarizing process. The still image processing unit 11 detects an area having high luminance and contrast from an input image and outputs the area as image processing data (SD). I do. In addition, the moving image processing unit 12 executes a moving vector process from the input image, detects a moving region, and outputs it as image processing data (MD).

【0015】ここで、各画像処理により検出された領域
は、セグメントとして定義する。各セグメントは、目標
対象物、類似した対象物候補、及びそれらの背景のいず
れかに属するものである。各画像処理データ(SD),
(MD)には、後述するセグメントの特徴量が含まれて
いる。
Here, the area detected by each image processing is defined as a segment. Each segment belongs to any of the target object, similar object candidates, and their background. Each image processing data (SD),
(MD) includes a feature value of a segment described later.

【0016】セグメント照合処理部20は、画像入力系
10から出力された画像処理データ(SD),(MD)
を入力して、各画像処理方式毎及び各フレーム毎に特徴
量を抽出して出力する。また、セグメント照合処理部2
0は、相関判定処理機能と、特徴量保持機能と、セグメ
ント検出機能と、特徴量補間処理機能とを備えている。
The segment collation processing section 20 processes the image processing data (SD) and (MD) output from the image input system 10.
Is input, and the feature amount is extracted and output for each image processing method and each frame. In addition, the segment matching processing unit 2
0 has a correlation determination processing function, a feature value holding function, a segment detection function, and a feature value interpolation processing function.

【0017】相関判定処理機能は、図2に示すように、
各画像処理方式間におけるセグメントの特徴量の相対関
係またはフレーム間におけるセグメントの特徴量の相対
関係に基づいて目標対象物の同一性を判定する。
As shown in FIG.
The identity of the target object is determined based on the relative relationship between the feature values of the segments between the respective image processing methods or the relative relationship between the feature values of the segments between the frames.

【0018】特徴量保持機能は、各フレームから抽出さ
れるセグメントの特徴量を予め用意されたデータベース
に記憶する。セグメント検出機能は、各フレーム中にセ
グメントが含まれているか否かを検出する。特徴量補間
処理機能は、セグメント検出機能により現フレーム中の
セグメントが一時的に検出されない場合に、このセグメ
ントに対応する前フレームの特徴量をデータベースから
読み出して現フレームと次フレームとの間に補間する。
The feature holding function stores the feature of a segment extracted from each frame in a database prepared in advance. The segment detection function detects whether a segment is included in each frame. When the segment detection function does not temporarily detect a segment in the current frame, the feature amount interpolation processing function reads the feature amount of the previous frame corresponding to this segment from the database and interpolates between the current frame and the next frame. I do.

【0019】次に、以上のように構成された装置の動作
を説明する。 (特徴量入力)ここでは、同時に2種の画像処理(例え
ば静止画像処理、動画像処理)を実施する場合について
図3を参照して説明する。
Next, the operation of the apparatus configured as described above will be described. Here, a case where two types of image processing (for example, still image processing and moving image processing) are performed simultaneously will be described with reference to FIG.

【0020】すなわち、セグメントの作成は、処理1、
処理2共に行なう。この処理では、処理1セグメントを
基準として、処理2特徴量を割り当てるものとする。な
お、処理1セグメントと処理2セグメントとの位置が異
なる場合には、セグメント照合処理部20に予め用意さ
れたデータベース中の処理1セグメントNo.の後に、
新たにNo.枠を追加し、処理2セグメントの情報を書
き込む。
That is, the segment is created by the processing 1,
Perform both processes. In this processing, it is assumed that the processing 2 feature amount is assigned based on the processing 1 segment. If the position of the processing 1 segment is different from the position of the processing 2 segment, the processing 1 segment No. in the database prepared in the segment matching processing unit 20 in advance. After the,
A new No. A frame is added, and information of the processing 2 segment is written.

【0021】(処理1セグメントの前フレームと現フレ
ームとの重なり判定) (1−1)単数前フレームセグメントと単数現フレーム
セグメントとの重なり いま例えば、図4に示すように単数現フレームセグメン
トと単数前フレームセグメントとが重なっているものと
する。
(Determination of Overlap Between Previous Frame and Current Frame of One Processing Segment) (1-1) Overlap of Single Previous Frame Segment and Single Current Frame Segment For example, as shown in FIG. It is assumed that the previous frame segment overlaps.

【0022】この場合、同じセグメントNo同士が重な
っているので、それぞれのセグメントは同一目標と判定
できる。このとき、連続検出数も加算する。
In this case, since the same segment No. overlaps, each segment can be determined to be the same target. At this time, the number of continuous detections is also added.

【0023】さらに、同じセグメントNo同士が1ピク
セルでも重なった場合には、同一目標と判定する。
Further, when the same segment No. overlaps even one pixel, it is determined that the same target is set.

【0024】(1−2)単数現フレームセグメントと複
数前フレームセグメントとの重なり いま、例えば図5に示すように1つの現フレームセグメ
ントに対し前フレームセグメントが複数重なっている場
合、重なり判定は、重なり比率が最も高いセグメントを
同一目標とする。ただし、重なり比率が同じ場合には、
前フレームセグメントの中で最高評価値のセグメントを
同一目標とする。
(1-2) Overlap between a single current frame segment and a plurality of previous frame segments If, for example, a plurality of previous frame segments overlap one current frame segment as shown in FIG. The segment with the highest overlap ratio is the same target. However, if the overlap ratio is the same,
The segment with the highest evaluation value in the previous frame segment is set as the same target.

【0025】(1−3)複数現フレームセグメントと単
数前フレームセグメントとの重なり いま、例えば図6に示すように複数現フレームセグメン
トと単数前フレームセグメントとが重なっているとす
る。この場合、現フレームセグメントから見れば、1つ
の前フレームセグメントと重なっているので、単純に前
フレームセグメントの特徴量を受け継ぐ。
(1-3) Overlapping of Multiple Current Frame Segments and Single Previous Frame Segment It is now assumed that the multiple current frame segments and the single previous frame segment overlap as shown in FIG. 6, for example. In this case, since the current frame segment overlaps with one previous frame segment, the feature amount of the previous frame segment is simply inherited.

【0026】(1−4)複数処理1セグメントと複数処
理2セグメントとの重なり いま、例えば図7に示すように複数処理1セグメントと
複数処理2セグメントとが重なっているとする。この場
合、上記(1−1)及び(1−2)と同様の処理を行な
う。
(1-4) Overlapping of one segment of multiple processing and two segments of multiple processing At this point, it is assumed that, for example, as shown in FIG. 7, one segment of multiple processing and two segments of multiple processing overlap. In this case, the same processing as (1-1) and (1-2) is performed.

【0027】(1−5)フラグ(セグメント照合結果記
録) セグメント照合処理部20では、図8に示すようにセグ
メント照合結果を、以降の処理に用いるため、データベ
ースに記憶しておく。
(1-5) Flag (Segment Collation Result Record) In the segment collation processing section 20, the segment collation result is stored in a database for use in subsequent processing as shown in FIG.

【0028】(1−6)前フレームセグメントに対応す
る現フレームセグメントが無い場合 いま、例えば継続的に検出されていたセグメントが一時
的に検出されなかったとする。この場合、セグメントの
連続性が途絶え、評価値計算等がリセットされてしま
う。そこで、この実施形態では、前フレームセグメント
の情報を、現フレームセグメントとしてコピーし、擬似
的に連続性を確保するものとする。ただし、数フレーム
連続で検出されなかった場合は、セグメントを消失させ
る。
(1-6) When there is no current frame segment corresponding to the previous frame segment It is assumed that, for example, a continuously detected segment is not temporarily detected. In this case, the continuity of the segment is interrupted, and the evaluation value calculation and the like are reset. Therefore, in this embodiment, the information of the previous frame segment is copied as the current frame segment, and pseudo continuity is ensured. However, if the segment is not detected for several consecutive frames, the segment is erased.

【0029】なお、以上の動作については、処理1セグ
メントを代表して説明したが、処理2セグメントについ
ても、上記(1−1)乃至(1−6)と同様な処理を行
なうことができる。
Although the above operation has been described with reference to one processing segment, the same processing as the above (1-1) to (1-6) can be performed for the second processing segment.

【0030】(処理1セグメントと処理2セグメントと
の重なり判定) (2−1)単数処理1セグメントと単数処理2セグメン
トとの重なり いま、例えば図9に示すように単数処理1セグメントと
単数処理2セグメントとが重なっているとする。
(Determination of Overlap Between Process 1 Segment and Process 2 Segment) (2-1) Overlap of Single Process 1 Segment and Single Process 2 Segment Now, for example, as shown in FIG. 9, single process 1 segment and single process 2 Assume that the segments overlap.

【0031】ここで、処理1セグメントと処理2セグメ
ントとが30%以上重なっている場合に同一目標として
判定し、15%以下の場合には別目標として判定する。
Here, when the processing 1 segment and the processing 2 segment overlap by 30% or more, they are determined as the same target, and when they are 15% or less, they are determined as different targets.

【0032】(2−2)単数処理1セグメントと複数処
理2セグメントとの重なり いま、例えば図10に示すように1つの処理1セグメン
トに対し処理2セグメントが複数重なっているとする。
この場合、処理2セグメントの中で処理1セグメントに
対する重なり比率が最も高いセグメントを同一目標と判
定する。
(2-2) Overlap of one singular processing one segment and two or more processing two segments It is assumed that a plurality of two processing segments overlap one processing one segment, for example, as shown in FIG.
In this case, the segment having the highest overlap ratio with respect to the processing 1 segment among the processing 2 segments is determined to be the same target.

【0033】(2−3)複数処理1セグメントと単数処
理2セグメントとの重なり いま、例えば図11に示すように1つの処理2セグメン
トに対し処理1セグメントが複数重なっているとする。
この場合、処理1セグメントから見れば、1つの処理2
セグメントと重なっているので、単純に処理2セグメン
トのベクトルを統合する。
(2-3) Overlapping of one segment of multiple processing and two segments of single processing At this point, it is assumed that a plurality of processing one segments overlap one processing two segment as shown in FIG. 11, for example.
In this case, as viewed from the processing 1 segment, one processing 2
Since it overlaps with the segment, the vector of the process 2 segment is simply integrated.

【0034】(2−4)複数処理1セグメントと複数処
理2セグメントとの重なり いま、例えば図12に示すように複数処理1セグメント
と複数処理2セグメントとが重なっているとする。この
場合、上記(2−1)及び(2−2)と同様の処理を行
なう。
(2-4) Overlapping of one segment of multiple processing and two segments of multiple processing Now, for example, as shown in FIG. 12, it is assumed that one segment of multiple processing and two segments of multiple processing overlap. In this case, the same processing as the above (2-1) and (2-2) is performed.

【0035】(2−5)フラグ(セグメント照合結果記
録) セグメント照合処理部20では、図13に示すようにセ
グメント照合結果を、以降の処理に用いるため、データ
ベースに記憶しておく。
(2-5) Flag (Segment Collation Result Record) In the segment collation processing section 20, the segment collation result is stored in a database as shown in FIG.

【0036】以上述べたようにこの実施形態では、入力
画像に対して静止画像処理部11、動画像処理部12に
より画像処理を同時、並列に実行するようにしているの
で、環境変化や雑音などにより一部の処理結果が無効に
なるような事態でも、十分な特徴量を確保することがで
き、セグメント照合処理部20にて各画像処理方式によ
り得られる各特徴量に対し画像処理方式間もしくはフレ
ーム間における相対関係を判定し、この判定結果に基づ
いて目標対象物の同一性を判断するようにしているの
で、各セグメント毎に目標対象物であるか否かを評価す
る必要がなく、その分目標対象物判定処理までに要する
時間の短縮にも寄与できるとともに、画像状況変化や雑
音等に影響されることなく目標対象物の同一性を正確に
判断でき、目標判定処理精度を向上させることができ
る。
As described above, in this embodiment, the still image processing unit 11 and the moving image processing unit 12 perform the image processing on the input image simultaneously and in parallel, so that environmental changes, noise, etc. Therefore, even in a situation in which some processing results become invalid, a sufficient feature amount can be secured, and the segment matching processing unit 20 determines whether each feature amount obtained by each image processing method is different between image processing methods or Since the relative relationship between the frames is determined and the identity of the target object is determined based on the determination result, it is not necessary to evaluate whether or not the target object is provided for each segment. It can contribute to shortening the time required for the process of determining the target object, and accurately determine the identity of the target object without being affected by changes in image conditions or noise. Thereby improving the physical accuracy.

【0037】また、過去の画像処理結果との相関の有無
を判定する場合に、過去のセグメントに対応する特徴量
と現セグメントに対応する特徴量との重なりの度合いに
ついて相関をとり、両相関処理結果から目標対象物の同
一性を判定するようにしているので、移動の速い目標対
象物に対する同一性の判定や多くのセグメントに対する
同一性の判定を高精度に行なうことができるようにな
る。
When it is determined whether or not there is a correlation with the past image processing result, the degree of overlap between the feature amount corresponding to the past segment and the feature amount corresponding to the current segment is determined. Since the identity of the target object is determined from the result, it is possible to determine the identity of the fast moving target object and the identity of many segments with high accuracy.

【0038】さらに、画像処理方式間における画像処理
結果との相関の有無を判定する場合にも、各画像処理結
果に対応する特徴量の重なりの度合いについて相関をと
り、両相関処理結果から目標対象物の同一性を判定する
ようにしているので、多くのセグメントに対する同一性
の判定を高精度に行なうことができるようになり、これ
により、いたずらに目標対象物と輝度が近い背景を目標
対象物と判定したりすることを防止することができる。
Further, when judging the presence or absence of a correlation with the image processing results between the image processing methods, the degree of overlapping of the feature amounts corresponding to the respective image processing results is correlated, and the target object is determined based on both correlation processing results. Since the identity of an object is determined, it is possible to determine the identity of many segments with high accuracy. Determination can be prevented.

【0039】また、上記実施形態では、セグメント照合
処理部20に、各フレームから抽出される特徴量をデー
タベースに記憶する特徴量保持機能と、各フレーム中に
セグメントが含まれているか否かを検出するセグメント
検出機能と、このセグメント検出機能により現フレーム
中のセグメントが一時的に検出されない場合に、データ
ベースからセグメントに対応する前フレームの特徴量を
読み出して現フレームと次フレームとの間に補間する特
徴量補間処理機能とを備えるようにしている。このた
め、入力画像が変化して継続的に検出されていたセグメ
ントが一時的に検出されなかった場合でも、保持した前
フレームの特徴量を補間して、擬似的に目標検出の連続
性を確保することができ、これにより、検出中のセグメ
ントが一時的に途絶えたことで、背景と判定することを
防止することができる。
In the above-described embodiment, the segment matching processing unit 20 has a feature value holding function of storing feature values extracted from each frame in a database, and detects whether a segment is included in each frame. When a segment in the current frame is not temporarily detected by the segment detection function, the feature amount of the previous frame corresponding to the segment is read out from the database and interpolated between the current frame and the next frame. A feature amount interpolation function is provided. For this reason, even if a segment that has been continuously detected due to a change in the input image is not temporarily detected, the retained feature amount of the previous frame is interpolated to ensure pseudo target continuity. Accordingly, it is possible to prevent the segment being detected from being temporarily interrupted, thereby preventing the determination as the background.

【0040】なお、上記実施形態では、画像処理方式間
もしくはフレーム間で得られる特徴量の重なりによる相
関処理により目標対象物の同一性を判断しているが、例
えばセグメント中に基準点を決め、画像処理方式間もし
くはフレーム間におけるセグメントの基準点位置の距離
相関により目標対象物の同一性を判定することもでき
る。その他、この発明は上記実施形態に限定されるもの
ではなく、この発明の要旨を逸脱しない範囲で種々変形
しても同様に実施できる。
In the above embodiment, the identity of the target object is determined by the correlation processing based on the overlap of the feature values obtained between the image processing methods or between the frames. For example, a reference point is determined in a segment. The identity of the target object can be determined based on the distance correlation between the reference point positions of the segments between the image processing methods or between the frames. In addition, the present invention is not limited to the above-described embodiment, and can be similarly implemented by various modifications without departing from the gist of the present invention.

【0041】[0041]

【発明の効果】以上詳述したようにこの発明によれば、
画像状況変化、雑音等により入力画像が変化した場合で
も、目標対象物の同一性を正確に判断し、しかも一時的
に目標が途絶えることがあっても目標検出の連続性を十
分に確保し得る目標判定処理装置及び目標判定処理方法
を提供することができる。
As described in detail above, according to the present invention,
Even if the input image changes due to a change in image conditions, noise, etc., the identity of the target object can be accurately determined, and sufficient continuity of target detection can be ensured even if the target is temporarily interrupted. A target determination processing device and a target determination processing method can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明に係る目標判定処理装置の一実施形態
の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an embodiment of a target determination processing device according to the present invention.

【図2】図1に示した目標判定処理装置の要部構成を示
す機能ブロック図。
FIG. 2 is a functional block diagram showing a main configuration of the target determination processing device shown in FIG. 1;

【図3】図1に示したセグメント照合処理部における特
徴量入力動作を説明するための図。
FIG. 3 is a view for explaining a feature amount input operation in the segment matching processing unit shown in FIG. 1;

【図4】図1に示したセグメント照合処理部において、
処理1セグメントの単数前フレームと単数現フレームと
の重なり相関判定処理を説明するための図。
FIG. 4 is a diagram illustrating a segment matching processing unit illustrated in FIG.
The figure for demonstrating the overlap correlation determination process of the singular previous frame of process 1 segment, and the singular current frame.

【図5】図1に示したセグメント照合処理部において、
単数現フレームセグメントと複数前フレームセグメント
との重なり相関判定処理を説明するための図。
FIG. 5 is a diagram illustrating a segment collation processing unit shown in FIG.
FIG. 11 is a diagram for explaining an overlap correlation determination process between a single current frame segment and a plurality of previous frame segments.

【図6】図1に示したセグメント照合処理部において、
複数現フレームセグメントと単数前フレームセグメント
との重なり相関判定処理を説明するための図。
FIG. 6 is a diagram illustrating a segment collation processing unit shown in FIG.
FIG. 9 is a diagram for explaining an overlap correlation determination process between a plurality of current frame segments and a single previous frame segment.

【図7】図1に示したセグメント照合処理部において、
複数処理1セグメントと複数処理2セグメントとの重な
り相関判定処理を説明するための図。
FIG. 7 is a diagram illustrating a segment matching processing unit illustrated in FIG.
The figure for demonstrating the overlap correlation determination process of the multiple processing 1 segment and the multiple processing 2 segment.

【図8】図1に示したセグメント照合処理部におけるセ
グメント照合結果記録内容を示す図。
FIG. 8 is a diagram showing recorded contents of a segment collation result in a segment collation processing unit shown in FIG. 1;

【図9】図1に示したセグメント照合処理部において、
単数処理1セグメントと単数処理2セグメントとの重な
り相関判定処理を説明するための図。
FIG. 9 is a diagram illustrating a segment matching processing unit illustrated in FIG.
The figure for demonstrating the overlap correlation determination processing of one singular process 1 segment and singular process 2 segment.

【図10】図1に示したセグメント照合処理部におい
て、単数処理1セグメントと複数処理2セグメントとの
重なり相関判定処理を説明するための図。
FIG. 10 is a diagram for explaining an overlap correlation determination process between one singular process and two multi-process segments in the segment matching processing unit shown in FIG. 1;

【図11】図1に示したセグメント照合処理部におい
て、複数処理1セグメントと単数処理2セグメントとの
重なり相関判定処理を説明するための図。
FIG. 11 is a view for explaining an overlap correlation determination process between one segment for multiple processing and two segments for single processing in the segment matching processing unit shown in FIG. 1;

【図12】図1に示したセグメント照合処理部におい
て、複数処理1セグメントと複数処理2セグメントとの
重なり相関判定処理を説明するための図。
FIG. 12 is a diagram for explaining an overlap correlation determination process between a multi-process 1 segment and a multi-process 2 segment in the segment matching processing unit illustrated in FIG. 1;

【図13】図1に示したセグメント照合処理部における
セグメント照合結果記録内容を示す図。
FIG. 13 is a diagram showing recorded contents of a segment collation result in the segment collation processing unit shown in FIG. 1;

【符号の説明】[Explanation of symbols]

10…画像入力系、 11…静止画像処理部、 12…動画像処理部、 20…セグメント照合処理部。 10: Image input system, 11: Still image processing unit, 12: Moving image processing unit, 20: Segment matching processing unit.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 画像処理を利用して目標対象物を判定す
る目標判定処理装置であって、 目標対象物を含むフレーム構造の画像データを入力し、
複数種の画像処理方式により当該入力画像データを処理
する画像入力手段と、 この画像入力手段の各画像処理方式の画像処理により得
られる対象物候補に対応する各特徴量を抽出し、フレー
ム間における各特徴量の相対関係及び各画像処理方式間
における各特徴量の相対関係のうちの少なくとも一方に
基づいて目標対象物の同一性を判定する判定処理手段と
を具備してなることを特徴とする目標判定処理装置。
1. A target determination processing device for determining a target object by using image processing, comprising inputting image data of a frame structure including the target object,
Image input means for processing the input image data by a plurality of types of image processing methods; and extracting feature amounts corresponding to object candidates obtained by image processing of the respective image processing methods of the image input means. Determining processing means for determining the identity of the target object based on at least one of a relative relationship between the respective feature amounts and a relative relationship between the respective feature amounts between the respective image processing methods. Target determination processing device.
【請求項2】 前記画像入力手段は、複数種の画像処理
方式を同時、並列に実行させて対象物候補の抽出結果を
含む時系列の各画像処理結果を生成することを特徴とす
る請求項1記載の目標判定処理装置。
2. The image input device according to claim 1, wherein the plurality of types of image processing methods are executed simultaneously and in parallel to generate time-series image processing results including target object candidate extraction results. 2. The target determination processing device according to 1.
【請求項3】 前記判定処理手段は、各画像処理方式間
で得られる特徴量の重なりによる相関処理により目標対
象物の同一性を判定することを特徴とする請求項1記載
の目標判定処理装置。
3. The target determination processing device according to claim 1, wherein the determination processing unit determines the identity of the target object by a correlation process based on the overlap of the feature amounts obtained between the respective image processing methods. .
【請求項4】 前記判定処理手段は、フレーム間で得ら
れる特徴量の重なりによる相関処理により目標対象物の
同一性を判定することを特徴とする請求項1記載の目標
判定処理装置。
4. The target determination processing device according to claim 1, wherein said determination processing means determines the identity of the target object by a correlation process based on overlapping feature amounts obtained between frames.
【請求項5】 前記判定処理手段は、フレームから抽出
される特徴量を保持する特徴量保持手段と、フレーム中
に各画像処理方式による対象物候補が含まれているか否
かを検出する対象物候補検出手段と、この対象物候補検
出手段により現フレーム中の対象物候補が一時的に検出
されない場合に、前記特徴量保持手段から当該対象物候
補に対応する前フレームの特徴量を読み出して現フレー
ムと次フレームとの間に補間する補間手段とを備えるこ
とを特徴とする請求項1記載の目標判定処理装置。
5. The determination processing unit includes: a feature amount holding unit that holds a feature amount extracted from a frame; and an object that detects whether an object candidate according to each image processing method is included in the frame. Candidate detecting means, and when the object candidate in the current frame is not temporarily detected by the object candidate detecting means, the characteristic amount of the previous frame corresponding to the object candidate is read out from the characteristic amount holding means and the current amount is read. 2. The target determination processing device according to claim 1, further comprising an interpolation unit that performs interpolation between a frame and a next frame.
【請求項6】 画像処理を利用して目標対象物を判定す
る目標判定処理方法であって、 目標対象物を含むフレーム構造の画像データを入力し
て、複数種の画像処理方式により当該入力画像データを
処理するステップと、 各画像処理方式の画像処理により得られる対象物候補に
対応する各特徴量を抽出するステップと、 フレーム間における各特徴量の相対関係及び各画像処理
方式間における各特徴量の相対関係のうちの少なくとも
一方に基づいて目標対象物の同一性を判定するステップ
とからなる手順を有することを特徴とする目標判定処理
方法。
6. A target determination processing method for determining a target object using image processing, comprising the steps of: inputting image data of a frame structure including a target object, and inputting the input image by a plurality of types of image processing methods. Processing the data; extracting each feature amount corresponding to the candidate object obtained by the image processing of each image processing method; the relative relationship of each feature amount between frames and each feature between the image processing methods A step of determining the identity of the target object based on at least one of the relative amounts of the objects.
【請求項7】 前記入力画像データを処理するステップ
は、複数種の画像処理方式を同時、並列に実行させて対
象物候補の抽出結果を含む時系列の各画像処理結果を生
成することを特徴とする請求項6記載の目標判定処理方
法。
7. The step of processing the input image data, wherein a plurality of types of image processing methods are executed simultaneously and in parallel to generate respective time-series image processing results including target object extraction results. 7. The target determination processing method according to claim 6, wherein
【請求項8】 前記目標対象物の同一性を判定するステ
ップは、各画像処理方式間で得られる特徴量の重なりに
よる相関処理により目標対象物の同一性を判定すること
を特徴とする請求項6記載の目標判定処理方法。
8. The method according to claim 1, wherein the step of determining the identity of the target object determines the identity of the target object by a correlation process based on overlapping feature amounts obtained between the respective image processing methods. 6. The target determination processing method according to 6.
【請求項9】 前記目標対象物の同一性を判定するステ
ップは、フレーム間で得られる特徴量の重なりによる相
関処理により目標対象物の同一性を判定することを特徴
とする請求項6記載の目標判定処理方法。
9. The method according to claim 6, wherein the step of determining the identity of the target objects determines the identity of the target objects by a correlation process based on overlapping feature amounts obtained between frames. Target judgment processing method.
【請求項10】 前記目標対象物の同一性を判定するス
テップは、フレームから抽出される特徴量を保持し、フ
レーム中に各画像処理方式による対象物候補が含まれて
いるか否かを検出し、現フレーム中の対象物候補が一時
的に検出されない場合に、当該対象物候補に対応する前
フレームの特徴量を現フレームと次フレームとの間に補
間することを特徴とする請求項6記載の目標判定処理方
法。
10. The step of judging the identity of the target object includes holding a feature amount extracted from the frame and detecting whether or not the frame includes an object candidate according to each image processing method. 7. The method according to claim 6, wherein when a candidate object in the current frame is not temporarily detected, the feature amount of the previous frame corresponding to the candidate object is interpolated between the current frame and the next frame. Target determination processing method.
JP2000284401A 2000-09-19 2000-09-19 Device and method for target detection processing Pending JP2002092618A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000284401A JP2002092618A (en) 2000-09-19 2000-09-19 Device and method for target detection processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000284401A JP2002092618A (en) 2000-09-19 2000-09-19 Device and method for target detection processing

Publications (1)

Publication Number Publication Date
JP2002092618A true JP2002092618A (en) 2002-03-29

Family

ID=18768617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000284401A Pending JP2002092618A (en) 2000-09-19 2000-09-19 Device and method for target detection processing

Country Status (1)

Country Link
JP (1) JP2002092618A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233721A (en) * 2006-03-01 2007-09-13 Toshiba Corp Segment identification method
JP2011163589A (en) * 2010-02-05 2011-08-25 Mitsubishi Electric Corp Guided flying object device
JPWO2022102371A1 (en) * 2020-11-16 2022-05-19

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233721A (en) * 2006-03-01 2007-09-13 Toshiba Corp Segment identification method
JP2011163589A (en) * 2010-02-05 2011-08-25 Mitsubishi Electric Corp Guided flying object device
JPWO2022102371A1 (en) * 2020-11-16 2022-05-19
WO2022102371A1 (en) * 2020-11-16 2022-05-19 株式会社デンソー Object detection device and object detection method

Similar Documents

Publication Publication Date Title
CN102902955B (en) Intelligent analysis method and system for vehicle behavior
CN111325769B (en) Target object detection method and device
US9811755B2 (en) Object monitoring system, object monitoring method, and monitoring target extraction program
JP2001175876A (en) Moving object detection method and moving object detection device
EP1640937B1 (en) Collision time estimation apparatus and method for vehicles
WO2024174301A1 (en) Safety belt edge unevenness and loose thread defect detection method and system
KR960013967A (en) How to detect waiting passengers in an elevator
CN111402185B (en) Image detection method and device
Heng et al. High accuracy flashlight scene determination for shot boundary detection
CN113947749A (en) A kind of legacy detection method, device, electronic device and storage medium
JP2002092618A (en) Device and method for target detection processing
WO2014112407A1 (en) Information processing system, information processing method, and program
JP3760426B2 (en) Traveling lane detection method and apparatus
JP2002150295A (en) Object detection method and object detection device
JP2008243111A (en) Image processing apparatus and image processing method
CN113902742B (en) TFT-LCD detection-based defect true and false judgment method and system
CN112347853A (en) A video-based license plate data desensitization method, storage medium and server
US20230196773A1 (en) Object detection device, object detection method, and computer-readable storage medium
JP3946927B2 (en) Target determination system and determination method
KR20150137698A (en) Method and apparatus for movement trajectory tracking of moving object on animal farm
CN109740518B (en) Method and device for determining object in video
CN110782439B (en) Method and device for auxiliary detection of image annotation quality
CN110363251B (en) SKU image classification method and device, electronic equipment and storage medium
JPH08249472A (en) Method and device for detecting moving object
CN114879177B (en) Target analysis method and device based on radar information

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070130