[go: up one dir, main page]

JPH1115982A - Method for detecting moving object - Google Patents

Method for detecting moving object

Info

Publication number
JPH1115982A
JPH1115982A JP9167369A JP16736997A JPH1115982A JP H1115982 A JPH1115982 A JP H1115982A JP 9167369 A JP9167369 A JP 9167369A JP 16736997 A JP16736997 A JP 16736997A JP H1115982 A JPH1115982 A JP H1115982A
Authority
JP
Japan
Prior art keywords
image
area
input image
background image
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9167369A
Other languages
Japanese (ja)
Inventor
Hiroyuki Asao
博之 浅尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON DENKI DENPA KIKI ENG KK
Original Assignee
NIPPON DENKI DENPA KIKI ENG KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON DENKI DENPA KIKI ENG KK filed Critical NIPPON DENKI DENPA KIKI ENG KK
Priority to JP9167369A priority Critical patent/JPH1115982A/en
Publication of JPH1115982A publication Critical patent/JPH1115982A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a background image that follows up the variation of environments without receiving effect of a detection object body and to detect a stable object by making an updation unit of a background from a pixel unit to an area unit. SOLUTION: An inter-frame difference processing part 11 detects the positions of variation pixels from two pieces that are an input image 2 photographed at (t-1) and an input image 2 photographed at (t). Next, an area split processing part 12 performs area split processing that splits into each object from a processing result of detected inter-frame difference processing and the image 2 photographed at (t). An image variation area detection processing part 13 performs image variation area detection processing according to the processing result. Next, the part 13 decides the updation area of a background image, and a synthesization processing part 14 performs synthetic processing of an input image and a past background image based on the decision result and generates a new background image. With this, it is possible to detect an object due to background difference even at an unstable photographic site.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は移動物体検出方法に
関し、特にディジタル画像処理を用いた移動物体検出方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object detection method, and more particularly to a moving object detection method using digital image processing.

【0002】[0002]

【従来の技術】この種の従来の移動物体検出方法につい
て図面を参照して説明する。
2. Description of the Related Art A conventional moving object detecting method of this kind will be described with reference to the drawings.

【0003】図5は従来の移動物体検出方法を示すアル
ゴリズムを示すフローチャートである。
FIG. 5 is a flowchart showing an algorithm showing a conventional moving object detection method.

【0004】従来、画像内の動き抽出処理領域に対して
均一な積分パラメータを設定する方法としては、特開昭
62−114064号公報に記載された方法がある。こ
の方法は、入力画像f(n)、古い背景画像をg(n−
1)とすると、更新される背景画像g(n)を、 g(n)=A×f(n)+(1−A)×g(n−1) ・・・・(1) とするものである。ここでAは定数であり、総ての画素
とも共通である。
Conventionally, as a method for setting uniform integration parameters for a motion extraction processing area in an image, there is a method described in Japanese Patent Application Laid-Open No. Sho 62-114064. In this method, an input image f (n) and an old background image are g (n−
Assuming that 1), the background image g (n) to be updated is g (n) = A × f (n) + (1−A) × g (n−1) (1) It is. Here, A is a constant and is common to all pixels.

【0005】即ち、特開昭62−114064号公報に
示された単純足し込み法により、移動物体の検出は図5
のアルゴリズムで示す方法で検出されていた。
That is, the moving object is detected by the simple addition method disclosed in Japanese Patent Application Laid-Open No. Sho 62-114064.
Was detected by the method shown in the algorithm.

【0006】しかしながら、この方法によると、抽出対
象物体の移動速度や表面の反射率、しきい値によって、
抽出される領域に穴や尾が発生し、抽出領域の形状が変
形してしまう問題があった。
However, according to this method, depending on the moving speed of the object to be extracted, the reflectivity of the surface, and the threshold value,
There is a problem that a hole or a tail occurs in the region to be extracted and the shape of the extraction region is deformed.

【0007】この問題点を解決する方法として以下に示
す方法があった。
As a method for solving this problem, there is the following method.

【0008】図6は従来の移動物体検出方法における背
景積分処理を示すフローダイヤグラムである。
FIG. 6 is a flow diagram showing a background integration process in a conventional moving object detection method.

【0009】図6において、この従来の移動物体検出方
法の背景積分処理は特開平6−223188号公報の開
示内容を示し、入力画像を101で間引き処理した入力
画像と、背景画像メモリに記憶された背景画像とをしき
い値制御処理106によって空間的に設定されたしきい
値を利用して差分処理105を行う際、しきい値を差分
値画像の半分に設定することで良好な動き抽出が可能と
なる。背景積分パラメータは、状況判断処理116によ
って得られた抽出対象物体のその時点における物体の動
き切る時間の推定値と、しきい値制御処理106によっ
て空間的に設定された2値化のしきい値と差分処理10
5で得られた差分値の比から決定する。
In FIG. 6, the background integration processing of this conventional moving object detection method is disclosed in Japanese Patent Application Laid-Open No. Hei 6-223188. When performing the difference processing 105 using the threshold value spatially set by the threshold control processing 106 with the background image that has been set, the threshold value is set to half of the difference value image, thereby achieving good motion extraction. Becomes possible. The background integration parameter is an estimated value of the time at which the object to be extracted at the moment obtained by the situation determination process 116 is stopped moving, and the threshold value of the binarization spatially set by the threshold value control process 106. And difference processing 10
5 is determined from the ratio of the difference values obtained.

【0010】この従来例においては、入力画像と背景画
像の差分値画像を得、しきい値を各画素においてその差
分画像の半分に設定するようにしたものであり、また、
入力画像と背景画像の差分値画像と抽出対象物体の動き
切る時間の推定値を利用して2値化のしきい値と背景積
分パラメータとを決定するようにしたものである。即
ち、背景積分法を使って背景更新した場合の抽出移動物
体の抽出領域の精度を向上させている。
In this conventional example, a difference value image between an input image and a background image is obtained, and a threshold value is set to half of the difference image at each pixel.
A threshold value for binarization and a background integration parameter are determined by using a difference value image between an input image and a background image and an estimated value of a time at which the extraction target object stops moving. That is, the accuracy of the extraction area of the extracted moving object when the background is updated using the background integration method is improved.

【0011】[0011]

【発明が解決しようとする課題】この従来の移動物体検
出方法は、単純足し込み法による特開昭62−1140
64号公報の場合では、俊敏に背景画像を生成するため
に、足し込み時間(時間軸)を短くする。即ち、式
(1)の中の背景積分パラメータAの値を大きくすると
検出対象物体も背景画像に足し込んでいる影響を受け、
背景画像に検出対象物体が陰のように現れてしまうとい
う問題点があった。
The conventional method for detecting a moving object is disclosed in Japanese Unexamined Patent Publication No. Sho 62-1140 by a simple addition method.
In the case of Japanese Patent No. 64, the addition time (time axis) is shortened in order to quickly generate a background image. That is, when the value of the background integration parameter A in the equation (1) is increased, the detection target object is also affected by being added to the background image,
There is a problem that the detection target object appears in the background image as a shadow.

【0012】この単純足し込み法を基に、特開平6−2
23188号公報の場合では、背景積分パラメータAの
値を、物体の動き切る時間を推定算出し、その時間から
決定する方法が示されているが、上述の問題点が十分に
解決されていないという問題点がある。
Based on this simple addition method, Japanese Patent Laid-Open No.
Japanese Patent Application Laid-Open No. 23188 discloses a method of estimating and calculating the value of the background integration parameter A based on the time at which the object stops moving, and determining the value based on the calculated time. There is a problem.

【0013】即ち、従来の移動物体検出方法の移動する
物体の検出を行うという条件での背景差分法において、
検出対象物体の影響を受けず、俊敏に背景画像を生成す
ることができないという問題点がある。
That is, in the background subtraction method under the condition that a moving object is detected in the conventional moving object detection method,
There is a problem that the background image cannot be generated promptly without being affected by the detection target object.

【0014】[0014]

【課題を解決するための手段】本発明の移動物体検出方
法は、入力画像と背景画像との差分によって移動物体を
検出する移動物体検出方法において、(t−1)時に撮
影された第1の入力画像と、(t)時に撮影された第2
の入力画像の2枚から変動画素の位置を検出するフレー
ム間差分処理を基に、前記(t)時に撮影された第2の
入力画像から各物体毎に分割する領域分割処理を行い、
その領域分割処理結果から画像変動領域検出処理により
背景画像の更新領域を決定し、その判定結果により、前
記第1入力画像と過去の背景画像との合成処理を行い、
新しい背景画像を生成する領域判定合成部を備えてい
る。
A moving object detecting method according to the present invention is a moving object detecting method for detecting a moving object based on a difference between an input image and a background image. The input image and the second image taken at (t)
Based on an inter-frame difference process for detecting the position of a fluctuating pixel from two of the input images, a region division process for dividing each second object from the second input image captured at the time (t) is performed.
An update area of the background image is determined from the area division processing result by the image fluctuation area detection processing, and based on the determination result, the first input image and the past background image are combined,
An area determination synthesis unit that generates a new background image is provided.

【0015】本発明の移動物体検出方法は、入力画像と
背景画像との差分によって移動物体を検出する移動物体
検出方法において、移動物体を入力画像から除去した背
景画像を判定して過去の背景画像との合成処理を行う領
域判定合成部を備え、前記領域判定合成部は(t−1)
時の第1の入力画像の要素と(t)時の第2の入力画像
をフレーム間で比較し濃淡値の異なる第1の画素を予め
定められた第1の閾値により第1の移動領域を判定する
フレーム間差分処理手段と、前記(t)時の第2の入力
画像において先に判定した前記移動領域に隣接して且つ
その移動領域の濃淡値と予め定められた第2の閾値以内
の濃淡値を持つ第2の要素を同一移動物体に起因するも
のとして推測して第2の移動領域を検出する領域分割・
変動領域検出手段と、前記第2の移動領域から前記t時
の入力画像をマスクしてt−1時の背景画像を更新し、
t時の背景画像を生成する画像合成処理手段とを有して
いる。
The moving object detecting method of the present invention is a moving object detecting method for detecting a moving object based on a difference between an input image and a background image. And a region determining / combining unit for performing a combining process with (t-1)
The elements of the first input image at the time and the second input image at the time (t) are compared between frames, and the first pixels having different grayscale values are used to determine the first moving area by a predetermined first threshold value. An inter-frame difference processing means for judging, wherein the second input image at the time (t) is adjacent to the previously determined moving area and has a gray level value of the moving area within a predetermined second threshold. Area division for detecting a second moving area by inferring a second element having a gray value as being caused by the same moving object
A fluctuating area detecting means, and masking the input image at time t from the second moving area to update a background image at time t-1;
image synthesizing means for generating a background image at time t.

【0016】[0016]

【発明の実施の形態】次に、本発明について図面を参照
して説明する。
Next, the present invention will be described with reference to the drawings.

【0017】図1は本発明の一実施の形態のアルゴリズ
ムを示すフローチャート、図2は本実施の形態のアルゴ
リズムを説明するための入力画像および背景画像の時間
変化の一例を示す図、図3は本実施の形態のアルゴリズ
ムを説明するための、図2を基にした領域分割処理及び
画像変動領域検出処理の概念を示す図、図4は本実施の
形態のアルゴリズムを説明するための、図2,図3を基
にした合成処理の概念を示す図である。
FIG. 1 is a flowchart showing an algorithm according to an embodiment of the present invention, FIG. 2 is a diagram showing an example of a time change of an input image and a background image for explaining the algorithm of the embodiment, and FIG. FIG. 4 is a view showing the concept of the area division processing and the image fluctuation area detection processing based on FIG. 2 for explaining the algorithm of the present embodiment. FIG. 4 is a view for explaining the algorithm of the present embodiment. FIG. 4 is a diagram showing a concept of a combining process based on FIG.

【0018】本実施の形態の移動物体検出方法のアルゴ
リズムは、単純足し込み法の平均画像を背景画像と見な
している為に起きている問題点を考慮し、又、移動する
物体の検出を行う為の背景画像を生成するという条件よ
り考案したもので、入力画像に対して、静止(停止)物
体領域のみを背景として取り込み、背景画像を更新、生
成するアルゴリズムである。
The algorithm of the moving object detection method according to the present embodiment considers a problem that occurs because the average image of the simple addition method is regarded as a background image, and detects a moving object. This is an algorithm devised from the condition of generating a background image for updating a background image with respect to an input image by taking only a still (stop) object region as a background.

【0019】即ち、平均画像を背景画像とは見なさず
に、動画像データ注の移動物体に注目する事により、そ
の移動物体を入力画像から除去した画像を背景画像と判
定するアルゴリズムである。
That is, an algorithm is not considered as a background image, but is focused on a moving object of moving image data, thereby determining an image obtained by removing the moving object from an input image as a background image.

【0020】図1においては、本実施の形態の移動物体
検出方法のアルゴリズムは、。(t−1)時に撮影され
た入力画像2と、(t)時に撮影された入力画像2の2
枚から変動画素の位置を検出するフレーム間差分処理部
11と、その処理結果と、(t)時に撮影された入力画
像2から、各物体毎に分割する領域分割処理を行う領域
分割処理部12と、以上の処理結果より画像変動領域検
出処理を行う画像変動領域検出処理部13と、画像変動
領域検出処理部13で背景画像の更新領域を決定し、こ
の判定結果を基に、入力画像と過去の背景画像との合成
処理を行い、背景画像を生成する合成処理部14とで構
成する領域判定合成部1を備えている。他の処理(背景
画像3,背景差分部4及び物体検出部5)は図5に示す
場合と同じである。
In FIG. 1, the algorithm of the moving object detection method of the present embodiment is as follows. The input image 2 shot at (t-1) and the input image 2 shot at (t)
An inter-frame difference processing unit 11 for detecting the position of a fluctuating pixel from a sheet, an area division processing unit 12 for performing an area division process for dividing each object from the processing result and the input image 2 captured at (t) An image change area detection processing unit 13 that performs image change area detection processing based on the above processing results, and an update area of the background image is determined by the image change area detection processing unit 13. Based on this determination result, the input image and the An area determination synthesizing unit 1 includes a synthesizing unit 14 that performs a synthesizing process with a past background image and generates a background image. Other processes (the background image 3, the background difference unit 4, and the object detection unit 5) are the same as those shown in FIG.

【0021】先ずフレーム間差分処理部11は、図2に
示す様に、t−1時の入力画像2のI(t−1)の画像
-1(x,y)とt時の入力画像I(t)の画素I
(x,y)をフレーム間で比較し、濃淡値の異なってい
る画像を閾値T1により移動領域M(x,y)の判定を
する。即ち、これを式と表すと(2)で示す式となる。
First, as shown in FIG. 2, the inter-frame difference processing section 11 outputs an image I −1 (x, y) of I (t−1) of the input image 2 at time t−1 and an input image at time t. Pixel I of I (t)
(X, y) is compared between the frames, and the images having different grayscale values are determined as the moving area M (x, y) by the threshold value T1. That is, when this is expressed as an equation, the equation shown in (2) is obtained.

【0022】[0022]

【式1】 (Equation 1)

【0023】次に、領域分割処理部12および画像変動
領域検出処理部13は、図3に示す様に、t時の入力画
像2において、先に判定した移動領域M(x1,y1)
=1に隣接していて、かつ、その移動領域の濃淡値I
(x1,y1)と閾値T2以内の濃淡値をもつ画素I
(x2,y2)を同一移動物体に起因するものと推測し
て、移動領域M(x2,y2)と判定する。この判定を
隣接する画素の濃淡値が閾値T2以外になるまで繰り返
し行い物体の移動領域を求める。即ち、これを式で表す
と、(3)で示す式となる。
Next, as shown in FIG. 3, the area division processing section 12 and the image fluctuation area detection processing section 13 determine the moving area M (x1, y1) determined earlier in the input image 2 at time t.
= 1 and the gray value I of the moving area
Pixel I having (x1, y1) and a gray value within threshold value T2
It is assumed that (x2, y2) is caused by the same moving object, and is determined as the moving area M (x2, y2). This determination is repeated until the gray value of an adjacent pixel becomes a value other than the threshold value T2, and a moving area of the object is obtained. That is, when this is expressed by an equation, the following equation (3) is obtained.

【0024】[0024]

【式2】 (Equation 2)

【0025】こうして得られた移動領域M(x,y)に
より、図4に示す様に、合成処理部14において、t時
の入力画像I(x,y)をマスクして、(t−1)時の
背景画像B-1(x,y)を更新し、t時の背景画像B
(x,y)を生成する。
As shown in FIG. 4, the input image I (x, y) at the time t is masked by the moving area M (x, y) thus obtained, as shown in FIG. ) Time background image B -1 (x, y) is updated, and the background image B at time t is updated.
Generate (x, y).

【0026】ここで、背景生成スタート時における(t
−1)時の背景画像B-1(x,y)は、(t−1)時の
入力画像I-1(x,y)とする。
Here, (t) at the start of background generation
The background image B -1 (x, y) at -1 ) is the input image I -1 (x, y) at (t-1).

【0027】t時の生成された背景画像B(x,y)
は、(4)で示す式となる。
Background image B (x, y) generated at time t
Becomes the equation shown in (4).

【0028】[0028]

【式3】 (Equation 3)

【0029】このように、本実施の形態では、移動領域
の判定にフレーム間差分を用いている為、物体が多少で
も動いていれば移動領域として判定することが出来る。
よって、多様な撮影環境(道路体の側面から車両進行方
向を撮影した画像、又は、道路対上方から撮影した画像
等)へも適用可能である。また、フレーム毎に背景画像
を更新している為、照明等の撮影環境の変動への反応が
俊敏である。
As described above, in the present embodiment, since the inter-frame difference is used for the determination of the moving area, it can be determined as the moving area if the object moves even a little.
Therefore, the present invention can be applied to various photographing environments (such as an image photographed from the side of the road body in the vehicle traveling direction or an image photographed from above the road). In addition, since the background image is updated for each frame, the response to a change in the imaging environment such as illumination is prompt.

【0030】[0030]

【発明の効果】以上説明したように本発明は、入力画像
と背景画像との差分によって移動物体を検出する移動物
体検出方法において、(t−1)時に撮影された第1の
入力画像と、(t)時に撮影された第2の入力画像の2
枚から変動画素の位置を検出するフレーム間差分処理を
基に、(t)時に撮影された第2の入力画像から各物体
毎に分割する領域分割処理を行い、その領域分割処理結
果から画像変動領域検出処理により背景画像の更新領域
を決定し、その判定結果により、第1入力画像と過去の
背景画像との合成処理を行い、新しい背景画像を生成す
る領域判定合成部を備えることにより、背景画像の生成
方法を、単純足し込み法から領域判定合成法に変更し、
即ち、背景画像の更新単位を画素単位から領域単位とし
たことにより、入力画像のそれぞれの画素に背景領域で
あるか否かといった意味を持たせることが可能となるの
で、入力画像の内、背景領域のみを背景画像として更新
することができるため、検出対象物体の影響を受けず
に、しかも、環境の変動に追従した背景画像が生成で
き、従って従来不可能であると考えられていた屋外など
の不安定な撮影環境でも、背景差分による物体の検出を
行うことが可能となるので、安定した物体の検出が実現
できる効果がある。
As described above, according to the present invention, in a moving object detection method for detecting a moving object based on a difference between an input image and a background image, a first input image photographed at (t-1); (T) 2 of the second input image captured at the time
Based on the inter-frame difference processing for detecting the position of the fluctuating pixel from the image, a region division process for dividing each object from the second input image photographed at the time (t) is performed, and an image variation is performed based on the region division processing result. By determining the update area of the background image by the area detection processing, performing the synthesis processing of the first input image and the past background image based on the determination result, and providing an area determination synthesis unit that generates a new background image, Change the image generation method from the simple addition method to the area judgment synthesis method,
That is, since the update unit of the background image is changed from the pixel unit to the area unit, each pixel of the input image can have a meaning such as whether or not it is a background area. Since only the area can be updated as a background image, it is possible to generate a background image that is not affected by the object to be detected and that follows environmental changes, and thus is considered to be impossible in the past, such as outdoors. Even in an unstable shooting environment, it is possible to detect an object based on the background difference, so that there is an effect that stable object detection can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態のアルゴリズムを示すフ
ローチャートである
FIG. 1 is a flowchart showing an algorithm according to an embodiment of the present invention.

【図2】本実施の形態のアルゴリズムを説明するため
の、入力画像および背景画像の時間変化の一例を示す図
である。
FIG. 2 is a diagram illustrating an example of a temporal change of an input image and a background image for explaining an algorithm of the present embodiment.

【図3】本実施の形態のアルゴリズムを説明するため
の、図2を基にした領域分割処理及び画像変動領域検出
処理の概念を示す図である。
FIG. 3 is a diagram illustrating the concept of a region division process and an image variation region detection process based on FIG. 2 for explaining the algorithm of the present embodiment.

【図4】本実施の形態のアルゴリズムを説明するため
の、図2,図3を基にした合成処理の概念を示す図であ
る。
FIG. 4 is a diagram illustrating the concept of a combining process based on FIGS. 2 and 3 for explaining the algorithm of the present embodiment.

【図5】従来の移動物体検出方法を示すアルゴリズムを
示すフローチャートである
FIG. 5 is a flowchart showing an algorithm showing a conventional moving object detection method.

【図6】従来の移動物体検出方法における背景積分処理
を示すフローダイヤグラムである。
FIG. 6 is a flow diagram showing background integration processing in a conventional moving object detection method.

【符号の説明】[Explanation of symbols]

1 領域判定合成部 2 入力画像 3 背景画像 4 背景差分部 5 物体検出部 11 フレーム間差分処理部 12 領域分割処理部 13 画像変動領域検出処理部 14 合成処理部 REFERENCE SIGNS LIST 1 area determination synthesis unit 2 input image 3 background image 4 background subtraction unit 5 object detection unit 11 inter-frame difference processing unit 12 region division processing unit 13 image fluctuation region detection processing unit 14 synthesis processing unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 入力画像と背景画像との差分によって移
動物体を検出する移動物体検出方法において、 (t−1)時に撮影された第1の入力画像と、(t)時
に撮影された第2の入力画像の2枚から変動画素の位置
を検出するフレーム間差分処理を基に、前記(t)時に
撮影された第2の入力画像から各物体毎に分割する領域
分割処理を行い、その領域分割処理結果から画像変動領
域検出処理により背景画像の更新領域を決定し、その判
定結果により、前記第1入力画像と過去の背景画像との
合成処理を行い、新しい背景画像を生成する領域判定合
成部を備えることを特徴とする移動物体検出方法。
1. A moving object detection method for detecting a moving object based on a difference between an input image and a background image, comprising: a first input image photographed at (t-1), and a second input image photographed at (t). Based on the inter-frame difference processing for detecting the position of a fluctuating pixel from two of the input images of (a) and (b), a region division process of dividing each object from the second input image photographed at the time (t) is performed. An area to be updated of a background image is determined from the result of the division processing by an image change area detection processing, and based on the determination result, the first input image is combined with a past background image to generate a new background image. A moving object detection method, comprising:
【請求項2】 入力画像と背景画像との差分によって移
動物体を検出する移動物体検出方法において、 移動物体を入力画像から除去した背景画像を判定して過
去の背景画像との合成処理を行う領域判定合成部を備
え、 前記領域判定合成部は(t−1)時の第1の入力画像の
要素と(t)時の第2の入力画像をフレーム間で比較し
濃淡値の異なる第1の画素を予め定められた第1の閾値
により第1の移動領域を判定するフレーム間差分処理手
段と、 前記(t)時の第2の入力画像において先に判定した前
記移動領域に隣接して且つその移動領域の濃淡値と予め
定められた第2の閾値以内の濃淡値を持つ第2の要素を
同一移動物体に起因するものとして推測して第2の移動
領域を検出する領域分割・変動領域検出手段と、 前記第2の移動領域から前記(t)時の第2の入力画像
をマスクして(t−1)時の背景画像を更新し、(t)
時の背景画像を生成する画像合成処理手段とを有するこ
とを特徴とする移動物体検出方法。
2. A moving object detecting method for detecting a moving object based on a difference between an input image and a background image, wherein a background image in which the moving object is removed from the input image is determined, and an area for performing a combining process with a past background image is determined. A determination synthesizing unit, wherein the area determination synthesizing unit compares the elements of the first input image at the time (t-1) with the second input image at the time (t) between frames, and compares the elements of the first input image at the time (t). An inter-frame difference processing means for determining a first moving area by a pixel based on a predetermined first threshold; and adjacent to the moving area previously determined in the second input image at the time (t); Area division / variation area for detecting a second moving area by inferring a second element having a shading value of the moving area and a shading value within a second threshold value determined in advance as being caused by the same moving object Detection means, the second movement area The mask the second input image when (t) (t-1) updates the background image when, (t)
A moving object detecting method, comprising: an image synthesizing processing unit for generating a background image at the time.
JP9167369A 1997-06-24 1997-06-24 Method for detecting moving object Pending JPH1115982A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9167369A JPH1115982A (en) 1997-06-24 1997-06-24 Method for detecting moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9167369A JPH1115982A (en) 1997-06-24 1997-06-24 Method for detecting moving object

Publications (1)

Publication Number Publication Date
JPH1115982A true JPH1115982A (en) 1999-01-22

Family

ID=15848441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9167369A Pending JPH1115982A (en) 1997-06-24 1997-06-24 Method for detecting moving object

Country Status (1)

Country Link
JP (1) JPH1115982A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236464A (en) * 2004-02-18 2005-09-02 Hitachi Ltd Surveillance camera video distribution system
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
US9378632B2 (en) 2000-10-24 2016-06-28 Avigilon Fortress Corporation Video surveillance system employing video primitives
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
JP2019053625A (en) * 2017-09-17 2019-04-04 国立大学法人岩手大学 Moving object detection device, and moving object detection method
JP2020046960A (en) * 2018-09-19 2020-03-26 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, and program
US10645350B2 (en) 2000-10-24 2020-05-05 Avigilon Fortress Corporation Video analytic rule detection system and method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378632B2 (en) 2000-10-24 2016-06-28 Avigilon Fortress Corporation Video surveillance system employing video primitives
US10026285B2 (en) 2000-10-24 2018-07-17 Avigilon Fortress Corporation Video surveillance system employing video primitives
US10347101B2 (en) 2000-10-24 2019-07-09 Avigilon Fortress Corporation Video surveillance system employing video primitives
US10645350B2 (en) 2000-10-24 2020-05-05 Avigilon Fortress Corporation Video analytic rule detection system and method
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
JP2005236464A (en) * 2004-02-18 2005-09-02 Hitachi Ltd Surveillance camera video distribution system
JP2019053625A (en) * 2017-09-17 2019-04-04 国立大学法人岩手大学 Moving object detection device, and moving object detection method
JP2020046960A (en) * 2018-09-19 2020-03-26 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, and program

Similar Documents

Publication Publication Date Title
US9191589B2 (en) Image processing device
KR102153607B1 (en) Apparatus and method for detecting foreground in image
JPH08251480A (en) Method and apparatus for processing video signal
JP3930935B2 (en) Image processing device
CN112261390B (en) Vehicle-mounted camera equipment and image optimization device and method thereof
JP2008259161A (en) Target tracing device
KR100217485B1 (en) Method for movement compensation in a moving-image encoder or decoder
JP6365355B2 (en) Image generating apparatus and image generating method
KR100579890B1 (en) Motion-adaptive image processing device and method
JPH1115982A (en) Method for detecting moving object
KR20210015376A (en) Apparatus for calculating motion vector, and method thereof
JP5059855B2 (en) Global motion estimation method
US11288882B2 (en) Deposit detection device and deposit detection method
JPH1098644A (en) Motion detection device
JP2021111929A (en) Imaging device, control method and program of imaging device
JP2644805B2 (en) Background image update method
CN118314160A (en) Image edge detection method based on low-light image sensor
JP3947070B2 (en) Moving object detection device
JP2020201876A (en) Information processing device and operation support system
JP7427398B2 (en) Image processing device, image processing method, image processing system and program
JP4099850B2 (en) Image signal processing device
US20110032352A1 (en) Imaging position determining method and imaging position determining device
JP2013246601A (en) Image process device
JPH03118677A (en) Background picture updating method and picture processor
JPH0373075A (en) Mobile body detector

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19991130