JPH07262355A - Image monitoring device - Google Patents
Image monitoring deviceInfo
- Publication number
- JPH07262355A JPH07262355A JP6072923A JP7292394A JPH07262355A JP H07262355 A JPH07262355 A JP H07262355A JP 6072923 A JP6072923 A JP 6072923A JP 7292394 A JP7292394 A JP 7292394A JP H07262355 A JPH07262355 A JP H07262355A
- Authority
- JP
- Japan
- Prior art keywords
- background
- image
- area
- monitoring
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、テレビカメラ等の撮
像手段にて撮像された画像から危険区域等を監視し、監
視対象物体を検出して警報を出力する画像監視装置に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image monitoring apparatus for monitoring a dangerous area or the like from an image picked up by an image pick-up means such as a television camera, detecting an object to be watched and outputting an alarm.
【0002】[0002]
【従来の技術】従来、テレビカメラ等の撮像手段により
得られた画像を用いる画像監視装置においては、侵入物
体を検出するために予め作成されている背景画像と監視
画像との差分をとり、画像の変化した部分の特徴量を利
用して監視画像中の侵入物体や異常状態を検出する手法
は公知である。2. Description of the Related Art Conventionally, in an image monitoring apparatus which uses an image obtained by an image pickup means such as a television camera, a difference between a background image and a monitoring image previously created for detecting an intruding object is calculated, A method of detecting an intruding object or an abnormal state in a monitor image by utilizing the feature amount of the changed portion of is known.
【0003】上記のような従来方式では、背景画像に変
化がない場合には、侵入物体や異常状態を正確に検出で
きるが、背景に時間的変化を持つ物体(雲の動き,木の
揺れ等)があったり、背景自体の変化(日照の変化、室
内における照明の点灯,消灯等)がある場合、背景画像
と監視画像との差分画像中に、検出したい対象以外の変
動分が抽出されたり、監視対象がうまく抽出されなかっ
たりする。ひいては、監視対象物体の検知ミスや誤検出
により、システムの信頼性が低下するという欠点があ
る。In the conventional method as described above, an intruding object or an abnormal state can be accurately detected when there is no change in the background image, but an object having a temporal change in the background (cloud movement, tree shake, etc.). ), Or if there is a change in the background itself (change in sunshine, lighting in the room, turning off, etc.), fluctuations other than the target to be detected are extracted in the difference image between the background image and the monitoring image. , The monitoring target may not be extracted properly. As a result, there is a drawback in that the reliability of the system is reduced due to a detection error or a false detection of the monitored object.
【0004】そこで、この欠点を除去すべく、例えば以
下のような(1),(2)の方式が提案されている。 (1)差分画像から対象物体を確実に検出できるよう
に、背景画像が変化したことを検出した場合、適当なタ
イミングで背景画像を更新する。背景画像の変化の検知
方法の一例としては、画素毎に値の継続期間をカウント
しておき、継続期間が一定のしきい値を超えた時点で、
その画素について背景更新する(特開平4−11107
9号公報参照)。Therefore, in order to eliminate this drawback, for example, the following methods (1) and (2) have been proposed. (1) When it is detected that the background image has changed so that the target object can be reliably detected from the difference image, the background image is updated at an appropriate timing. As an example of a method of detecting a change in the background image, the duration of the value is counted for each pixel, and when the duration exceeds a certain threshold,
The background of the pixel is updated (Japanese Patent Laid-Open No. 4-11107).
No. 9).
【0005】(2)背景画像として、何画面分かの背景
画像の(a)平均と分散(b)最大値と最小値という定
常的な変化分を含んだ画像を作成しておき、入力画像が
これらによって決定される許容範囲外の値をとった時だ
け、差分画像として出力する(特開平4−330576
号公報参照)。(2) As a background image, an image including steady changes of (a) average and variance (b) maximum value and minimum value of background images of several screens is created, and the input image is created. Is output as a difference image only when it takes a value outside the allowable range determined by these (JP-A-4-330576).
(See the official gazette).
【0006】[0006]
【発明が解決しようとする課題】しかしながら、上記の
ような方式では、以下のような問題がある。上記(1)
の方式では、背景画像の更新を行なうに当たり、画素単
位で画像の変化を監視しているため、各画素の初期背景
画像に対する変化が一定期間以上継続するまで、背景画
像の更新が行なわれない。そこで、背景中の同一物体の
中でもビデオレベルのゆれ等の原因で、更新される画素
と更新されない画素が混在するという問題がある。However, the above method has the following problems. Above (1)
In the method, the background image is not updated until the change of each pixel with respect to the initial background image continues for a certain period or more when the background image is updated, because the image change is monitored in pixel units. Therefore, there is a problem that even in the same object in the background, pixels that are updated and pixels that are not updated are mixed due to the fluctuation of the video level or the like.
【0007】また、上記(2)の方式では、画素毎に平
均,分散,最大または最小を求めるので、定常的,周期
的な背景の変化には有効だが、背景画像全体の日照変化
や、照明条件の変化を含んで背景を作成すると、分散が
大きくなったり、最大値と最小値が離れ過ぎて許容範囲
が拡大し、監視対象物体の検出が困難となるので、背景
更新をタイミング良く行なうためのコントロールが必要
となる。Further, in the above method (2), since the average, variance, maximum or minimum is obtained for each pixel, it is effective for steady and periodic background changes, but it is effective for illuminance changes and illumination of the entire background image. If you create a background that includes changes in conditions, the variance will be large, or the maximum and minimum values will be too far apart and the allowable range will be expanded, making it difficult to detect the monitored object. Need control.
【0008】また、背景の変化には、背景更新が必要な
変化、必ずしも更新の必要のない定常的な変化、その他
の物体による変化等いろいろな状況があるが、(2)の
方式では背景の変化を認識していないので、さまざまな
背景変化の状況に適応することは困難である。加えて、
監視対象物体が画面内に存在する場合は、上記(1),
(2)の方式とも正確なタイミングでの背景更新が困難
であるという問題がある。したがって、この発明の課題
は背景画像の変化に関する知識を利用して背景変化の種
類を検知し、必要なときのみ背景画像を更新することに
より、監視対象物体を安定に抽出し得るようにすること
にある。There are various situations in which the background needs to be updated, such as changes that require background updating, steady changes that do not necessarily require updating, and changes due to other objects. Not aware of changes, it is difficult to adapt to different contexts of background changes. in addition,
If the object to be monitored exists in the screen, the above (1),
Both methods (2) have a problem that it is difficult to update the background at an accurate timing. Therefore, an object of the present invention is to detect the type of background change by utilizing the knowledge about the change of the background image and update the background image only when necessary so that the monitoring target object can be stably extracted. It is in.
【0009】[0009]
【課題を解決するための手段】かかる課題を解決するた
め、請求項1の発明では、監視領域を撮像する撮像手段
と、その撮像画像データを記憶する監視画像メモリと、
背景画像を記憶する背景画像メモリと、時系列の監視画
像と背景画像との差をとり2値化する差分・2値化手段
と、その差分・2値化画像を記憶する差分・2値化画像
メモリとを備え、差分・2値化画像から変化領域を抽出
し、変化領域の大きさ,形状,動きから監視対象物体を
検知する画像監視装置において、前記差分・2値化画像
の垂直,水平方向への各差分投影値を求め、その特徴量
を抽出する第1の抽出手段と、予想される何通りかの背
景画像の変動に対して、背景画像の変化する領域や程度
を差分投影値特徴量として学習し、その結果を背景投影
特徴量辞書として記憶する辞書メモリと、前記監視画像
の差分・2値化画像から得られた投影特徴量を背景投影
特徴量辞書と比較し、それが予想された種類の背景変化
に属するものか,それ以外かを判定する判定手段と、前
記監視画像の差分・2値化画像から監視対象物体を抽出
する第2の抽出手段と、一定時間内の背景変化および物
体抽出結果に応じて背景更新を行なう更新手段とを設
け、背景が変動しても安定な監視を可能にしたことを特
徴としている。In order to solve such a problem, according to the invention of claim 1, an image pickup means for picking up an image of the monitoring area, a monitoring image memory for storing the imaged image data,
A background image memory that stores a background image, a difference / binarization unit that binarizes the difference between a time-series monitoring image and the background image, and a difference / binarization that stores the difference / binarized image. An image monitoring apparatus, comprising an image memory, for extracting a change area from the difference / binarized image and detecting a monitoring target object from the size, shape, and movement of the change area, First extraction means for obtaining each differential projection value in the horizontal direction and extracting the feature amount, and differential projection of the area and degree of change of the background image with respect to some expected variations of the background image. A dictionary memory that learns as a value feature quantity and stores the result as a background projection feature quantity dictionary and a projection feature quantity obtained from the difference / binarized image of the monitoring image are compared with a background projection feature quantity dictionary, and Belongs to the expected type of background change, Determination means for determining other than the above, second extraction means for extracting the monitoring target object from the difference / binarized image of the monitoring image, and background updating in accordance with the background change within a fixed time and the object extraction result. It is characterized in that it is provided with an updating means for carrying out, and stable monitoring is possible even if the background changes.
【0010】請求項1の発明については、前記監視対象
物体として抽出された領域に対し、時間的な物体位置の
対応付けを行なう対応付け手段と、その物体位置が物体
抽出誤差の範囲内に静止している度合いを静止度として
算出する静止度算出手段と、画像内に抽出された全監視
対象物体について、静止度が一定値以上の場合は静止し
た監視対象物体を含んで背景を更新する第2の更新手段
とを付加し、監視対象物体が静止している場合に、その
領域を含めて安定な監視を可能にすることができる(請
求項2)。According to the first aspect of the invention, associating means for associating a temporal object position with an area extracted as the object to be monitored, and the object position is stationary within an object extraction error range. A stillness degree calculating means for calculating the degree of staticity as a stillness degree, and for all the monitoring target objects extracted in the image, if the stillness degree is a certain value or more, the background is updated to include the stationary monitoring target object. When the object to be monitored is stationary, it is possible to perform stable monitoring including the area when the object to be monitored is stationary (claim 2).
【0011】また、請求項2の発明については、前記監
視対象物体として抽出された領域以外の変化領域につい
て、監視対象物体以外の個々の変化領域を、近接するよ
り大きな領域に統合する領域統合手段と、領域の時間的
な重複度を算出する重複度算出手段と、全領域について
重複度が一定値以上の場合、その領域は静止しているも
のと判断し、静止領域を含んで背景を更新する第3の更
新手段とを付加し、背景の変動とも対象監視物体とも判
断できない変化について、大きな領域として静止状態が
一定時間以上継続したときは背景の更新を行ない、安定
な監視を可能にすることができる(請求項3)。According to the second aspect of the invention, with respect to the change area other than the area extracted as the monitoring target object, the area integrating means for integrating the individual change areas other than the monitoring target object into a larger adjacent area. And a degree-of-overlap calculation means for calculating the temporal degree of overlap of the area, and if the degree of overlap for all areas is a certain value or more, it is determined that the area is stationary, and the background is updated including the stationary area. A third updating means is added, and for a change that cannot be determined as a background change or a target monitored object, the background is updated when a stationary state continues for a certain period of time as a large area, and stable monitoring is enabled. It is possible (claim 3).
【0012】また、請求項2の発明については、前記監
視対象物体の抽出された領域またはその領域を一定のサ
イズだけ膨張させてマスク領域を作成する領域作成手段
と、監視対象物体の時間的な移動に従って複数のマスク
領域の論理積演算を行ない、マスク領域が残っているか
否かを判断する判断手段と、複数枚のマスク付き背景画
像からマスク領域を互いに埋め合わせた背景画像を作成
する背景画像作成手段とを付加し、監視対象物体が時間
的に移動している場合でも背景の更新を行ない、安定な
監視を可能にすることができる(請求項4)。According to the second aspect of the present invention, the extracted area of the object to be monitored or an area creating means for expanding the area by a certain size to create a mask area, and a temporal object of the object to be monitored. A judgment means for performing a logical product operation of a plurality of mask areas according to the movement to judge whether or not the mask areas remain, and a background image creation for creating a background image in which the mask areas are filled with each other from a plurality of background images with masks. By adding a means, the background can be updated even when the monitored object moves in time, and stable monitoring can be achieved (claim 4).
【0013】[0013]
【作用】まず、一定の位置に予想される幾通りかの背景
変動(日照変化,ドアの開閉等の背景更新が必要な背景
変化、雲の動きや木の揺れ等の定常的な背景変化)によ
り画像上に現れる変化の程度や変化する領域について、
差分・2値化画像の垂直(X軸)方向,水平(Y軸)方
向の各投影値をとって、これらを投影特徴量として予め
学習し、背景投影特徴量辞書を作成しておく。[Operation] First, some background fluctuations expected at a certain position (background changes that require background updates such as sunshine changes, door opening and closing, and steady background changes such as cloud movements and tree shakings) For the degree of change and the changing area that appear on the image,
The projection values in the vertical (X-axis) direction and the horizontal (Y-axis) direction of the difference / binarized image are obtained, and these are learned in advance as projection feature quantities to create a background projection feature quantity dictionary.
【0014】しかる後、実際の監視時の監視画像と背景
画像の差分・2値化画像について投影特徴量を抽出し、
これを背景投影特徴量辞書と比較することにより、画像
の変化分が如何なる種類の背景画像の変動か、それ以外
(不明)かを判断し、その結果に応じた背景更新処理を
行なう。監視対象物体が抽出された場合でも、その物体
が物体抽出誤差の範囲内で一定時間以上静止していると
判定したら、抽出した監視対象物体を背景として更新す
ることで、静止した監視対象物体付近に現れた変化につ
いても、監視できるようにする。Thereafter, the projection feature amount is extracted from the difference / binarized image between the monitor image and the background image during actual monitoring,
By comparing this with the background projection feature quantity dictionary, it is determined what kind of background image change the image change is, and other (unknown), and the background update processing is performed according to the result. Even if the monitoring target object is extracted, if it is determined that the object is stationary for a certain time or more within the range of the object extraction error, the extracted monitoring target object is updated as the background to detect the vicinity of the stationary monitoring target object. Be able to monitor the changes that appear in.
【0015】また、予想される背景の変化や、監視対象
物体以外の不明な画像変化についても、その変化が或る
程度以上の大きなまとまりで、かつ、静止していると見
なされる場合は、その変化を背景の変化として更新す
る。例えば、自動車の駐車や大きな荷物の放置などが、
この処理により検出できるようになる。さらには、監視
画像内に移動している監視対象物体がある場合でも、監
視対象物体の部分をマスクした画像を作成し、複数のマ
スク付き画像同士で互いのマスク領域を埋め合わせる処
理を行ない、背景画像を作成,更新することにより、背
景の変動に迅速に対処し得るようにする。In addition, with respect to an expected background change and an unknown image change other than the object to be monitored, if the change is considered to be a large unit of a certain degree or more and is considered to be stationary, the change will occur. Update changes as background changes. For example, parking a car or leaving a large baggage
This processing enables detection. Furthermore, even when there is a moving target object in the monitoring image, an image in which the part of the monitoring target object is masked is created, and the process of filling the masked areas with each other with multiple masked images is performed. By creating and updating images, it is possible to quickly deal with background fluctuations.
【0016】[0016]
【実施例】図1はこの発明の実施例を示すブロック図で
ある。同図において、1はテレビカメラ等の撮像手段
(ここでは、A/D変換器も含むものとする)、2は撮
像手段1により入力した監視画像の監視画像メモリ、3
は背景画像を記憶した背景画像メモリ、4は監視画像と
背景画像との差分・2値化を行なう差分・2値化手段、
5はその結果を記憶する差分・2値化画像メモリをそれ
ぞれ示している。1 is a block diagram showing an embodiment of the present invention. In FIG. 1, reference numeral 1 is an image pickup means such as a television camera (here, an A / D converter is also included), 2 is a monitor image memory of a monitor image input by the image pickup means 1, 3
Is a background image memory storing background images, 4 is a difference / binarization means for performing difference / binarization between the monitor image and the background image,
Reference numeral 5 denotes a differential / binarized image memory for storing the result.
【0017】B1は背景の変化の種類を判定するブロッ
クを示し、6〜12より構成されている。6は差分・2
値化画像の垂直,水平方向への投影をとる投影手段、
7,8は垂直方向(X軸),水平方向(Y軸)への投影
値をそれぞれ記憶する投影値メモリ、9は投影値メモリ
7,8から投影特徴量を抽出する抽出手段、10は抽出
手段9により抽出された投影特徴量を記憶する投影特徴
量メモリである。11はこの投影特徴量と、予想される
背景の変動に対し学習により作成した背景投影特徴量辞
書12と比較し、背景変化の種類を判定する判定手段で
ある。Reference numeral B1 denotes a block for determining the type of background change, which is composed of 6-12. 6 is difference / 2
Projecting means for projecting the binarized image in the vertical and horizontal directions,
Reference numerals 7 and 8 denote projection value memories that store projection values in the vertical direction (X axis) and horizontal direction (Y axis), 9 is extraction means for extracting projection feature amounts from the projection value memories 7 and 8, and 10 is an extraction unit. It is a projection feature amount memory that stores the projection feature amount extracted by the means 9. Reference numeral 11 denotes a determination unit that compares the projected feature amount with a background projected feature amount dictionary 12 created by learning with respect to an expected background variation and determines the type of background change.
【0018】B2は監視対象物体や、それ以外の大きな
領域の静止度を判定する物体静止度判定ブロックを示
し、13〜21から構成されている。13は差分・2値
化画像メモリ5から監視対象物体を抽出する物体抽出手
段、14は物体抽出手段13にて抽出された物体抽出結
果、16は時刻t=Tでの物体抽出結果と、前フレーム
(t=T−1)での物体抽出結果15とを時間的に対応
付ける対応付け手段、17はこの対応付け結果から対象
物体の静止度を算出し,判断する静止度判定手段であ
る。Reference numeral B2 denotes an object stillness determination block for determining the stillness of the object to be monitored and other large areas, and it is composed of 13 to 21. Reference numeral 13 is an object extracting means for extracting the monitoring target object from the differential / binarized image memory 5, 14 is an object extraction result extracted by the object extracting means 13, 16 is an object extraction result at time t = T, and The associating unit 17 associates the object extraction result 15 in the frame (t = T-1) with time, and 17 is a stillness determining unit that calculates and determines the stillness of the target object from the association result.
【0019】18は対象物体以外の変化領域を近くの大
きな領域毎に統合する統合手段であり、ここで一定の面
積以上に統合された変化領域のデータがメモリ19に記
憶される。21は前フレームの統合された変化領域デー
タ20と、現在のフレームでの変化領域データ19との
重複度を求め,判断する重複度判定手段である。Reference numeral 18 denotes an unifying means for unifying the change areas other than the target object for each large area nearby, and the data of the change areas integrated over a certain area are stored in the memory 19. Reference numeral 21 is a degree-of-overlap determination means for determining and determining the degree of overlap between the changed area data 20 integrated in the previous frame and the changed area data 19 in the current frame.
【0020】22は監視画像メモリ2中に監視対象物体
が出現した場合、監視対象物体の部分だけをマスクした
背景画像を作成するマスク画像作成手段、23は背景変
化種類判定結果,対象物体抽出結果,対象物体静止度合
いおよび変化領域重複度などを総合的に判断して、背景
更新モードを決定する背景変化総合判定手段をそれぞれ
示す。Reference numeral 22 is a mask image creating means for creating a background image in which only the part of the monitored object is masked when the monitored object appears in the monitored image memory 2, and 23 is a background change type determination result, a target object extraction result. The background change comprehensive determination means for comprehensively determining the degree of stillness of the target object and the degree of change area overlap and determining the background update mode are shown.
【0021】24は物体抽出結果,背景変化等を総合的
に判断して、監視対象の出現や異常状態を検知し、警報
を出力する異常判定手段、25は背景画像バッファであ
る。この背景画像バッファ25には、背景変化を察知し
てから実際に更新を行なうまでのフレーム数分持ってい
ても良いし、メモリが少ない場合は背景画像バッファ2
5と、監視画像メモリ2間での平均値等の演算結果を背
景画像バッファ25に格納しておくようにしても良い。
また、26はこの背景画像バッファ25から背景画像を
作成する背景更新手段である。Numeral 24 is an abnormality judging means for comprehensively judging the object extraction result, background change, etc. to detect the appearance or abnormal state of the monitored object and outputting an alarm, and 25 is a background image buffer. The background image buffer 25 may have as many frames as the number of frames from when the background change is detected until the actual update, or when the memory is small, the background image buffer 2
5 and the calculation result such as the average value between the monitoring image memory 2 may be stored in the background image buffer 25.
Further, 26 is a background updating means for creating a background image from the background image buffer 25.
【0022】図2に差分・2値化画像の例を示す。図2
(a)は日照変化,照明変化等により背景画像全体の明
るさが変化した場合の差分・2値化画像と、その投影パ
ターンの例を示す。このような場合、画面全体で明るさ
が変動しているので、差分・2値化画像全体にパターン
が出現している。また、図2(b)は背景に変化がな
く、監視対象物体がある場合の差分・2値化画像の例で
ある。この場合は、監視対象物体によるパターンが差分
・2値化画像に出現している。通常、監視対象物体が画
面全体に均一に出現することはないので、この場合の差
分・2値化画像の投影値は監視対象物体の部分にかたま
って現れる。FIG. 2 shows an example of the differential / binarized image. Figure 2
(A) shows an example of a differential / binarized image and its projection pattern when the brightness of the entire background image changes due to changes in sunshine, changes in illumination, and the like. In such a case, since the brightness fluctuates on the entire screen, a pattern appears on the entire differential / binarized image. Further, FIG. 2B is an example of the differential / binarized image in the case where there is no change in the background and there is a monitoring target object. In this case, the pattern of the monitored object appears in the differential / binarized image. Normally, since the monitored object does not appear uniformly on the entire screen, the projection values of the differential / binarized image in this case appear in a cluster on the monitored object.
【0023】ここで、予想される背景変化の例を示す。 背景変化C:日照の変化(屋外),照明の変化(屋内) 背景変化D:木の揺れや雲の動き 背景変化E:自動車の停車(定位置の場合) 背景変化F:人により動く物体(ドア,窓等)Here, an example of expected background change will be shown. Background change C: Change of sunshine (outdoor), change of lighting (indoor) Background change D: Shake of trees and movement of clouds Background change E: Stop of car (in case of fixed position) Background change F: Object moved by person ( Doors, windows, etc.)
【0024】上記のうち、Cの場合は差分・2値化画像
全体にパターンが出現し、このままでは監視継続不可能
なので、背景全体を迅速に更新する必要がある。しか
し、Dの場合は部分的に現れる周期的な背景変動であ
り、特に更新する必要はない。また、E,Fの場合は部
分的な不規則な背景変動であり、この場合は変化が一定
時間継続した場合のみ、部分的に背景更新を行なえば良
い。Among the above, in the case of C, a pattern appears in the entire difference / binarized image, and monitoring cannot be continued as it is. Therefore, it is necessary to quickly update the entire background. However, in the case of D, it is a periodic background fluctuation that appears partially and does not need to be updated. In the cases of E and F, the background is partially irregular, and in this case, the background may be partially updated only when the change continues for a certain time.
【0025】図3は差分投影値とその特徴量の例を説明
するための説明図で、ここではX方向成分だけを示して
いる。ここで、図3(a)のような差分投影値HX
(i)(i=1,2,…,ISX)およびHY(j)
(j=1,2,…,ISY)が得られたとすると、投影
特徴量抽出手段9では以下のような投影特徴量を抽出す
る。 とする。なお、THXはしきい値を示す(図3参照)。FIG. 3 is an explanatory diagram for explaining an example of the differential projection value and its feature amount, and here, only the X-direction component is shown. Here, the differential projection value HX as shown in FIG.
(I) (i = 1, 2, ..., ISX) and HY (j)
Assuming that (j = 1, 2, ..., ISY) is obtained, the projection feature amount extraction means 9 extracts the following projection feature amounts. And THX represents a threshold value (see FIG. 3).
【0026】 (a2)X方向差分値出現率 RX=SUMX/I
SX・100(%) (a3)差分値出現領域X下限値 XMIN (a4)差分値出現領域X上限値 XMAX (a5)差分値出現領域数 XN(A2) X-direction difference value appearance rate RX = SUMX / I
SX 100 (%) (a3) Difference value appearance area X lower limit value XMIN (a4) Difference value appearance area X upper limit value XMAX (a5) Difference value appearance area number XN
【0027】 (a6)X差分値平均HXAV HXAV=Σ HX(i)/SUMX HHX(i)≠0 (a7)X差分値分散HXSIG HXSIG=Σ (HX(i)−HXAV)2 /SUMX HHX(i)≠0(A6) X difference value average HXAV HXAV = Σ HX (i) / SUMX HHX (i) ≠ 0 (a7) X difference value variance HXSIG HXSIG = Σ (HX (i) −HXAV) 2 / SUMX HHX ( i) ≠ 0
【0028】Y方向についても、上記と同様のデータを
抽出する。 とする。なお、THYはしきい値を示す。Data similar to the above is extracted also in the Y direction. And Note that THY indicates a threshold value.
【0029】 (b2)Y方向差分値出現率 RY=SUMY/I
SY・100(%) (b3)差分値出現領域X下限値 YMIN (b4)差分値出現領域X上限値 YMAX (b5)差分値出現領域数 YN(B2) Y-direction difference value appearance rate RY = SUMY / I
SY · 100 (%) (b3) Difference value appearance area X lower limit value YMIN (b4) Difference value appearance area X upper limit value YMAX (b5) Difference value appearance area number YN
【0030】 (b6)Y差分値平均HYAV HYAV=Σ HY(j)/SUMY HHY(j)≠0 (b7)Y差分値分散HYSIG HYSIG=Σ (HY(j)−HYAV)2 /SUMY HHY(j)≠0(B6) Y difference value average HYAV HYAV = ΣHY (j) / SUMY HHY (j) ≠ 0 (b7) Y difference value variance HYSIG HYSIG = Σ (HY (j) −HYAV) 2 / SUMY HHY ( j) ≠ 0
【0031】図4は背景変化の種類判定動作を説明する
ためのフローチャートである。 I−1)時刻t=Tにおける差分・2値化画像にパター
ンが出現していない場合は、背景更新モードAとする
(背景変化なし,対象物体なし)。また、差分・2値化
画像にパターンが現れている場合は、差分・2値化画像
の投影値HX(i)(i=1,2,…,ISX),HY
(j)(j=1,2,…,ISY)から、上記の(a1
〜a7)と(b1〜b7)の計14個の投影特徴量を求
める。FIG. 4 is a flow chart for explaining the background change type determination operation. I-1) When no pattern appears in the differential / binarized image at time t = T, the background update mode A is set (no background change, no target object). When a pattern appears in the difference / binarized image, the projection values HX (i) (i = 1, 2, ..., ISX), HY of the difference / binarized image
From (j) (j = 1, 2, ..., ISY), the above (a1
~ A7) and (b1 to b7), a total of 14 projection feature quantities are obtained.
【0032】ここで、差分・2値化画像にノイズ程度の
小さなパターンしか現れていない場合はI−1)の場合
に準じるものとして、背景更新モードBとする。ノイズ
の判断方法としては、例えば投影特徴量の次の4条件で
判断する事が考えられる。SUMX<SUMXMINか
つ、RX<RXMINかつ、SUMY<SUMYMIN
かつ、RY<RYMINHere, in the case where only a pattern having a small amount of noise appears in the differential / binarized image, the background update mode B is set as a case similar to the case of I-1). As a method of determining noise, for example, the following four conditions of the projection feature amount may be used. SUMX <SUMXMIN and RX <RXMIN and SUMY <SUMYMIN
And RY <RYMIN
【0033】II)差分・2値化画像にノイズ以外のパタ
ーンが出現した場合は、求めた投影特徴量を背景特徴量
辞書12の内容と比較して上記背景変化C〜Fのいずれ
か、またはどの背景変化にも近くないと判断される場合
は、不明とする。この場合の辞書12との比較方法とし
ては、単に各特徴量の差を正規化した後加算し、加算値
の小さいものを求めても良いし、従来の特徴空間におけ
るベクトル内積(cosθ)によって良い。ただし、全
特徴量について、類似しているもののみを特定の背景変
動とし、その他は不明とする。II) When a pattern other than noise appears in the differential / binarized image, the calculated projected feature amount is compared with the contents of the background feature amount dictionary 12, and any one of the background changes C to F, or If it is judged that it is not close to any background change, it is unknown. As a comparison method with the dictionary 12 in this case, the difference between the respective feature amounts may be simply normalized and then added to obtain a small addition value, or a vector inner product (cos θ) in the conventional feature space may be used. . However, for all features, only those that are similar are regarded as specific background fluctuations, and others are unknown.
【0034】図5は物体静止度判定方法を示すフローチ
ャートである。 III )予想された背景変動の投影特徴量と比較しても、
一致するような背景変動がなく不明と判断された場合
は、監視対象物体抽出を行なう。ここでの監視対象物体
の抽出は、従来方法と同様に行なうものとする。監視対
象物体の静止度はフラグOBJに、監視対象物体以外の
領域の重複度はフラグAREAに格納される。両フラグ
とも「0」で物体なし、「1」で静止、「2」で移動を
示す。FIG. 5 is a flow chart showing a method of determining the stillness of an object. III) Even when compared with the projected feature quantity of the predicted background variation,
When it is determined that there is no background fluctuation that matches and it is determined that the object is unknown, the monitoring target object is extracted. The extraction of the object to be monitored here is performed in the same manner as the conventional method. The stationary degree of the monitoring target object is stored in the flag OBJ, and the overlapping degree of the area other than the monitoring target object is stored in the flag AREA. In both flags, "0" indicates no object, "1" indicates stationary, and "2" indicates moving.
【0035】IV−1)監視対象物体が抽出された場合は
その位置を求め、前フレームでの対象物体の位置と対応
付けを行ない、対象物体の静止度St(t)を計算す
る。物体の静止度を表わす関数の1例を次の(1)式で
示す。 ただし、Ustnは物体抽出誤差の範囲、Utは過去に
対応付けられた対象物体間の距離、MAXFRMは時間
を示す定数である。St(t)は対応付けられた時間が
MAXFRMの場合、対応付けられた物体の位置が全く
動かなかった場合に「1」となり、動く範囲が広くなる
程小さな値となる。また、対応付けられた物体が途中か
ら静止しても、静止後の時間が長くなる程大きな値をと
る。IV-1) When the object to be monitored is extracted, the position of the object is calculated, and the position of the object is correlated with the position of the object in the previous frame to calculate the stillness St (t) of the object. An example of a function representing the stillness of an object is shown by the following expression (1). However, Ustn is a range of object extraction error, Ut is a distance between target objects associated in the past, and MAXFRM is a constant indicating time. When the associated time is MAXFRM, St (t) becomes “1” when the position of the associated object does not move at all, and becomes smaller as the moving range becomes wider. Further, even if the associated object is stationary from the middle, it takes a larger value as the time after stationary becomes longer.
【0036】図6は監視対象物体の静止度判定を具体的
に説明するための説明図で、同(a)は物体位置対応付
け結果(t=T−3〜T)を示す。ここでは、物体1は
移動しており、物体2はほとんど静止しているものとし
ている。(b)は監視対象物体テーブルの例、(c)は
対応付けられた時間と静止度の関係を示すグラフであ
る。このグラフは、最初は物体1,2とも静止度St
(t)は0だが、移動している物体1は、対応付けられ
た時間が経過してもSt(t)は大きくならないのに対
し、静止物体2は時間を経るに従いSt(t)が単調に
増加することを示している。FIG. 6 is an explanatory diagram for concretely explaining the stillness determination of the object to be monitored. FIG. 6A shows the object position association result (t = T-3 to T). Here, it is assumed that the object 1 is moving and the object 2 is almost stationary. (B) is an example of a monitoring target object table, (c) is a graph showing the relationship between the associated time and stillness. In this graph, the static degree St is initially set for both the objects 1 and 2.
Although (t) is 0, the moving object 1 does not have a large St (t) even when the associated time elapses, whereas the stationary object 2 has a monotonic St (t) with time. It has been shown to increase.
【0037】従って、抽出された全ての監視対象物体に
ついて、 St(t)≧SMIN(しきい値) が成立するとき監視対象物体は静止しているとしてフラ
グOBJ=1とし、それ以外はフラグOBJ=2とす
る。Therefore, for all the extracted objects to be monitored, when St (t) ≧ SMIN (threshold value) is satisfied, the object to be monitored is considered to be stationary, and the flag OBJ = 1 is set. Otherwise, the flag OBJ is set. = 2.
【0038】IV−2)次に、監視対象物体を除いた変化
領域を大きな変化領域にまとめる。まとめ方の例として
は、差分・2値化画像を何画素分か膨張したのち収縮を
行ない、近くのパターンを1つに統合する方法が考えら
れる。なお、統合して一定面積以上の領域がない場合
は、AREA=0とする。IV-2) Next, the change areas excluding the object to be monitored are grouped into large change areas. As an example of a method of grouping, a method may be considered in which the difference / binarized image is expanded by several pixels and then expanded, and nearby patterns are integrated into one. If there is no area having a certain area or more as a result of integration, AREA = 0.
【0039】統合により、一定面積以上の領域ができた
場合、この領域の位置や大きさを算出し、領域の重なり
具合を関数Ot(t)を用い、静止かどうかを判断す
る。関数Ot(t)の例を次の(2)式に示す。 When a region having a certain area or more is formed by the integration, the position and size of this region are calculated, and the overlapping degree of the regions is determined using the function Ot (t) to determine whether or not the region is still. An example of the function Ot (t) is shown in the following expression (2).
【0040】上記(2)式のA(t)は時刻tにおいて
統合された領域の総面積、AND(t−1,t)は、時
刻t−1での領域と時刻tでの領域とが重複している領
域の面積を示す。図7は重複度判定の具体例を説明する
ための説明図である。同図(a)は時刻t−1での各領
域1,2,3とその面積A1,A2,A3、(b)は時
刻tでの各領域1,2,3とその面積A1’,A2’,
A3’、(c)はAND(t−1,t)をそれぞれ示し
ている。A (t) in the above equation (2) is the total area of the regions integrated at time t, and AND (t-1, t) is the region at time t-1 and the region at time t. The area of the overlapping region is shown. FIG. 7 is an explanatory diagram for explaining a specific example of the overlapping degree determination. In the figure, (a) shows the areas 1, 2, 3 and their areas A1, A2, A3 at time t-1, and (b) shows the areas 1, 2, 3 and their areas A1 ', A2 at time t. ',
A3 'and (c) indicate AND (t-1, t), respectively.
【0041】図7の領域2のように、時刻t−1と時刻
tで統合された領域が全く重なっている場合は、上記
(2)式で求まる重複度Ot(t)=1であり、領域3
のように全く重なっていない場合は、重複度Ot(t)
=0となる。つまり、重複度は全く重なる状態から全く
重ならない状態まで、その重なり具合に応じて単調に減
少することになる。そこで、Ot(t)≧OMIN(し
きい値)ならば、領域は静止しているとしてAREA=
1とし、それ以外はAREA=2にする。αはt−1,
t間の情報の重みを示す定数である。When the areas integrated at the time t-1 and the time t are completely overlapped as in the area 2 in FIG. 7, the degree of overlap Ot (t) = 1 obtained by the above equation (2) is Area 3
When there is no overlap as in, the degree of overlap Ot (t)
= 0. That is, the degree of overlap monotonously decreases from the state of completely overlapping to the state of not completely overlapping, depending on the degree of overlapping. Therefore, if Ot (t) ≧ OMIN (threshold value), the area is considered to be stationary and AREA =
1 and AREA = 2 otherwise. α is t-1,
It is a constant indicating the weight of information between t.
【0042】図8は背景更新総合判定部の処理を示すフ
ローチャートである。 (1)背景更新モードを判断し、背景変化D,H,K,
Nと判断された場合は背景更新は必要ない、または不可
能と判断して背景更新は行なわない。 (2)背景変化A,B,C,E,F,G,I,J,L,
Mの場合は、以下の処理を行なう。FIG. 8 is a flow chart showing the processing of the background update comprehensive judgment section. (1) Judgment of the background update mode, background changes D, H, K,
If it is determined to be N, the background update is not necessary, or is determined to be impossible, and the background update is not performed. (2) Background changes A, B, C, E, F, G, I, J, L,
In the case of M, the following processing is performed.
【0043】(2−1)その種類の背景変化であると始
めて判定された場合、背景変化継続時間f=1とし、 (2−1−1)背景変化L,Mの場合は監視対象物体を
適宜膨張させたマスク領域の画素数を1、それ以外を0
としたマスク領域画像をバッファMASKへコピーする
とともに、監視画像から監視対象物体領域をマスクした
背景画像を背景画像バッファFRAME(f)にコピー
する。なお、背景更新可能フラグFLGは最初はOFF
に設定する。 (2−1−2)それ以外の場合は、監視画像メモリ2の
内容を背景画像バッファFRAME(f)にコピーす
る。(2-1) When it is first determined that the background change is of that type, the background change duration f = 1 is set, and (2-1-1) In the case of the background changes L and M, the monitored object is selected. The number of pixels in the appropriately expanded mask area is 1, and the others are 0.
The mask area image is copied to the buffer MASK, and the background image in which the monitoring target object area is masked from the monitoring image is copied to the background image buffer FRAME (f). The background updatable flag FLG is initially OFF.
Set to. (2-1-2) In other cases, the contents of the monitor image memory 2 are copied to the background image buffer FRAME (f).
【0044】(2−2)同じ種類の背景変化が2フレー
ム以上継続しているときは、 (2−2−1)f=f+1とする。 (2−2−2)背景変化L,Mの場合はマスクした背景
画像を背景画像バッファFRAME(f)にコピーし、
マスク領域画像とマスク画像バッファMASKとの論理
積をとり、その結果をマスク画像バッファMASKに格
納するとともに、MASKの中に値1の画素が残ってい
るかどうかを調べる。MASKの中に値1の画素がなく
なった時点で、フラグFLGをONとする。 (2−2−3)その他の場合は、監視画像メモリ2の内
容を背景画像バッファFRAME(f)にコピーする。 (2−2−4)fが背景更新に必要なフレーム数に達
し、かつ、背景変化L,Mの場合はフラグFLGがON
になっている場合のみ、背景更新を行なう。(2-2) When the same type of background change continues for two or more frames, (2-2-1) f = f + 1. (2-2-2) If the background changes L and M, copy the masked background image to the background image buffer FRAME (f),
The logical product of the mask area image and the mask image buffer MASK is calculated, the result is stored in the mask image buffer MASK, and it is checked whether or not the pixel having the value 1 remains in the MASK. The flag FLG is turned ON at the time when there is no pixel with a value of 1 in MASK. (2-2-3) In other cases, the contents of the monitor image memory 2 are copied to the background image buffer FRAME (f). (2-2-4) When f has reached the number of frames required for background update and the background changes L and M, the flag FLG is ON.
Only when is set, the background is updated.
【0045】(3)背景更新の方法としては、一定時間
内の背景バッファ25から背景を作成するようにする
(従来と同じ)。ただし、監視対象物体のマスク付き背
景画像同士については、マスク部分を互いに埋め合わせ
るようにして背景を作成する。 以上の背景更新モードと、それぞれの場合の背景更新処
理との関係をまとめると、図9のようになる。(3) As a background updating method, a background is created from the background buffer 25 within a fixed time (the same as the conventional method). However, for the masked background images of the objects to be monitored, the masked portions are filled up with each other to create the background. The relationship between the background update mode and the background update processing in each case is summarized as shown in FIG.
【0046】図10はマスクされた画像の埋め合わせ処
理を説明する説明図である。いま、2枚の背景画像バッ
ファをIMG1,IMG2とし、マスク画素値をMとす
ると、 IMG(X,Y)={IMG1(X,Y)+IMG2(X,Y)}/2 (ただし、IMG1(X,Y),IMG2(X,Y)≠M、 または、IMG1(X,Y),IMG2(X,Y)=Mの とき) =IMG1(X,Y) (ただし、IMG1(X,Y)≠M,IMG2(X,Y)= Mのとき) =IMG2(X,Y) (ただし、IMG1(X,Y)=M,IMG2(X,Y)≠ Mのとき) …(3) なる演算を行なうことにより、2枚のマスクされた背景
画像間の平均画像を作成することが可能となる。この処
理をマスク画像バッファMASKの中に値1の画素が無
くなるまで行なうと、監視対象物体による影響のない背
景画像を作成することが可能となる。FIG. 10 is an explanatory diagram for explaining the masking image padding process. Now, assuming that the two background image buffers are IMG1 and IMG2 and the mask pixel value is M, IMG (X, Y) = {IMG1 (X, Y) + IMG2 (X, Y)} / 2 (however, IMG1 ( X, Y), IMG2 (X, Y) ≠ M, or IMG1 (X, Y), IMG2 (X, Y) = M) = IMG1 (X, Y) (where IMG1 (X, Y) ≠ M, IMG2 (X, Y) = M) = IMG2 (X, Y) (However, when IMG1 (X, Y) = M, IMG2 (X, Y) ≠ M) (3) By performing the above, it is possible to create an average image between two masked background images. If this process is performed until the pixels of the value 1 are eliminated in the mask image buffer MASK, it becomes possible to create a background image that is not affected by the monitored object.
【0047】[0047]
【発明の効果】この発明によれば、撮像手段を介して入
力した画像と背景画像との差から変化領域を抽出し、そ
の中から監視対象物体を抽出する場合に、予想される背
景の変化の投影特徴量を学習した辞書と、実際の変化の
投影特徴量とを比較して、背景の変化の種類を検出し、 (イ)監視対象物体の静止度を求め、静止度が高い場合
は背景を更新する。 (ロ)監視対象物体以外の大きな領域の重複度を求め、
それが所定値より大きい場合は背景を更新する。 (ハ)監視対象物体が移動する場合、その部分をマスク
した背景画像を作成し、マスク領域がなくなった時点で
背景を更新する。の処理を行なうようにしたので、背景
が変化する場合でも安定に監視を行ない得る利点が得ら
れる。According to the present invention, when the change area is extracted from the difference between the image input through the image pickup means and the background image, and the monitoring target object is extracted from the change area, the expected change in the background is expected. By comparing the dictionary that learned the projection feature amount of and the projection feature amount of the actual change, the type of background change is detected, and (b) the stillness of the monitored object is calculated. Update the background. (B) Obtain the degree of overlap of large areas other than the object to be monitored,
If it is larger than the predetermined value, the background is updated. (C) When the monitored object moves, a background image is created by masking that part, and the background is updated when the masked area disappears. Since the above process is performed, there is an advantage that stable monitoring can be performed even when the background changes.
【図1】この発明の実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.
【図2】差分・2値化画像と投影値との関係を説明する
ための説明図である。FIG. 2 is an explanatory diagram for explaining a relationship between a difference / binarized image and a projection value.
【図3】差分投影特徴量の1例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of a differential projection feature amount.
【図4】背景変化種類判定動作を示すフローチャートで
ある。FIG. 4 is a flowchart showing a background change type determination operation.
【図5】物体静止度判定動作を示すフローチャートであ
る。FIG. 5 is a flowchart showing an object stillness determination operation.
【図6】物体静止度判定の具体例を説明するための説明
図である。FIG. 6 is an explanatory diagram for describing a specific example of object stillness determination.
【図7】領域重複度判定の具体例を説明するための説明
図である。FIG. 7 is an explanatory diagram for describing a specific example of area overlapping degree determination.
【図8】総合判定動作を示すフローチャートである。FIG. 8 is a flowchart showing a comprehensive determination operation.
【図9】背景変動の種類と更新処理との関係を説明する
説明図である。FIG. 9 is an explanatory diagram illustrating a relationship between a type of background variation and update processing.
【図10】マスクされた背景画像間の埋め合わせ処理の
説明図である。FIG. 10 is an explanatory diagram of a padding process between masked background images.
1…撮像手段、2…監視画像メモリ、3…背景画像メモ
リ、4…差分・2値化手段、5…差分・2値化画像メモ
リ、6…投影手段、7…X投影値メモリ、8…Y投影値
メモリ、9…投影特徴抽出手段、10…投影特徴メモ
リ、11…背景変化種類判定手段、12…背景投影特徴
量辞書、13…物体抽出手段、16…対象物体位置対応
付け手段、17…対象物体静止度判定手段、18…変化
領域統合手段、19…統合された変化領域データ、20
…前フレームにおける統合された変化領域データ、21
…変化領域重複度判定手段、22…マスク画像作成手
段、23…背景変化総合判定手段、24…侵入検出・異
常判定手段、25…背景画像バッファ、26…背景更新
手段、B1…背景変化種類判定ブロック、B2…物体静
止判定ブロック。DESCRIPTION OF SYMBOLS 1 ... Imaging means, 2 ... Monitoring image memory, 3 ... Background image memory, 4 ... Difference / binarization means, 5 ... Difference / binarization image memory, 6 ... Projection means, 7 ... X projection value memory, 8 ... Y projection value memory, 9 ... Projection feature extraction means, 10 ... Projection feature memory, 11 ... Background change type determination means, 12 ... Background projection feature amount dictionary, 13 ... Object extraction means, 16 ... Target object position associating means, 17 ... Target object stillness determination means, 18 ... Change area integrating means, 19 ... Integrated change area data, 20
... Integrated change area data in previous frame, 21
... change area overlap degree judging means, 22 ... mask image creating means, 23 ... background change comprehensive judging means, 24 ... intrusion detection / abnormality judging means, 25 ... background image buffer, 26 ... background updating means, B1 ... background change type judgment Block, B2 ... Object stationary determination block.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 D (72)発明者 清水 晃 東京都日野市富士町1番地 富士ファコム システム株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Reference number within the agency FI Technical indication H04N 7/18 D (72) Inventor Akira Shimizu 1 Fujimachi, Hino-shi, Tokyo Fujifacom Systems Co., Ltd. Within
Claims (4)
像画像データを記憶する監視画像メモリと、背景画像を
記憶する背景画像メモリと、時系列の監視画像と背景画
像との差をとり2値化する差分・2値化手段と、その差
分・2値化画像を記憶する差分・2値化画像メモリとを
備え、差分・2値化画像から変化領域を抽出し、変化領
域の大きさ,形状,動きから監視対象物体を検知する画
像監視装置において、 前記差分・2値化画像の垂直,水平方向への各差分投影
値を求め、その特徴量を抽出する第1の抽出手段と、予
想される何通りかの背景画像の変動に対して、背景画像
の変化する領域や程度を差分投影値特徴量として学習
し、その結果を背景投影特徴量辞書として記憶する辞書
メモリと、前記監視画像の差分・2値化画像から得られ
た投影特徴量を背景投影特徴量辞書と比較し、それが予
想された種類の背景変化に属するものか,それ以外かを
判定する判定手段と、前記監視画像の差分・2値化画像
から監視対象物体を抽出する第2の抽出手段と、一定時
間内の背景変化および物体抽出結果に応じて背景更新を
行なう更新手段とを設け、背景が変動しても安定な監視
を可能にしてなることを特徴とする画像監視装置。1. An image pickup means for picking up a surveillance area, a surveillance image memory for storing imaged image data thereof, a background image memory for storing a background image, and a difference between a time-series surveillance image and the background image. The difference / binarization means for binarizing and the difference / binarized image memory for storing the difference / binarized image are provided, and the change area is extracted from the difference / binarized image, and the size of the change area is set. An image monitoring apparatus for detecting an object to be monitored from a shape and a motion, first extracting means for obtaining respective differential projection values in the vertical and horizontal directions of the differential / binarized image, and extracting a feature amount thereof, A dictionary memory that learns the area and degree of change of the background image as a difference projection value feature quantity in response to some expected changes in the background image, and stores the result as a background projection feature quantity dictionary; Obtained from image difference / binarized image And comparing the projected feature quantity with the background projected feature quantity dictionary to determine whether it belongs to an expected type of background change or not, and monitoring from the difference / binarized image of the monitoring image. A second extracting means for extracting the target object and an updating means for updating the background in accordance with the background change and the object extraction result within a fixed time are provided to enable stable monitoring even if the background changes. An image monitoring device characterized by.
に対し、時間的な物体位置の対応付けを行なう対応付け
手段と、その物体位置が物体抽出誤差の範囲内に静止し
ている度合いを静止度として算出する静止度算出手段
と、画像内に抽出された全監視対象物体について、静止
度が一定値以上の場合は静止した監視対象物体を含んで
背景を更新する第2の更新手段とを付加し、監視対象物
体が静止している場合に、その領域を含めて安定な監視
を可能にしてなることを特徴とする請求項1に記載の画
像監視装置。2. An associating unit for associating a temporal object position with an area extracted as the object to be monitored, and a degree that the object position is stationary within an object extraction error range is static. And a second updating unit for updating the background including the stationary monitoring target object when the stationary degree is a certain value or more for all the monitoring target objects extracted in the image. The image monitoring apparatus according to claim 1, wherein when the object to be monitored is stationary, stable monitoring is possible including the area of the object.
以外の変化領域について、監視対象物体以外の個々の変
化領域を、近接するより大きな領域に統合する領域統合
手段と、領域の時間的な重複度を算出する重複度算出手
段と、全領域について重複度が一定値以上の場合、その
領域は静止しているものと判断し、静止領域を含んで背
景を更新する第3の更新手段とを付加し、背景の変動と
も対象監視物体とも判断できない変化について、大きな
領域として静止状態が一定時間以上継続したときは背景
の更新を行ない、安定な監視を可能にしてなることを特
徴とする請求項2に記載の画像監視装置。3. An area integration unit for integrating individual changed areas other than the object to be monitored into a larger area adjacent to the changed area other than the area extracted as the object to be monitored, and temporal overlap of the areas. And a third updating means for updating the background including the still area when it is determined that the area is stationary when the overlapping degree is equal to or more than a certain value for all areas. In addition, for a change that cannot be determined as a background change or a target monitoring object, the background is updated when the stationary state continues for a certain period of time as a large area, and stable monitoring is possible. The image monitoring device according to 2.
はその領域を一定のサイズだけ膨張させてマスク領域を
作成する領域作成手段と、監視対象物体の時間的な移動
に従って複数のマスク領域の論理積演算を行ない、マス
ク領域が残っているか否かを判断する判断手段と、複数
枚のマスク付き背景画像からマスク領域を互いに埋め合
わせた背景画像を作成する背景画像作成手段とを付加
し、監視対象物体が時間的に移動している場合でも背景
の更新を行ない、安定な監視を可能にしてなることを特
徴とする請求項2に記載の画像監視装置。4. A region creating means for creating a mask region by expanding the extracted region of the monitoring target object or the region by a certain size, and a logic of a plurality of mask regions according to temporal movement of the monitoring target object. Addition of judgment means for performing a product operation to judge whether or not a mask area remains, and background image creating means for creating a background image in which mask areas are filled with each other from a plurality of background images with masks The image monitoring apparatus according to claim 2, wherein the background is updated even when the object is temporally moving to enable stable monitoring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6072923A JPH07262355A (en) | 1994-03-18 | 1994-03-18 | Image monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6072923A JPH07262355A (en) | 1994-03-18 | 1994-03-18 | Image monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07262355A true JPH07262355A (en) | 1995-10-13 |
Family
ID=13503368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6072923A Pending JPH07262355A (en) | 1994-03-18 | 1994-03-18 | Image monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07262355A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352340A (en) * | 2001-05-30 | 2002-12-06 | Hitachi Ltd | Image monitoring device |
JP2004355665A (en) * | 1998-01-07 | 2004-12-16 | Toshiba Corp | Object extracting apparatus |
JP2005004799A (en) * | 1998-01-07 | 2005-01-06 | Toshiba Corp | Object extraction apparatus |
JP2006098119A (en) * | 2004-09-28 | 2006-04-13 | Ntt Data Corp | Object detection apparatus, object detection method, and object detection program |
US7260241B2 (en) | 2001-06-12 | 2007-08-21 | Sharp Kabushiki Kaisha | Image surveillance apparatus, image surveillance method, and image surveillance processing program |
JP2008104130A (en) * | 2006-10-23 | 2008-05-01 | Hitachi Ltd | Video surveillance device and video surveillance system |
WO2009005141A1 (en) * | 2007-07-05 | 2009-01-08 | Nec Corporation | Object area detecting device, object area detecting system, and object area detecting method and program |
JP2009152748A (en) * | 2007-12-19 | 2009-07-09 | Mitsubishi Electric Corp | Image processing device for monitoring neglected object |
JP2009284230A (en) * | 2008-05-22 | 2009-12-03 | Secom Co Ltd | Suspicious object monitoring system |
WO2011013595A1 (en) * | 2009-07-29 | 2011-02-03 | 株式会社日立ハイテクノロジーズ | Particle image analysis device |
JP2011096072A (en) * | 2009-10-30 | 2011-05-12 | Mitsubishi Electric Corp | Device and program for detecting object |
JPWO2013161155A1 (en) * | 2012-04-23 | 2015-12-21 | 日本電気株式会社 | Image measuring apparatus, image measuring method, and image measuring program |
JP2016042328A (en) * | 2014-08-19 | 2016-03-31 | 株式会社岩崎電機製作所 | Position change detection device |
JP2016170502A (en) * | 2015-03-11 | 2016-09-23 | 株式会社東芝 | Moving body detection apparatus, moving body detection method and computer program |
KR102561566B1 (en) * | 2023-02-08 | 2023-08-01 | 주식회사 지성이엔지 | Artificial Intelligence- based video surveillance system and method |
-
1994
- 1994-03-18 JP JP6072923A patent/JPH07262355A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004355665A (en) * | 1998-01-07 | 2004-12-16 | Toshiba Corp | Object extracting apparatus |
JP2005004799A (en) * | 1998-01-07 | 2005-01-06 | Toshiba Corp | Object extraction apparatus |
JP2002352340A (en) * | 2001-05-30 | 2002-12-06 | Hitachi Ltd | Image monitoring device |
US7260241B2 (en) | 2001-06-12 | 2007-08-21 | Sharp Kabushiki Kaisha | Image surveillance apparatus, image surveillance method, and image surveillance processing program |
JP2006098119A (en) * | 2004-09-28 | 2006-04-13 | Ntt Data Corp | Object detection apparatus, object detection method, and object detection program |
JP2008104130A (en) * | 2006-10-23 | 2008-05-01 | Hitachi Ltd | Video surveillance device and video surveillance system |
KR101350777B1 (en) * | 2006-10-23 | 2014-01-15 | 가부시키가이샤 히타치세이사쿠쇼 | Image monitoring apparatus and system |
US8588466B2 (en) | 2007-07-05 | 2013-11-19 | Nec Corporation | Object area detection system, device, method, and program for detecting an object |
JP5115556B2 (en) * | 2007-07-05 | 2013-01-09 | 日本電気株式会社 | Object region detection apparatus, object region detection system, object region detection method, and program |
WO2009005141A1 (en) * | 2007-07-05 | 2009-01-08 | Nec Corporation | Object area detecting device, object area detecting system, and object area detecting method and program |
JP2009152748A (en) * | 2007-12-19 | 2009-07-09 | Mitsubishi Electric Corp | Image processing device for monitoring neglected object |
JP2009284230A (en) * | 2008-05-22 | 2009-12-03 | Secom Co Ltd | Suspicious object monitoring system |
WO2011013595A1 (en) * | 2009-07-29 | 2011-02-03 | 株式会社日立ハイテクノロジーズ | Particle image analysis device |
JP2011096072A (en) * | 2009-10-30 | 2011-05-12 | Mitsubishi Electric Corp | Device and program for detecting object |
JPWO2013161155A1 (en) * | 2012-04-23 | 2015-12-21 | 日本電気株式会社 | Image measuring apparatus, image measuring method, and image measuring program |
JP2016042328A (en) * | 2014-08-19 | 2016-03-31 | 株式会社岩崎電機製作所 | Position change detection device |
JP2016170502A (en) * | 2015-03-11 | 2016-09-23 | 株式会社東芝 | Moving body detection apparatus, moving body detection method and computer program |
KR102561566B1 (en) * | 2023-02-08 | 2023-08-01 | 주식회사 지성이엔지 | Artificial Intelligence- based video surveillance system and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3123587B2 (en) | Moving object region extraction method using background subtraction | |
JPH07262355A (en) | Image monitoring device | |
US6931146B2 (en) | Method and apparatus for detecting moving object | |
US5554983A (en) | Object recognition system and abnormality detection system using image processing | |
US6088468A (en) | Method and apparatus for sensing object located within visual field of imaging device | |
US8189049B2 (en) | Intrusion alarm video-processing device | |
AU2008213586B2 (en) | Behavioral recognition system | |
JP4104867B2 (en) | Night vision system | |
JP6385419B2 (en) | Object detection device | |
US20080181499A1 (en) | System and method for feature level foreground segmentation | |
JP2000090277A (en) | Reference background image updating method, intruding object detecting method, and intruding object detecting device | |
JP2004303219A (en) | Vehicle surrounding monitoring device | |
JPH05181970A (en) | Moving image processor | |
US5963272A (en) | Method and apparatus for generating a reference image from an image sequence | |
JP3377659B2 (en) | Object detection device and object detection method | |
JP4025007B2 (en) | Railroad crossing obstacle detection device | |
JP3294468B2 (en) | Object detection method in video monitoring device | |
CN112507757B (en) | Vehicle behavior detection method, device and computer readable medium | |
JPH05300516A (en) | Animation processor | |
JPH0514891A (en) | Image monitor device | |
JP2004208209A (en) | Device and method for monitoring moving body | |
JPH08122197A (en) | Method and equipment for detecting leakage by image | |
JP2022131761A (en) | False positive determination device, method, and program | |
JPH05183901A (en) | Moving body monitor device | |
CN114821795B (en) | Personnel running detection and early warning method and system based on ReiD technology |