[go: up one dir, main page]

JPS61153774A - Moving object image extraction method and device - Google Patents

Moving object image extraction method and device

Info

Publication number
JPS61153774A
JPS61153774A JP59280614A JP28061484A JPS61153774A JP S61153774 A JPS61153774 A JP S61153774A JP 59280614 A JP59280614 A JP 59280614A JP 28061484 A JP28061484 A JP 28061484A JP S61153774 A JPS61153774 A JP S61153774A
Authority
JP
Japan
Prior art keywords
image
pixel
moving object
background
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59280614A
Other languages
Japanese (ja)
Other versions
JPH0614358B2 (en
Inventor
Atsushi Kawabata
敦 川端
Shinya Tanifuji
真也 谷藤
Yasuo Morooka
泰男 諸岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP59280614A priority Critical patent/JPH0614358B2/en
Publication of JPS61153774A publication Critical patent/JPS61153774A/en
Publication of JPH0614358B2 publication Critical patent/JPH0614358B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は動画像処理に係夛、特に実時間で連続的に入力
される動画像から、移動している物体像を抽出する処理
に好適な移動物体像を抽出する方法に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to moving image processing, and is particularly suitable for extracting moving object images from moving images that are continuously input in real time. This invention relates to a method for extracting a moving object image.

〔発明の背景〕[Background of the invention]

従来の移動物体像に関する画像処理装置は、連続して入
力される動画像の各画素に関する時間微分あるいFi類
似の演算により得られた値を利用して処理を行っていた
。電子回路によ少時間微分めるいは類似の演算を実行す
ることに、回路構成が簡単になり極めて高速に行なう事
が可能である。
Conventional image processing apparatuses for images of moving objects perform processing using values obtained by time differentiation or calculations similar to Fi for each pixel of continuously input moving images. By using an electronic circuit to perform short time differentiation or similar operations, the circuit configuration can be simplified and the operation can be performed at extremely high speed.

しかし時間微分あるいは類似の演算によって得られた値
のみから、移動物体の像を抽出する事は、困難である。
However, it is difficult to extract an image of a moving object only from values obtained by time differentiation or similar calculations.

例えば、無地の背景の前で、円形の領域が移動した場合
、進行方向の前部と後部に符号の異なつ九三ケ月形の領
域が、出力されるがこの情報により円形の領域を抽出す
る事は、困難である。
For example, if a circular area moves in front of a plain background, a 93-moon-shaped area with different signs at the front and rear in the direction of movement will be output, but it is difficult to extract the circular area using this information. It is difficult.

又別の方法としては従来、撮像素子から得られた儂を記
憶装置に一旦蓄えて次に記憶装置から一枚ずつ画像を取
シ出し、各画像間の対応点を算出するごとによって移動
物体[−抽出するという方法が行なわれている。この方
法で対応点が見つかる場合には、それの移動量を正確に
算出するので、正確に移動物体像を抽出することができ
るが、その処理に要する時間は長くなる。また、物体の
回転、変形等がある場合には、対応点を検出する事が非
常に難しくなる。
Another method has conventionally been to temporarily store the images obtained from the image sensor in a storage device, then take out the images one by one from the storage device, and calculate the corresponding points between each image to identify the moving object [ - Extraction method is used. When a corresponding point is found using this method, the amount of movement thereof is accurately calculated, so a moving object image can be extracted accurately, but the time required for the processing becomes long. Furthermore, if the object is rotated or deformed, it becomes very difficult to detect corresponding points.

その他にも、あらかじめ移動物体の像が含まれない背景
だけの像を、装置内に記憶しておき、連続的に入力され
る像と背景像とを比較する事によって移動物体像を抽出
する方法が知られている。
Another method is to store in advance an image of only the background that does not include the moving object image in the device, and then extract the moving object image by comparing the continuously input image with the background image. It has been known.

この方法は、背景が変化する場合には全く使用する事が
できない。特開昭59−8087は、背景像を更新する
機構についても述べている。これは移動物体の像が含ま
れていない瞬間の儂を次々に装置内に取り込みそれを背
景像として記憶するものである。これは背景の時間的に
ゆるやかな変化を、誤って移動物体像としな一工夫があ
る。しかしこの方法では、例えば常に移動物体が撮像範
囲内に存在すれば、背景の更新は一切行なわれないし、
瞬間的に背景が大きく変化した場合などには、対応する
事ができない。また関連公知例としては「情報処理J 
(Vo 1−21.A6.June1980)がある。
This method cannot be used at all if the background changes. JP-A-59-8087 also describes a mechanism for updating the background image. This is to sequentially capture instantaneous images that do not include images of moving objects into the device and store them as background images. This is an ingenious way to falsely interpret gradual temporal changes in the background as an image of a moving object. However, with this method, if a moving object is always present within the imaging range, the background will not be updated at all.
It is not possible to respond to cases where the background changes significantly instantaneously. In addition, related public knowledge examples include “Information Processing J.
(Vo 1-21. A6. June 1980).

〔発明の目的〕[Purpose of the invention]

本発明の目的は、撮像素子から得られる動画像から実時
間で高精度に、移動物体像を抽出する事のできる、画像
処理方法を提供することにある。
An object of the present invention is to provide an image processing method that can extract a moving object image in real time and with high precision from a moving image obtained from an image sensor.

〔発明の概要〕[Summary of the invention]

本発明は撮像素子から得られる動画像の不変な部分、も
しくはゆつくシと変化する特徴成分をとらえて、それを
背景の特徴量として記憶し、前記背景の記憶データと時
々刻々入力される画像の特徴量を比較することにより、
移動物体に関する情報を抽出するようにしたものである
The present invention captures a constant part or a slowly changing feature component of a moving image obtained from an image sensor, stores it as a background feature amount, and combines the stored data of the background with an image that is input from time to time. By comparing the features of
This is designed to extract information about moving objects.

〔発明の実施例〕[Embodiments of the invention]

以下本発明の一実施例を詳細に説明する。 An embodiment of the present invention will be described in detail below.

第1図に本発明を電子回路で実現した場合の、ブロック
図を示す。図示した矢線は、データの流れのみを示し、
制御線は省略する。先ず全構成要素の意味を説明してか
ら、その詳細な働きを述べる。
FIG. 1 shows a block diagram when the present invention is implemented using an electronic circuit. The illustrated arrows only indicate the flow of data;
Control lines are omitted. First, we will explain the meaning of all the components, and then explain their detailed functions.

101は、背景中に移動物体を含んだ所定撮像範囲を捉
える撮像素子でおり、102は図示していないA/D変
換器でディジタル信号に変換された画像データを1フレ
一ム分だけ記憶する画像記憶装置であり、103は10
2に記憶した画像の特徴を抽出する機構で、ここでは特
に102に記憶した画像のエツジ強調像を出力する機構
でめシ、104は103から出力されるエツジ強調像を
1フレ一ム分だけ蓄える画像記憶装置であり、105は
背景にあ走る画像のエッジ強調像t−17レー五分だけ
蓄える画像記憶装置であシ、106は、104.105
に記憶した2つの画像の対応画素を比較し移動物体の儂
に関する情報を出力すると同時に、105の記憶データ
の更新を行う機構であシ、107は106が出力した情
報に基づき102から移動物体の儂だけを抽出する機構
である。
101 is an image sensor that captures a predetermined imaging range including a moving object in the background, and 102 stores one frame of image data converted into a digital signal by an A/D converter (not shown). It is an image storage device, and 103 is 10
2 is a mechanism for extracting the features of the image stored in 102. Here, 104 is a mechanism for outputting an edge-enhanced image of the image stored in 102, and 104 is a mechanism for extracting the edge-enhanced image output from 103 for one frame. 105 is an image storage device for storing the edge-enhanced image of the image running in the background, 106 is an image storage device for storing 5 minutes of the edge-enhanced image t-17, and 106 is 104.105
107 is a mechanism that compares corresponding pixels of two images stored in , and outputs information regarding me of the moving object, and at the same time updates the stored data of 105 . It is a mechanism that extracts only me.

第1図においてlaは撮像素子からの出力で、通常めビ
デオ信号であり、1bは入力画像のディジタル信号で特
徴抽出機構103へ1画素ずつ順次転送されるデータで
5JJtcは入力画像データ1bのエツジ強調像に関す
る、1画素ずつ順次転送されるデータでろD、idは画
像記憶装置104に記憶したエツジ強調像に関する、1
画素ずつ順次転送されるデータでToシ、leは画像記
憶装置105に記憶した背景のエツジ強調像に関する、
1画素ずつIFL次転送されるデータであシ、Ifは1
06によって更新された背景のエツジ強調像に関する1
画素ずつ順次転送されるデータであシ、1gは移動物体
像に関する情報で、1画素ずつ順次転送されるon−o
ff信号であシ、1hは入力画像に関する1画素ずつ順
次転送されるデータでめJ)、1’は、移動物体像に関
する、1画素ずつ順次転送されるディジタル信号である
In FIG. 1, la is the output from the image sensor and is a normal video signal, 1b is the digital signal of the input image and data is sequentially transferred pixel by pixel to the feature extraction mechanism 103, and 5JJtc is the edge of the input image data 1b. The data related to the enhanced image is sequentially transferred pixel by pixel.D, id is 1 related to the edge enhanced image stored in the image storage device 104.
In the data that is sequentially transferred pixel by pixel, Toshi and Le relate to the background edge-enhanced image stored in the image storage device 105.
The data is transferred pixel by IFL, and If is 1.
1 regarding the background edge-enhanced image updated by 06
It is data that is transferred sequentially pixel by pixel. 1g is information about the moving object image, and on-o data is transferred sequentially pixel by pixel.
ff signal, 1h is data related to the input image that is sequentially transferred pixel by pixel, and 1' is a digital signal related to the moving object image that is sequentially transferred pixel by pixel.

第2図、201,202,203に示す様な情景を撮像
素子101が捉えた場合、処理が行なわれてそれぞれの
エツジ強調像が104に蓄えられる。105には背景の
エツジ強調像204が蓄えられでいる。比較機構106
が、201,202゜203と、204を比較し、その
差異を検出することによって、201,202,203
において、移動物体が占めている場所に関する情報が出
力される。107H1その情報を基にして、201゜2
02.203から移動物体像205,206゜207t
−出力する。
When the image sensor 101 captures scenes such as those shown at 201, 202, and 203 in FIG. 105 stores an edge-enhanced image 204 of the background. Comparison mechanism 106
However, by comparing 201, 202, 203, and 204 and detecting the difference, 201, 202, 203
At , information regarding the location occupied by the moving object is output. 107H1 Based on that information, 201゜2
Moving object image 205, 206° 207t from 02.203
- Output.

次に細部の構造及び動作の説明を行う。撮像素子101
は画像を捉え、通常のビデオ信号を102に出力する。
Next, detailed structure and operation will be explained. Image sensor 101
captures images and outputs a normal video signal to 102.

捉えた画像には、静止した背景中に移動物体が含まれて
いる。
The captured image contains a moving object in a static background.

画像記憶装置102t!、101より入力されたビデオ
信号を、図示していないA/D変換器に通してディジタ
ル値に変換した後に、その値t−1画面分だけ蓄える通
常の記憶装置である。
Image storage device 102t! , 101 is passed through an A/D converter (not shown) to convert it into a digital value, and then the digital value is stored for t-1 screens.

特徴抽出機構103は、102から順次画ネデータを取
シ込み、エツジを強調し九後その結果を104に順次蓄
える。人間が物体を認識する際に、輪郭線が非常に大き
な役割シを果す事が心理学の分野に於て一般に知られて
いるが、103はこの知見に基づいて設置した物でアシ
、移動物体の像を抽出する時に、輪郭線が脱落するのを
、防ぐ効果がめる。画像処理の分野では輪郭(明るさが
空間的に急激に変化している部分)を強調するために、
従来よシ第3図(b)に示す様な空間フィルタが用いら
れている。第3図の各数値は畳み込み積分の係数を表わ
している。一般に物体の境界では明るさが急激に変化し
ておシ、その付近でこのフィルタを適用すると、畳み込
み積分の値は正または負の大きな値になる。また物体内
部では明るさがゆつくシと変化しているので畳み込み積
分の出力は零に近い値となる。102に記憶された画像
データの全画素の回シでこの畳み込み演算を、行うこと
により輪郭線の強調が可能になる。しかしながら本発明
の扱うような動画像を扱う場合には、第3図(b)の空
間フィルタでは次のような問題が発生する。
A feature extraction mechanism 103 sequentially imports image data from 102, emphasizes edges, and then sequentially stores the results in 104. It is generally known in the field of psychology that contour lines play a very large role when humans recognize objects, and 103 was installed based on this knowledge. This has the effect of preventing contour lines from falling off when extracting an image. In the field of image processing, in order to emphasize contours (areas where brightness changes rapidly spatially),
Conventionally, a spatial filter as shown in FIG. 3(b) has been used. Each numerical value in FIG. 3 represents a coefficient of the convolution integral. Generally, the brightness changes rapidly at the boundary of an object, and when this filter is applied near that boundary, the value of the convolution integral becomes a large positive or negative value. Furthermore, since the brightness changes slowly inside the object, the output of the convolution integral will have a value close to zero. By performing this convolution operation on all pixels of the image data stored in 102, it becomes possible to emphasize the outline. However, when handling moving images such as those handled by the present invention, the following problem occurs with the spatial filter shown in FIG. 3(b).

(1)  フレーム間の同期信号のズレにより画像には
しばしば1画素程度のズレが生ずる。このため第3図(
b)で処理した輪郭像には、このフレーム間同期ズレに
よる位置の変化が発生し、本来静止しているはずの背景
像の輪郭線が変動しているかのように誤認識されてしま
う。
(1) A shift of about one pixel often occurs in images due to a shift in synchronization signals between frames. For this reason, Figure 3 (
In the contour image processed in b), a change in position occurs due to the synchronization difference between frames, and the contour line of the background image, which is supposed to be stationary, is erroneously recognized as if it were fluctuating.

e) 画像には6稽の要因により孤立した1画素にノイ
ズが重畳されているが、第3図(b)のフィルタは、こ
のノイズを強調するように作用する。
e) Noise is superimposed on an isolated pixel in the image due to six factors, but the filter shown in FIG. 3(b) acts to emphasize this noise.

(3)  第3図(b)の空間フィルタt−102の画
像データに適用して得られる輪郭線強調画像には移動物
体の輪郭線は含まれるが、輪郭線以外の情報は脱落して
しまう。
(3) The contour-enhanced image obtained by applying the spatial filter t-102 in Fig. 3(b) to the image data includes the contour of the moving object, but information other than the contour is dropped. .

本発明は、フィルタの出力である輪郭線強調画像から得
られる情報に基づいて移動物体の像を抽出するものであ
るが、輪郭線以外の情報が脱落してしまったのでは、移
動物体全体の像(濃淡画像)そのものを抽出するという
本発明の目的には、そぐわない。第3図(C)の様に畳
み込み係数の広がシの大きな空間フィルタを用いれば、
画像のズレや孤立したノイズの影響を小さくする事はで
きるが、(3)の移動体の輪郭線内部情報の脱落は、改
善できない。そこで本発明では動画像において移動体儒
金抽石するのに適したフィルタとして、第3図(a)に
示したような空間フィルタを適用している。第3図(a
)のフィルタでは先ず第3図(C)と同様くい画像のフ
レーム間同期や孤立ノイズ対策として重み係数の広が夛
を第3図(b)K比べて大きくシ比。さらに、輪郭線以
外の情報つまり画像の濃淡値に関する情報が脱落しない
ように1中心部の係数を大きくした。第3図(a)のフ
ィルタは、輪郭線以外の場所では、その場所の濃淡値を
反映した値を出力する。空間フィルタの演算装置は、1
6個の掛は算器を備えておシ画像に対する16近傍の積
和演算を高速に実行する。
The present invention extracts an image of a moving object based on information obtained from a contour-enhanced image, which is the output of a filter. This is not suitable for the purpose of the present invention, which is to extract the image (shaded image) itself. If a spatial filter with a large spread of convolution coefficients is used as shown in Figure 3(C),
Although it is possible to reduce the effects of image shifts and isolated noise, it is not possible to improve (3) the loss of information inside the outline of a moving body. Therefore, in the present invention, a spatial filter as shown in FIG. 3(a) is applied as a filter suitable for extracting movable objects in moving images. Figure 3 (a
), first of all, as in Fig. 3(C), the weighting coefficients are spread out to prevent inter-frame synchronization and isolated noise in images with a large contrast compared to Fig. 3(b) K. Furthermore, the coefficient at the center was increased so that information other than the contour line, that is, information regarding the gradation value of the image, would not be lost. The filter shown in FIG. 3(a) outputs values that reflect the gradation values of the locations other than the contour line. The spatial filter calculation device is 1
The six multipliers are equipped with multipliers and perform sum-of-products operations on 16 neighboring images at high speed.

第1図中の画像記憶装置104は、103から出力され
る、102のエツジ強調像t−1画面分だけ蓄える記憶
装置である。
An image storage device 104 in FIG. 1 is a storage device that stores 102 edge-enhanced images output from 103 for t-1 screens.

同様に第1図中の画像記憶装置105は、エツジ強調像
を1画面分だけ蓄える、通常の記憶装置である。104
には背景と移動物体で構成されている入力画像のエツジ
強調像が蓄えられ、iosには背景だけで構成されてい
る画像のエツジ強調像が蓄えられている。
Similarly, the image storage device 105 in FIG. 1 is a normal storage device that stores edge-enhanced images for one screen. 104
stores an edge-enhanced image of an input image consisting of a background and a moving object, and stores an edge-enhanced image of an input image consisting only of a background in ios.

第1図中の比較及び背景のエツジ強調像更新機構106
は、104の各画素を105に記憶した背景像の対応画
素と比較して、移動物体像に関する情報を出力する機構
と、105に記憶した背景像を104の画像を基にして
更新する機能を有する。106Fi104,105から
対応する画素を順次入力し各画素ごとに差を計算し、そ
の差が、ある値0以上である場合、その画素は、104
において移動物体像を構成し、その差が、ある値θに満
たない場合に、その画素は104において背景像を構成
していると判定し、その判定結果を107に出力する。
Comparison and background edge-enhanced image updating mechanism 106 in FIG.
has a mechanism for comparing each pixel of 104 with the corresponding pixel of the background image stored in 105 and outputting information regarding the moving object image, and a function of updating the background image stored in 105 based on the image of 104. have 106Fi sequentially input corresponding pixels from 104 and 105, calculate the difference for each pixel, and if the difference is a certain value 0 or more, the pixel is 104
A moving object image is formed in 104 , and if the difference therebetween is less than a certain value θ, it is determined in 104 that the pixel constitutes a background image, and the determination result is outputted in 107 .

又106は、104と105の各画素に関する荷重平均
値を、新7’[105の値とする事によって%”f□背
景のエツジ強調像を形成し九シあるいは更新したシする
。背景のエツジ強調像が、形成される様子を第4図に示
す。401゜402.403は入力画像のエツジ強調像
を示し、404.405,406,407は、背景のエ
ツジ強調像が形成される様子を示している。最初、背景
Oxyジ強調像を蓄える画像記憶装置は、クリアされて
いるものとする。猫と家を含む入力画像401が入力さ
れると、それの像が404の様に少しだけ背景像として
記憶される。次に鳥と家を含む入力画像402が入力さ
れると、背景像においては405の様に、引き続き存在
している家の像は、強調され、鳥の像は少しだけ記憶さ
れ、今回は存在しない猫の儂が、弱まっている。同様に
人と家を含む入力画像403が入力され九場合、家の像
はさらに強調される。最終的に、背景のニジ強調像とし
て407が形成される。第1図106の詳細図を第5図
に示す。差演算器501は、104.105から得られ
た画素データld。
In addition, 106 forms an edge-enhanced image of the background by setting the weighted average value for each pixel of 104 and 105 to the new value of 7'[105. Figure 4 shows how the emphasized images are formed. 401, 402, and 403 show the edge-enhanced images of the input image, and 404, 405, 406, and 407 show how the edge-enhanced images of the background are formed. It is assumed that the image storage device that stores the background Oxy-enhanced image is initially cleared.When an input image 401 containing a cat and a house is input, the image is slightly changed as shown in 404. It is stored as a background image.Next, when an input image 402 containing a bird and a house is input, the house image that continues to exist in the background image is emphasized as shown in 405, and the bird image is slightly The image of the cat, which does not exist this time, is weakened.Similarly, when an input image 403 containing people and a house is input, the image of the house is further emphasized.Finally, the background rainbow is emphasized. An image 407 is formed.A detailed view of the image 106 in FIG. 1 is shown in FIG.

1eの差を演算し、502に出力(5a)する機構であ
る。比較器502は、差演算器501からの出力511
と、あらかじめ設定された値0との大小比較を行ない、
例えばθの方が大きい場合には0を、等しいか小さい場
合には1を出力する。掛は算器503は、105から得
られた画素データと、あらかじめ設定しである値(2”
−1)との掛は算を行い、結果を504に出力(5d)
する。
This is a mechanism that calculates the difference of 1e and outputs it to 502 (5a). The comparator 502 receives the output 511 from the difference calculator 501.
is compared with the preset value 0,
For example, if θ is larger, 0 is output, and if θ is equal or smaller, 1 is output. A multiplier 503 multiplies the pixel data obtained from 105 and a preset value (2”
-1) is calculated and the result is output to 504 (5d)
do.

加算器504は、104から得られた画素データ1dと
、掛は算器503かもの出力5dを加算し、結果を50
5に出力(5e)する。nビットシフタ505は、加算
器504からの出力をあらかじめ設定しである値nビッ
トだけ右にシフトし、結果を105に出力(1f)する
。記憶装置制御機構506は、104,105に対する
読み書きが正しく行なわれる様に、アドレス線、制御線
を制御する機構である。動作方法は、まず506がsg
、sht通して104,105に対して処理すべき画素
のアドレスを出力し、104,105を読み出し状態に
おく。対応する画素のデータはそれぞれld、1et″
通して入力され、soi。
The adder 504 adds the pixel data 1d obtained from 104 and the output 5d of the multiplier 503, and divides the result into 50
5 (5e). The n-bit shifter 505 shifts the output from the adder 504 to the right by a preset value n bits, and outputs the result to 105 (1f). A storage device control mechanism 506 is a mechanism that controls address lines and control lines so that reading and writing to and from 104 and 105 are performed correctly. The operation method is first that 506 is sg
, sht to output the address of the pixel to be processed to 104 and 105, and put 104 and 105 in a read state. The corresponding pixel data are ld and 1et'', respectively.
entered through soi.

502で処理された後107に対して、1gt−通して
Oか1が出力されると同時に、画素データが503.5
04,505で処理される。506は、前記のアドレス
を出力したまま、適当な時期を見計らって105を書き
込み状態に置く。この結果、Ifを通して105を下式
で示す様に更新する事ができる。
After being processed in 502, O or 1 is output through 1gt for 107, and at the same time, the pixel data becomes 503.5.
Processed at 04,505. 506 puts 105 in a writing state at an appropriate time while outputting the address. As a result, 105 can be updated through If as shown in the formula below.

ここで s L I IF (x= y) :座標(x、y)に
おける更新され九背景のエツジ強調像に関する画素デ ータ BK*ta(XtY):座標(x、y)における更新前
の背景のエツジ強調像に関する画素デー タ I(xey):座標(xey)における、入力画像のエ
ツジ強調像に関する画素データ n :あらかじめ設定した値 又、1gtAして出力しているデータが、どの画素に対
応するのかを示すアドレス情報が、5ft−通して出力
される。以上の動作が、1画面分繰り返して行なわれる
Here, s L I IF (x = y): Pixel data regarding the edge-enhanced image of the updated background at the coordinates (x, y) BK*ta (XtY): Edge of the background before updating at the coordinates (x, y) Pixel data related to the enhanced image I (xey): Pixel data related to the edge enhanced image of the input image at the coordinate (xey) n: A preset value. Also, specify which pixel the data output after 1gtA corresponds to. The address information shown is output through 5ft. The above operation is repeated for one screen.

第1図107は106から出力された情報1gをもとに
して、102における移動物体の像を形成している画素
データだけを外部に出力する機構である。詳細を第6図
に示す。601は情報選択機構であり、106から人力
される。移動体に関する情報1gt”基にして、入力画
像102を外部に出力するか、あるいはOt−外部に出
力するかを決定する機構である。5fは、処理中の画素
のアドレス情報と、画像記憶機構102を制御するため
の信号を含む。
107 is a mechanism for outputting only the pixel data forming the image of the moving object at 102 to the outside based on the information 1g output from 106. Details are shown in FIG. 601 is an information selection mechanism, which is manually operated from 106. This is a mechanism that determines whether to output the input image 102 to the outside or to the outside based on the information 1gt'' about the moving body. 5f is the address information of the pixel being processed and the image storage mechanism. 102.

106は、5fを通して処理中の画素に関するアドレス
情報を出力し、lO2を読み出し状態に置く。102は
、指定された画素のデータt−ihを通して出力する。
106 outputs address information regarding the pixel being processed through 5f and places lO2 in a read state. 102 outputs data of the designated pixel through data t-ih.

106106H1I通してlか0の信号を出力し、60
1は1gを通して1が入力された場合102からの画素
データt、1gt’通して0が入力された場合、0を出
力する。最終的には、外部に処理中の、つまり現在出力
されている画素に関するアドレス情報と、移動物体像の
みを含む画像データを出力する事ができる。
Outputs l or 0 signal through 106106H1I, 60
1 outputs pixel data t from 102 when 1 is input through 1g, and 0 is output when 0 is input through 1gt'. Ultimately, it is possible to output to the outside image data that includes only address information regarding pixels that are being processed, that is, currently being output, and an image of a moving object.

第7図に、全体の処理時間を短縮する事のできる構成を
示す。矢線はデータの流れのみを示し、制御線は省略す
る。
FIG. 7 shows a configuration that can shorten the overall processing time. Arrows indicate only the flow of data, and control lines are omitted.

101よシ出力される輝度に関するアナログ値を図示し
ていないA/Dコンバータに逸してディジタル値に変換
した後、102に順次蓄える際に、同時にそのデータを
103にも出力し、並行してエツジ強調処理を行う。更
に103から順次出力される画素データと直接106に
入力し、その画素データとそれに対応する105の画素
データを順次入力し各画素ごとに差を計算すると同時に
、各画素ごとに荷重平均を計算する事によって、移動物
体像に関する情報を出力すると同時に、105七更新す
る事ができる。
After converting the analog value related to luminance outputted from 101 into a digital value by an A/D converter (not shown) and storing it in sequence in 102, the data is simultaneously outputted to 103 and stored in parallel with the edge. Performs emphasis processing. Furthermore, the pixel data sequentially output from 103 is directly input to 106, and the pixel data and the corresponding pixel data of 105 are input sequentially, and the difference is calculated for each pixel, and at the same time, the weighted average is calculated for each pixel. Depending on the situation, the information regarding the moving object image can be updated 1057 at the same time as being output.

以上により第1図に示された物に比べて処理時間の短縮
された移動物体像を抽出する画像処理装置を構成する事
ができる。
As described above, it is possible to construct an image processing apparatus that extracts a moving object image in a shorter processing time than that shown in FIG.

本実施例によれば、電気回路を用いた移動物体像のみを
抽出する事のできる画像処理装置を構成する事ができる
According to this embodiment, it is possible to configure an image processing device that can extract only a moving object image using an electric circuit.

〔発明の効果〕〔Effect of the invention〕

以上述へた様に本発明によれば、処理内容が簡単である
ために、大型計算機等の大がかシな装置を使用す石′こ
となく、かつ高速に移動物体の像を抽出する事ができる
ので、移動物体に関する画像処理あるいは、移動物体の
認識等の前処理として利用する事ができる。
As described above, according to the present invention, since the processing content is simple, images of moving objects can be extracted at high speed without the need for using large-scale equipment such as large-scale computers. Therefore, it can be used as preprocessing for image processing related to moving objects or recognition of moving objects.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例を示すブロック図、第2図は、
入力画像から移動物体像が抽出される様子を示す画面図
、第3図はエツジ強調を行う際に用いた空間フィルタの
係数、第4図は背景像が形成される様子を示す画面図、
第5図は第1図106の詳細図、第6図は107の詳細
図、第7図は、第1図の実施例の処理速度を速くした場
合のブロック図である。 101・・・撮偉素子、102・・・入力画像記憶装置
、103・・・エツジ強調機構、104・・・エツジ強
調像記憶装置、105・・・背景のエツジ強調像記憶装
置、106・・・比較機構及び背景のエツジ強調像更新
機構、107・・・移動物体像抽出機構。 11 図 72図 2に3  図 (σ、) /4ノ               CCJ畜4 図 fiis図 I1図
FIG. 1 is a block diagram showing an embodiment of the present invention, and FIG. 2 is a block diagram showing an embodiment of the present invention.
A screen diagram showing how a moving object image is extracted from an input image, FIG. 3 is a spatial filter coefficient used for edge enhancement, and FIG. 4 is a screen diagram showing how a background image is formed.
FIG. 5 is a detailed view of 106 in FIG. 1, FIG. 6 is a detailed view of 107, and FIG. 7 is a block diagram of the embodiment shown in FIG. 1 when the processing speed is increased. 101... Image pickup element, 102... Input image storage device, 103... Edge enhancement mechanism, 104... Edge enhanced image storage device, 105... Background edge enhanced image storage device, 106... Comparison mechanism and background edge-enhanced image updating mechanism, 107...Moving object image extraction mechanism. 11 Fig. 72 Fig. 2 to 3 Fig. (σ,) /4 no CCJ animal 4 Fig. fiis Fig. I1 Fig.

Claims (1)

【特許請求の範囲】 1、連続して入力される画像データから移動物体像を抽
出する方法において、 入力される画像に対しあらかじめ背景画像の特徴量を記
憶し、 前記入力される画像データと前記記憶されている背景特
徴量との差を演算し、 該演算された差の信号を用いて移動物体像を抽出処理し
、 前記入力される現画像データとすでに入力され現画像デ
ータに対しあらかじめ定められた数だけ前に入力された
画像データとの差を演算し、該演算された差の信号があ
らかじめ設定された値よりも小さい部分については前記
入力画像の特徴量と前記背景画像の特徴量の荷重平均値
により前記背景の特徴量を修正して次入力画像の背景特
徴量とし、 移動物体像を抽出することを特徴とする移動物体像抽出
方法。 2、前記特許請求の範囲第1項記載において、前記入力
画像の特徴量としてエッジ部を強調した画像を用いるこ
とを特徴とする移動物体像抽出方法。 3、前記特許請求の範囲第1項記載において入力画像と
記憶画像を各画素毎に比較し、その差信号によつて形成
される画像を出力し、前記入力画像と記憶画像を各画素
毎に荷重平均して形成される画像を新たな記憶画像とす
ることを特徴とする移動物体像抽出方法。 4、前記特許請求の範囲第3項記載において入力画像と
記憶画像を各画素毎に比較し、その差信号によつて形成
される画像を出力するとともに、該出力画像の画素毎に
その信号値をα倍(α<1)して、前記記憶画像の該当
画素信号に加算し、新たな記憶背景画像とすることを特
徴とする移動物体画像抽出方法。
[Claims] 1. In a method for extracting a moving object image from continuously inputted image data, the feature amount of a background image is stored in advance for the inputted image, and the inputted image data and the Calculates the difference between the stored background feature amount, extracts a moving object image using the calculated difference signal, and performs a predetermined process on the input current image data and the already input current image data. The difference between the input image data and the previously inputted image data is calculated, and for portions where the calculated difference signal is smaller than a preset value, the feature amount of the input image and the feature amount of the background image are calculated. A moving object image extraction method comprising: correcting the background feature amount using a weighted average value of , and using the background feature amount as the background feature amount of the next input image, and extracting a moving object image. 2. A moving object image extraction method as set forth in claim 1, characterized in that an image with emphasized edges is used as the feature quantity of the input image. 3. In claim 1, the input image and the stored image are compared pixel by pixel, an image formed by the difference signal is output, and the input image and the stored image are compared pixel by pixel. A moving object image extraction method characterized in that an image formed by weighted averaging is used as a new stored image. 4. In claim 3, the input image and the stored image are compared pixel by pixel, and an image formed by the difference signal is output, and the signal value is calculated for each pixel of the output image. A moving object image extraction method characterized in that the pixel signal is multiplied by α (α<1) and added to the corresponding pixel signal of the stored image to obtain a new stored background image.
JP59280614A 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image Expired - Lifetime JPH0614358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59280614A JPH0614358B2 (en) 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59280614A JPH0614358B2 (en) 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image

Publications (2)

Publication Number Publication Date
JPS61153774A true JPS61153774A (en) 1986-07-12
JPH0614358B2 JPH0614358B2 (en) 1994-02-23

Family

ID=17627491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59280614A Expired - Lifetime JPH0614358B2 (en) 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image

Country Status (1)

Country Link
JP (1) JPH0614358B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0740303B2 (en) * 1986-07-15 1995-05-01 バール テクノロジイズ インコーポレイティド Motion detection apparatus and method responsive to edge information contained in a television signal
JP2006302115A (en) * 2005-04-22 2006-11-02 Fujitsu Ltd Object detection method and object detection apparatus
JP2010277547A (en) * 2009-06-01 2010-12-09 Chuo Electronics Co Ltd Congestion situation detecting device, method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598087A (en) * 1982-07-06 1984-01-17 Nec Corp Extractor for subject of recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598087A (en) * 1982-07-06 1984-01-17 Nec Corp Extractor for subject of recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0740303B2 (en) * 1986-07-15 1995-05-01 バール テクノロジイズ インコーポレイティド Motion detection apparatus and method responsive to edge information contained in a television signal
JP2006302115A (en) * 2005-04-22 2006-11-02 Fujitsu Ltd Object detection method and object detection apparatus
JP2010277547A (en) * 2009-06-01 2010-12-09 Chuo Electronics Co Ltd Congestion situation detecting device, method, and program

Also Published As

Publication number Publication date
JPH0614358B2 (en) 1994-02-23

Similar Documents

Publication Publication Date Title
CN115442515B (en) Image processing methods and equipment
JPH0766446B2 (en) Method of extracting moving object image
JPS62231509A (en) Adaptable median filter apparatus
JP3164121B2 (en) Motion vector detection device
EP4000040B1 (en) Method, computer program product and computer readable medium for generating a mask for a camera stream
CN110796041A (en) Subject identification method and apparatus, electronic device, computer-readable storage medium
KR960002548B1 (en) The method and the system for specific image fetching
JPS61153774A (en) Moving object image extraction method and device
CN112581400A (en) Tuning image enhancement method based on Gaussian standard deviation and contrast
JPH0981754A (en) Motion detection circuit
CN114596210A (en) Noise estimation method, device, terminal equipment and computer readable storage medium
CN112949423A (en) Object recognition method, object recognition device, and robot
US10467730B2 (en) Image-processing apparatus to reduce staircase artifacts from an image signal
Steffens et al. Contrast enhancement and image completion: A cnn based model to restore ill exposed images
JPH04321379A (en) Adaptive picture emphasis circuit
JPH02273876A (en) Image processing method
Liu et al. A fusion-based enhancement method for low-light uav images
JPH0448030B2 (en)
JP3118484B2 (en) Image segmentation method
JPS63178673A (en) Motion adaptive noise reducer
JPH01120682A (en) Picture emphasizing circuit
JP3203959B2 (en) Edge detection circuit of image processing device
Monari Illumination invariant background subtraction for pan/tilt cameras using DoG responses
Liu et al. Research on Effective Segment Extraction of Ship Surveillance Videos
CN116523764A (en) Image boundary sharpening algorithm, device and control system based on FPGA language