[go: up one dir, main page]

JPH04209074A - Moving area extraction system - Google Patents

Moving area extraction system

Info

Publication number
JPH04209074A
JPH04209074A JP2404672A JP40467290A JPH04209074A JP H04209074 A JPH04209074 A JP H04209074A JP 2404672 A JP2404672 A JP 2404672A JP 40467290 A JP40467290 A JP 40467290A JP H04209074 A JPH04209074 A JP H04209074A
Authority
JP
Japan
Prior art keywords
block
moving
image
blocks
moving area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2404672A
Other languages
Japanese (ja)
Inventor
Hiroshi Takemoto
浩 竹本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2404672A priority Critical patent/JPH04209074A/en
Publication of JPH04209074A publication Critical patent/JPH04209074A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To separate an image into a moving area and a stationary area at a high speed with high accuracy by accurately extracting the moving picture in the moving picture with a small information quantity. CONSTITUTION:Image data of one frame inputted from an image pickup part 1 is divided by a DCT(discrete cosine transformation) part 6 into plural blocks and a frequency component of each block is used as edge information on edge parts of the block. Then an arithmetic part 7 compares edge information of an aimed block of a certain frame with pieces of edge information of the same block which is one frame after and circumferential blocks. The probability that the pieces of edge information of both blocks match and the probability of coincidence with the distance between both the blocks are found, the moving direction and movement quantity of the edge parts of the aimed block are decided according to both the probability values, and the moving area is extracted according to the direction and quantity to separate the moving area and stationary area in the image. Consequently, the moving area can be extracted at a high speed with high accuracy by using the small information quantity.

Description

【発明の詳細な説明】[Detailed description of the invention]

[00011 [00011

【産業上の利用分野]この発明は、動画像の動領域と静
止領域とを分離し、動領域と静止領域とを分けて処理す
ることによって動画像の記録・伝送を効率よく行うため
の動領域抽出方式に関し、特に低伝送レートで動画伝送
を行うテレビ電話や、移動被写体自動検出機能を有する
撮像装置等に適用して好適なものである。 [0002] 【従来の技術】従来、動画像から動領域と静止領域とを
分離する装置として、例えば、特開昭60−25410
7号(名称; 「カメラにおける自動追尾装置」)が提
案されている。この装置は被追尾被写体の特定の追尾視
野内の色信号の変化に着目し、被追尾被写体の移動の有
無および移動方向を検知するもので、被写体の移動に追
従してフォーカスエリアを移動させ、移動後の位置で「
山登りサーボ方式」のような公知の手段により焦点検出
または焦点調整を行うものである。 [0003]また、論文「背景メモリを用いた動領域抽
出方式J  (1989年度画像符号化シンポジウム予
稿。 P89〜P90.上野はカリには、フレーム間差分の輪
郭を抽出し、その外側のみを背景とみなして更新・蓄積
する背景メモリを用い、この背景メモリと入力フレーム
との差分から動領域の輪郭を抽出する方式が提案されて
いる。 [0004]
[Industrial Application Field] This invention is a method for efficiently recording and transmitting moving images by separating the moving and still areas of a moving image and processing the moving and still areas separately. Regarding the area extraction method, it is particularly suitable for application to videophones that transmit moving images at low transmission rates, imaging devices that have an automatic moving subject detection function, and the like. [0002] [0002] Conventionally, as a device for separating a moving area and a static area from a moving image, for example, Japanese Patent Laid-Open No. 60-25410
No. 7 (name: "Automatic tracking device for cameras") has been proposed. This device focuses on changes in color signals within a specific tracking field of the tracked subject and detects whether the tracked subject is moving or not and the direction of movement.The device moves the focus area to follow the movement of the subject. In the position after moving,
Focus detection or focus adjustment is performed by a known means such as "mountain climbing servo system". [0003] Also, in the paper "Moving region extraction method J using background memory (Preliminary draft of the 1989 Image Coding Symposium. P89-P90. A method has been proposed in which the outline of a moving region is extracted from the difference between this background memory and an input frame using a background memory that is updated and stored as if it were an input frame.[0004]

【発明が解決しようとする課題】ところが、追尾視野内
の色信号の変化に着目して動領域を検出する従来の装置
では、目標とする被写体の色と背景の色とが近似してい
ると、被写体の移動、すなわち動領域が検知できないと
いう不都合がある。これは色の持つ情報の曖昧さのため
に移動する被写体を特定する精度が上がらないことに起
因する。 [0005]また、背景メモリを用いて動領域を抽出す
る方式では、1フレームの全画素を蓄えるために膨大な
記憶容量のメモリを必要とし、さらに、2フレーム間の
差分を取るだけでは移動方向が判別できないという不都
合がある。 [0006]この発明は、動画像の動領域を少ない情報
量で精度よく抽出し、動領域と静止領域との分離を高速
かつ高精度で行うことのできる動領域抽出方式を提供す
ることを目的とする。 [0007]
[Problems to be Solved by the Invention] However, with conventional devices that detect moving areas by focusing on changes in color signals within the tracking field of view, it is difficult to detect when the color of the target object and the color of the background are similar. However, there is a disadvantage that the movement of the subject, that is, the moving area cannot be detected. This is because the accuracy of identifying a moving subject cannot be improved due to the ambiguity of color information. [0005] Furthermore, in the method of extracting a moving region using background memory, a memory with a huge storage capacity is required to store all the pixels of one frame, and furthermore, if only the difference between two frames is taken, the movement direction cannot be measured. There is a disadvantage that it is not possible to determine the [0006] An object of the present invention is to provide a moving region extraction method that can accurately extract a moving region of a moving image with a small amount of information, and can separate moving regions and static regions at high speed and with high precision. shall be. [0007]

【課題を解決するための手段】この発明による動領域抽
出方式は、1フレーム分の画像データを、1ブロックn
×n画素からなる複数ブロックに分割し、各ブロック中
に含まれる特定の周波数成分から各ブロック中のエツジ
部分のエツジ情報を抽出し、あるフレームの注目ブロッ
クのエツジ情報と1フレーム後の同一ブロックおよびそ
の周囲のブロックのエツジ情報とを比較し、注目ブロッ
クのエツジ情報と1フレーム後の各ブロックのエツジ情
報とが一致する確率および両ブロック間の距離に対する
両ブロックの一致する確率から注目ブロック中のエツジ
部分の移動方向および移動量を判定し、その判定結果か
ら動領域を抽出して画像中の動領域および静止領域を分
離する。 [0008]
[Means for Solving the Problems] The moving area extraction method according to the present invention extracts one frame of image data from one block n
Divide into multiple blocks of ×n pixels, extract edge information of the edge part in each block from specific frequency components included in each block, and combine the edge information of the block of interest in a certain frame with the same block one frame later. and the edge information of the surrounding blocks, and from the probability that the edge information of the target block matches the edge information of each block one frame later, and the probability that both blocks match with respect to the distance between both blocks, the edge information of the target block is calculated. The moving direction and amount of the edge portion of the image are determined, and the moving area is extracted from the judgment result to separate the moving area and the static area in the image. [0008]

【作用】この発明は画像中のエツジ部分に着目し、エツ
ジ部分のフレーム間の移動を検知することによって画像
中の動領域を認識する。エツジ部分のフレーム間の移動
の検知は、1フレーム分の画像データを、複数ブロック
に分割し、各ブロック中に含まれる特定の周波数成分か
ら各ブロックのエツジ部分のエツジ情報を抽出して比較
することにより行う。 [0009]エツジ情報は各ブロックを構成するn×n
画素の画像データに対し、2次元直交変換を施すことに
よって得られるn×n個の変換係数の中の特定の変換係
数を用いる。 [00101そして、あるフレームの注目ブロックの工
ッジ情報と1フレーム後の同一ブロックおよびその周辺
ブロックのエツジ情報とを順次比較し、両ブロックのエ
ツジ情報の比から両ブロックが同じである確率を求める
。この確率(メンバシップ値)は予め定義したメンバシ
ップ関数から求める。 [0011]また、両ブロック間の距離に着目し、両ブ
ロック間の距離に対する両ブロックの一致する確率(メ
ンバシップ値)を、予め定義した他のメンバシップ関数
から求める。これはエツジ情報が同じであっても両ブロ
ック間の距離が大きく離れている場合は偶然の一致と考
えられるからである。 [0012]そして、両メシバシップ値から注目ブロッ
クのエツジ部分が1フレーム後の何処のブロックに移動
したかを推論する。この推論方式はファジィ理論を応用
した人間の思考方法に極めて近い推論方式であり、各ブ
ロックのエツジ情報という少ない情報量によって高速か
つ高精度で動領域の判定を行うことが出来る。 [0013]こうして判定した動領域の画像データは忠
実に記録・伝送し、静止領域の画像データは数フレーム
毎に間引いて記録・伝送することによって、記録部のメ
モリ容量の低減および伝送速度の向上を図ることが出来
る。 [0014]また、画像中の動領域の割合から画像の移
動か撮像装置のブレかを判断することができ、撮像装置
のブレと判断した場合には、画像全体に対して逆の動き
**ベクトルを加味することによりブレを補正すること
が出来る。 [0015]
[Operation] The present invention focuses on edge portions in an image and recognizes moving areas in the image by detecting movement of the edge portions between frames. To detect the movement of edge parts between frames, one frame of image data is divided into multiple blocks, and edge information of the edge parts of each block is extracted from specific frequency components contained in each block and compared. To do this. [0009] Edge information consists of n×n forming each block.
A specific transform coefficient among n×n transform coefficients obtained by performing two-dimensional orthogonal transform on pixel image data is used. [00101 Then, the edge information of the block of interest in a certain frame is sequentially compared with the edge information of the same block and its surrounding blocks one frame later, and the probability that both blocks are the same is calculated from the ratio of the edge information of both blocks. demand. This probability (membership value) is obtained from a predefined membership function. [0011] Also, focusing on the distance between both blocks, the probability that both blocks match (membership value) with respect to the distance between both blocks is determined from another predefined membership function. This is because even if the edge information is the same, if the distance between both blocks is large, it is considered a coincidence. [0012] Then, from both messageship values, it is inferred to which block the edge portion of the block of interest has moved one frame later. This inference method is an inference method that is very similar to the way humans think by applying fuzzy theory, and it is possible to judge a moving region at high speed and with high precision using a small amount of information such as edge information of each block. [0013] The image data of the moving area determined in this way is faithfully recorded and transmitted, and the image data of the static area is thinned out every few frames and recorded and transmitted, thereby reducing the memory capacity of the recording unit and improving the transmission speed. It is possible to aim for [0014] Furthermore, it is possible to determine whether it is a movement of the image or a shake of the imaging device based on the proportion of the moving area in the image, and if it is determined that it is a shake of the imaging device, the movement is reversed with respect to the entire image ** By adding vectors, blur can be corrected. [0015]

【実施例】図1はこの発明を移動被写体自動追尾機能を
有する撮像装置に適用した場合の一実施例を示す構成図
である。 [0016]この装置はレンズを通して結像される被写
体像を電気信号に変換するCCD等の固体撮像素子から
なる撮像部1を有し、この撮像部1から出力される映像
信号はAD変換部2でディジタル画像データに変換され
、フレームメモリ3に一時的に記憶される。フレームメ
モリ3に記憶された画像データは信号処理部4で圧縮符
号化され記録部5に記録される。 [0017]また、信号処理部4の出力は同時にDCT
(Discrete Co51ne Transfor
m  :離散コサイン変換)部6に供給される。DCT
部6は、図2に示すように、1ブロックn×n画素(例
えば、8×8画素)からなる複数ブロックに分割された
画像データに対し、各ブロック毎に2次元DCTを施す
。 [0018] DCTは周波数領域における直交変換の
一種で、1ブロツクの画像データをfij (i、  
j=o、1゜・・・、n−1)とすると、得られるn×
n個のDCT係数Fuv(u、  v=0.1.・・・
、 n−1)は、ただし、 Cw=1/205 (w=o) =1    (w≠0) で定義される。 [00191図3にDCT係数Fuvの8×8マトリク
スを示す。DCT係数Fuvの各係数は1ブロツクの画
像データfijを空間周波数に分解した成分を表してお
り、図中、左上の係数Fooは画像データfijの平均
値に比例した値(直流成分)を表し、変数U、 Vが大
きくなるにつれて周波数の高い成分(交流成分)を表す
。また、係数Fooより下の係数は縦波の高周波成分の
大きさを表し、それより右の係数は横波の高周波成分の
大きさを表す。 従って、DCT係数Fuvを観察すれば、当該ブロック
中の画像に含まれる縦波、横波およびその合成波の大き
さを同時に観察することができる。 [00201DCT部6で得られたDCT係数は演算部
7に供給される。演算部7では、DCT係数の中の特定
の係数に着目し、この係数の変化に応じた制御信号を出
力する。フォーカス制御部8はこの制御信号を受けて撮
像部1内のモータを駆動し、レンズの位置を移動させる
。 [00211こうして、撮像部1.AD変換部2.フレ
※※−ムメモリ3.信号処理部4.DCT部6.演算部
7゜フォーカス制御部8によって形成される閉ループに
よってレンズの位置を調整し、特定の係数が最大値とな
る位置をレンズの合焦位置と判定する。 [0022]ところで、一般に画像のエツジ部分には高
周波数成分が含まれているが、物体の輪郭となる明らか
なエツジ部分の周波数成分は、DCT係数の場合、図3
における斜線部の係数F1o、 Fotに表れる。そこ
で、この係数を特定の係数とし、この係数が最大値とな
るレンズの位置を合焦位置とする。 [0023]演算部7では、こうして検出した係数F 
1o 、 F o tの最大値を記憶しておき、新たに
入力される係数が一定値以上変化した場合は、被写体の
内容が変化したと判定して合焦動作をやり直す。 [0024]次に、演算部7における動領域の検出動作
について説明する。動領域の検出、すなわち被写体の移
動量および移動方向の検出は、前述した特定の係数を当
該ブロック(以下、注目ブロック、という)のエツジ情
報とし、このエツジ情報と1フレーム後に入力される同
一ブロックおよびその周辺ブロック(以下、比較ブロッ
ク、という)のエツジ情報とを比較することによって行
う。 [0025]この検出には、ファジィ理論を応用し、人
間の思考に極めて近い推論方式を用いる。すなわち、0
両ブロックのエツジ情報が近似し、かつ両ブロックが互
いに近いところに存在するならば、注目ブロックの被写
体が比較ブロックに移った可能性が高いと考える。■で
は、他のブロックはどうか。■ 全体的にみると、多分
、被写体はこのように動いたのだろう。というように、
人間がパターンマツチングを行うときの曖昧な思考過程
を踏んで推論する。 [0026]具体的には次のようにして行う。まず、注
目ブロックと1フレーム後に入力される同一ブロックの
各エツジ情報を比較し、両ブロックのエツジ情報が明ら
かに異なる場合は、そのエツジ部分は他のブロックに動
いたと判定する。次に、エツジ部分が何処へ動いたかを
知るために、1フレーム後の同一ブロックの周囲のブロ
ックの中で注目ブロックのエツジ情報と近似するエツジ
情報を有するブロックを探し出す。 [0027]このとき、両ブロックのエツジ情報の比が
ある一定の値δ (例えば、1/4)以下、または、あ
る一定の値γ(例えば、4/7)以上であれば、両ブロ
ックの被写体は明らかに異なると考えて両ブロックの被
写体が同じである確率は零であるとする。また、両ブロ
ックのエツジ情報が全く同一であれば、両ブロックの被
写体が同じである確率は1であるとする。 [00281両ブロックの被写体が同じである確率が両
ブロックのエツジ情報の比に対して線形に変化すると仮
定すると、図4に示すように、値δおよび値γを底辺と
して確率(メンバシップ値)1を頂点とする山型のメン
バシップ関数となる。 [0029]また、両ブロック間の距離に着目し、注目
ブロックと1フレーム後の同一ブロックの周囲のブロッ
クとを順次比較して行くとき、両ブロックのエツジ情報
が同じ値であっても、両ブロック間が互いに大きく離れ
ている場合には、被写体がそのブロックに移動した可能
性は低いと考え、ある一定の距離λより離れている場合
は偶然の一致と考えて被写体がそこに移動した確率は零
であるとする。 [00301距離零、すなわち同一ブロックでエツジ情
報が同じ場合は、その被写体は移動せずにそこに留まっ
ていたと考え、同じ被写体が写っている確率を1とする
。距離が離れるにつれて同じ被写体が写っている確率が
線形に減少していくと仮定すると、図5に示すように、
距離λと確率(メンバシップ値)1を結ぶ直線状のメン
バシップ関数となる。 [00311これら両方を満たす確率、すなわち低い方
の確率を、注目ブロックに写っていた被写体が比較ブロ
ックに写った確率(すなわち、比較ブロックに被写体が
移動した、あるいはそのまま留まっていた確率)と考え
る。これを1フレーム後の注目ブロックの回りの全ブロ
ックについて求めると、図6に示すような確率の分布が
得られる。1フレーム前の注目ブロックに写っていた被
写体がこの分布の重心Gの射影Hに移動した可能性が一
番大きいと考えられる。従って、次はHブロックを注目
ブロックとして1フレーム後の画像信号と比較すること
により、被写体の動きを検知する。 [0032]画像データの記録部5への記録は、動領域
の画像データは忠実に記録し、静止領域の画像データは
数フレーム毎に間引いて記録する。従って、画像が静止
している場合は、撮影だけを行って記録はスタンバイ状
態にしておき、演算部7で被写体が動いたことを検知し
た場合に当該フレームの画像データを記録するように記
録部5に制御信号を送出する。 [0033]また、この発明によると、画面全体のうち
動領域の占める割合から被写体の移動か、撮影時の手ブ
レかを判断できる。すなわち、動領域がある一定の割合
より小さければ、被写体は動いて背景はそのままと考え
ることができる。画像全体が動いている場合は、手ブレ
であると考えることができ、画面全体を動きベクトルの
逆向きに補正することで手ブレを修正できる。 [0034]
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing an embodiment in which the present invention is applied to an imaging apparatus having a function of automatically tracking a moving subject. [0016] This device has an imaging section 1 made of a solid-state imaging device such as a CCD that converts a subject image formed through a lens into an electrical signal, and a video signal output from this imaging section 1 is sent to an AD conversion section 2. The image data is converted into digital image data and temporarily stored in the frame memory 3. The image data stored in the frame memory 3 is compressed and encoded by the signal processing section 4 and recorded in the recording section 5. [0017] Also, the output of the signal processing unit 4 is simultaneously converted into DCT
(Discrete Co51ne Transfer
m: Discrete cosine transform) unit 6. DCT
As shown in FIG. 2, the unit 6 performs two-dimensional DCT on each block of image data divided into a plurality of blocks each consisting of n×n pixels (for example, 8×8 pixels). [0018] DCT is a type of orthogonal transformation in the frequency domain, and converts one block of image data into fij (i,
j=o, 1°..., n-1), the obtained n×
n DCT coefficients Fuv(u, v=0.1...
, n-1) is defined as follows: Cw=1/205 (w=o) =1 (w≠0). [00191 FIG. 3 shows an 8×8 matrix of DCT coefficients Fuv. Each coefficient of the DCT coefficient Fuv represents a component obtained by decomposing one block of image data fij into spatial frequencies, and in the figure, the coefficient Foo at the upper left represents a value (DC component) proportional to the average value of the image data fij, As the variables U and V increase, they represent higher frequency components (AC components). Further, the coefficients below the coefficient Foo represent the magnitude of the high frequency component of the longitudinal wave, and the coefficients to the right thereof represent the magnitude of the high frequency component of the transverse wave. Therefore, by observing the DCT coefficient Fuv, it is possible to simultaneously observe the magnitudes of longitudinal waves, transverse waves, and their composite waves included in the image in the block. [00201 The DCT coefficients obtained by the DCT section 6 are supplied to the calculation section 7. The calculation unit 7 focuses on a specific coefficient among the DCT coefficients and outputs a control signal according to a change in this coefficient. The focus control section 8 receives this control signal and drives the motor within the imaging section 1 to move the position of the lens. [00211 Thus, the imaging unit 1. AD conversion section 2. Frame memory 3. Signal processing section 4. DCT section 6. The position of the lens is adjusted by a closed loop formed by the calculation unit 7 and the focus control unit 8, and the position where a specific coefficient has the maximum value is determined to be the in-focus position of the lens. [0022] By the way, the edge portions of an image generally contain high frequency components, but the frequency components of the obvious edge portions that form the outline of an object are, in the case of DCT coefficients, as shown in FIG.
The coefficient F1o in the shaded area appears in Fot. Therefore, this coefficient is set as a specific coefficient, and the position of the lens where this coefficient has the maximum value is set as the in-focus position. [0023] In the calculation unit 7, the coefficient F detected in this way
The maximum values of 1o and F o t are memorized, and if the newly input coefficient changes by more than a certain value, it is determined that the content of the subject has changed and the focusing operation is redone. [0024] Next, the motion area detection operation in the calculation unit 7 will be explained. Detection of a moving area, that is, detection of the amount and direction of movement of a subject, uses the above-mentioned specific coefficients as edge information of the block in question (hereinafter referred to as the block of interest), and uses this edge information and the same block that is input one frame later. This is performed by comparing the edge information of the block and its surrounding blocks (hereinafter referred to as comparison blocks). [0025] For this detection, fuzzy theory is applied and an inference method that is extremely close to human thinking is used. That is, 0
If the edge information of both blocks is similar and both blocks are located close to each other, it is considered that there is a high possibility that the subject of the block of interest has moved to the comparison block. ■So, what about other blocks? ■ Overall, the subject probably moved like this. As in,
Reasoning is based on the ambiguous thought process that humans use when performing pattern matching. [0026] Specifically, it is performed as follows. First, the edge information of the block of interest and the same block input one frame later are compared, and if the edge information of both blocks is clearly different, it is determined that the edge has moved to another block. Next, in order to know where the edge portion has moved, a block having edge information similar to the edge information of the block of interest is searched among the blocks surrounding the same block one frame later. [0027] At this time, if the edge information ratio of both blocks is less than a certain value δ (for example, 1/4) or more than a certain value γ (for example, 4/7), the edge information of both blocks is It is assumed that the objects are clearly different, and the probability that the objects in both blocks are the same is zero. It is also assumed that if the edge information of both blocks is exactly the same, the probability that the objects in both blocks are the same is 1. [00281 Assuming that the probability that the subject in both blocks is the same changes linearly with the ratio of edge information in both blocks, the probability (membership value) is calculated using the value δ and the value γ as the base, as shown in FIG. It becomes a mountain-shaped membership function with 1 as the apex. [0029] Furthermore, when focusing on the distance between both blocks and sequentially comparing the block of interest and blocks surrounding the same block one frame later, even if the edge information of both blocks has the same value, If the blocks are far apart from each other, it is considered that there is a low possibility that the subject moved to that block, and if the blocks are separated by a certain distance λ, it is considered a coincidence, and the probability that the subject moved there is considered to be low. Assume that is zero. [00301 If the distance is zero, that is, the same block has the same edge information, it is assumed that the subject remained there without moving, and the probability that the same subject is captured is set to 1. Assuming that the probability that the same subject is photographed decreases linearly as the distance increases, as shown in Figure 5,
It becomes a linear membership function connecting the distance λ and the probability (membership value) 1. [00311 The probability that satisfies both of these, that is, the lower probability, is considered to be the probability that the subject appearing in the block of interest was captured in the comparison block (that is, the probability that the subject moved to or remained in the comparison block). If this is calculated for all blocks surrounding the block of interest after one frame, a probability distribution as shown in FIG. 6 will be obtained. It is thought that the greatest possibility is that the object that was in the block of interest one frame ago has moved to the projection H of the center of gravity G of this distribution. Therefore, next, the movement of the subject is detected by using the H block as the block of interest and comparing it with the image signal one frame later. [0032] When recording image data in the recording unit 5, image data in a moving area is recorded faithfully, and image data in a still area is thinned out every several frames and recorded. Therefore, when the image is still, only shooting is performed and recording is in standby mode, and when the calculation unit 7 detects that the subject has moved, the recording unit records the image data of the frame. A control signal is sent to 5. [0033]Furthermore, according to the present invention, it is possible to determine whether the subject is moving or camera shake during photographing based on the ratio of the moving area to the entire screen. In other words, if the moving area is smaller than a certain percentage, it can be assumed that the subject is moving and the background remains unchanged. If the entire image is moving, it can be considered to be camera shake, and the camera shake can be corrected by correcting the entire screen in the opposite direction of the motion vector. [0034]

【発明の効果】この発明によれば、画像データ中の特定
の高周波成分から被写体のエツジ部分を検出し、このエ
ツジ部分の移動を人間の思考に近い形で推論することに
よって動領域の判定を行うため、少ない情報量で高速か
つ高精度に動領域の抽出を行うことが可能となる。 [0035]また、この発明によれば、被写体が移動し
たときのみ画像データの記録・伝送を行うことで記録部
のメモリ容量の低減や、伝送速度の向上を図ることが可
能となる。 [0036]また、この発明を撮像装置に適用した場合
には、被写体の移動に追従してフォーカスエリアを変更
し、自動焦点動作をし続けることで操作性の優れた撮像
装置を提供することができる。この場合、画面全体の移
動方向および移動量(動きベクトル)が求まるので、手
ブレと判定された場合には、逆の動きベクトルを加味す
ることによって手プレ画像の補正が可能となる。
[Effects of the Invention] According to the present invention, a motion area can be determined by detecting an edge portion of an object from a specific high-frequency component in image data and inferring the movement of this edge portion in a form similar to human thinking. Therefore, it is possible to extract moving regions at high speed and with high accuracy using a small amount of information. [0035] Furthermore, according to the present invention, by recording and transmitting image data only when the subject moves, it is possible to reduce the memory capacity of the recording unit and improve the transmission speed. [0036] Furthermore, when the present invention is applied to an imaging device, it is possible to provide an imaging device with excellent operability by changing the focus area following the movement of the subject and continuing automatic focusing operation. can. In this case, since the direction and amount of movement (motion vector) of the entire screen are determined, if it is determined that the image is due to camera shake, the hand-held image can be corrected by taking into consideration the opposite motion vector.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】この発明を撮像装置に適用した場合の一実施例
を示す構成図である。
FIG. 1 is a configuration diagram showing an embodiment in which the present invention is applied to an imaging device.

【図2】1フレーム分の画像データのブロック分割を示
す図である。
FIG. 2 is a diagram showing how one frame of image data is divided into blocks.

【図3】2次元DCT係数のマトリクスを示す図である
FIG. 3 is a diagram showing a matrix of two-dimensional DCT coefficients.

【図4】エツジ情報の比に対するメンバシップ関数であ
る。
FIG. 4 is a membership function for the ratio of edge information.

【図5】ブロック間の距離に対するメンバシップ関数で
ある。
FIG. 5 shows membership functions for distances between blocks.

【図6】注目ブロックの被写体が別のブロックに移動し
た確率分布である。
FIG. 6 is a probability distribution that the subject of the block of interest has moved to another block.

【符号の説明】[Explanation of symbols]

1  撮像部 2   AD変換部 3  フレームメモリ 4  信号処理部 5  記録部 6   DCT部 7  演算部 8  フォーカス制御部 1 Imaging unit 2 AD conversion section 3 Frame memory 4 Signal processing section 5 Recording Department 6 DCT section 7 Arithmetic section 8 Focus control section

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】1フレーム分の画像データを、1ブロック
n×n画素からなる複数ブロックに分割し、上記各ブロ
ック中に含まれる特定の周波数成分から上記各ブロック
中のエッジ部分のエッジ情報を抽出し、あるフレームの
注目ブロックのエッジ情報と1フレーム後の同一ブロッ
クおよびその周囲のブロックのエッジ情報とを比較し、
上記注目ブロックのエッジ情報と上記1フレーム後の各
ブロックのエッジ情報とが一致する確率および上記両ブ
ロック間の距離に対する上記両ブロックの一致する確率
から上記注目ブロック中のエッジ部分の移動方向および
移動量を判定し、その判定結果から動領域を抽出して上
記画像中の動領域および静止領域を分離することを特徴
とする動領域抽出方式。
Claims: 1. One frame of image data is divided into a plurality of blocks each consisting of n×n pixels, and edge information of edge portions in each block is obtained from specific frequency components contained in each block. and compare the edge information of the block of interest in a certain frame with the edge information of the same block and its surrounding blocks one frame later,
Based on the probability that the edge information of the block of interest matches the edge information of each block one frame later, and the probability that the two blocks match with respect to the distance between the two blocks, the moving direction and movement of the edge portion in the block of interest are determined. A moving area extraction method characterized by determining the amount, extracting a moving area from the determination result, and separating a moving area and a still area in the image.
【請求項2】請求項1において、前記各ブロック中に含
まれるエッジ情報は、前記1ブロックn×n画素の画像
データを、2次元離散コサイン変換を施して得られるn
×n個の変換係数の中の特定の係数であることを特徴と
する動領域抽出方式。
2. In claim 1, the edge information included in each block is obtained by subjecting image data of n×n pixels of the one block to two-dimensional discrete cosine transformation.
A moving area extraction method characterized by using a specific coefficient among ×n transformation coefficients.
【請求項3】請求項1において、前記動領域の画像デー
タは前記各フレーム毎に記録・伝送し、前記静止領域の
画像データは数フレーム毎に間引いて記録・伝送するこ
とを特徴とする動領域抽出方式。
3. The moving image forming apparatus according to claim 1, wherein the image data of the moving area is recorded and transmitted for each frame, and the image data of the still area is thinned out and recorded and transmitted every several frames. Region extraction method.
【請求項4】請求項1において、前記画像中の動領域の
割合から画像の移動が画像自体の移動か撮像手段のブレ
かを判断することを特徴とする動領域抽出方式。
4. The moving area extraction method according to claim 1, wherein it is determined from the ratio of the moving area in the image whether the movement of the image is a movement of the image itself or a shake of the imaging means.
【請求項5】請求項4において、前記画像の移動が撮像
手段のブレと判断した場合には、前記画像データに対し
、前記動領域の移動方向および移動量とは逆の動きベク
トルを加味して上記ブレを補正することを特徴とする動
領域抽出方式。
5. In claim 4, when the movement of the image is determined to be a shake of the imaging means, a motion vector opposite to the direction and amount of movement of the moving area is added to the image data. A moving area extraction method characterized by correcting the above-mentioned blurring.
JP2404672A 1990-12-05 1990-12-05 Moving area extraction system Withdrawn JPH04209074A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2404672A JPH04209074A (en) 1990-12-05 1990-12-05 Moving area extraction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2404672A JPH04209074A (en) 1990-12-05 1990-12-05 Moving area extraction system

Publications (1)

Publication Number Publication Date
JPH04209074A true JPH04209074A (en) 1992-07-30

Family

ID=18514330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2404672A Withdrawn JPH04209074A (en) 1990-12-05 1990-12-05 Moving area extraction system

Country Status (1)

Country Link
JP (1) JPH04209074A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09245168A (en) * 1996-03-13 1997-09-19 Tech Res & Dev Inst Of Japan Def Agency Image recognition device
US6937074B2 (en) 2002-05-20 2005-08-30 Hynix Semiconductor Inc. Power-up signal generator in semiconductor device
JP2021182267A (en) * 2020-05-19 2021-11-25 日本製鉄株式会社 Tracking device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09245168A (en) * 1996-03-13 1997-09-19 Tech Res & Dev Inst Of Japan Def Agency Image recognition device
US6937074B2 (en) 2002-05-20 2005-08-30 Hynix Semiconductor Inc. Power-up signal generator in semiconductor device
JP2021182267A (en) * 2020-05-19 2021-11-25 日本製鉄株式会社 Tracking device

Similar Documents

Publication Publication Date Title
EP1542155A1 (en) Object detection
US20110261225A1 (en) Image capturing apparatus, method of detecting tracking object, and computer program product
EP1542153A1 (en) Object detection
JP2008282416A (en) Method and apparatus for segmenting image prior to coding
EP1542152A1 (en) Object detection
EP1542154A2 (en) Object detection
JP2010114752A (en) Device and method of imaging and program
Souza et al. Digital video stabilization based on adaptive camera trajectory smoothing
JPH0580248A (en) Automatic focusing device
JP2000188713A (en) Automatic focus controller and method for determining its focusing
EP0632915B1 (en) A machine method for compensating for non-linear picture transformations, e.g. zoom and pan, in a video image motion compensation system
US20120169890A1 (en) Motion estimation in imaging systems
JP3404803B2 (en) Moving image recording medium, still image extracting device, moving image recording device, and still image automatic extracting method
JP2957800B2 (en) Automatic focusing device
Banerjee et al. An adaptive video acquisition scheme for object tracking and its performance optimization
JPH09284702A (en) Method and device for detecting scene change frame
JPH04209074A (en) Moving area extraction system
JP3525493B2 (en) Still image extraction device, moving image recording device, and still image automatic extraction method
Jagadeeswari et al. A comparative study based on video stitching methods
JPH04158322A (en) Automatic focus adjusting device
Asikuzzaman et al. Object-based motion estimation using the EPD similarity measure
JP2000175101A (en) Automatic tracking device
Yu et al. A digital video stabilization system based on reliable SIFT feature matching and adaptive low-pass filtering
CN113807124B (en) Image processing method, device, storage medium and electronic equipment
JP7346021B2 (en) Image processing device, image processing method, imaging device, program and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19980312