JP4830712B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4830712B2 JP4830712B2 JP2006220282A JP2006220282A JP4830712B2 JP 4830712 B2 JP4830712 B2 JP 4830712B2 JP 2006220282 A JP2006220282 A JP 2006220282A JP 2006220282 A JP2006220282 A JP 2006220282A JP 4830712 B2 JP4830712 B2 JP 4830712B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- occurrence probability
- data
- probability matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置に関する。
より詳細には、監視カメラが所定の監視場所を撮像して得られた映像から、不審物や不審者を検出するための技術に関する。
The present invention relates to an image processing apparatus .
More specifically, the present invention relates to a technique for detecting a suspicious object or a suspicious person from an image obtained by imaging a predetermined monitoring place by a monitoring camera.
従来より、監視カメラによって撮像された映像を所定の監視モニタを介して視認することにより、所定の監視対象を監視する監視システムが知られている。
このような監視カメラにおいては、監視対象となる場所が多くなるにつれ、24時間監視者がモニタを監視し続けることは困難である。また、監視カメラに接続されるビデオレコーダにおいても、必要最低限の映像のみ記録する等、実稼働時間を短縮する必要に迫られている。
このため、機械が入力画像から不審物或は不審者を検出する技術の確立が求められている。
例えば銀行のATM等においては、人体を検出するセンサさえあれば比較的容易に上述のような要求を満たすことができる。
ところが、海辺のような、遠くの景色から不審船等を検出する場合は、このようなセンサは使用できない。
In such a monitoring camera, it is difficult for a 24-hour monitor to continue to monitor the monitor as the number of places to be monitored increases. In video recorders connected to surveillance cameras, there is an urgent need to shorten the actual operation time, such as recording only the minimum necessary video.
For this reason, establishment of the technique in which a machine detects a suspicious object or a suspicious person from an input image is calculated | required.
For example, in a bank ATM, the above-described requirements can be satisfied relatively easily if there is a sensor for detecting a human body.
However, such a sensor cannot be used when detecting a suspicious ship or the like from a distant landscape such as the seaside.
従来、このような状況においては、直前の画像データとの比較を行う、という手法が多く採用されていた。
映像中に物体が進入すると、映像データ中におけるその物体の部分は、明るさが変わる。したがって、映像内で輝度値に差異がある領域を差異領域として検出することで、物体の検知が可能になる。ところが、海、砂漠、草原、空等の自然の風景の場合、検知対象である物体以外の水、砂、草、雲なども動いている。このため、これらを直前の画像データと比較して異なっているとして、誤って検知してしまう、という問題があった。
Conventionally, in such a situation, a method of comparing with the immediately preceding image data has been often employed.
When an object enters the video, the brightness of the object portion in the video data changes. Therefore, an object can be detected by detecting a region having a difference in luminance value in the video as a difference region. However, in the case of natural scenery such as the sea, desert, grassland, and sky, water, sand, grass, clouds, etc. other than the object to be detected are also moving. For this reason, there has been a problem that they are erroneously detected as being different from the previous image data.
この問題を解決する一つの方法として、例えば特許文献1に記載される技術が挙げられる。
特許文献1には、現在の時刻に撮影された画像と、過去に撮影された画像との差分値を作成し、閾値処理によって二値化する。その際に、過去の差分値の累積結果を基に閾値を変動させた背景画像を作成する。こうして、背景画像中に存在する木や水面による揺らぎの誤検出の低減を試みている。
しかしながら、この技術では、木の揺らぎ等による輝度値の変化が大きいときには、閾値が大きくなりすぎる場合が十分考えられる。そのような場合、肝心の侵入者等が進入してきたときに検出漏れが生じてしまう虞がある。
One method for solving this problem is, for example, a technique described in
In
However, with this technique, when the change in the luminance value due to the fluctuation of the tree or the like is large, the case where the threshold value becomes too large can be considered. In such a case, there is a possibility that a detection omission may occur when an important intruder or the like enters.
本発明はかかる点に鑑みてなされたものであり、海、砂漠、草原等、主に自然現象等によって撮影画像に揺らぎが生じるような場所を監視対象とする監視カメラによって得られる画像データから、不審者或は不審物等の侵入を安定して行うことを目的とする。 The present invention has been made in view of the above points, and from image data obtained by a monitoring camera that monitors a place where a photographed image fluctuates mainly due to a natural phenomenon or the like, such as a sea, a desert, or a grassland. The purpose is to stably infiltrate a suspicious person or a suspicious object.
上記課題を解決するために、本発明の画像処理装置は、入力画像データが保存される画像保存部と、画像保存部中の入力画像データを構成する各ピクセルを示すアドレスを要素とする配列にて、同時生起確率行列を算出する特徴量算出部と、特徴量算出部に対し、同時生起確率行列の演算の対象外となる除外領域を設定する処理領域設定部と、特徴量算出部によって得られた同時生起確率行列の要素数を所定の閾値と比較して、背景か否かを決定する画素判定部と、画素判定部によって得られた判定結果に基づいて、背景でない被写体の存在の有無を出力する画素集合決定部とを具備する。 In order to solve the above-described problems, an image processing apparatus according to the present invention includes an image storage unit that stores input image data, and an array that includes an address indicating each pixel constituting the input image data in the image storage unit as an element. Obtained by a feature amount calculation unit that calculates a co-occurrence probability matrix, a processing region setting unit that sets an exclusion region that is not subject to the calculation of the co-occurrence probability matrix, and a feature amount calculation unit. The number of elements of the co-occurrence probability matrix obtained is compared with a predetermined threshold value, and a pixel determination unit that determines whether or not the background is present, and based on the determination result obtained by the pixel determination unit, the presence or absence of a subject that is not the background And a pixel set determining unit for outputting .
発明者は、海のような自然の風景は一定の規則性を持ちながら動く撮影対象に対して背景と不審物等を判別するには、従来技術において周知の、直前の画像データとの比較による方法は不適当であると判断した。そこで、発明者は入力された画像データのみを用いて背景と不審物等を判別する技術を模索した。その結果、背景と不審物等の判別のための技術として、同時生起確率行列を用いて判別を行うことを思いついた。同時生起確率行列を用いた画像処理方法であれば、海や空など、自然現象によって生じる変化があっても、これを含めて一定の特徴を有する背景と判別することができる。
更に、本発明では同時生起確率行列に基づく判別として、従来技術とは異なり、予め撮影して保持している行列データとの比較を行わず、得られた行列から閾値を算出し、その閾値を基に背景か否かの判別を行う。この判別手法自体が従来技術にはない新しいアプローチである。
The inventor can compare the background and the suspicious object, etc. with respect to the object to be photographed while the natural scenery such as the sea has a certain regularity by comparison with the immediately preceding image data known in the prior art. The method was judged to be inappropriate. Therefore, the inventor sought a technique for discriminating a background from a suspicious object using only input image data. As a result, I came up with the idea of using a co-occurrence probability matrix as a technique for discriminating between background and suspicious objects. In the case of an image processing method using a co-occurrence probability matrix, even if there is a change caused by a natural phenomenon such as the sea or the sky, it can be determined that the background has a certain feature including this.
Further, in the present invention, as a discrimination based on the co-occurrence probability matrix, unlike the conventional technique, the threshold value is calculated from the obtained matrix without comparing with the matrix data captured and held in advance. Based on the background, it is determined whether or not it is a background. This discrimination method itself is a new approach not found in the prior art.
本発明により、特に海や草原等の、一定の揺らぎを伴う風景を監視する監視装置において極めて好適な、画像処理装置を提供できる。
また、本発明は従来技術の同種の装置と比較すると演算量や予め必要とする記憶装置の記憶容量も少なく済む。
したがって、従来技術と比べると、演算量が極めて少なく、また必要とする記憶容量も少なく済み、海の波や空の雲などの自然現象も誤認識せずに背景と認識できる、優れた画像処理装置を提供できる。
According to the present invention, it is possible to provide an image processing apparatus that is extremely suitable for a monitoring apparatus that monitors a landscape with a certain fluctuation, such as the sea or grassland.
Further, the present invention requires less computation amount and storage capacity of a storage device that is required in advance as compared with the same type of device of the prior art.
Therefore, compared to the conventional technology, the amount of computation is extremely small, the required storage capacity is small, and natural image processing such as ocean waves and sky clouds can be recognized as the background without misrecognizing the background. Equipment can be provided.
以下、本発明の実施の形態を、図1〜図14を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to FIGS.
図1は、本発明の第1の実施形態にかかる画像処理装置の全体ブロック図である。図1(a)は実際の装置の中身に即したブロック図であり、図1(b)は機能を中心に見た仮想的なブロック図である。
図1(a)において、画像処理装置101は撮像カメラ102から得られる画像データから不審物の存在の有無を検出し、不審物の有無を知らせる二値信号(アラーム出力)か、または所定の処理を施した画像信号を出力するものである。撮像カメラ102は例えばCCD撮像素子等からなる、画像信号を出力する周知のカメラである。出力される画像信号は、例えばHDD等の大容量ストレージや、通信回線等で他のホスト装置へ送出される。
画像処理装置101は主にマイクロコンピュータよりなる。マイクロコンピュータを構成するCPU103、ROM104、RAM105とバス106は、撮像カメラ102から得られる画像データに所定の処理を行って、出力インターフェース107を通じて所定の信号等を出力する。
FIG. 1 is an overall block diagram of an image processing apparatus according to a first embodiment of the present invention. FIG. 1A is a block diagram corresponding to the contents of an actual device, and FIG. 1B is a virtual block diagram focusing on functions.
In FIG. 1A, the image processing apparatus 101 detects the presence / absence of a suspicious object from image data obtained from the
The image processing apparatus 101 is mainly composed of a microcomputer. The
図1(b)において、実体がRAM105である画像保存部112を除いて、各部はマイクロコンピュータ上にて実行されるソフトウェアプログラムである。これらソフトウェアはROM104に格納されている。
撮像カメラ102から得られる画像信号は、一旦静止画像として画像保存部112に保持される。
特徴量算出部113は画像保存部112内の静止画像データから、特徴量データを作成する。これは後述する同時生起確率行列によって作成される、画像データの相対アドレスよりなる配列データである。
画素判定部114は、特徴量算出部113にて作成された配列データを基に、静止画像データ中の不審物を特定するビットマップデータを作成する。
画素集合決定部115は、作成されたビットマップデータから、静止画像データ中に占める不審物と思しき画像部分の総面積と、中心座標を算出する。
In FIG. 1B, each unit is a software program executed on a microcomputer, except for an
The image signal obtained from the
The feature
The
The pixel
なお、本実施形態にかかる画像処理装置101は、撮像カメラ102と併せて、主に沿岸に設置される目的で作られている。撮像カメラ102は図示しないモータ等の駆動機構によって沿岸周辺海域を広く見渡すように往復駆動される。
遠くの海辺の不審物を察知するためには、カメラの倍率を上げなければならない。カメラの倍率を上げることは、撮影角度が小さくなることを意味し、このためにカメラを往復駆動する必要が生じる。
カメラを往復駆動する、ということは、直前の静止画像と現在の静止画像とを比較して、画像データ同士の相違点から不審物等を見つける、という手法が取り辛い。本実施形態にかかる発明は、このような背景事情に基づいている。
The image processing apparatus 101 according to the present embodiment is made for the purpose of being installed mainly on the coast together with the
To detect suspicious objects on the seaside, you have to increase the magnification of the camera. Increasing the magnification of the camera means that the shooting angle becomes smaller, and for this reason, it is necessary to drive the camera back and forth.
Reciprocating the camera is difficult to compare the previous still image with the current still image and find a suspicious object or the like from the difference between the image data. The invention according to the present embodiment is based on such a background situation.
図2は、RAM105の内部を模式的に図示するものである。RAM105の内部には、画像保存部112ともいえる入力画像ビットマップデータ保存領域202と、同時生起確率行列のための配列データ領域203と、画像フラグビットマップデータ領域204の三つが存在する。
図3はRAM105の内部に格納されているデータを図示するものである。
図3(a)は、RAM105の入力画像ビットマップデータ保存領域202に格納されている、入力画像ビットマップデータである。つまり、撮像カメラ102にて撮影された静止画像データそのものである。各々のピクセルは例えば0〜255迄の輝度を表すデータである。図3(a)では、海302と空303と不審物である船304が写っている。
図3(b)は、RAM105の画像フラグビットマップデータ領域204に格納される、画像フラグビットマップデータである。後述する処理にて、入力画像ビットマップデータから不審物の領域を検出したものである。この図では、船304に相当する領域のビットが立っている。
図3(c)は、画像フラグビットマップデータの一部を拡大したものである。各ピクセルは1ビットよりなり、ビットが立っていれば(ビットの値が1であれば)、そこは不審物と思しきピクセルを示し、ビットが下りていれば(ビットの値が0であれば)、そこは背景と思しきピクセルを示す。
FIG. 2 schematically illustrates the inside of the
FIG. 3 illustrates data stored in the
FIG. 3A shows input image bitmap data stored in the input image bitmap
FIG. 3B shows image flag bitmap data stored in the image flag
FIG. 3C is an enlarged view of a part of the image flag bitmap data. Each pixel consists of 1 bit. If the bit is set (if the bit value is 1), it indicates a suspicious pixel, and if the bit is down (if the bit value is 0) ), Which shows the pixel that seems to be the background.
図4は、RAM105の配列データ領域203に格納される、配列データを模式的に示すものである。実際にRAM105の中身がこのような形状になっている訳ではないが、ソフトウェアプログラムにて仮想的にこのような形状に構築されていると思って頂きたい。
図4(a)において、配列データ401は同時生起確率行列をベースとする、可変長の配列データの集合体である。同時生起確率行列は、縦kと横lがそれぞれ0〜255迄の256個の要素よりなる正方行列である。この縦kと横lは画像データの輝度に相当する。この行列上の各々の要素に立方体が積み上がっている。この立方体は一つに画像データの1ピクセルを示す相対アドレスが格納されている。
FIG. 4 schematically shows array data stored in the
In FIG. 4A, array data 401 is a collection of variable-length array data based on a co-occurrence probability matrix. The co-occurrence probability matrix is a square matrix composed of 256 elements each having a vertical k and a horizontal l of 0 to 255. The vertical k and horizontal l correspond to the luminance of the image data. A cube is stacked on each element on this matrix. The cube stores a relative address indicating one pixel of image data.
図4(a)の(k、l)[1]とは、k番目の行でl番目の列の行列要素よりなる配列データの、1番目の配列要素である。
同様に、(k、l)[2]とは、k行l列の行列要素よりなる配列データの、2番目の配列要素である。
配列データ(k、l)は5個の配列要素を持ち、(k、l)[5]まで存在している。
図4(a)の(k、l−1)[1]とは、k番目の行でl−1番目の列の行列要素よりなる配列データの、1番目の配列要素である。
同様に、(k、l−5)[1]とは、k行l−5列の行列要素よりなる配列データの、1番目の配列要素である。
同様に、(k−3、l)[1]とは、k−3行l列の行列要素よりなる配列データの、1番目の配列要素である。
このように積み上がっている立方体には、入力画像ビットマップデータ領域202に格納されている画像データの、1ピクセルを示す相対アドレスがそれぞれ格納されている。
(K, l) [1] in FIG. 4A is the first array element of the array data including the matrix elements of the l-th column in the k-th row.
Similarly, (k, l) [2] is the second array element of array data composed of matrix elements of k rows and 1 columns.
The array data (k, l) has five array elements and exists up to (k, l) [5].
(K, l-1) [1] in FIG. 4A is the first array element of the array data including the matrix elements of the l-1st column in the kth row.
Similarly, (k, 1-5) [1] is the first array element of array data composed of matrix elements of k rows and 1-5 columns.
Similarly, (k−3, l) [1] is the first array element of array data composed of matrix elements of k−3 rows and l columns.
In the cubes stacked in this way, relative addresses indicating one pixel of the image data stored in the input image
図4(a)は紙面の都合上、うず高く積み上がる配列データの一部分しか図示できていない。しかし、実際には図4(b)に示すような、周知のガウス曲面に近い形状になることが推測できる。
なお、この同時生起確率行列をベースとする配列データの詳細な作成方法は、後述する。
FIG. 4 (a) shows only a part of the array data that is piled up high due to space limitations. However, it can be estimated that the shape is close to a well-known Gaussian curved surface as shown in FIG.
A detailed method for creating array data based on the co-occurrence probability matrix will be described later.
図5は、RAM105と、RAM105内に格納されている各々のデータの関係を模式的に示す図である。
入力画像ビットマップデータ領域202中の、広い面積を示す背景部分は、同時生起確率行列を構成する配列データ領域203の、要素の多い箇所に集中する。その、集中している部分の配列要素として格納されている画像データの相対アドレスが、画像フラグビットマップデータ領域204の背景部分の相対アドレスに該当し、その箇所のフラグを下ろすこととなる。
図5においては、入力画像ビットマップデータ領域202の一部を示す画像の、点線で囲んだ部分、すなわち空の一部分に該当する画像データが、配列データ領域203の、積み上がっている立方体にそれぞれ対応している。つまり、これら立方体をなす配列変数には、その要素として画像データ中の点線部分にて囲まれたピクセルの相対アドレスが格納されている。そして、それら相対アドレスは画像フラグビットマップデータ領域204の該当箇所のフラグを1から0へ下ろす。
FIG. 5 is a diagram schematically showing the relationship between the
A background portion showing a large area in the input image
In FIG. 5, image data corresponding to a part surrounded by a dotted line, that is, an empty part of an image showing a part of the input image
ここで、同時生起確率行列の概要を記す。
図6は、同時生起確率行列の概要を説明するための図である。
図6(a)において、P1とP2は画像データ中の任意の二つのピクセルである。ピクセルP1からピクセルP2へは、距離rと角度θだけ離れている。このrとθを相対位置関数δとする。δ=(r,θ)と表す。
図6(b)において、δ1=(1,0°)である場合、ピクセルP1に対してピクセルP2は隣り合う次のピクセルを指し示す。
図6(c)において、δ1=(1,90°)である場合、ピクセルP1に対してピクセルP2は隣り合う真上のピクセルを指し示す。
同時生起確率行列は、この一定の相対位置関数δだけ離れている二点のピクセルの輝度の組み合わせを、輝度を要素数とする正方行列に加算する仕組みである。
Here, the outline of the co-occurrence probability matrix will be described.
FIG. 6 is a diagram for explaining the outline of the co-occurrence probability matrix.
In FIG. 6A, P1 and P2 are two arbitrary pixels in the image data. The pixel P1 is separated from the pixel P2 by a distance r and an angle θ. Let r and θ be the relative position function δ. δ = (r, θ).
In FIG. 6B, when δ1 = (1,0 °), the pixel P2 indicates the next adjacent pixel with respect to the pixel P1.
In FIG. 6C, when δ1 = (1, 90 °), the pixel P2 indicates the adjacent pixel immediately above the pixel P1.
The co-occurrence probability matrix is a mechanism that adds a combination of the luminances of two pixels separated by a certain relative position function δ to a square matrix having luminance as the number of elements.
図7に、説明のために簡素化した画像データと簡素化した同時生起確率行列を示す。
図7(a)において、4×4の16ピクセルよりなる画像データ内の各ピクセルは、0〜3迄の4段階の輝度を有する。
図7(b)は、4段階の輝度よりなる4×4の正方行列である同時生起確率行列である。ここで、相対位置関数δ=(r,θ)=(1,0°)の関係にて、図7(a)の画像データから同時生起確率行列を作成する手順を以下に示す。
図7(a)の(x,y)=(0,0)をピクセルP1とすると、ピクセルP2は(x,y)=(1,0)となる。このとき、ピクセルP1の輝度iは0、ピクセルP2の輝度jは0である。したがって、(i,j)=(0,0)に1を加える。更に、往復カウントを行うので、(i,j)=(0,0)に1を加える。
図7(a)の(x,y)=(1,0)をピクセルP1とすると、ピクセルP2は(x,y)=(2,0)となる。このとき、ピクセルP1の輝度iは0、ピクセルP2の輝度jは1である。したがって、(i,j)=(0,1)に1を加える。更に、往復カウントを行うので、(i,j)=(1,0)に1を加える。
以上のように、相対位置関数δだけ離れている各ピクセルの輝度の組み合わせに相当する行列の要素をカウントアップする動作を、全てのピクセルに対して行う。つまり、この正方行列は、二つのピクセルの輝度の組み合わせの出現回数を示す、カウンタの行列である。
なお、往復カウントをするか否かは設計者の任意である。
FIG. 7 shows simplified image data and a simplified co-occurrence probability matrix for explanation.
In FIG. 7A, each pixel in the image data composed of 4 × 4 16 pixels has four levels of brightness from 0 to 3.
FIG. 7B is a co-occurrence probability matrix that is a 4 × 4 square matrix having four levels of luminance. Here, a procedure for creating a co-occurrence probability matrix from the image data in FIG. 7A in the relationship of relative position function δ = (r, θ) = (1,0) is shown below.
If (x, y) = (0, 0) in FIG. 7A is the pixel P1, the pixel P2 is (x, y) = (1, 0). At this time, the luminance i of the pixel P1 is 0, and the luminance j of the pixel P2 is 0. Therefore, 1 is added to (i, j) = (0,0). Furthermore, since round trip counting is performed, 1 is added to (i, j) = (0, 0).
If (x, y) = (1, 0) in FIG. 7A is the pixel P1, the pixel P2 is (x, y) = (2, 0). At this time, the luminance i of the pixel P1 is 0, and the luminance j of the pixel P2 is 1. Therefore, 1 is added to (i, j) = (0,1). Furthermore, since round trip counting is performed, 1 is added to (i, j) = (1, 0).
As described above, the operation of counting up the elements of the matrix corresponding to the combination of the luminance of each pixel separated by the relative position function δ is performed for all the pixels. That is, this square matrix is a matrix of counters indicating the number of appearances of the combination of the luminance values of two pixels.
Note that it is up to the designer to perform a round-trip count.
つまり、図6及び図7にて説明した同時生起確率行列の作成手法にて、図5において入力画像ビットマップデータから配列データを作成するものである。
但し、本実施形態は従来より周知の同時生起確率行列の取り扱いとは異なるアプローチを取っている。
従来技術では、同時生起確率行列は例えば特許文献2にて開示されているように、製造工程中に良品と不良品とを比較するための手法として使われている。予め良品を撮影して同時生起確率行列を保持しておき、製造ラインに流れてきた製品を撮影する。撮影画像データから同時生起確率行列を作成し、これを保持している良品の行列と比較して、相違点から製品の傷や汚れ等の異常を判別する。これが、従来より良く知られている同時生起確率行列の利用である。
本実施形態は、この同時生起確率行列に対して、所定の閾値を用いて各行列要素を比較する。そして、閾値以上の行列要素は、画像データ内にて広い面積を占める領域、すなわち背景であるものと判断する。そして、背景に該当する画像データ内の領域を除外する。
このために、行列要素を配列データとし、配列の要素に画像データ内のピクセルの相対アドレスを格納する必要がある。
全ての処理が終わった後に、画像フラグデータ内にてフラグが下りていない部分が、画像データ内にて背景とは異なる輝度を示す狭い部分、つまり不審物を示す領域であると判断する。
イメージとしては、図4(b)のガウス曲面を、閾値を示すxy平面と平行の平面にて真横に切断するようなものだと思って頂ければよいだろう。閾値平面によって切断された、つまり閾値平面に触れた行列要素に該当する画像データの相対アドレスは、背景である。
That is, the array data is created from the input image bitmap data in FIG. 5 by the method for creating the co-occurrence probability matrix described in FIGS. 6 and 7.
However, this embodiment takes an approach different from the conventionally known co-occurrence probability matrix handling.
In the prior art, the co-occurrence probability matrix is used as a method for comparing non-defective products with defective products during the manufacturing process, as disclosed in
In the present embodiment, each matrix element is compared with this co-occurrence probability matrix using a predetermined threshold value. Then, it is determined that the matrix elements equal to or greater than the threshold value are regions that occupy a large area in the image data, that is, the background. Then, an area in the image data corresponding to the background is excluded.
For this purpose, it is necessary to use matrix elements as array data and store the relative addresses of the pixels in the image data in the array elements.
After all the processes are completed, it is determined that the portion where the flag is not lowered in the image flag data is a narrow portion showing luminance different from the background in the image data, that is, a region indicating a suspicious object.
As an image, it can be considered that the Gaussian curved surface of FIG. 4B is cut right by a plane parallel to the xy plane indicating the threshold value. The relative address of the image data corresponding to the matrix element cut by the threshold plane, that is, touching the threshold plane is the background.
図8及び図9は、本実施形態の画像処理装置101の動作を示すフローチャートである。
処理を開始すると(S801)、最初に同時生起確率行列を作成する際のルールである、相対位置関数δを設定する(S802)。次に、入力画像ビットマップデータの検討対象アドレスaを、画像データの先頭に設定する(S803)。つまり、アドレスaは入力画像ビットマップデータ内の相対アドレスであり、この処理にて相対アドレスの初期値を与える。
次に、相対アドレスaから相対位置関数δだけ離れている地点にピクセルが存在するか否かを検証する(S804)。例えば、相対位置関数δ=(1,0°)の場合、相対アドレスaが入力画像ビットマップデータの右端であれば、相対アドレスb=δ(a)は存在しない。
相対アドレスb=δ(a)があれば、相対アドレスaの輝度をkに代入し、相対アドレスbの輝度をlに代入する。そして、配列データ領域203内の行列要素(k,l)の配列に、相対アドレスaを追加する(S805)。つまり、図4(a)の、立方体を一つ積み上げて、そこに相対アドレスaを格納する。なお、ステップS804にて、b=δ(a)がない場合は、同時生起確率行列の追加処理ができないので、ステップS805の処理を飛ばす。
次に、相対アドレスaを一つ進める(S806)。次に、相対アドレスaが存在するか否かを検証する(S807)。あれば、再びステップS804から処理を繰り返す。なければ、それは入力画像ビットマップデータの終端であり、同時生起確率行列の処理が終わったので、次の処理に進む。
8 and 9 are flowcharts showing the operation of the image processing apparatus 101 of this embodiment.
When the process is started (S801), a relative position function δ, which is a rule for creating a co-occurrence probability matrix for the first time, is set (S802). Next, the examination target address a of the input image bitmap data is set at the head of the image data (S803). That is, the address a is a relative address in the input image bitmap data, and an initial value of the relative address is given in this process.
Next, it is verified whether a pixel exists at a point separated from the relative address a by the relative position function δ (S804). For example, when the relative position function δ = (1,0 °), if the relative address a is the right end of the input image bitmap data, the relative address b = δ (a) does not exist.
If there is a relative address b = δ (a), the luminance of the relative address a is substituted for k, and the luminance of the relative address b is substituted for l. Then, the relative address a is added to the array of matrix elements (k, l) in the array data area 203 (S805). That is, one cube shown in FIG. 4A is stacked and the relative address a is stored therein. If there is no b = δ (a) in step S804, the process of step S805 is skipped because the co-occurrence probability matrix cannot be added.
Next, the relative address a is advanced by one (S806). Next, it is verified whether or not the relative address a exists (S807). If there is, the process is repeated again from step S804. If not, it is the end of the input image bitmap data, and since the processing of the co-occurrence probability matrix is finished, the process proceeds to the next process.
全ての入力画像ビットマップデータについて同時生起確率行列の処理が終わったら、その行列要素を用いて閾値の演算を行う(S808)。閾値の計算方法は様々な方法が考えられる。例えば、予め設定済みの固定値を用いるとか、1以上の行列要素の全ての平均を取る等が考えられる。
閾値を得たら、配列データ領域203内の、評価対象とする行列要素の初期値を設定する(S909)。
次に、行列要素の要素数と閾値を比較する(S910)。もし、要素数が閾値以上であれば、その行列要素に属する配列要素内の、入力画像ビットマップデータの相対アドレスに対応する画像フラグビットマップデータ領域204内の該当アドレスのフラグを下ろす(S911)。つまり、そこは背景である、という判断である。もし、要素数が閾値未満であれば、何もしない。つまり、そこは不審物である、という判断である。
そして、評価対象となる行列要素を一つ進める(S912)。
次に、評価対象となる行列要素があるか否か検証する(S913)。あれば、再び評価を行う(S910)。なければそれは処理の終わりを意味する。
最後に、画像フラグビットマップデータ領域204内に残っている、フラグが立っている領域、つまり不審物を示す領域の面積と中心座標を算出して(S914)、終了する(S915)。
When processing of the co-occurrence probability matrix is completed for all input image bitmap data, a threshold value is calculated using the matrix elements (S808). There are various methods for calculating the threshold value. For example, it is conceivable to use a preset fixed value or to average all of one or more matrix elements.
When the threshold value is obtained, initial values of matrix elements to be evaluated in the
Next, the number of matrix elements is compared with a threshold value (S910). If the number of elements is equal to or greater than the threshold value, the flag of the corresponding address in the image flag
Then, the matrix element to be evaluated is advanced by one (S912).
Next, it is verified whether there is a matrix element to be evaluated (S913). If there is, the evaluation is performed again (S910). If not, it means the end of processing.
Finally, the area and central coordinates of the flagged area remaining in the image flag
図8において、ステップS802、S803、S804、S805、S806及びS807よりなる処理は、図1(b)の特徴量算出部113の処理に相当する。つまり、同時生起確率行列の算出処理である。
図8において、ステップS808、そして図9において、ステップS909、S910、S911、S912及びS913よりなる処理は、図1(b)の画素判定部114の処理に相当する。つまり、不審物のアドレスを決定する処理である。
図9において、ステップS914よりなる処理は、図1(b)の画素集合決定部115の処理に相当する。つまり、不審物のアドレスの数をカウントし、不審物のアドレスを示す領域の中心を算出する処理である。
In FIG. 8, the process consisting of steps S802, S803, S804, S805, S806, and S807 corresponds to the process of the feature
In FIG. 8, the process consisting of step S808, and in FIG. 9, steps S909, S910, S911, S912, and S913 corresponds to the process of the
In FIG. 9, the process consisting of step S914 corresponds to the process of the pixel
次に、本発明の第2の実施形態を説明する。
図10は、第2の実施形態にかかる画像処理装置にて用いる相対位置関数δを示す概略図である。
本実施形態では、画像処理装置の内部の構成は、第1の実施の形態で説明した図1のブロック図で示した構成と殆ど変わらないが、相対位置関数δを複数取り、それに基づいて複数の同時生起確率行列を作成する構成とする。
先に説明した第1の実施形態では、相対位置関数δ=(1,0°)を例に説明した。ところで、従来技術においても同時生起確率行列を複数の相対位置関数δにて取ることは周知である。これは、一定の模様よりなる画像データの特徴をより正確に数値化するための措置である。
図10において、あるピクセルの近傍にあるピクセルだけでも8つのピクセルが存在することがわかる。
δ1は距離が1であり、角度が0°である。
δ2は距離が√2であり、角度が45°である。
以下同様に、δ3=(1,90°)、δ4=(√2,135°)、δ5=(1,180°)、δ6=(√2,225°)、δ7=(1,270°)、δ8=(√2,315°)となる。
すなわち、8つの相対位置関数δ1〜δ8が作成し得る。
これら8つの相対位置関数δ1〜δ8を用いて、8つの同時生起確率行列を作成することができる。
Next, a second embodiment of the present invention will be described.
FIG. 10 is a schematic diagram illustrating the relative position function δ used in the image processing apparatus according to the second embodiment.
In the present embodiment, the internal configuration of the image processing apparatus is almost the same as the configuration shown in the block diagram of FIG. 1 described in the first embodiment. A co-occurrence probability matrix is created.
In the first embodiment described above, the relative position function δ = (1,0 °) has been described as an example. By the way, it is well known in the prior art that a co-occurrence probability matrix is obtained by a plurality of relative position functions δ. This is a measure for more accurately quantifying the characteristics of image data having a certain pattern.
In FIG. 10, it can be seen that there are 8 pixels even in the vicinity of a certain pixel.
δ 1 has a distance of 1 and an angle of 0 °.
δ 2 has a distance of √2 and an angle of 45 °.
Similarly, δ 3 = (1,90 °), δ 4 = (√2,135 °), δ 5 = (1,180 °), δ 6 = (√2,225 °), δ 7 = ( 1,270 °) and δ 8 = (√2,315 °).
That is, eight relative position functions δ 1 to δ 8 can be created.
Eight co-occurrence probability matrices can be created using these eight relative position functions δ 1 to δ 8 .
図11は、本実施形態にかかる画像処理装置のフローチャートである。
処理を開始すると(S1101)、最初にカウンタ変数iを0に初期化する(S1102)。次に、同時生起確率行列を作成する際のルールである、相対位置関数δ(i)の存在を確認する(S1103)。
δ(i)があればこれを設定し(S1104)、これに基づいて同時生起確率行列に基づく特徴量算出処理を行う(S1105)。次に、得られた同時生起確率行列の配列データを用いて、画素判定処理を行う(S1106)。
ここで、ステップS1105は、図8のステップS803、S804、S805、S806そしてS807に等しい。
また、ステップS1106は、図8のステップS808と、図9のステップS909、S910、S911、S912そしてS913に等しい。
次に、入力画像ビットマップデータの検討対象アドレスaを、画像データの先頭に設定する(S803)。つまり、アドレスaは入力画像ビットマップデータ内の相対アドレスであり、この処理にて相対アドレスの初期値を与える。
つまり、ステップS1105及びS1106は、図8の点線で囲むサブルーチンR822と等しい。これが、同時生起確率行列よりなる配列データを作成し、そこから画像フラグビットマップデータ領域204にて不審物の画素を判定する処理である。
FIG. 11 is a flowchart of the image processing apparatus according to the present embodiment.
When the process is started (S1101), the counter variable i is first initialized to 0 (S1102). Next, the existence of the relative position function δ (i), which is a rule for creating the co-occurrence probability matrix, is confirmed (S1103).
If δ (i) exists, it is set (S1104), and based on this, a feature amount calculation process based on the co-occurrence probability matrix is performed (S1105). Next, pixel determination processing is performed using the obtained arrangement data of the co-occurrence probability matrix (S1106).
Here, step S1105 is equal to steps S803, S804, S805, S806, and S807 of FIG.
Step S1106 is equivalent to step S808 in FIG. 8 and steps S909, S910, S911, S912, and S913 in FIG.
Next, the examination target address a of the input image bitmap data is set at the head of the image data (S803). That is, the address a is a relative address in the input image bitmap data, and an initial value of the relative address is given in this process.
That is, steps S1105 and S1106 are equivalent to the subroutine R822 enclosed by the dotted line in FIG. This is a process of creating array data including a co-occurrence probability matrix and determining a pixel of a suspicious object in the image flag
処理が終わったら、カウンタ変数iを進める(S1107)。そして、次の相対位置関数δ(i)の有無を確認し(S1103)、あれば設定し(S1104)、処理を続行する。なければ全ての相対位置関数δ(i)について処理を終えたこととなる。
全ての相対位置関数δ(i)についてi個の画像フラグビットマップデータが得られたら、これらを統合演算する(S1108)。演算は全てのビットの論理積でも、全てのビットを加算して適当な閾値と比較するのでもよい。この演算処理によって、不審物領域の決定の精度が増す。
最後に不審物領域の面積と中心座標を算出して(S1109)、終了する(S1110)。
When the process is finished, the counter variable i is advanced (S1107). Then, the presence / absence of the next relative position function δ (i) is confirmed (S1103), and if it is set (S1104), the processing is continued. If not, the processing is completed for all the relative position functions δ (i).
When i image flag bitmap data are obtained for all the relative position functions δ (i), these are integrated and calculated (S1108). The operation may be a logical product of all the bits, or all the bits may be added and compared with an appropriate threshold value. This calculation process increases the accuracy of determining the suspicious object region.
Finally, the area and center coordinates of the suspicious object region are calculated (S1109), and the process ends (S1110).
以上に説明したことをまとめる。
本実施形態の画像処理装置101は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
静止画像データが画像処理装置101に入力されると、これをRAM105内の入力画像ビットマップデータ領域202に展開する。その後、同時生起確率行列のアルゴリズムにて配列データを配列データ領域203に作成する。次に、得られた配列データから閾値を算出し、この閾値を満たす数の行列に該当する画像のピクセルを、背景であるものと判断する。背景と判断された画像のピクセルの相対アドレスを、配列データから読み出して、画像フラグビットマップデータ領域204内の、該当アドレスのフラグを下ろす。
以上の処理により、静止画像データから生成した同時生起確率行列から、背景とそれ以外の部分とを判別することができる。
Summarize what has been described above.
The image processing apparatus 101 of this embodiment is mainly composed of software that runs on a microcomputer.
When still image data is input to the image processing apparatus 101, it is expanded in the input image
Through the above processing, the background and other portions can be discriminated from the co-occurrence probability matrix generated from the still image data.
次に、本発明の第3の実施形態を説明する。
図12は、撮像カメラ102によって撮影された静止画像の一例である。
図3(a)の画像と比較して頂きたい。図3では船である不審物304が写っているが、図12では岸辺1202と、その上に灯台1203が写っている。これらが不審物ではないことは明らかであるが、第1の実施形態のままではこれらを不審物と誤認してしまう可能性が高い。なぜなら、これらは画像データ全体から見たらその占める面積が少ないので、背景と認識されないからである。そこで、このように不審物と誤認されるであろう箇所を、予め同時生起確率行列の作成処理の対象から外す処理が必要になる。
Next, a third embodiment of the present invention will be described.
FIG. 12 is an example of a still image taken by the
Compare with the image in Figure 3 (a). In FIG. 3, the
図13(a)は、第3の実施形態にかかる画像処理装置の全体ブロック図である。図13(a)に示す画像処理装置1301は、第1の実施形態における図1(b)の画像処理装置101とほぼ同じである。図13(a)において、図1(b)と機能を共通にしている部分は同一符号を付し、詳細な説明は略す。
本実施形態にかかる画像処理装置1301は、本稼動させる前に、撮影した静止画像データに基づいて、画像データ中の特定領域を予め不審物を判定する対象から外す処理を行う。このために、図1(b)に示される第1の実施形態と比較すると、処理領域設定部1302と、表示装置1303と、入力装置1304が新たに設けられている。
表示装置1303は例えば周知のLCDディスプレイである。入力装置1304は例えば周知のマウスである。
処理領域設定部1302は、画素判定部1314から得られた結果に基づき、不審物と思しき領域を画像保存部112に保持されている画像データとオーバーラップさせて、表示装置1303へ表示する。使用者は入力装置1304を操作して、表示装置1303に表示されている静止画像と、その上にオーバーラップされた状態にて表示されている除外領域を修正する。
以上のようにして、処理領域設定部1302によって特徴量算出部1313に設定された除外領域は、特徴量算出部1313において行われる同時生起確率行列の演算の対象外となる。
図12を例にするならば、岸辺1202と灯台1203を囲むような除外領域が処理領域設定部1302にて作成され、特徴量算出部1313に保持される。特徴量算出部1313は、画像データの各ピクセルのうち、除外領域に該当するものは同時生起確率行列の演算を行わず、強制的に背景とみなす。
FIG. 13A is an overall block diagram of an image processing apparatus according to the third embodiment. An image processing apparatus 1301 shown in FIG. 13A is almost the same as the image processing apparatus 101 in FIG. 1B in the first embodiment. In FIG. 13 (a), parts having the same functions as those in FIG. 1 (b) are denoted by the same reference numerals, and detailed description thereof is omitted.
The image processing apparatus 1301 according to the present embodiment performs a process of excluding a specific area in the image data from a target for determining a suspicious object in advance, based on the captured still image data, before the actual operation. Therefore, compared with the first embodiment shown in FIG. 1B, a processing
The
Based on the result obtained from the
As described above, the exclusion region set in the feature
Taking FIG. 12 as an example, an exclusion region surrounding the
次に、本発明の第4の実施形態を説明する。
図13(b)は、第4の実施形態にかかる画像処理装置の全体ブロック図である。図13(b)に示す画像処理装置1311は、第3の実施形態における図13(a)の画像処理装置1301とほぼ同じである。図13(b)において、図13(a)と機能を共通にしている部分は同一符号を付し、詳細な説明は略す。
本実施形態にかかる画像処理装置1311は、図13(a)と同様に、本稼動させる前に、撮影した静止画像データに基づいて、画像データ中の特定領域を予め不審物を判定する対象から外す処理を行う。第3の実施形態と異なる点は、操作者による除外領域の修正処理を行わず、自動で設定する点にある。このために、図13(a)に示される第3の実施形態と比較すると、表示装置1303と、入力装置1304がない。また、処理領域設定部1303は、画素集合決定部1315に接続されている。
処理領域設定部1303は、画素集合決定部1315から得られた結果を、除外領域とみなし、特徴量算出部1313に設定する。
設定された除外領域は、特徴量算出部1313において行われる同時生起確率行列の演算の対象外となる。
Next, a fourth embodiment of the present invention will be described.
FIG. 13B is an overall block diagram of an image processing apparatus according to the fourth embodiment. An image processing device 1311 shown in FIG. 13B is substantially the same as the image processing device 1301 shown in FIG. 13A in the third embodiment. In FIG. 13 (b), parts having the same functions as those in FIG. 13 (a) are denoted by the same reference numerals, and detailed description thereof is omitted.
Similar to FIG. 13A, the image processing apparatus 1311 according to the present embodiment starts from a target for determining a suspicious object in advance in a specific area in image data based on still image data that has been captured before actual operation. Perform the removal process. The difference from the third embodiment is that the operator automatically sets the excluded area without performing the correction process of the excluded area. For this reason, the
The processing
The set exclusion region is excluded from the calculation of the co-occurrence probability matrix performed in the feature
以上、第1、第2、第3及び第4の実施形態にて説明した画像処理装置は、図3や図12にて説明したように、海のような単一の背景を監視する際に、特に好適である。このため、撮像カメラは広い範囲を監視するために回転させる場合が多い。
図14(a)は本実施形態における撮像カメラの外観図を示す。また、図14(b)は、図14(a)における撮像カメラと画像処理装置との組み合わせを示すブロック図を示す。
図14(a)において、撮像カメラ102は広い範囲を監視するために、旋回装置1402に設置され、左右に回転駆動される。
図14(b)において、旋回装置1402の内部には撮像カメラ102を回転駆動させるためのモータ1403と、モータのシャフト1404に取り付けられ、撮像カメラ102と共に回転駆動される角度検出器1405が設けられている。角度検出器1405は例えば光学検出や磁気検出等によるタコジェネレータ等が挙げられる。
角度検出器1405の検出信号は画像処理装置101の主要構成部分をなすマイクロコンピュータのバス106に入力され、予め設定された所定の角度毎に、撮像カメラ102から得られる静止画像をRAM105に取り込み、前述の処理を行う。
また、第2及び第4の実施形態においては、撮像カメラ102の撮影角度毎に除外領域の設定を予め行うこととなる。
As described above, the image processing apparatuses described in the first, second, third, and fourth embodiments monitor the single background such as the sea as described in FIGS. 3 and 12. Is particularly preferred. For this reason, the imaging camera is often rotated to monitor a wide range.
FIG. 14A shows an external view of the imaging camera in the present embodiment. FIG. 14B is a block diagram showing a combination of the imaging camera and the image processing apparatus in FIG.
In FIG. 14A, the
In FIG. 14B, inside the swivel device 1402, a
The detection signal of the angle detector 1405 is input to the microcomputer bus 106 that constitutes the main component of the image processing apparatus 101, and a still image obtained from the
In the second and fourth embodiments, the exclusion area is set in advance for each shooting angle of the
本実施形態には、以下のような応用例が考えられる。
(1)マイクロコンピュータによる実装の代わりに、プログラマブル・ロジック・デバイス(Programmable Logic Device:PLD)を用いてもよい。
(2)前述の第3及び第4の実施形態においては、処理領域設定部1302及び1303にて設定した除外領域を特徴量算出部1313に反映させていた。この代わりに、除外領域を画素集合決定部1315に反映させても、同等の効果が得られる。すなわち、除外領域に該当する部分は背景であるものとみなし、画像フラグビットマップデータ領域204内の該当部分のフラグを下ろす。
(3)図2において、RAM105内部では入力画像ビットマップデータ領域202と画像フラグビットマップデータ領域204は異なる領域として記述されているが、これを一体化することもできる。
例えば、画像データを構成するピクセル毎に、輝度データとフラグデータを格納する構造体を構成する。こうすれば、ピクセル毎の絶対アドレスを直接配列データ401に格納することができるので、相対アドレスを変換する演算処理が不要になる。
(4)配列データ領域203にて構成される同時生起確率行列を表現する手法は様々なものが考えられる。例えば、リレーショナルデータベースを用いたり、非特許文献1にて周知のインタプリタ言語処理系であるperl等にて実装されている、連想配列を用いて実現できる。
The following application examples can be considered in the present embodiment.
(1) Instead of mounting by a microcomputer, a programmable logic device (PLD) may be used.
(2) In the third and fourth embodiments described above, the exclusion region set by the processing
(3) Although the input image
For example, a structure that stores luminance data and flag data is configured for each pixel that configures image data. In this way, since the absolute address for each pixel can be directly stored in the array data 401, the arithmetic processing for converting the relative address becomes unnecessary.
(4) Various methods for expressing the co-occurrence probability matrix configured by the
本実施形態においては、静止画像データから背景とは異なる物体を判別することができる。この処理は従来技術において周知の、直前の画像データとの比較による手法とは異なり、入力された画像データのみを用いて判別する。
また、本実施形態では判別のための技術として、同時生起確率行列を用いて判別を行う。このため、海や空など、自然現象によって生じる変化があっても、これを含めて一定の特徴を有する背景と判別することができる。
更に、本実施形態では同時生起確率行列に基づく判別として、従来技術とは異なり、予め撮影して保持している行列データとの比較を行わず、得られた行列から閾値を算出し、その閾値を基に背景か否かの判別を行う。この判別手法自体が従来技術にはない新しいアプローチである。また、従来技術にある同時生起確率行列同士の比較と比べて演算量が少ないことは容易にわかるだろう。更に、同時生起確率行列同士の比較と比べると、同時生起確率行列を予め保持する必要がないことから、予め必要とする記憶装置の記憶容量も少なく済むことも容易にわかるだろう。
したがって、本実施形態の画像処理装置を撮像カメラと組み合わせることによって、従来技術と比べると、演算量が極めて少なく、また必要とする記憶容量も少なく済み、海の波や空の雲などの自然現象も誤認識せずに背景と認識できる、優れた監視装置を提供できる。
In the present embodiment, an object different from the background can be determined from still image data. This processing is different from the method based on comparison with the immediately preceding image data, which is well known in the prior art, and is determined using only the input image data.
In this embodiment, as a technique for discrimination, discrimination is performed using a co-occurrence probability matrix. For this reason, even if there is a change caused by a natural phenomenon such as the sea or the sky, it can be determined as a background having certain characteristics including this.
Furthermore, in this embodiment, as a discrimination based on the co-occurrence probability matrix, unlike the conventional technique, the threshold value is calculated from the obtained matrix without comparing with the matrix data captured and held in advance. Based on the above, it is determined whether or not the background. This discrimination method itself is a new approach not found in the prior art. In addition, it is easy to see that the amount of calculation is small compared with the comparison between the co-occurrence probability matrices in the prior art. Furthermore, as compared with the comparison between the co-occurrence probability matrices, it can be easily understood that the storage capacity of the storage device required in advance can be reduced because the co-occurrence probability matrix does not need to be held in advance.
Therefore, by combining the image processing apparatus of the present embodiment with an imaging camera, the amount of calculation is extremely small compared with the prior art, and the required storage capacity is also reduced. Natural phenomena such as ocean waves and sky clouds It is possible to provide an excellent monitoring device that can be recognized as a background without erroneous recognition.
以上、本発明の実施形態例について説明したが、本発明は上記実施形態例に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことは言うまでもない。 The embodiment of the present invention has been described above. However, the present invention is not limited to the above-described embodiment, and other modifications may be made without departing from the gist of the present invention described in the claims. It goes without saying that application examples are included.
101…画像処理装置、102…撮像カメラ、103…CPU、104…ROM、105…RAM、106…バス、107…出力インターフェース、112…画像保存部、113…特徴量算出部、114…画素判定部、115…画素集合決定部
DESCRIPTION OF SYMBOLS 101 ... Image processing apparatus, 102 ... Imaging camera, 103 ... CPU, 104 ... ROM, 105 ... RAM, 106 ... Bus, 107 ... Output interface, 112 ... Image preservation | save part, 113 ... Feature-value calculation part, 114 ...
Claims (1)
前記画像保存部中の入力画像データを構成する各ピクセルを示すアドレスを要素とする配列にて、同時生起確率行列を算出する特徴量算出部と、
前記特徴量算出部に対し、前記同時生起確率行列の演算の対象外となる除外領域を設定する処理領域設定部と、
前記特徴量算出部によって得られた前記同時生起確率行列の要素数を所定の閾値と比較して、背景か否かを決定する画素判定部と、
前記画素判定部によって得られた判定結果に基づいて、前記背景でない被写体の存在の有無を出力する画素集合決定部と
を具備する画像処理装置。 An image storage unit for storing input image data;
A feature amount calculating unit that calculates a co-occurrence probability matrix in an array having an address indicating each pixel constituting the input image data in the image storage unit;
A processing region setting unit that sets an exclusion region that is not subject to the calculation of the co-occurrence probability matrix for the feature amount calculation unit;
And the number of elements of the co-occurrence probability matrix obtained by the feature amount calculation unit with a predetermined threshold value, the pixel determination unit for determining whether the background,
An image processing apparatus comprising: a pixel set determining unit that outputs the presence / absence of an object that is not the background based on a determination result obtained by the pixel determining unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006220282A JP4830712B2 (en) | 2006-08-11 | 2006-08-11 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006220282A JP4830712B2 (en) | 2006-08-11 | 2006-08-11 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008046769A JP2008046769A (en) | 2008-02-28 |
JP4830712B2 true JP4830712B2 (en) | 2011-12-07 |
Family
ID=39180475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006220282A Expired - Fee Related JP4830712B2 (en) | 2006-08-11 | 2006-08-11 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4830712B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5272890B2 (en) * | 2009-05-21 | 2013-08-28 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5644097B2 (en) * | 2009-12-08 | 2014-12-24 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09251533A (en) * | 1996-03-18 | 1997-09-22 | Babcock Hitachi Kk | Method for extracting picture area |
JPH11185009A (en) * | 1997-12-24 | 1999-07-09 | Mitsubishi Electric Corp | Image data storing and identifying device |
-
2006
- 2006-08-11 JP JP2006220282A patent/JP4830712B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008046769A (en) | 2008-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084095B (en) | Lane line detection method, lane line detection apparatus, and computer storage medium | |
US8068701B2 (en) | Image-processing apparatus, image-processing method and image-processing program | |
CN110969793B (en) | Method, system and storage medium for preventing ship intrusion at periphery of roundabout electronic purse net | |
CN114332702A (en) | Target area detection method and device, storage medium and electronic equipment | |
CN112819796A (en) | Tobacco shred foreign matter identification method and equipment | |
CN110580709A (en) | A target detection method based on ViBe and three-frame differential fusion | |
CN114519853B (en) | Three-dimensional target detection method and system based on multi-mode fusion | |
CN111583265A (en) | Method for realizing phishing behavior detection processing based on codec structure and corresponding semantic segmentation network system | |
CN115797357A (en) | Transmission channel hidden danger detection method based on improved YOLOv7 | |
JP4270254B2 (en) | Image signal processing apparatus and image processing method | |
JP4830712B2 (en) | Image processing device | |
JP2004524603A (en) | Method of detecting a new object in an illuminated scene (Technical field) The problem posed is to detect a new object in a scene illuminated by light that is not necessarily controlled, ie provided by artificial lighting or lighting. The scene is being monitored by at least one sensor, such as a video camera, capable of providing a continuous image. The present invention solves this problem. | |
CN113469130B (en) | A method, device, storage medium and electronic device for detecting an obstructed target | |
JP2018142828A (en) | Deposit detector and deposit detection method | |
CN113311507A (en) | Typhoon path identification method and device | |
JP5272890B2 (en) | Image processing apparatus, image processing method, and program | |
CN118379286A (en) | A method and system for detecting surface defects of titanium alloy forgings | |
US20170169560A1 (en) | Method for increasing reliability in monitoring systems | |
CN106504282A (en) | A kind of video shelter detection method and device | |
CN113888407B (en) | A target detection system based on super-resolution technology | |
JP2007041730A (en) | Wire abnormality detection method, apparatus, and program | |
CN115115978A (en) | Object recognition method, device, storage medium and processor | |
JP4401842B2 (en) | Image processing apparatus and intruder detection apparatus | |
AU2008264229B2 (en) | Partial edge block transmission to external processing module | |
JP4614778B2 (en) | Image creation method for moving object extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110823 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110905 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140930 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |