JP3153718B2 - Intruder detection device and intruder detection method - Google Patents
Intruder detection device and intruder detection methodInfo
- Publication number
- JP3153718B2 JP3153718B2 JP29797694A JP29797694A JP3153718B2 JP 3153718 B2 JP3153718 B2 JP 3153718B2 JP 29797694 A JP29797694 A JP 29797694A JP 29797694 A JP29797694 A JP 29797694A JP 3153718 B2 JP3153718 B2 JP 3153718B2
- Authority
- JP
- Japan
- Prior art keywords
- intruder
- image data
- image
- installation
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 33
- 238000003384 imaging method Methods 0.000 claims description 75
- 238000009434 installation Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims 2
- 238000000926 separation method Methods 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Landscapes
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、特定の監視領域内へ侵
入した侵入者などの侵入物を検出する侵入物検出装置お
よび侵入物検出方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an intruder detecting apparatus and an intruder detecting method for detecting an intruder such as an intruder who has entered a specific monitoring area.
【0002】[0002]
【従来の技術】従来、侵入物を検知するのに、特開昭6
3−226799号に示されているような侵入物認識シ
ステムが知られている。この侵入物認識システムは、監
視区域を視野内に含むカメラと、このカメラに接続さ
れ、カメラからの画像を処理して図形認識を行なう画像
処理装置とを有し、前記監視区域内に侵入した侵入対象
物の位置と大きさとを認識する場合に、カメラの視野内
に配置された目盛棒と、監視区域;侵入対象物;カメラ
および前記目盛棒の幾何学的相対位置関係から前記侵入
対象物の位置と大きさとを算出するようになっている。2. Description of the Related Art Conventionally, Japanese Patent Application Laid-Open No.
An intruder recognition system such as that shown in 3-226799 is known. The intruder recognition system includes a camera including a monitoring area in a field of view, and an image processing apparatus connected to the camera and performing image recognition by processing an image from the camera and invading the monitoring area. When recognizing the position and size of the intruding object, a scale bar arranged in the field of view of the camera, a monitoring area; an intruding object; the geometrical relative positional relationship between the camera and the scale bar; Is calculated.
【0003】この侵入物認識システムでは、カメラから
一定距離に目盛棒を設け、目盛棒の画像と監視区域の画
像とを共に画像入力することにより、侵入物とカメラ;
目盛棒の目盛の幾何学的関係から侵入物の位置と大きさ
とを知ることができる。すなわち、発見物(侵入者等)の
占める目盛の目盛棒の上限および下限の目盛がわかれば
演算手段により発見物の位置と大きさとを算出すること
ができる。In this intruding object recognition system, a scale bar is provided at a fixed distance from a camera, and an image of the scale bar and an image of a monitoring area are input together to obtain an intruder and a camera;
The position and size of the intruder can be known from the geometric relationship of the scale of the scale bar. That is, if the upper limit and the lower limit of the scale bar of the scale occupied by the found object (intruder or the like) are known, the position and size of the found object can be calculated by the calculating means.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上述し
た従来の侵入物認識システムでは、カメラから一定の距
離に目盛棒を設けなければならないという問題があっ
た。すなわち、建物内の部屋の構造によっては目盛棒を
配置することができない場合がある。また、目盛棒を配
置できる場合でも、目盛棒を監視領域内の所定位置に正
しく配置しなければならず、また、美観を損ねるなどの
問題があった。However, the conventional intruder recognition system described above has a problem that a scale bar must be provided at a fixed distance from the camera. That is, depending on the structure of the room in the building, it may not be possible to arrange the scale bar. Further, even when the scale bar can be arranged, there is a problem that the scale bar must be correctly arranged at a predetermined position in the monitoring area, and the appearance is impaired.
【0005】本発明は、目盛棒などの特別な道具を別途
設置したりせずとも、侵入物に関する確実な情報を検出
することの可能な侵入物検出装置および侵入物検出方法
を提供することを目的としている。An object of the present invention is to provide an intruder detecting apparatus and an intruder detecting method capable of detecting reliable information on an intruder without separately installing a special tool such as a scale bar. The purpose is.
【0006】[0006]
【課題を解決するための手段および作用】上記目的を達
成するために、本発明は、所定の視野角の範囲の画像を
所定の撮像手段により撮像した画像データに基づき、侵
入物の検出に関する画像処理演算を行なう際、この画像
処理演算において、撮像手段の視野角と撮像手段の設置
条件とを用いるようになっている。これにより、目盛棒
などの特別な道具を別途設置したりせずとも、撮像手段
の視野角と設置条件だけにより、侵入物(侵入者)に関す
る確実な情報を検出することができる。SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides an image relating to detection of an intruder based on image data obtained by capturing an image in a predetermined viewing angle range by a predetermined image capturing means. When performing the processing operation, the image processing operation uses the viewing angle of the imaging unit and the installation condition of the imaging unit. This makes it possible to detect reliable information on an intruder (intruder) only by the viewing angle and the installation conditions of the imaging unit without separately installing a special tool such as a scale bar.
【0007】[0007]
【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明に係る侵入物検出装置の一実施例の
構成図である。図1を参照すると、本実施例の侵入物検
出装置は、所定の視野角を有し、該視野角の範囲の画像
を撮像する撮像部1と、該撮像部1の設置条件を入力す
る設置条件入力部2と、撮像部1により撮像された画像
データに基づき侵入物の検出に関する画像処理演算を行
なう演算部3と、侵入物の検出結果を出力する出力部4
と、電源を供給する電源部5とを有している。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a configuration diagram of an embodiment of an intruder detection device according to the present invention. Referring to FIG. 1, an intruder detecting apparatus according to the present embodiment has an imaging unit 1 having a predetermined viewing angle and capturing an image in a range of the viewing angle, and an installation unit for inputting installation conditions of the imaging unit 1. A condition input unit 2, an operation unit 3 for performing an image processing operation relating to detection of an intruder based on image data captured by the imaging unit 1, and an output unit 4 for outputting a detection result of the intruder
And a power supply unit 5 for supplying power.
【0008】図1の例では、撮像部1は、撮像素子(例
えばCCDセンサなど)11と、所定の視野角(画角)を
有する光学手段(例えば光学レンズ)12とを有してい
る。図2には、撮像素子11としてのCCDセンサに光
学レンズ12が組み込まれた撮像部1の具体例(平面図)
が示されている。なお、図2において、光学レンズ12
とCCDセンサ11とは重なり合った状態で示されてい
る。また、図2において、符号13は動作灯であり、C
CDセンサ11に電源部5から電源が供給され、CCD
センサ11が作動しているときに、作動灯13が点灯す
るようになっている。In the example of FIG. 1, the image pickup section 1 has an image pickup device (for example, a CCD sensor) 11 and optical means (for example, an optical lens) 12 having a predetermined viewing angle (angle of view). FIG. 2 shows a specific example (plan view) of the imaging unit 1 in which the optical lens 12 is incorporated in a CCD sensor as the imaging element 11.
It is shown. Note that, in FIG.
And the CCD sensor 11 are shown in an overlapping state. In FIG. 2, reference numeral 13 denotes an operation lamp,
Power is supplied from the power supply unit 5 to the CD sensor 11, and the CCD sensor 11
When the sensor 11 is operating, the operation lamp 13 is turned on.
【0009】図3は建物内の部屋の一例を示す透視図で
あって、撮像部1は、図3に示すように、例えば、建物
内の所定の部屋101の天井102あるいは壁面103
の高い位置などに設置されるようになっており、撮像素
子11によって撮像される画面は、光学レンズ12の視
野角(画角)と撮像部1の設置条件(部屋101の床10
4からの撮像部1の高さh,および撮像部1の設置角度
(傾き角度)θ)とによって定められる。従って、部屋1
01内の所望の監視区域を監視しようとする場合、光学
レンズ12に所定の視野角のものを用い、また、部屋1
01内の所定の位置に所定の角度θで撮像部1を予め設
置する必要がある。FIG. 3 is a perspective view showing an example of a room in a building. As shown in FIG. 3, for example, the image pickup unit 1 includes a ceiling 102 or a wall 103 of a predetermined room 101 in the building.
The image picked up by the image sensor 11 includes a view angle (angle of view) of the optical lens 12 and an installation condition of the image pickup unit 1 (the floor 10 of the room 101).
4, the height h of the imaging unit 1 and the installation angle of the imaging unit 1
(Tilt angle) θ). Therefore, room 1
In order to monitor a desired monitoring area in the room 01, the optical lens 12 having a predetermined viewing angle is used.
It is necessary to previously install the imaging unit 1 at a predetermined angle θ at a predetermined position in the image sensor 01.
【0010】図4(a),(b)はそれぞれ図3のx軸方
向,y軸方向の断面図であり、図4(a),(b)には、部
屋101内の所望の監視区域105を監視するように、
所定の視野角θ0(θx0,θy0)をもつ撮像部1が所定の
位置に所定の傾き角度(鉛直線zからの傾き角度)θ
(θx,θy)で設置された状態が示されている。なお、θ
x,θyはそれぞれ傾き角度θのx軸方向成分,y軸方向
成分であり、θx0,θy0はそれぞれ視野角θ0のx軸方
向成分,y軸方向成分である。FIGS. 4A and 4B are cross-sectional views in the x-axis direction and y-axis direction of FIG. 3, respectively. FIGS. 4A and 4B show a desired monitoring area in the room 101. Like monitoring 105
The imaging unit 1 having a predetermined viewing angle θ 0 (θ x0 , θ y0 ) is placed at a predetermined position at a predetermined tilt angle (tilt angle from the vertical line z) θ
The state of installation at (θ x , θ y ) is shown. Note that θ
x, x-axis direction component of the theta y each inclination angle theta, a y-axis direction component, theta x0, x-axis direction component of each of theta y0 viewing angle theta 0, the y-axis direction component.
【0011】また、図5には、撮像部1が図4(a),
(b)に示すように設置されたときに、CCDセンサ11
によって撮像された画面の一例が示されている。図5の
例では、この画面は、例えば、CCDセンサの画素数
(素子数)N×Mに対応させて、x軸方向,y軸方向にそ
れぞれN個,M個(例えば60個,60個)の画素に分け
られている。すなわち、撮像された画面の1画素がCC
Dセンサの1画素に対応したものとなっている。FIG. 5 shows an image pickup unit 1 shown in FIG.
When the CCD sensor 11 is installed as shown in FIG.
Shows an example of a screen imaged by the above. In the example of FIG. 5, this screen is, for example, the number of pixels of the CCD sensor.
The number of pixels is divided into N and M (for example, 60, 60) pixels in the x-axis direction and the y-axis direction corresponding to (number of elements) N × M. That is, one pixel of the imaged screen is CC
This corresponds to one pixel of the D sensor.
【0012】なお、CCDセンサには、数10万画素程
度の高解像度のものから、数10画素程度の低解像度の
ものがあり、これらのいずれのものをも用いることがで
きる。この場合、低解像度のCCDセンサを用いるとき
には、このCCDセンサの各画素の出力をそのまま処理
対象である画像データとすることができ、この場合、画
面の各画素は、上述のように、CCDセンサの各画素と
一対一対応となる。また、高解像度のCCDセンサを用
いるときには、このCCDセンサの各画素出力をそのま
ま処理対象である画像データとすることもできるが、以
後の画像処理を簡単なものとするため、撮像部1におい
てあるいは演算部3において、CCDセンサの複数の画
素出力をまとめて(例えばこれら複数の画素出力の平均
をとって)、1画素としたものを画像データとすること
もできる。例えば、CCDセンサが64×64画素,す
なわち4096画素のものである場合、4画素を1画素
に圧縮することで(例えば4画素のレベルの平均値をと
って、これを1画素のレベルにすることで)、16×1
6画素,すなわち256画素の画像データとすることが
でき、画像処理に要する時間を短縮することができる。
但し、その分、解像度は低下する。The CCD sensor has a high resolution of about several hundred thousand pixels to a low resolution of about several tens of pixels, and any of these can be used. In this case, when a low-resolution CCD sensor is used, the output of each pixel of the CCD sensor can be directly used as image data to be processed. In this case, each pixel of the screen is And each pixel has a one-to-one correspondence. When a high-resolution CCD sensor is used, each pixel output of the CCD sensor can be used as image data to be processed as it is. However, in order to simplify the subsequent image processing, the image sensor 1 or In the arithmetic section 3, a plurality of pixel outputs of the CCD sensor may be combined (for example, by averaging the plurality of pixel outputs) to form one pixel as image data. For example, when the CCD sensor has 64 × 64 pixels, that is, 4096 pixels, four pixels are compressed into one pixel (for example, the average value of the levels of four pixels is taken and the level of one pixel is obtained. 16x1
Image data of 6 pixels, that is, 256 pixels can be obtained, and the time required for image processing can be reduced.
However, the resolution is reduced accordingly.
【0013】演算部3は、このように撮像された画面を
例えば定期的に(一定の時間間隔Tで)監視し、基本的に
は、現時点の画面の画像データと前時点の画面の画像デ
ータとを比較し、現時点の画面の画像データと前時点の
画面の画像データとの間に変化した部分があるときに、
この変化した部分が侵入物によるものであるか否かの判
断処理等を行なうようになっている。The computing unit 3 monitors the screen imaged in this manner, for example, periodically (at a constant time interval T). Basically, the image data of the current screen and the image data of the previous screen are basically displayed. And when there is a change between the image data of the current screen and the image data of the previous screen,
Processing for determining whether or not the changed portion is caused by an intruder is performed.
【0014】図1の例では、演算部3は、撮像部1から
のアナログ画像データ(すなわち例えばCCDセンサ1
1の各画素出力)に対し、アナログ−デジタル変換を行
なうA/D変換器20と、デジタル変換された画像デー
タに基づき上記監視処理,判断処理等を行なうプロセッ
サ(CPU)21と、プロセッサ21の処理プログラム等
が記憶されているROM22と、プロセッサ21のワー
クエリアとして機能するRAM23とを有し、上記処理
に用いられる現時点の画面の画像データ,前時点の画面
の画像データなどはRAM23に格納されるようになっ
ている。In the example shown in FIG. 1, the arithmetic unit 3 outputs analog image data from the image pickup unit 1 (that is, for example, the CCD sensor 1).
A / D converter 20 for performing analog-to-digital conversion on each pixel output), a processor (CPU) 21 for performing the above-described monitoring processing, determination processing, and the like based on digitally converted image data; It has a ROM 22 storing a processing program and the like, and a RAM 23 functioning as a work area of the processor 21. Image data of a current screen, image data of a previous screen, and the like used in the above processing are stored in the RAM 23. It has become so.
【0015】なお、上記A/D変換器20は、プロセッ
サ21の処理能力等に応じ、アナログ画像データを所定
の閾値により2値のデジタル画像データに変換する機能
を有しているものであっても良いし、アナログ画像デー
タを例えば焦点座標位置の輝度(階調レベル)を閾値とし
て多値のデジタル画像データに変換する機能を有するも
のであっても良い。すなわち、プロセッサ21が多値の
デジタル画像データに対する処理能力を有している場合
には、多値のデジタル画像データに変換する機能を有す
るA/D変換器が用いられることで、より精度良く侵入
物(侵入者)に関する検知を行なうことができるが、プロ
セッサ21が2値のデジタル画像データに対する処理能
力しか有していない場合には、2値のデジタル画像デー
タに変換する機能を有するA/D変換器が用いられる
か、あるいは、多値のデジタル画像データに変換する機
能を有するA/D変換器が用いられる場合、さらに多値
のデジタル画像データを2値のデジタル画像データに変
換する必要がある。The A / D converter 20 has a function of converting analog image data into binary digital image data by a predetermined threshold value according to the processing capability of the processor 21 and the like. Alternatively, it may have a function of converting analog image data into multivalued digital image data using, for example, the luminance (gradation level) at the focal coordinate position as a threshold. That is, when the processor 21 has a processing capability for multi-valued digital image data, an A / D converter having a function of converting the data into multi-valued digital image data is used, so that the intrusion can be more accurately performed. An A / D having a function of converting into binary digital image data when the processor 21 has only a processing capability for binary digital image data, although it can detect an object (intruder). When a converter is used or an A / D converter having a function of converting to multi-value digital image data is used, it is necessary to further convert the multi-value digital image data to binary digital image data. is there.
【0016】以下の説明では、便宜上、撮像部1からの
アナログ画像データは、最終的に2値の画像データに変
換され、プロセッサ21は、2値の画像データに対して
所定の画像処理演算を行なうものとする。また、画像デ
ータが変化したか否かを判断するための現時点の画像デ
ータと前時点の画像データとの比較は、これらの差をと
って、差分画像データとすることによってなされるもの
とする。なお、この場合に、画像データが2値化されて
いることによって、この差分画像データは、変化がない
ときには全ての画素の値が“0”であり、変化がある部
分についてのみ“0”以外の値となることから、これに
より、変化した部分があるか否かを即座に判断すること
ができる。In the following description, for convenience, the analog image data from the imaging unit 1 is finally converted into binary image data, and the processor 21 performs a predetermined image processing operation on the binary image data. Shall do. The comparison between the current image data and the previous image data for determining whether or not the image data has changed is performed by taking the difference between them and making the difference image data. In this case, since the image data is binarized, the value of all the pixels is “0” when there is no change in the difference image data, and only the portion where there is a change is other than “0”. , It is possible to immediately determine whether or not there is a changed portion.
【0017】ところで、演算部3において、画面の変化
した部分が侵入物によるものであるか否かの判断等を確
実に行なうために、演算部3では、撮像部1の設置条件
(撮像部1の高さhおよび撮像部1の傾き角度θ(θx,
θy))が必要であり、このため、本実施例では、撮像部
1の設置条件を入力する設置条件入力部2が設けられて
いる。By the way, in order to reliably determine whether or not the changed portion of the screen is caused by an intruder, the calculation unit 3 uses the installation condition of the imaging unit 1.
(The height h of the imaging unit 1 and the inclination angle θ (θ x ,
θ y )) is required. Therefore, in this embodiment, an installation condition input unit 2 for inputting the installation conditions of the imaging unit 1 is provided.
【0018】設置条件入力部2は、例えば、撮像部1の
高さ(すなわち床104からの距離)hを自動測定する距
離計、および/または、撮像部1の鉛直方向zからの傾
き角度θ(θx,θy)を自動測定する傾斜計として構成す
ることができる。この場合、これらの測定器を撮像部1
に予め取り付け、これらの測定器からの出力を演算部3
に入力させることで、設置条件を自動入力することがで
きる。なお、この場合上記高さ(距離)hを測定する装置
すなわち距離計としては、超音波あるいはレーザ光を床
104に向けて出射した時点から、床104により反射
された超音波あるいはレーザ光を受信する時点までの時
間を計測することによって床104までの距離を測定す
る装置などを用いることができる。また、傾斜計として
は、例えば米国ルーカス社製の低価格・高性能小型化傾
斜角センサなどを用いることができる。The installation condition input unit 2 includes, for example, a range finder for automatically measuring the height h (that is, the distance from the floor 104) of the imaging unit 1 and / or the inclination angle θ of the imaging unit 1 from the vertical direction z. It can be configured as an inclinometer that automatically measures (θ x , θ y ). In this case, these measuring instruments are connected to the imaging unit 1
And outputs the outputs from these measuring instruments
, The installation conditions can be automatically input. In this case, the device for measuring the height (distance) h, that is, the range finder, receives the ultrasonic wave or laser light reflected by the floor 104 from the time when the ultrasonic wave or laser light is emitted toward the floor 104. An apparatus or the like that measures the distance to the floor 104 by measuring the time until the time of the operation can be used. Further, as the inclinometer, for example, a low-cost, high-performance miniaturized inclination angle sensor manufactured by Lucas Corporation in the United States can be used.
【0019】また、このような距離計,傾斜計のかわり
に、設置条件入力部2を、撮像部1の高さhおよび設置
角度θ(θx,θy)をアナログ電圧として入力させるため
のアナログ電圧調整器として構成することもできる。こ
の場合、オペレータがアナログ電圧調整器を操作して
(例えばボリュームを操作して)、撮像部1の高さhおよ
び設置角度θ(θx,θy)にそれぞれ対応したアナログ電
圧に調整することで、高さhおよび設置角度θ(θx,θ
y)をアナログ電圧として演算部3に入力させることがで
きる。Further, instead of such a distance meter and an inclinometer, the installation condition input unit 2 is used to input the height h and the installation angle θ (θ x , θ y ) of the imaging unit 1 as analog voltages. It can also be configured as an analog voltage regulator. In this case, the operator operates the analog voltage regulator
By adjusting the analog voltage corresponding to the height h and the installation angle θ (θ x , θ y ) of the imaging unit 1 (for example, by operating a volume), the height h and the installation angle θ (θ x , θ
y ) can be input to the arithmetic unit 3 as an analog voltage.
【0020】あるいは、設置条件入力部2を、撮像部1
の高さhおよび設置角度θ(θx,θy)をデジタル情報と
して入力させるための例えば8ビットのディップスイッ
チとして構成することもできる。この場合、オペレータ
がディップスイッチを操作して高さhおよび角度θ
(θx,θy)を設定することで、高さhおよび角度θ
(θx,θy)をデジタル情報として、演算部3に入力させ
ることができる。Alternatively, the installation condition input unit 2 is connected to the imaging unit 1
The height h and the installation angle θ (θ x , θ y ) can be configured as digital information, for example, as an 8-bit dip switch. In this case, the operator operates the dip switch to set the height h and the angle θ.
By setting (θ x , θ y ), the height h and the angle θ
(θ x , θ y ) can be input to the arithmetic unit 3 as digital information.
【0021】演算部3は、設置条件入力部2から入力さ
れた設置条件に基づき、先ず、図5に示すような画面上
において、撮像部1の直下の位置(xC,yC)がどこにあ
るかを算出し、次いで、撮像部1の設置位置から画像デ
ータの変化した部分CHに対応する対象物OBJ(図1
参照)の位置までの角度ψに関する情報と、撮像部1の
設置位置から画像データの変化した部分に対応する対象
物OBJまでの距離LXYと、画像データの変化した部分
に対応する対象物OBJの大きさとを算出し、これらの
算出情報等に基づいて、画像データの変化した部分に対
応する対象物OBJが侵入物(侵入者)であるか否かを判
断するようになっている。Based on the installation condition input from the installation condition input unit 2, the calculation unit 3 first determines where the position (x C , y C ) immediately below the imaging unit 1 on the screen as shown in FIG. Then, the object OBJ corresponding to the portion CH where the image data has changed from the installation position of the imaging unit 1 is calculated (see FIG. 1).
), The distance L XY from the installation position of the imaging unit 1 to the object OBJ corresponding to the changed part of the image data, and the object OBJ corresponding to the changed part of the image data. Is calculated, and whether or not the target object OBJ corresponding to the changed portion of the image data is an intruder (intruder) is determined based on the calculation information and the like.
【0022】ここで、画面上における撮像部1の直下の
位置(xC,yC)の算出は、次のようになされる。すなわ
ち、いま例えば図4(a),(b)に示すように、撮像部1
がx軸方向,y軸方向にそれぞれ視野角θx0,θy0を有
し、x軸方向に傾き角θx,y軸方向に傾き角θyで傾い
て設置されているとするとき、図5に示すような画面の
x軸,y軸上での1画素(1区画)の角度dθx,dθ
yは、それぞれ次式で計算される。Here, the calculation of the position (x C , y C ) immediately below the imaging unit 1 on the screen is performed as follows. That is, as shown in FIGS. 4A and 4B, for example,
Is assumed to have viewing angles θ x0 and θ y0 in the x-axis direction and the y-axis direction, respectively, and to be tilted at a tilt angle θ x in the x-axis direction and a tilt angle θ y in the y-axis direction. The angles dθ x and dθ of one pixel (one section) on the x-axis and y-axis of the screen as shown in FIG.
y is calculated by the following equations.
【0023】[0023]
【数1】dθx=θx0/N dθy=θy0/M## EQU1 ## dθ x = θ x0 / N dθ y = θ y0 / M
【0024】なお、N,Mはそれぞれx軸方向,y軸方
向の画素数(区画数)である。x軸,y軸上での1画素
(1区画)の角度dθx,dθyが数1により計算される
と、画面上における撮像部1直下の位置(xC,yC)は次
式により求められる。N and M are the number of pixels (the number of sections) in the x-axis direction and the y-axis direction, respectively. One pixel on x-axis and y-axis
When the angles dθ x and dθ y of (one section) are calculated by Expression 1, the position (x C , y C ) immediately below the imaging unit 1 on the screen is obtained by the following equation.
【0025】[0025]
【数2】xC=N/2−θx/dθx yC=M/2−θy/dθy X C = N / 2−θ x / dθ x y C = M / 2−θ y / dθ y
【0026】図5には、このように求められた画面上で
の撮像部1直下の位置(xC,yC)が示されている。な
お、図5からもわかるように、傾き角θx,θyが0のと
き、すなわち、撮像部1が傾いていないときには、その
直下の位置(xC,yC)は画面の中央になり、傾き角θx
あるいはθyが大きい程、(xC,yC)は画面の縁に近く
なる。FIG. 5 shows the position (x C , y C ) immediately below the image pickup unit 1 on the screen thus obtained. As can be seen from FIG. 5, when the tilt angles θ x and θ y are 0, that is, when the imaging unit 1 is not tilted, the position (x C , y C ) immediately below the same is the center of the screen. , Tilt angle θ x
Alternatively, (x C , y C ) is closer to the edge of the screen as θ y is larger.
【0027】このようにして、画面上における撮像部1
直下の位置(xC,yC)が算出されると、これを基準にし
て、撮像部1の設置位置から画像データの変化した部分
に対応する対象物OBJの位置までの角度ψ(鉛直線z
に対する角度)に関する情報を求めることができる。よ
り詳細には、いま例えば、前時点では対象物OBJが存
在せず前時点での画面が図6(a)に示すようなものであ
り、現時点において図1のように対象物OBJが出現し
現時点での画面が図6(b)に示すようなものとなって、
画面上で画像データの変化した部分が符号CHの部分で
あると検出されたとき、すなわち、例えば図6(b)の画
像データと図6(a)の画像データとの差をとって図6
(c)に示すような差分画像データが得られ、この差分画
像データにおいて“0”以外の画素値をもつ部分(図6
(c)の例では黒画素の部分)CHが画像データの変化し
た部分として検出されたとき、この変化した部分CHに
対応する実際の対象物OBJまでの角度ψに関する情報
を次のように求めることができる。In this manner, the imaging unit 1 on the screen
When the position (x C , y C ) immediately below is calculated, the angle ψ (vertical line) from the installation position of the imaging unit 1 to the position of the object OBJ corresponding to the changed part of the image data is calculated based on this. z
(Angle with respect to). More specifically, for example, the object OBJ does not exist at the previous time point, and the screen at the previous time point is as shown in FIG. 6A, and the object OBJ appears at the current time point as shown in FIG. The screen at the moment is as shown in Fig. 6 (b),
When the changed part of the image data is detected as the code CH on the screen, that is, for example, the difference between the image data of FIG. 6B and the image data of FIG.
(c) is obtained, and a portion having a pixel value other than “0” in the difference image data (FIG. 6)
(In the example of (c), a black pixel portion) When CH is detected as a changed portion of the image data, information on the angle ψ to the actual object OBJ corresponding to the changed portion CH is obtained as follows. be able to.
【0028】すなわち、画面上において画像データの変
化した部分CHが、図6(c)に示すように、(x1,y1)
〜(x2,y2)の範囲である場合、撮像部1の設置位置か
ら画像データの変化した部分CHに対応する実際の対象
物OBJまでのx軸方向の角度範囲ψx1〜ψx2,y軸方
向の角度範囲ψy1〜ψy2は、それぞれ次式のようにして
求まる。That is, the changed part CH of the image data on the screen is (x 1 , y 1 ) as shown in FIG.
~ (X 2, y 2) when in the range of, x-axis direction of the angle range ψ x1 ~ψ x2 to the actual object OBJ corresponding to the changed portion CH of the image data from the installation position of the imaging unit 1, The angle range 方向y1 to ψ y2 in the y-axis direction is obtained as follows.
【0029】[0029]
【数3】ψx1=dθx×(x1−xC) ψx2=dθx×(x2−xC) ψy1=dθy×(y1−yC) ψy2=dθy×(y2−yC)数x1 = dθ x × (x 1 −x C ) ψ x2 = dθ x × (x 2 −x C ) ψ y1 = dθ y × (y 1 −y C ) ψ y2 = dθ y × ( y 2 -y C )
【0030】これにより、撮像部1の設置位置から対象
物OBJまでの距離LXY(対象物OBJの最も遠い部分
までの距離)を次式のようにして求めることができる。Thus, the distance L XY (the distance from the installation position of the imaging unit 1 to the object OBJ to the farthest part of the object OBJ) can be obtained by the following equation.
【0031】[0031]
【数4】LXY=(h/cosψx2)×(1/cosψy2)[Number 4] L XY = (h / cosψ x2 ) × (1 / cosψ y2)
【0032】また、これにより、対象物OBJのx軸方
向,y軸方向の実際の大きさ|X|,|Y|と、対象物
OBJの実際の大きさSとを、次式のように算出するこ
とができる。In addition, the actual size | X |, | Y | of the object OBJ in the x-axis direction and the y-axis direction and the actual size S of the object OBJ are calculated by the following equations. Can be calculated.
【0033】[0033]
【数5】|X|=LXY×(ψx2−ψx1) |Y|=LXY×(ψy2−ψy1) S=|X|×|Y|| X | = L XY × (ψ x2 −ψ x1 ) | Y | = L XY × (ψ y2 −ψ y1 ) S = | X | × | Y |
【0034】このように、対象物OBJの大きさに関す
る情報として、S,|X|,|Y|を得ることができ、
対象物OBJの位置に関する情報として、LXY,ψを得
ることができる。また、対象物OBJの概略的な形状に
関する情報として、例えば|X|と|Y|との比|Y|
/|X|を得ることができる。Thus, S, | X |, | Y | can be obtained as information on the size of the object OBJ,
L XY , ψ can be obtained as information on the position of the object OBJ. Further, as information on the schematic shape of the object OBJ, for example, a ratio | Y | of | X | and | Y |
/ | X | can be obtained.
【0035】なお、上述したような対象物OBJの各情
報は、部屋101の監視区域105となるべき床104
部分が平らな平面であり、対象物OBJが床104の平
らな平面に沿ったものであるとの前提の下で得られ、監
視区域105となるべき床104の部分に階段等の凹凸
がある場合には、これに応じた補正を対象物OBJの各
情報に施す必要がある。なお、以下では、説明の便宜
上、監視区域105となるべき床104部分は、平らな
平面であるとする。The information of the object OBJ as described above is stored in the floor 104 to be the monitoring area 105 of the room 101.
The part is a flat plane, and the object OBJ is obtained on the assumption that the object is along the flat plane of the floor 104. The part of the floor 104 to be the monitoring area 105 has irregularities such as stairs. In such a case, it is necessary to perform a corresponding correction to each information of the object OBJ. In the following, for convenience of explanation, it is assumed that the floor 104 to be the monitoring area 105 is a flat plane.
【0036】また、上述の例では、撮像部1は、任意の
傾き角度θ(θx,θy)で取り付けることができるとした
が、必要に応じ、この傾き角度θ(θx,θy)に制約をも
たせることもできる。すなわち、撮像素子11にCCD
素子が用いられる場合、CCD素子は一般に長方形状の
ものであり、x軸方向あるいはy軸方向のいずれか一方
が他方に比べて長く、画素数の多いものとなっている。
いま例えばx軸方向の長さが長くなっている場合、x軸
方向の傾き角度θxが“0゜”でないとき(すなわち、こ
のCCD素子のx軸が床104と平行でないとき)に
は、x軸方向の実際の監視エリアに不足が生じたり、あ
るいは、対象物OBJの特徴パラメータ(大きさ等)の算
出が複雑となって、特徴パラメータに誤差が生じたりす
る恐れがあり、また、対象物OBJをモニタ表示した場
合、これを見ずらいなどの問題が生じることがある。従
って、撮像素子11にCCD素子が用いられる場合、上
記例ではCCD素子のx軸を床と平行になるよう(すな
わち、傾き角度θxが“0゜”となるよう)、撮像部1を
取り付けるのが良い。換言すれば、上記のような例の場
合、撮像素子1の鉛直線zからの傾き角度θのx軸方向
成分θx,y軸方向成分θyの少なくともいずれか一方を
“0゜”とするのが良い。このときには、xCの位置,
あるいはyCの位置は、撮像画面x軸上の中心,あるい
はy軸上の中心となる。Further, in the above example, the imaging unit 1, an arbitrary inclination angle θ (θ x, θ y) was to be able to be attached by, if necessary, the inclination angle θ (θ x, θ y ) Can be constrained. That is, the image pickup device 11 has a CCD
When an element is used, the CCD element is generally rectangular in shape, and one of the x-axis direction and the y-axis direction is longer than the other and has a larger number of pixels.
Now, for example, when the length in the x-axis direction is long, and when the tilt angle θ x in the x-axis direction is not “0 °” (that is, when the x-axis of this CCD element is not parallel to the floor 104), The actual monitoring area in the x-axis direction may be insufficient, or the calculation of the characteristic parameters (such as the size) of the object OBJ may be complicated, resulting in an error in the characteristic parameters. When the object OBJ is displayed on the monitor, a problem such as difficulty in seeing the object OBJ may occur. Therefore, when a CCD element is used as the imaging element 11, the imaging unit 1 is attached so that the x-axis of the CCD element is parallel to the floor (that is, the inclination angle θ x is “0 °”) in the above example. Is good. In other words, in the case of the above example, at least one of the x-axis direction component θ x and the y-axis direction component θ y of the inclination angle θ of the image sensor 1 from the vertical line z is set to “0 °”. Is good. At this time, the position of the x C,
Alternatively, the position of y C is the center on the x-axis of the imaging screen or the center on the y-axis.
【0037】演算部3は、このように、画面の画像デー
タを定期的に(例えば一定の時間間隔で)収集する毎に、
画像データの変化をその都度監視し、画像データに変化
があったとき、この変化した場合に対応する対象物につ
いて上記のような情報を求め、さらにこの対象物の変化
の様子を調べてこの対象物が侵入物(例えば侵入者)か否
かを判断するようにしている。As described above, the arithmetic unit 3 periodically collects the image data of the screen (for example, at fixed time intervals).
The change of the image data is monitored each time, and when there is a change in the image data, the information as described above is obtained for the object corresponding to the change, and the state of the change of the object is further examined to determine the object. It is determined whether an object is an intruder (for example, an intruder).
【0038】この判断処理は、侵入物が侵入者(人間)で
ある場合には、画面(画像イメージ)上で、人間の画像が
例えば図7(a),(b)のように移動する(時間的に変化す
る)ことに着目してなされる。なお、図7(a)は、人間
がほぼx軸方向に沿って移動しているときの画面の変化
を説明するための図であり、図7(b)は、人間がほぼy
軸方向に沿って(y軸方向からいくらか斜め方向に)移動
しているときの画面の変化を説明するための図である。In this judgment processing, when the intruder is an intruder (human), the human image moves on the screen (image image) as shown in FIGS. 7A and 7B, for example. (Changes with time). FIG. 7A is a diagram for explaining a change in the screen when a human is moving substantially along the x-axis direction, and FIG.
FIG. 9 is a diagram for explaining a change in a screen when the image is moving along the axial direction (in a direction slightly oblique from the y-axis direction).
【0039】図7(a),(b)から、監視領域内に人間が
侵入し移動する場合には、画像の変化は次のような特徴
を有していることがわかる。すなわち、移動中のある一
時点において画像の変化した部分の形状および大きさが
人間として妥当なものとなること(例えば、大きさ(高さ
HG)が1m〜2m程度であること、その形状がある程
度の複雑さを有していることなど)、また、撮像部1と
の距離LXYが小さくなると(撮像部1に近づくと)、画像
の変化した部分の大きさが大きくなり、撮像部1との距
離LXYが大きくなると(撮像部1から遠ざかると)、画像
の変化した部分の大きさが小さくなること、また、図7
(a)から明かなように、撮像部1の直下の位置(xC,y
C)を通るy軸線上に位置するとき、人間(直立状態)の画
像は垂直性(傾斜角度ξ=0)がみられ、位置(xC,yC)
を通るy軸線からずれて位置するとき、人間(直立状態)
の画像は傾斜すること(ξ≠0)、また、移動速度が、撮
像部1との距離LXYに対し妥当であること(例えば、距
離LXYに応じて0m/秒〜2m/秒の範囲内にあるこ
と)、等の特徴を有している。From FIGS. 7A and 7B, it can be seen that when a human enters and moves in the monitoring area, the change in the image has the following characteristics. That is, the shape and size of the changed portion of the image at a certain point during the movement are appropriate for humans (for example, the size (height HG) is about 1 m to 2 m, and the shape is If the distance L XY from the imaging unit 1 is small (approaching to the imaging unit 1), the size of the changed part of the image becomes large, and the imaging unit 1 When the distance L XY is increased with (moved away from the imaging unit 1), that the size of the changed portion of the image is reduced, also, FIG. 7
As can be seen from (a), the position (x C , y
C ), the image of a human (upright state) has verticality (tilt angle ξ = 0), and is located at the position (x C , y C ).
Human (upright) when positioned off the y-axis passing through
It is the image to be inclined (xi] ≠ 0), also moving speed, it is reasonable to distance L XY of the imaging unit 1 (e.g., a range of 0 m / sec to 2 m / sec according to the distance L XY , Etc.).
【0040】この特徴に着目し、演算部3は、例えば、
画像データの変化した部分に対応した対象物OBJのx
軸方向,y軸方向の大きさ|X|,|Y|と全体の大きさS
とから、この部分の形状および大きさが人間として妥当
なものであるか否か(例えば高さHGが1m〜2m程度
であるか否か)、また、距離LXYが大きくなるとこの部
分の大きさが小さくなり(撮像部1よりも遠ざかると、
大きさが小さくなり)、距離LXYが小さくなると、この
部分の大きさが大きくなる(撮像部1に近づくと、大き
さが大きくなる)か否か、また、所定の位置で所定の垂
直性,傾斜角度ξを有しているか、また、変化速度が距
離LXYに対し妥当なものであるか否か、などを判断する
ようになっている。なお、垂直性の判断は、例えば人間
らしい垂直性を有している否か(すなわち、人間の直立
画像パターンとして不自然でない垂直性を有しているか
否か)によって行なうことができる。また、傾斜角度ξ
は、図7(b)に示すように、座標(xC,yC)を中心とし
た対処物OBJの傾斜角度ξとして検出することができ
る。Focusing on this feature, the arithmetic unit 3 performs, for example,
X of the object OBJ corresponding to the changed part of the image data
| X |, | Y | in the axial and y-axis directions and the overall size S
And a, whether the shape and size of this portion is reasonable as a human (whether for example a height HG of the order of 1 m to 2 m), also the distance L XY is increased in this portion size Becomes smaller (as the distance from the imaging unit 1 increases,
When the distance LXY decreases, the size of this portion increases (the size increases when approaching the imaging unit 1). , The inclination angle 、, and whether or not the change speed is appropriate for the distance LXY . The determination of the verticality can be made based on, for example, whether or not the image has human-like verticality (that is, whether or not the image has an unnatural verticality as a human upright image pattern). Also, the inclination angle ξ
Can be detected as the inclination angle の of the object OBJ around the coordinates (x C , y C ), as shown in FIG. 7B.
【0041】なお、上述の例では、画像データの変化し
た部分が1つの画素連結領域CHだけであり、従って、
1つの対象物OBJだけが検出される場合について述べ
たが、画像データの変化した部分が図8に示すように複
数の画素連結領域CH1〜CHnであって、複数の対象物
OBJ1〜OBJnが検出される場合には、各画素連結領
域CH1〜CHn,各対象物OBJ1〜OBJnのそれぞれ
について上述のような演算処理がなされ、各対象物OB
J1〜OBJnについて形状,大きさの情報等が求められ
る。In the above example, the changed part of the image data is only one pixel connection area CH.
Although only one object OBJ has dealt with the case where the detected changed portion of the image data is a plurality of pixel connected region CH 1 to CH n as shown in FIG. 8, a plurality of objects OBJ 1 ~ If the OBJ n is detected, the pixel connected regions CH 1 to CH n, the arithmetic processing described above for each of the object OBJ 1 ~OBJ n is performed, the object OB
J 1 ~OBJ n the shape information like sizes are determined.
【0042】また、画像データの変化した部分に対応す
る対象物の形状に関する情報の取得については、上記の
ような手法(|X|と|Y|との比を用いる手法)のかわり
に、あるいは上記のような手法と共に、例えばパターン
認識の手法を用いることができる。すなわち、例えば、
現時点の画像データと前時点の画像データとを比較した
結果の差分画像データから、画素の値が“0”以外の画
像データの変化した部分を抽出し、この部分について所
定の特徴パラメータを抽出することで、画像データの変
化した部分に対応する対象物の形状に関する情報を知得
することができる。For obtaining information on the shape of the object corresponding to the changed part of the image data, instead of the above method (a method using the ratio between | X | and | Y |), or For example, a pattern recognition technique can be used together with the above technique. That is, for example,
From the difference image data resulting from the comparison between the current image data and the previous image data, a changed portion of the image data having a pixel value other than “0” is extracted, and a predetermined feature parameter is extracted for this portion. Thus, information on the shape of the object corresponding to the changed part of the image data can be obtained.
【0043】具体的には、ある時点において、画像デー
タの変化した部分が例えば図9(a)のようなものである
とき(なお、図9(a)の例は差分2値化画像となってお
り、図9(a)において白画素は変化していない部分、黒
画素が変化した部分である)、図9(b)に示すように、
この差分2値化画像において、所定画素が連結している
領域(図9(a)の例において黒画素が連結している領域)
CH1,CH2内の画素に同じラベル番号を付すラベリン
グ処理を行ない、次いで、同じラベル番号“1”を付さ
れた画素連結領域CH1に対して、その面積R1(画素連
結領域CH1内の画素の総数),周囲長L1を特徴パラメ
ータとして抽出し、同様に、同じラベル番号“2”の付
された画素連結領域CH2に対しても、その面積R2(画
素連結領域CH2内の画素の総数),周囲長L2を特徴パ
ラメータとして抽出する。More specifically, when the changed part of the image data is, for example, as shown in FIG. 9A at a certain point in time (the example of FIG. 9A is a difference binary image). 9 (a), the white pixels are the unchanged portions and the black pixels are the changed portions), as shown in FIG. 9 (b),
In this difference binary image, a region where predetermined pixels are connected (a region where black pixels are connected in the example of FIG. 9A)
A labeling process for assigning the same label number to the pixels in CH 1 and CH 2 is performed, and then, for the pixel connected region CH 1 assigned the same label number “1”, its area R 1 (pixel connected region CH 1 , The perimeter L 1 is extracted as a feature parameter, and the area R 2 (pixel connection area CH 2 ) is similarly assigned to the pixel connection area CH 2 with the same label number “2”. the total number of pixels in 2), extracts the perimeter L 2 as a characteristic parameter.
【0044】ここで、各画素連結領域CH1,CH2の面
積R1,R2は、2値化画像を図10(a)に示すように順
次に走査するときに、ラベル番号が“1”または“2”
の画素が生起する毎に、その画素連結領域CH1または
CH2に対応して設けられている例えばカウンタを1つ
ずつ歩進することで、計数することができる。すなわ
ち、画素連結領域CH1内のラベル番号が“1”の各画
素を走査する毎に、画素連結領域CH1に対応したカウ
ンタのカウント値が1つ歩進され、全ての走査が終了し
たときのこのカウンタのカウント値が連結領域CH1の
面積R1となる。同様にして、画素連結領域CH2の面積
R2も、連結領域CH2に対応したカウンタにより、上記
全ての走査が終了したときに得ることができる。Here, the area R 1 , R 2 of each pixel connection region CH 1 , CH 2 is such that the label number is “1” when the binarized image is sequentially scanned as shown in FIG. "Or" 2 "
Of each of the pixels is occurring, by stepping one has for example a counter provided corresponding to the pixel connected region CH 1 or CH 2, it can be counted. That is, each time scanning each pixel of the label numbers in the pixel connected region CH 1 is "1", the count value of the counter corresponding to the pixel connected region CH 1 is one increment, when all the scanning has been completed count value of the counter becomes the area R 1 of the connecting region CH 1 of the. Similarly, the area R 2 of the pixel connected region CH 2 also, the counter corresponding to the connecting area CH 2, above all scan can be obtained when finished.
【0045】また、各画素連結領域CH1,CH2の周囲
長L1,L2は、例えば、以下のような手法により計数で
きる。すなわち、1つの手法として、2値化画像を図1
0(a)に示すように順次に走査するときに、いま着目し
ている画素を中心とする図10(b)に示すような例えば
3×3の大きさのマスクの各画素M11〜M33が輪郭とし
ての条件を満たしているか否か(例えば図11(a)乃至
(h)のいずれかに該当するか否か)をその都度調べ、輪
郭としての条件を満たすときに、その画素連結領域に対
応して設けられている例えばカウンタを1つ歩進するこ
とで、各連結領域CH1,CH2の輪郭画素数C1,C2を
計数することができる。例えば、いま着目している画素
M22が画素連結領域CH1に属し、マスク内の各画素M
ijが図11(a)乃至(h)のいずれかに示すような状態と
なるとき、画素M22は輪郭画素であると判断され、この
場合、画素連結領域CH1に対応したカウンタのカウン
ト値が1つ歩進され、全ての走査が終了したときのこの
カウンタのカウント値が連結領域CH1の輪郭画素数C1
となる。同様にして、連結領域CH2の輪郭画素数C
2も、連結領域CH2に対応したカウンタにより、上記全
ての走査が終了したときに得ることができる。なお、図
11(a)乃至(h)において、符号“×”は、“don'
t care”を表わしている。すなわち、この部分
は、白画素でも黒画素でも良いことを表している。この
ような走査および輪郭画素数の計数とともに、1つの連
結領域,例えばCH1において、全輪郭画素数C1のう
ち、いま注目している輪郭画素と次の輪郭画素とが真直
ぐにつながっている(例えば後述の図13(a)に示すよ
うな場合の)輪郭画素数がC1aとして計数され、いま注
目している画素と次の輪郭画素とが斜めにつながってい
る(例えば後述の図13(b)に示すような場合の)輪郭画
素数が(C1−C1a)として計数されるとき、この連結領
域CH1の周囲長L1は、[C1a+21/2・(C1−C1a)]
・αとして求められる。ここで、αは、隣接画素間距離
である。The perimeters L 1 , L 2 of the respective pixel connection areas CH 1 , CH 2 can be counted, for example, by the following method. That is, as one method, the binarized image is shown in FIG.
When sequentially scanning as shown in FIG. 10A, each pixel M 11 to M of a mask having a size of 3 × 3 as shown in FIG. 33 satisfies the condition as a contour (for example, FIG.
(h) is checked each time, and when the condition as a contour is satisfied, for example, by incrementing a counter provided for the pixel connection area by one, The number of contour pixels C 1 and C 2 of each connected area CH 1 and CH 2 can be counted. For example, now to belong to the pixel M 22 is pixel connected region CH 1 are focused, each pixel in the mask M
When ij is the state shown in any one shown in FIG. 11 (a) to (h), it is determined that the pixel M 22 is a contour pixel, in this case, the count value of the counter corresponding to the pixel connected region CH 1 There is one increment, the number of outline pixels count value of the connection area CH 1 of the counter C 1 when all the scan has been completed
Becomes Similarly, the number of contour pixels connecting region CH 2 C
2 also, the counter corresponding to the connecting area CH 2, above all scan can be obtained when finished. Note that in FIGS. 11A to 11H, the symbol “x” is replaced with “don '
t care ". That is, this part may be either a white pixel or a black pixel. With such scanning and counting of the number of contour pixels, in one connected area, for example, CH 1 , Of the number of contour pixels C 1, the contour pixel of interest and the next contour pixel are directly connected (for example, as shown in FIG. 13A described below), and the number of contour pixels is C 1a. The pixel of interest and the next contour pixel are obliquely connected (for example, as shown in FIG. 13B described later), and the number of contour pixels is counted as (C 1 -C 1a ). when the circumferential length L 1 of the connecting region CH 1 is, [C 1a +2 1/2 · ( C 1 -C 1a)]
・ It is obtained as α. Here, α is the distance between adjacent pixels.
【0046】また、周囲長Lを求めるのに、画素連結領
域の境界部を順次に追跡する手法を用いることも可能で
ある。すなわち、図12(a)に示すように、画像を走査
し、追跡済みでない境界点画素を探す。境界点画素が検
出されると、図12(b)に示すような3×3のマスクM
ijを用い、この境界点画素が孤立点でないか否かを調べ
る。すなわち、いま注目している境界点画素M22の近傍
の8個の画素が全て白画素(“0”)である場合には、こ
の境界点画素は孤立点であると判断され、追跡を終了す
る。これに対し、いま注目している境界点画素M22が孤
立点でないときには、図12(b)に示すように、この境
界点画素(いま注目している境界点画素)の近傍の8個の
画素を順次に(例えば反時計回りに)調べて、8個の近傍
画素のうち“0”から“1”に変わる画素を次の境界点
画素として探す。なお、図12(b)には、図12(a)の
符号Fで示す部分にマスクMijが設定されているときの
マスクMijの状態が示されており、この状態では、いま
注目している境界点画素M22の近傍の8個の画素を
M13,M12,M11,M21,M31,M32,M33の順序で調
べるとき、画素M33が“0”から“1”に変わる画素と
して検出され、従って、M33が次の境界点画素として検
出される。このようにして次の境界点画素が検出される
と、マスクMijの中心M22が次の境界点画素に設定され
るように、マスクMijをシフトするという仕方で、次の
境界点画素を順次に追跡し、次の境界点画素が追跡を開
始した最初の境界点画素となったとき、画素連結領域の
境界を一周したことになるので、追跡を終了する。例え
ば、図12(a)に示すような走査によって、最初の境界
点画素Daが検出されると、この境界点画素Daから図1
2(b)のマスクMijを用いて境界点の追跡を開始し、境
界を一周して、境界点画素Daに戻ったときに追跡を終
了する。In order to obtain the perimeter L, it is also possible to use a method of sequentially tracking the boundary of the pixel connection area. That is, as shown in FIG. 12A, the image is scanned to search for untracked boundary point pixels. When a boundary point pixel is detected, a 3 × 3 mask M as shown in FIG.
Using ij , it is checked whether or not this boundary point pixel is an isolated point. That is, when eight pixels in the vicinity of the boundary point pixel M 22 of interest now are all white pixels ( "0"), the boundary point pixel is determined to be an isolated point, end a trace I do. In contrast, when the boundary point pixel M 22 of interest now is not an isolated point, as shown in FIG. 12 (b), 8 pieces of the vicinity of the boundary point pixel (boundary point pixels that are now focused) The pixels are sequentially examined (for example, counterclockwise), and a pixel that changes from “0” to “1” among the eight neighboring pixels is searched for as the next boundary point pixel. Incidentally, in FIG. 12 (b), FIG. 12 and the state of the mask M ij is shown when the mask M ij in the portion indicated by symbol F in (a) is set, in this state, attention now when examined are eight pixels in the vicinity of the boundary point pixel M 22 in the order of M 13, M 12, M 11 , M 21, M 31, M 32, M 33, pixel M 33 is "0" to " is detected as a pixel vary in 1 ", therefore, M 33 is detected as the next boundary point pixel. Thus the next boundary point pixel in the is detected, so that the center M 22 of the mask M ij is set to the next boundary point pixels, in a way that shifts the mask M ij, next boundary point pixel Are sequentially traced, and when the next boundary point pixel becomes the first boundary point pixel at which tracking is started, it means that one round of the boundary of the pixel connection area is completed, and the tracking is terminated. For example, the scanning as shown in FIG. 12 (a), when the first boundary point pixels D a is detected, FIG. 1 from the border point pixel D a
2 start tracking boundary points by using a mask M ij of (b), and around the boundary, and terminates the track when returning to the boundary point pixel D a.
【0047】このような追跡において、周囲長Lは、い
ま注目している境界点画素と次の境界点画素との距離を
追跡ごとに順次に加算することで求められる。なお、い
ま注目している境界点画素と次の境界点画素との間の距
離は、いま注目している境界点画素と次の境界点画素と
の間の関係が例えば図13(a)のようなものである場合
には、1倍して計算され、また、例えば図13(b)のよ
うなものである場合(すなわち、輪郭線(画素)のつなが
り方が斜め方向である場合)には、21/2倍して計算され
る。In such tracking, the perimeter L is obtained by sequentially adding the distance between the currently focused boundary point pixel and the next boundary point pixel for each tracking. The distance between the currently focused boundary point pixel and the next boundary point pixel is determined by the relationship between the currently focused boundary point pixel and the next boundary point pixel, for example, as shown in FIG. In such a case, it is calculated by multiplying by 1. In addition, for example, in the case of such a case as shown in FIG. 13B (that is, when the connection of the contour lines (pixels) is in an oblique direction) Is calculated by multiplying by 2 1/2 .
【0048】また、図9(a),(b)のように、画素連結
領域が複数存在する場合には、例えば、1つの画素連結
領域について、これの境界点を一周した位置から、次の
画素連結領域を求めて右側に走査し、境界点を見出した
ときに、次の画素連結領域についても同様に追跡を行な
い、各画素連結領域CH1,CH2の周囲長L1,L2を求
めることができる。When there are a plurality of pixel connection regions as shown in FIGS. 9A and 9B, for example, for one pixel connection region, the position of one round of the boundary point between the pixel connection regions is scans to the right to seek a pixel connected region, when found boundary points, performs tracking in the same manner for the next pixel connected areas, the perimeter L 1, L 2 of each pixel connected regions CH 1, CH 2 You can ask.
【0049】このようにして、画素連結領域CH1,C
H2について、それぞれ、面積,周囲長が得られると、
画素連結領域CH1,CH2,すなわち対象物OBJ1,
OBJ2の形状に関する情報を次式によって取得するこ
とができる。As described above, the pixel connection areas CH 1 , C
When the area and perimeter are obtained for H 2 , respectively,
The pixel connection areas CH 1 , CH 2 , that is, the object OBJ 1 ,
Information on the shape of OBJ 2 can be obtained by the following equation.
【0050】[0050]
【数6】e=4π(面積)/(周囲長)2 E = 4π (area) / (perimeter) 2
【0051】すなわち、対象物OBJ1,OBJ2の形状
に関する情報e1,e2を次式によって取得することがで
きる。That is, information e 1 and e 2 relating to the shapes of the objects OBJ 1 and OBJ 2 can be obtained by the following equation.
【0052】[0052]
【数7】e1=4πR1/(L1)2 e2=4πR2/(L2)2 E 1 = 4πR 1 / (L 1 ) 2 e 2 = 4πR 2 / (L 2 ) 2
【0053】数6からわかるように、対象物OBJが円
形に近いほど、eの値は、“1.0”に近づき、対象物
OBJが複雑になるほど、eの値は、“0.0”に近く
なる。従って、eの値から対象物OBJの形状の複雑さ
に関する情報を得ることができ、この情報を、前述した
ような手法により得られた形状情報(高さ情報HG)のか
わりに形状に関する情報として用いるか、あるいは、前
述したような手法により得られた形状情報(高さ情報H
G)にさらに加味して用いることができる。As can be seen from Expression 6, the value of e approaches "1.0" as the object OBJ is closer to a circle, and the value of e becomes "0.0" as the object OBJ becomes more complicated. Become closer to Therefore, information about the complexity of the shape of the object OBJ can be obtained from the value of e, and this information is used as information about the shape instead of the shape information (height information HG) obtained by the method described above. Used, or the shape information (height information H
G) can be further used.
【0054】なお、上記例では、画像データを2値化し
たが、前述のように、プロセッサ21が多値のデジタル
画像データを処理する能力がある場合には、上記のよう
な処理を多値のデジタル画像データについて行なうこと
ができ、この場合には、形状に関する情報をより精度良
く得ることができる。In the above example, the image data is binarized. However, as described above, if the processor 21 is capable of processing multi-valued digital image data, the above-described processing is performed by multi-valued processing. In this case, the information on the shape can be obtained with higher accuracy.
【0055】また、演算部2は、電源部5(図1参照)の
電源が投入された時点から、上述のような監視,演算処
理を行なうこともできるが、プロセッサ21の負荷を軽
減するため、例えばパッシブセンサや窓出入口用マグネ
ットセンサなどのセンサ6(図1参照)をさらに用い、通
常はパッシブセンサや窓出入口用マグネットセンサなど
のセンサ6に侵入検知(侵入監視)を行なわせ、該センサ
6により侵入が検知され、この検知情報が演算部2に通
知されたときに、これをトリガにして演算部2が上述の
ような監視,演算処理を行なうように構成されていても
良い。The arithmetic unit 2 can perform the above-described monitoring and arithmetic processing from the time when the power of the power supply unit 5 (see FIG. 1) is turned on. For example, a sensor 6 (see FIG. 1) such as a passive sensor or a window entrance magnet sensor is further used, and usually, the sensor 6 such as a passive sensor or a window entrance magnet sensor performs intrusion detection (intrusion monitoring). 6, the intrusion may be detected, and when the detection information is notified to the arithmetic unit 2, the arithmetic unit 2 may be configured to perform the above-described monitoring and arithmetic processing by using this as a trigger.
【0056】この場合には、通常は、プロセッサ21が
画像処理に専有されてしまうことを回避し、その空き時
間を利用してプロセッサ21に他の処理を行なわせるこ
とができ、プロセッサ21の処理効率(スループット)を
向上させることができる。In this case, normally, the processor 21 can be prevented from being exclusively used for image processing, and can use the idle time to perform other processing. Efficiency (throughput) can be improved.
【0057】いずれにしても、本実施例では、目盛棒な
どの特別な道具を別途設置したりせずとも、撮像部1の
設置条件だけにより、画像データの変化した部分に対応
する対象物OBJの大きさ,形状,撮像部1からの距
離,角度等の各種の情報を得ることができ、これら各種
の情報に基づき、対象物OBJが侵入物(侵入者)である
か否かの判断等を行なうことができる。In any case, in the present embodiment, the object OBJ corresponding to the portion where the image data has changed only by the installation condition of the imaging unit 1 without separately installing a special tool such as a scale bar. It is possible to obtain various information such as the size, shape, distance from the imaging unit 1, and angle of the object OBJ, and to determine whether or not the object OBJ is an intruder (intruder) based on the various information. Can be performed.
【0058】次にこのような構成の侵入物検出装置の処
理動作例を図14のフローチャートを用いて説明する。
なお、図14の処理動作例では、通常は、パッシブセン
サや窓出入口用マグネットセンサなどのセンサ6に侵入
を検知させ、センサ6が侵入を検知した場合に、この検
知情報をトリガとして、プロセッサ21は監視,演算処
理を開始するものとしている。Next, an example of the processing operation of the intruder detecting device having such a configuration will be described with reference to the flowchart of FIG.
In the processing operation example of FIG. 14, normally, the sensor 6 such as a passive sensor or a window entrance magnet sensor detects intrusion, and when the sensor 6 detects intrusion, the detection information is used as a trigger to trigger the processor 21. Indicates that monitoring and arithmetic processing are to be started.
【0059】図14を参照すると、プロセッサ21は、
先ず、初期化処理を行なう。例えばワークエリアとして
機能するRAM23等の初期化を行なう(ステップS
1)。次いで、センサ6から侵入の検知情報が通知され
たか否かを判断し(ステップS2)、センサ6から侵入の
検知情報が通知された場合には、例えばプロセッサ21
に内蔵されているタイマ(図示せず)を駆動して侵入検知
情報が通知された時点からの時間を計時させるととも
に、画像監視処理を開始する(ステップS3)。Referring to FIG. 14, the processor 21 includes:
First, an initialization process is performed. For example, the RAM 23 and the like functioning as a work area are initialized (step S
1). Next, it is determined whether or not intrusion detection information has been notified from the sensor 6 (step S2).
Then, a timer (not shown) built in is driven to measure the time from when the intrusion detection information is notified, and the image monitoring process is started (step S3).
【0060】すなわち、プロセッサ21は、撮像部1か
らの画像データ(より詳しくはA/D変換器20からの
デジタル画像データ)を例えば所定の時間間隔Tごとに
取り込む(ステップS3)。例えば図15に示すように、
画像処理の開始時刻がt1であり、時刻t1,t2,t3,
…の画像データがDij(t1),Dij(t2),Dij(t3),
…であるとき、プロセッサ21は、各時刻t1,t2,t
3,…に画像データDij(t1),Dij(t2),Dij(t3),
…を取り込み、RAM23に格納する。That is, the processor 21 takes in the image data from the imaging unit 1 (more specifically, the digital image data from the A / D converter 20), for example, at predetermined time intervals T (step S3). For example, as shown in FIG.
The start time of the image processing is t 1, the time t 1, t 2, t 3 ,
Are image data D ij (t 1 ), D ij (t 2 ), D ij (t 3 ),
.., The processor 21 sets the times t 1 , t 2 , t
The image data D ij (t 1 ), D ij (t 2 ), D ij (t 3 ) ,.
.. Are taken and stored in the RAM 23.
【0061】このとき、RAM23の容量を節約するな
どのために、基本的には、時間的に隣接する2つの時刻
tk,tk+1の画像データDij(tk),Dij(tk+1)がRA
M23に保持されるようにする。具体的に、プロセッサ
21は、時刻t1に画像データDij(t1)を取り込むと、
これをRAM23のエリアWK1に図16(a)に示すよ
うに格納し、次いで、時刻t2に画像データDij(t2)を
取り込むと、これをRAM23のエリアWK2に図16
(b)に示すように格納する。この時点で、RAM23に
は、2つの時刻t1,t2の画像データDij(t1),D
ij(t2)が保持される。次いで、時刻t3に画像データD
ij(t3)を取り込むと、RAM23のエリアWK1に保持
されている時刻t1の画像データDij(t1)を消去して、
これのかわりに時刻t3の画像データDij(t3)を図16
(c)に示すように格納する。このように、奇数番目の時
刻の画像データをRAM23のエリアWK1に格納し、
偶数番目の時刻の画像データをRAM23のエリアWK
2に格納する。[0061] At this time, such as to save the RAM23 capacity, basically, two times t k temporally adjacent image data D ij of t k + 1 (t k) , D ij ( t k + 1 ) is RA
M23. Specifically, the processor 21 captures the image data D ij (t 1 ) at time t 1 ,
And stores it as shown in FIG. 16 (a) to the area WK 1 of RAM 23, then, when the time t 2 captures image data D ij (t 2), this in the area WK 2 in RAM 23 16
Store as shown in (b). At this time, the RAM 23 stores the image data D ij (t 1 ), D 2 at two times t 1 and t 2.
ij (t 2 ) is held. Then, the image data D at time t 3
When ij (t 3 ) is captured, the image data D ij (t 1 ) at time t 1 held in the area WK 1 of the RAM 23 is deleted, and
Instead of this, the image data D ij (t 3 ) at time t 3 is
Store as shown in (c). Thus, storing the image data of the odd-numbered time the area WK 1 of RAM 23,
The image data of the even-numbered time is stored in the area WK of the RAM 23.
Store in 2 .
【0062】このようにして、2つの時刻tk,tk+1の
画像データDij(tk),Dij(tk+1)を取得すると、プロ
セッサ21は、これら2つの画像データDij(tk),D
ij(tk+1)を比較し、画像データDij(tk+1)が画像デー
タDij(tk)に対し変化したか否かを判断する(ステップ
S4)。例えば、2つの2値化画像データDij(tk+1),
Dij(tk)の差をとり、その差分画像データ(D
ij(tk+1)−Dij(tk))の全ての画素値が“0”のとき
は変化がないと判断し、“0”以外の画素値をもつ部分
があるときは変化したと判断する。When the image data D ij (t k ) and D ij (t k + 1 ) at the two times t k and t k + 1 are thus obtained, the processor 21 sets the two image data D ij (t k ), D
ij (t k + 1 ) is compared, and it is determined whether or not the image data D ij (t k + 1 ) has changed from the image data D ij (t k ) (step S4). For example, two binary image data D ij (t k + 1 ),
D ij (t k ), and the difference image data (D
ij all pixel values (t k + 1) -D ij (t k)) is determined that there is no change when the "0", when there is a portion having a pixel value other than "0" is changed Judge.
【0063】このような判断の結果、変化していない場
合には、侵入検知情報が通知されてから所定の時間がタ
イマにより計時されたかを調べ(ステップS5)、所定の
時間経過していないときには、再びステップS3に戻
り、次の時刻について同様の処理を行なう。なお、上記
所定の時間は、例えば、センサ6が監視区域105内に
設置されていない場合に、人間がセンサ6の位置のとこ
ろから監視区域105に到達するのに必要とされる時
間,あるいは人間が静止状態を維持可能な時間などを考
慮して、設定される。従って、この所定の時間が経過し
ても、画像データに変化がないときには、人間が侵入し
ていないと判断し、再びステップS2に戻り、改めてセ
ンサ6からの侵入検知情報を待つ。If the result of this determination is that there has been no change, it is checked whether a predetermined time has been measured by the timer since the intrusion detection information was notified (step S5). Then, the process returns to step S3, and the same processing is performed for the next time. The predetermined time is, for example, the time required for a person to reach the monitoring area 105 from the position of the sensor 6 when the sensor 6 is not installed in the monitoring area 105, or Is set in consideration of, for example, the time during which the stationary state can be maintained. Therefore, if there is no change in the image data even after the predetermined time has elapsed, it is determined that no human has entered, and the process returns to step S2 again to wait for the intrusion detection information from the sensor 6 again.
【0064】具体的に、いま、図15の例において、所
定の時間が例えば(t7−t1)に設定されているとする場
合、画像処理を開始後、時刻t1,t2の画像データDij
(t1),Dij(t2)間に変化がないときには、時刻t2,
t3の画像データDij(t2),Dij(t3)を比較し、画像
データDij(t2),Dij(t3)にも変化がないときには、
時刻t3,t4の画像データDij(t3),Dij(t4)を比較
するというように、2つの時刻tk,tk+1の画像データ
Dij(tk),Dij(tk+1)の比較を、所定の時間(t7−t
1)が経過するまで繰り返し行なう(ステップS3,S
4,S5)。More specifically, in the example of FIG. 15, if the predetermined time is set to, for example, (t 7 −t 1 ), after starting the image processing, the images at times t 1 and t 2 Data D ij
When there is no change between (t 1 ) and D ij (t 2 ), time t 2 ,
image data D ij of t 3 (t 2), compares the D ij (t 3), the image data D ij (t 2), when there is no change in the D ij (t 3) is
Time t 3, t 4 of the image data D ij (t 3), and so to compare the D ij (t 4), 2 two times t k, t k + 1 of the image data D ij (t k), D ij (t k + 1 ) is compared for a predetermined time (t 7 −t
(1 ) is repeated (steps S3, S
4, S5).
【0065】このような繰り返し処理において、いま例
えば、時刻t4,t5の画像データDij(t4),Dij(t5)
を比較した結果、変化が認められると、プロセッサ21
は、さらに、この画像データの変化が侵入物(侵入者)に
よるものであるか否かの判断を行なう。すなわち、前述
のように、この変化した部分に対応する対象物OBJの
形状および大きさが侵入物(侵入者)の形状および大きさ
として妥当であるか否かを判断し、また、この対象物O
BJの移動速度が侵入物(侵入者)の移動速度として妥当
であるか否かを判断する。In such a repetitive processing, for example, the image data D ij (t 4 ) and D ij (t 5 ) at the times t 4 and t 5 are obtained, for example.
As a result of the comparison, if a change is recognized, the processor 21
Further determines whether the change in the image data is due to an intruder (intruder). That is, as described above, it is determined whether or not the shape and size of the object OBJ corresponding to the changed portion is appropriate as the shape and size of the intruder (intruder). O
It is determined whether the moving speed of the BJ is appropriate as the moving speed of the intruder (intruder).
【0066】この判断を行なうため、プロセッサ21
は、変化が認められたときは、単に2つの時刻t4,t5
の画像データDij(t4),Dij(t5)のみならず、それ以
後の時刻t6,…,tmの画像データDij(t6),…,D
ij(tm)を用いて処理を行なう。To make this determination, the processor 21
Is, when a change is recognized, simply two times t 4 and t 5
Image data D ij of the (t 4), not only D ij (t 5) only, subsequent time t 6, ..., the image data of t m D ij (t 6) , ..., D
ij performs processing using a (t m).
【0067】すなわち、侵入物(侵入者)によるものであ
るか否かの判断処理を行なうのに、変化が認められた時
点での2つの時刻t4,t5の画像データDij(t4),D
ij(t5)だけを用いて(その差分画像データによって)、
変化した部分に対応する対象物の形状および大きさを求
め、これが侵入物(侵入者)の形状および大きさとして妥
当であるか否かを判断し、侵入物(侵入者)であるか否か
を判断することもできる。しかしながら、単に2つの画
像データDij(t4),Dij(t5)の比較結果だけでは(す
なわち、一時点での比較結果だけでは)、侵入物(侵入
者)がこれを検出するのに適した位置にいるとは限ら
ず、対象物が侵入物(侵入者)であるにもかかわらず、上
記形状および大きさが侵入物(侵入者)として妥当でない
と判断される恐れがある。また、単に2つの画像データ
Dij(t4),Dij(t5)の比較結果だけからでは、対象物
の動き(移動速度)に関する情報を得ることができない。
さらには、1つの差分画像データだけでは、一瞬のライ
トなどの光の作用等により誤報が生じたりする場合があ
る。従って、より正確な判断を行なうため、ステップS
4において変化有りの判断がなされたときは、時刻
t4,t5の画像データDij(t4),Dij(t5)の比較結果
のみならず、さらに、以後の時刻t6,…,tmの画像デ
ータをも取得し、時刻t5の画像データDij(t5)をも含
めた複数の時刻の画像データに基づいて判断を行なうの
が良い。例えば、時刻t4,t5の画像データD
ij(t4),Dij(t5)の比較結果のみならず、以後の時刻
t5,t6の画像データDij(t5),Dij(t6)の比較結
果,…,時刻tm-1,tmの画像データDij(tm-1),D
ij(tm)の比較結果をも用いて、対象物の時間的変化を
監視することで、対象物が侵入物(侵入者)であるか否か
の判断を行なうのが良い。That is, in determining whether or not an image is due to an intruder (intruder), the image data D ij (t 4) at two times t 4 and t 5 at the time when a change is recognized. ), D
Using only ij (t 5 ) (by the difference image data),
Determine the shape and size of the object corresponding to the changed part, determine whether this is appropriate as the shape and size of the intruder (intruder), and determine whether it is an intruder (intruder) Can also be determined. However, only by comparing the two image data D ij (t 4 ) and D ij (t 5 ) (that is, by only comparing at one point in time), an intruder (intruder) detects this. There is a possibility that the shape and the size are determined to be inappropriate as an intruder (intruder) even though the target object is an intruder (intruder). Further, it is not possible to obtain information on the movement (movement speed) of the object only from the comparison result of the two image data D ij (t 4 ) and D ij (t 5 ).
Further, with only one piece of differential image data, an erroneous report may occur due to the action of light such as an instantaneous light. Therefore, in order to make a more accurate determination, step S
When it is determined in step 4 that there is a change, not only the comparison result of the image data D ij (t 4 ) and D ij (t 5 ) at times t 4 and t 5 , but also the subsequent times t 6 ,. , Tm, and the image data at a plurality of times including the image data D ij (t 5 ) at the time t 5 . For example, the image data D at times t 4 and t 5
ij (t 4 ) and D ij (t 5 ), the comparison results of the image data D ij (t 5 ) and D ij (t 6 ) at the subsequent times t 5 and t 6 ,. t m−1 , t m image data D ij (t m−1 ), D
ij comparison result even with a (t m), by monitoring the temporal change of the object is good object performs intruder whether (intruder) determination.
【0068】このため、図14の例では、ステップS4
において変化有りの判断がなされたときには、プロセッ
サ21は、さらに、以後の時刻の画像データを取得する
(ステップS6)。そして、プロセッサ21は、例えば上
記のようにして対象物の時間的変化を監視し、対象物の
時間的変化の少なくともある1つの時点においてその形
状および大きさが侵入物(侵入者)の形状および大きさと
して妥当なものであるか否かを判断し(ステップS7)、
また、対象物の位置の時間的変化から対象物の動き(移
動速度)が侵入者として不自然なものでないか否かを判
断する(ステップS8)。ここで、対象物OBJの位置の
時間的変化は、対象物OBJまでの距離LXY,角度ψの
時間的変化を監視することで検出でき、例えば、対象物
OBJが画面から突然消えたり、あるいは、画面内で急
に位置が変わったり、あるいは画面内で行ったり来たり
したり、あるいは、全く動かなかったりする場合には、
対象物の動きが侵入物(侵入者)として不自然であると判
断し、上記以外の場合には、対象物の動きが侵入物(侵
入者)として自然であると判断する。For this reason, in the example of FIG. 14, step S4
Is determined, the processor 21 further acquires image data at a subsequent time.
(Step S6). Then, the processor 21 monitors the temporal change of the target object, for example, as described above, and at least at one point in time of the temporal change of the target object, the shape and the size of the intruder (intruder) are changed. It is determined whether or not the size is appropriate (Step S7),
In addition, it is determined whether or not the movement (moving speed) of the object is not unnatural as an intruder from the temporal change of the position of the object (step S8). Here, the temporal change of the position of the object OBJ can be detected by monitoring the temporal change of the distance L XY and the angle ま で to the object OBJ. For example, the object OBJ suddenly disappears from the screen, or , If it suddenly changes position on the screen, moves back and forth in the screen, or does not move at all,
It is determined that the movement of the target object is unnatural as an intruder (intruder), and otherwise, it is determined that the movement of the target object is natural as an intruder (intruder).
【0069】これらの判断の結果、侵入物(侵入者)の形
状および大きさとして妥当であり、かつ、侵入物(侵入
者)の動き(移動速度)として妥当であるときには、出力
部4から侵入警報を出力させる(ステップS9)。例え
ば、警告ランプを点灯したり、警報音を発生させたりす
る。また、侵入物(侵入者)の形状および大きさとして妥
当でないか、あるいは侵入物(侵入者)の動き(移動速度)
として妥当でないときには、再びステップS2に戻り、
改めてセンサ6からの侵入検知情報を待つ。As a result of these determinations, if the shape and size of the intruder (intruder) are appropriate and the movement (moving speed) of the intruder (intruder) is appropriate, the An alarm is output (step S9). For example, a warning lamp is turned on or a warning sound is generated. Also, the shape and size of the intruder (intruder) are not appropriate, or the movement (moving speed) of the intruder (intruder)
If it is not appropriate, return to step S2 again,
Wait for the intrusion detection information from the sensor 6 again.
【0070】なお、画像データに変化が確認された以後
の処理,すなわち、画像データDij(t4),Dij(t5)の
比較処理,…,画像データDij(tm-1),Dij(tm)の比
較処理では、2つの画像データ,例えばDij(tm-1),
Dij(tm)間の単純な差をとって、変化した部分の形
状,大きさ,動きを監視することもできるが、画像デー
タに変化が確認された以後は、前時点の画像データに対
象物が存在するため、単純な差をとると、その差分画像
データには、図17に示すように、現時点での対象物の
部分CH(tk)の他に、前時点での対象物の部分CH(t
k-1)が現われてしまい、処理が煩雑になる恐れがある。The processing after the change is confirmed in the image data, that is, the comparison processing of the image data D ij (t 4 ) and D ij (t 5 ),..., The image data D ij (t m-1 ) , D ij (t m ), two image data, for example, D ij (t m-1 ),
The shape, size, and movement of the changed portion can be monitored by taking a simple difference between D ij (t m ), but after a change is confirmed in the image data, Since there is an object, if a simple difference is calculated, the difference image data includes, as shown in FIG. 17, an object at the current time, in addition to the current object portion CH (t k ). Part CH (t
k-1 ) may appear and the processing may be complicated.
【0071】この問題を回避するため、例えば、変化が
認められる直前(時刻t4)の画像データDij(t4)を標準
画像データとし、時刻t5以後の画像データDij(t5),
Dij(t6),…,Dij(tm)が順次に得られたときに、各
画像データDij(t5),Dij(t6)…,Dij(tm)と標準
画像データDij(t4)との差をとり、各差分画像データ
(Dij(t5)−Dij(t4)),(Dij(t6)−Dij(t4)),
…,(Dij(tm)−Dij(t4))において、それぞれ、変化
している部分の形状,大きさ,位置等を算出し、その時
間的経過からこの部分に対応する対象物が侵入物(侵入
者)であるか否かを判断するようなこともできる。In order to avoid this problem, for example, the image data D ij (t 4 ) immediately before a change is recognized (time t 4 ) is set as standard image data, and the image data D ij (t 5 ) after time t 5 is used. ,
D ij (t 6), ... , when D ij (t m) are obtained sequentially, each image data D ij (t 5), D ij (t 6) ..., D ij (t m) and standard The difference from the image data D ij (t 4 ) is calculated, and each difference image data
(D ij (t 5 ) −D ij (t 4 )), (D ij (t 6 ) −D ij (t 4 )),
, (D ij (t m ) −D ij (t 4 )), the shape, size, position, and the like of the changing part are calculated, and the object corresponding to this part is calculated from the lapse of time. It can be determined whether or not is an intruder (intruder).
【0072】あるいは、上述したような画像処理以外の
任意所望の画像処理によって、侵入物(侵入者)であるか
否かの判断を行なうこともできる。Alternatively, it is also possible to determine whether or not an object is an intruder (intruder) by any desired image processing other than the above-described image processing.
【0073】また、上述の例では、画像データに変化が
認められたとき、画像データの変化した部分に対応する
対象物が、侵入物(侵入者)の形状および大きさとして妥
当であり、かつ、侵入物(侵入者)の動きとして妥当であ
るとき、侵入警報を出力するとしたが、その前段階とし
て、画像データに変化が認められた時点以後の各時刻の
画像データをディスプレイ等に表示することもできる。
すなわち、画像データの変化した部分を動画像としてデ
ィスプレイ等に可視表示することもできる。In the above example, when a change is found in the image data, the object corresponding to the changed portion of the image data is appropriate as the shape and size of the intruder (intruder), and When the movement of an intruder (intruder) is appropriate, an intrusion alarm is output, but as a previous step, image data at each time after a time point at which a change in image data is recognized is displayed on a display or the like. You can also.
That is, the changed portion of the image data can be visually displayed on a display or the like as a moving image.
【0074】さらに、侵入物(侵入者)であるか否かの判
断に加えて、侵入物(侵入者)の個数をも算出し、この情
報をも出力することも可能である。例えば、図8に示す
ように、複数の対象物OBJ1〜OBJnが検出され、各
対象物OBJ1〜OBJnが侵入物(侵入者)として妥当で
あると判断されたときに、侵入物(侵入者)の個数として
“n”を出力(例えば表示)することも可能である。Further, in addition to determining whether or not an intruder (intruder), it is also possible to calculate the number of intruders (intruders) and output this information. For example, as shown in FIG. 8, when a plurality of objects OBJ 1 to OBJ n are detected and each of the objects OBJ 1 to OBJ n is determined to be valid as an intruder (intruder), an intruder is detected. It is also possible to output (for example, display) “n” as the number of (intruders).
【0075】以上のように、本実施例によれば、目盛棒
などの特別な道具を別途設置したりせずとも、撮像部1
の設置条件だけにより、侵入物(侵入者)に関する確実な
情報を検出することができる。As described above, according to this embodiment, the imaging unit 1 can be installed without special tools such as a scale bar.
Only with the installation condition, reliable information on an intruder (intruder) can be detected.
【0076】[0076]
【発明の効果】以上に説明したように、本発明によれ
ば、所定の視野角の範囲の画像を所定の撮像手段により
撮像した画像データに基づき、侵入物の検出に関する画
像処理演算を行なう際、この画像処理演算において、撮
像手段の視野角と撮像手段の設置条件とを用いるように
なっている。これにより、目盛棒などの特別な道具を別
途設置したりせずとも、撮像手段の視野角と設置条件だ
けにより、侵入物(侵入者)に関する確実な情報を検出す
ることができる。As described above, according to the present invention, an image processing operation relating to detection of an intruder is performed based on image data obtained by capturing an image in a range of a predetermined viewing angle by a predetermined imaging unit. In this image processing operation, the viewing angle of the imaging means and the installation conditions of the imaging means are used. This makes it possible to detect reliable information on an intruder (intruder) only by the viewing angle and the installation conditions of the imaging unit without separately installing a special tool such as a scale bar.
【図1】本発明に係る侵入物検出装置の一実施例の構成
図である。FIG. 1 is a configuration diagram of an embodiment of an intruder detection device according to the present invention.
【図2】撮像部の具体例を示す図である。FIG. 2 is a diagram illustrating a specific example of an imaging unit.
【図3】建物内の部屋の一例を示す透視図である。FIG. 3 is a perspective view showing an example of a room in a building.
【図4】(a),(b)はそれぞれ図3のx軸方向,y軸方
向の断面図である。4 (a) and 4 (b) are cross-sectional views in the x-axis direction and y-axis direction of FIG. 3, respectively.
【図5】撮像された画面の一例を示す図である。FIG. 5 is a diagram showing an example of an imaged screen.
【図6】(a)乃至(c)は画像データの変化した部分を検
出する仕方を説明するための図である。FIGS. 6A to 6C are diagrams for explaining a method of detecting a changed portion of image data.
【図7】(a),(b)は人間の画像の移動の様子を説明す
るための図である。FIGS. 7A and 7B are diagrams for explaining how a human image moves. FIG.
【図8】画像データの変化した部分が複数の画素連結領
域からなる場合を示す図である。FIG. 8 is a diagram showing a case where a changed part of image data is composed of a plurality of pixel connection areas.
【図9】(a),(b)は画素連結領域を抽出し、これにラ
ベルを付す処理を説明するための図である。FIGS. 9A and 9B are diagrams for explaining a process of extracting a pixel connection region and attaching a label thereto.
【図10】(a),(b)は画素連結領域の面積および輪郭
画素数を計数する仕方を説明するための図である。FIGS. 10A and 10B are diagrams for explaining a method of counting the area of a pixel connection region and the number of contour pixels.
【図11】(a)乃至(h)は輪郭としての条件を満たすマ
スク内画素を示す図である。FIGS. 11A to 11H are diagrams showing pixels in a mask satisfying a condition as an outline.
【図12】(a),(b)は画素連結領域の周囲長を計数す
る仕方を説明するための図である。FIGS. 12A and 12B are diagrams for explaining how to count the perimeter of a pixel connection region; FIGS.
【図13】(a),(b)は画素連結領域の周囲長を計数す
る仕方を説明するための図である。FIGS. 13A and 13B are diagrams for explaining how to count the perimeter of a pixel connection region; FIGS.
【図14】図1の侵入物検出装置の処理動作例を示すフ
ローチャートである。FIG. 14 is a flowchart illustrating an example of a processing operation of the intruding object detection device of FIG. 1;
【図15】画像データの取り込みタイミングを示すタイ
ムチャートである。FIG. 15 is a time chart showing the timing of capturing image data.
【図16】(a)乃至(c)は画像データのRAMへの格納
の仕方を説明するための図である。FIGS. 16A to 16C are diagrams for explaining a method of storing image data in a RAM.
【図17】差分画像データの一例を示す図である。FIG. 17 is a diagram illustrating an example of difference image data.
1 撮像部 2 設置条件入力部 3 演算部 4 出力部 5 電源部 6 センサ 11 撮像素子 12 光学手段 20 A/D変換器 21 プロセッサ 22 ROM 23 RAM 101 部屋 102 天井 103 壁面 104 床 105 監視区域 h 撮像部の高さ θ(θx,θy) 撮像部の設置角度(傾き角度)REFERENCE SIGNS LIST 1 imaging unit 2 installation condition input unit 3 calculation unit 4 output unit 5 power supply unit 6 sensor 11 imaging element 12 optical unit 20 A / D converter 21 processor 22 ROM 23 RAM 101 room 102 ceiling 103 wall surface 104 floor 105 monitoring area h imaging Height θ (θ x , θ y ) Installation angle of the imaging unit (tilt angle)
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭63−70683(JP,A) 特開 平6−258027(JP,A) 特開 平6−174405(JP,A) 特開 平6−223187(JP,A) 特開 平7−225828(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01C 3/00 - 3/32 G01B 11/00 - 11/30 102 G06T 7/60 150 G08B 13/189 - 13/196 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-63-70683 (JP, A) JP-A-6-258027 (JP, A) JP-A-6-174405 (JP, A) JP-A-6-174405 223187 (JP, A) JP-A-7-225828 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G01C 3/00-3/32 G01B 11/00-11/30 102 G06T 7/60 150 G08B 13/189-13/196
Claims (7)
画像を撮像する撮像手段と、前記撮像手段の設置された
高さと前記撮像手段の設置角度とを前記撮像手段の設置
条件として入力する設置条件入力手段と、前記撮像手段
により撮像された画像データに基づき侵入物の検出に関
する画像処理演算を行なう演算手段とを有し、前記演算
手段は、侵入物の検出に関する画像処理演算において、
前記撮像手段の視野角と前記設置条件入力手段から入力
された設置条件とを用いて、画面上における撮像手段直
下の位置を算出し、撮像手段直下の位置を基準にして、
撮像手段の設置位置から対象物の位置までの角度に関す
る情報,撮像手段の設置位置から対象物までの距離に関
する情報,対象物の大きさに関する情報のうちの少なく
とも1つの情報を算出するようになっていることを特徴
とする侵入物検出装置。An image pickup means having a predetermined viewing angle, and for picking up an image in a range of the view angle, wherein the image pickup means is provided.
Setting the height and the installation angle of the imaging means
Installation condition input means for inputting as a condition, and arithmetic means for performing an image processing operation relating to detection of an intruder based on image data taken by the imaging means, wherein the arithmetic means comprises an image processing apparatus for detecting an intruder In the operation,
Using the viewing angle of the imaging unit and the installation condition input from the installation condition input unit , the imaging unit directly on the screen
Calculate the lower position, based on the position immediately below the imaging means,
The angle from the installation position of the imaging means to the position of the object
Information and the distance from the installation position of the imaging means to the object.
Information and information on the size of the object
An intruding object detection device characterized in that both devices calculate one piece of information .
て、前記設置条件入力手段は、前記撮像手段に取り付け
られた距離計と傾斜計とを有し、距離計により前記撮像
手段の床からの高さを測定し、傾斜計により前記撮像手
段の設置角度を測定して、演算手段に入力することを特
徴とする侵入物検出装置。2. The intruding object detection device according to claim 1 , wherein said installation condition input means has a range finder and an inclinometer attached to said image pickup means, and said distance measurement means detects the distance from the floor of said image pickup means. An intruding object detection apparatus, comprising: measuring a height, measuring an installation angle of the imaging unit with an inclinometer, and inputting the measurement angle to an arithmetic unit.
て、前記設置条件入力手段は、前記撮像手段の高さおよ
び設置角度をアナログ電圧として入力するための電圧調
整手段を有していることを特徴とする侵入物検出装置。3. An intruder detection apparatus according to claim 1 , wherein said installation condition input means has a voltage adjusting means for inputting a height and an installation angle of said image pickup means as an analog voltage. Characteristic intruder detection device.
て、前記設置条件入力手段は、前記撮像手段の高さおよ
び設置角度を所定ビット数のコードとして入力するため
のデジタル入力手段を有していることを特徴とする侵入
物検出装置。4. The intruder detection apparatus according to claim 1 , wherein said installation condition input means has digital input means for inputting a height and an installation angle of said imaging means as a code having a predetermined number of bits. An intruder detection device, characterized in that:
て、前記画像データは、前記撮像手段の解像度に依らず
に、必要に応じて、撮像手段の1画素を1画素として処
理され、あるいは、撮像手段の複数の画素をまとめて1
画素として処理されるようになっていることを特徴とす
る侵入物検出装置。5. The intruder detection apparatus according to claim 1, wherein the image data is processed as one pixel of the imaging unit as necessary, regardless of the resolution of the imaging unit, or A plurality of pixels of the imaging means are collectively 1
An intruder detection device characterized by being processed as a pixel.
手段により撮像した画像データに基づき、侵入物の検出
に関する画像処理演算を行なう侵入物検出方法であっ
て、侵入物の検出に関する画像処理演算において、前記
撮像手段の視野角と前記撮像手段の設置された高さと前
記撮像手段の設置角度とを用いて、画面上における撮像
手段直下の位置を算出し、撮像手段直下の位置を基準に
して、撮像手段の設置位置から対象物の位置までの角度
に関する情報,撮像手段の設置位置から対象物までの距
離に関する情報,対象物の大きさに関する情報のうちの
少なくとも1つの情報を算出することを特徴とする侵入
物検出方法。6. An intruder detection method for performing an image processing operation relating to detection of an intruder based on image data obtained by capturing an image in a range of a predetermined viewing angle by a predetermined imager, wherein the image relating to the detection of an intruder is provided. In the processing calculation, the viewing angle of the imaging unit, the height at which the imaging unit is installed, and the
Imaging on the screen using the installation angle of the imaging means
Calculate the position immediately below the means, and refer to the position immediately below the imaging means.
And the angle from the installation position of the imaging means to the position of the object
Information about the distance from the installation position of the imaging means to the object
Information about separation and information about the size of the object
A method for detecting an intruder, wherein at least one piece of information is calculated .
グネットセンサなどのセンサに侵入検知を行なわせ、該
センサにより侵入が検知された場合に、請求項6記載の
侵入物検出方法による侵入物検出を行なうことを特徴と
する侵入物検出方法。7. An intruder detection method according to claim 6 , wherein a sensor such as a passive sensor or a magnet sensor for window entrance is detected by an intrusion detection method. Performing an intruding object detection method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29797694A JP3153718B2 (en) | 1994-11-07 | 1994-11-07 | Intruder detection device and intruder detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29797694A JP3153718B2 (en) | 1994-11-07 | 1994-11-07 | Intruder detection device and intruder detection method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH08136251A JPH08136251A (en) | 1996-05-31 |
| JP3153718B2 true JP3153718B2 (en) | 2001-04-09 |
Family
ID=17853536
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP29797694A Expired - Fee Related JP3153718B2 (en) | 1994-11-07 | 1994-11-07 | Intruder detection device and intruder detection method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3153718B2 (en) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002042142A (en) * | 2000-07-28 | 2002-02-08 | Matsushita Electric Ind Co Ltd | Distance measuring device, monitoring device using it |
| US8564661B2 (en) | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
| US9892606B2 (en) | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
| US8711217B2 (en) | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
| US7424175B2 (en) | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
| JP4628860B2 (en) * | 2005-05-10 | 2011-02-09 | セコム株式会社 | Image sensor |
| US10582095B2 (en) | 2016-10-14 | 2020-03-03 | MP High Tech Solutions Pty Ltd | Imaging apparatuses and enclosures |
| US11765323B2 (en) | 2017-05-26 | 2023-09-19 | Calumino Pty Ltd. | Apparatus and method of location determination in a thermal imaging system |
| JP7019113B2 (en) * | 2019-12-25 | 2022-02-14 | 三菱電機株式会社 | Relative position detector, relative position detection method, and relative position detection program |
-
1994
- 1994-11-07 JP JP29797694A patent/JP3153718B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JPH08136251A (en) | 1996-05-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7116246B2 (en) | Apparatus and method for sensing the occupancy status of parking spaces in a parking lot | |
| KR100422370B1 (en) | An Apparatus and Method to Measuring Dimensions of 3D Object on a Moving Conveyor | |
| KR100820261B1 (en) | Image processing unit | |
| JP4460782B2 (en) | Intrusion monitoring device | |
| WO1998036238A1 (en) | Outdoor range finder | |
| JP3153718B2 (en) | Intruder detection device and intruder detection method | |
| EP1189017A1 (en) | Displacement sensor | |
| WO1998030977A1 (en) | Method and arrangement for determining the position of an object | |
| JP3456339B2 (en) | Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device | |
| GB1573142A (en) | Apparatus and method for providing information relating to shape and/or position of an object | |
| KR100499764B1 (en) | Method and system of measuring an object in a digital | |
| CN113936060B (en) | A method for measuring the swing angle of a crane load under complex background | |
| CN107958202B (en) | Human body detection apparatus, control method of human body detection apparatus, and storage medium | |
| JP3189579B2 (en) | Method and apparatus for measuring liquid level using image processing | |
| Lee et al. | Machine vision system for curved surface inspection | |
| JPH0793558A (en) | Image monitoring device | |
| JP3465531B2 (en) | Object recognition method and apparatus | |
| KR100508994B1 (en) | Critical dimension measurement method and apparatus capable of measurement below the resolution of an optical microscope | |
| JP4628860B2 (en) | Image sensor | |
| JP2002032759A (en) | Monitoring device | |
| JP3053159B2 (en) | Flame detection device and flame detection method | |
| JP3519296B2 (en) | Automatic measurement method and automatic measurement device for thermal image | |
| JPH10283478A (en) | Feature extraction method and object recognition device using the method | |
| JPH10185520A (en) | Method for detecting center of laser beam receiving point | |
| JP2985380B2 (en) | Electronic component position detection method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090126 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090126 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100126 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110126 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110126 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120126 Year of fee payment: 11 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120126 Year of fee payment: 11 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120126 Year of fee payment: 11 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130126 Year of fee payment: 12 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130126 Year of fee payment: 12 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130126 Year of fee payment: 12 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140126 Year of fee payment: 13 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140126 Year of fee payment: 13 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| LAPS | Cancellation because of no payment of annual fees |