[go: up one dir, main page]

JP2014123303A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2014123303A
JP2014123303A JP2012279851A JP2012279851A JP2014123303A JP 2014123303 A JP2014123303 A JP 2014123303A JP 2012279851 A JP2012279851 A JP 2012279851A JP 2012279851 A JP2012279851 A JP 2012279851A JP 2014123303 A JP2014123303 A JP 2014123303A
Authority
JP
Japan
Prior art keywords
escape
monitoring
image
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012279851A
Other languages
Japanese (ja)
Other versions
JP6163302B2 (en
Inventor
Hiromasa Omachi
洋正 大町
Koji Abe
幸司 阿部
Haruyuki Amamoto
晴之 天本
Toshiki Imamura
俊樹 今村
Yoshikazu Shinoda
佳和 篠田
Makoto Teraoka
真 寺岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012279851A priority Critical patent/JP6163302B2/en
Publication of JP2014123303A publication Critical patent/JP2014123303A/en
Application granted granted Critical
Publication of JP6163302B2 publication Critical patent/JP6163302B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】逃走する賊の特定に役立つ逃走情報を取得可能にした監視システムを実現する。
【解決手段】監視領域内が異常状態である場合に監視領域から逃走する移動体に関する逃走情報を監視センタに送信する監視システムであって、監視領域内にて異常が発生した後に当該監視領域内に存在する移動体を追跡する追跡部と、追跡中の移動体を撮影する撮影部と、移動体が監視領域から出たか否かを判定する逃走判定部と、逃走判定部にて前記移動体が前記監視領域から出たと判定すると、判定した前後の所定時間分の画像から逃走情報を生成する逃走情報生成部と、前記逃走情報を前記監視センタに送信する送信部を具備する監視システムを提供する。
【選択図】 図3
A monitoring system is provided that makes it possible to acquire escape information useful for identifying a bandit that runs away.
A monitoring system that transmits to a monitoring center escape information relating to a moving object that escapes from a monitoring area when the monitoring area is in an abnormal state, and in the monitoring area after an abnormality occurs in the monitoring area. A tracking unit that tracks a moving body existing in the camera, a photographing unit that captures the moving body being tracked, an escape determination unit that determines whether or not the mobile body has left the monitoring area, and the mobile unit in the escape determination unit Provides a monitoring system comprising: an escape information generation unit that generates escape information from images for a predetermined time before and after the determination, and a transmission unit that transmits the escape information to the monitoring center. To do.
[Selection] Figure 3

Description

本発明は、賊が建屋から逃走する際の状況を撮影する監視システムに関し、特に、逃走する賊の特定に役立つ逃走情報を取得可能にした監視システムに関する。   The present invention relates to a monitoring system that captures a situation when a bandit escapes from a building, and more particularly, to a monitoring system that can acquire escape information useful for identifying a bandit that runs away.

従来、建物とその周辺の監視領域に各種センサを設置し、センサが異常を検出すると、異常検知した場所に移動ロボットが移動して監視領域を撮影する監視システムが提案されている。
例えば、特許文献1には、火災を検出するセンサや侵入者を検出するセンサからの信号に基づいて、地上走行型の移動ロボットが異常発生の場所に移動して異常状況を撮影する監視システムが開示されている。このような監視システムは、駐車場が設けられているような工場やショッピングモールなど広範囲な監視領域を監視することがある。特許文献1のシステムでは、移動ロボットは、センサが異常を検知した場所まで走行して、その異常発生場所の撮影や監視センタへの通報などを実行している。
2. Description of the Related Art Conventionally, there has been proposed a monitoring system in which various sensors are installed in a building and its surrounding monitoring area, and when the sensor detects an abnormality, the mobile robot moves to the place where the abnormality is detected and images the monitoring area.
For example, Patent Document 1 discloses a monitoring system in which a ground-traveling mobile robot moves to a place where an abnormality occurs and images an abnormal situation based on signals from a sensor that detects a fire or a sensor that detects an intruder. It is disclosed. Such a monitoring system may monitor a wide monitoring area such as a factory or a shopping mall where a parking lot is provided. In the system of Patent Document 1, the mobile robot travels to a place where the sensor detects an abnormality, and performs imaging of the place where the abnormality has occurred, notification to the monitoring center, and the like.

特開2009−181270号公報JP 2009-181270 A

ところで、工場等の建物に侵入して工場内の物品を盗むような賊は、金庫等の運び出しや逃走を容易にするために自動車を使用することが多い。つまり、工場等の駐車場に自動車を駐車し、その後に工場内に侵入を試みることが多い。監視システムにとって、賊を特定するためには、ナンバープレート、車色、車種などの自動車を特定するための情報、監視領域を出た後の逃走方向や賊の人数など逃走に関連する情報は、その後の捜査にとって非常に有用な情報となる。 By the way, bandits that infiltrate buildings such as factories and steal goods in factories often use automobiles to facilitate carrying out and escape of safes. That is, it is often the case that a car is parked in a parking lot of a factory or the like and then invades the factory. For the surveillance system, in order to identify the bandits, information related to identifying the car such as the license plate, car color, vehicle type, etc., information related to the flight, such as the escape direction after leaving the surveillance area and the number of bandits, This is very useful information for subsequent investigations.

しかしながら、従来の監視システムでは、賊が逃走したか否かの判断をすることを想定しておらず、警備員が異常発生場所に到達して賊がいなければ逃走したと判断する。つまり、賊の逃走は、警備員が確認した後に確認するシステムが採用されている。このため、たとえ移動ロボットが賊の逃走状況を撮影していたとしても、逃走する賊を特定する情報を迅速に異常発生に向かっている警備員や警察等へ提供することが困難であるという課題があった。 However, in the conventional monitoring system, it is not assumed that it is determined whether or not the bandit has escaped, and if the guard arrives at the place where the abnormality occurred and there is no bandit, it is determined that the bandit has escaped. In other words, a system has been adopted that confirms the escape of bandits after the security guard has confirmed. For this reason, even if the mobile robot is shooting the escape situation of the bandits, it is difficult to provide information for identifying the bandits to escape to the security guards and police who are heading for the occurrence of abnormalities quickly. was there.

また、移動ロボットが逃走する賊を撮影できたとしても、監視員が画像を視て逃走している賊か、監視領域の利用者なのかを判断するのは、監視員の熟練が必要となり容易ではない。 Even if the mobile robot can shoot the escape bandit, it is easy for the observer to judge whether it is the escape bandit or the user of the surveillance area by looking at the image. is not.

更に、監視員が異常発生場所に向かっている警備員や警察に逃走情報を提供する場合においても、警備員や警察に画像を送信することが考えられるが、警備員等が画像を確認できる装備を持っていない場合もあり、電話等の口頭や文字等で確実に逃走情報を伝達する方法が課題となる。 Furthermore, it is possible to send images to the guards and police when the guards provide escape information to the guards and police who are heading to the location where the abnormality occurred. Equipment that allows the guards to check the images. In some cases, there is a problem of how to reliably transmit the escape information by oral or text such as a telephone.

そこで、本発明は、飛行ロボットによって、賊の逃走を判定するとともに、その賊の逃走情報を取得し、迅速に監視センタへ送信できる監視システムの実現を目的とする。   Accordingly, an object of the present invention is to realize a monitoring system that can determine whether a bandit has escaped by a flying robot, acquire the bandit's escape information, and quickly transmit the information to the monitoring center.

更に、本発明は、逃走情報を監視員が容易に他に伝達できる監視システムの実現を目的とする。   Furthermore, an object of the present invention is to realize a monitoring system in which escape information can be easily transmitted to others.

かかる目的を達成するために本発明は、監視領域内が異常状態である場合に監視領域から逃走する移動体に関する逃走情報を監視センタに送信する監視システムであって、監視領域内にて異常が発生した後に監視領域内に存在する移動体を追跡する追跡部と、追跡中の移動体を撮影する撮影部と、移動体が監視領域から出たか否かを判定する逃走判定部と、逃走判定部にて移動体が監視領域から出たと判定すると、判定した前後の所定時間分の画像から逃走情報を生成する逃走情報生成部と、逃走情報を監視センタに送信する送信部を有する監視システムを提供する。このとき、逃走情報生成部が前記所定時間分の画像を逃走情報とすることが好適である。   In order to achieve such an object, the present invention provides a monitoring system that transmits to a monitoring center escape information relating to a moving object that escapes from a monitoring area when the monitoring area is in an abnormal state. A tracking unit that tracks a moving object that exists in the monitoring area after it has occurred, an imaging unit that images the moving object that is being tracked, an escape determination unit that determines whether the moving object has left the monitoring area, and an escape determination A monitoring system having an escape information generation unit that generates escape information from images for a predetermined time before and after the determination, and a transmission unit that transmits the escape information to the monitoring center. provide. At this time, it is preferable that the escape information generation unit uses the image for the predetermined time as the escape information.

これにより、本発明は、異常が発生している監視領域から逃走した人物や自動車などの逃走情報を監視センタに送信するので、監視センタにて逃走した事実とそのときの様子を容易に確認できる。   Thereby, since this invention transmits escape information, such as the person who escaped from the monitoring area | region where abnormality has generate | occur | produced, and a motor vehicle, to the monitoring center, the fact that it escaped in the monitoring center and the mode at that time can be confirmed easily. .

更に、画像から移動体の特徴を認識し、当該認識結果をテキストデータにする画像処理部を有し、逃走情報生成部は当該テキストデータを逃走情報に含めることが好適である。   Furthermore, it is preferable that an image processing unit that recognizes the characteristics of the moving body from the image and converts the recognition result into text data, and the escape information generation unit include the text data in the escape information.

これにより、画像だけでなく、移動体の特徴をテキストデータにて受信できるので、画像を表示する装備を持たない相手であっても、テキストデータを用いて逃走情報を的確に伝達することが容易になる。   As a result, not only images but also features of moving objects can be received as text data, so it is easy to accurately transmit runaway information using text data even if the opponent does not have equipment to display images. become.

また、画像処理部が、逃走判定部にて移動体が監視領域から出たと判定したときの前後の画像から当該移動体が逃走した方向を判定し、当該方向を認識結果としてテキストデータにすることが好適である。また、画像処理部が、移動体を撮影した画像から人物を抽出し、当該人物の人数を認識結果としてテキストデータにすることが好適である。   Further, the image processing unit determines the direction in which the moving object has escaped from the images before and after the moving object is determined to have exited the monitoring area by the escape determining unit, and the direction is used as the recognition result as text data. Is preferred. In addition, it is preferable that the image processing unit extracts a person from an image obtained by photographing a moving body and converts the number of persons into text data as a recognition result.

また、画像処理部が、逃走判定部にて前記移動体が監視領域から出たと判定したときの前後の画像から前記移動体が自動車か人物かを判定し、当該判定結果を認識結果としてテキストデータにすることが好適である。
また、画像処理部が、移動体を撮影した画像から自動車を抽出し、当該自動車のナンバープレート、車種、車色等の特徴情報を認識し、当該特徴情報を認識結果としてテキストデータにすることが好適である。
In addition, the image processing unit determines whether the moving body is a car or a person based on images before and after the escape determining unit determines that the moving body has left the monitoring area, and the determination result is used as text data. Is preferable.
In addition, the image processing unit may extract a car from an image of a moving body, recognize feature information such as a license plate, car type, and car color of the car, and use the feature information as text data as a recognition result. Is preferred.

また、撮影部が、追跡部が求める前記移動体の現在位置に移動して当該移動体を撮影する飛行ロボットであることが好適である。飛行ロボットであれば、人物や自動車の特徴を画像処理部での処理に適した画像を撮影することが可能になる。   In addition, it is preferable that the photographing unit is a flying robot that moves to the current position of the moving body required by the tracking unit and photographs the moving body. In the case of a flying robot, it is possible to capture an image suitable for processing of the characteristics of a person or a car in the image processing unit.

本発明によれば、監視領域から逃走する賊に関する逃走情報を迅速に監視センタへ送信することができる。   ADVANTAGE OF THE INVENTION According to this invention, the escape information regarding the bandit which escapes from a monitoring area | region can be rapidly transmitted to a monitoring center.

飛行ロボットの飛行イメージを説明する図Illustration explaining the flying image of a flying robot レーザセンサの検知エリアを示す図Diagram showing the detection area of the laser sensor 監視システムの全体構成図Overall configuration diagram of the monitoring system 警備装置の機能ブロック図Functional block diagram of security equipment ロボ制御モジュールの機能ブロック図Functional block diagram of the robot control module 飛行ロボットの機能ブロック図Functional block diagram of a flying robot 移動体検出時の警備装置の処理フローProcessing flow of security device when moving object is detected 画像処理モジュールの機能ブロック図Functional block diagram of image processing module 画像処理モジュールにおけるナンバープレート抽出の説明図Explanatory drawing of license plate extraction in image processing module 画像処理モジュールにおける車種判定の説明図Illustration of vehicle type determination in the image processing module 画像処理モジュールにおける車色判定の説明図Explanatory drawing of vehicle color determination in image processing module 人数計測の説明図Illustration of counting people トラッキング(逃走方向)の説明図Illustration of tracking (runaway direction)

以下、本発明にかかる監視システムの実施の形態について説明する。図1を参照して、監視システム1の概略動作イメージを説明する。図1(a)は、警備セットモード中に、自動車7にて乗りつけて賊が建屋Bに侵入したときに、飛行ロボット3が飛行を始めた様子を示している。このように、監視システムで1は、監視領域Eでの異常発生を警備装置2が検知すると、監視センタへの異常通報とともに、飛行ロボット3を起動する。そして、飛行ロボット3が侵入した自動車7の撮影した画像を順次、監視センタへ送信する。
図1(b)は、賊が建屋Bから出てきて、自動車7に乗り込み逃走する様子を示している。賊は建屋Bから出たことをレーザセンサ4にて検知し、賊の駐車場内での移動を追跡する。飛行ロボット3は、レーザセンサ4の追跡中の賊を目指して飛行し、賊を追跡しつつ撮影する。賊は、逃走のために自動車7に乗車し、監視領域Eから逃走する。この際、飛行ロボット3は自動車7を追跡しつつ撮影を続け、撮影した画像から自動車情報、逃走方向を認識してテキストデータを生成し、逃走時の前後の画像とともに逃走情報をとして監視センタに送信する。なお、追跡中、警備装置2は、飛行ロボット3が撮影した画像を常に監視センタへ送信している。
Embodiments of a monitoring system according to the present invention will be described below. A schematic operation image of the monitoring system 1 will be described with reference to FIG. FIG. 1 (a) shows a state where the flying robot 3 starts flying when a bandit enters the building B while riding in the automobile 7 during the security set mode. As described above, when the security device 2 detects the occurrence of an abnormality in the monitoring area E, the monitoring system 1 activates the flying robot 3 together with an abnormality report to the monitoring center. Then, images taken by the automobile 7 into which the flying robot 3 has entered are sequentially transmitted to the monitoring center.
FIG. 1B shows a situation where a bandit emerges from the building B, gets into the automobile 7 and escapes. The bandit detects that it has left the building B with the laser sensor 4 and tracks the movement of the bandit in the parking lot. The flying robot 3 flies aiming at the bandit being tracked by the laser sensor 4 and shoots while tracking the bandit. The bandit gets in the car 7 to escape and escapes from the surveillance area E. At this time, the flying robot 3 keeps shooting while tracking the automobile 7, recognizes the vehicle information and the escape direction from the taken image, generates text data, and sends the escape information together with the images before and after the escape to the monitoring center. Send. During tracking, the security device 2 always transmits an image captured by the flying robot 3 to the monitoring center.

図3は、監視システム1の全体構成を模式的に示した図である。監視システム1は、監視領域Eに設置される警備装置2、飛行ロボット3、レーザセンサ4、建物内センサ5と、ネットワークを介して接続される監視センタ内に設置されたセンタ装置6から構成されている。センタ装置6は、警備装置2とIP網にて接続され、警備装置2から飛行ロボット3の撮影した画像や建物内センサ5の検知信号などを受信し、モニタに表示する。なお、監視員は、このモニタを視て監視領域Eの状況を把握し、適切な対応を実行する。また、ネットワークをIP網として説明しているが、一般公衆回線網、携帯電話網など画像の送受信に支障がなければこれに限るものではない。 FIG. 3 is a diagram schematically showing the overall configuration of the monitoring system 1. The monitoring system 1 includes a security device 2, a flying robot 3, a laser sensor 4, a building sensor 5 installed in a monitoring area E, and a center device 6 installed in a monitoring center connected via a network. ing. The center device 6 is connected to the security device 2 via an IP network, receives an image captured by the flying robot 3 from the security device 2, a detection signal from the sensor 5 in the building, and the like and displays it on the monitor. The monitor looks at this monitor, grasps the status of the monitoring area E, and executes an appropriate response. Further, although the network is described as an IP network, the network is not limited to this as long as there is no problem in image transmission / reception such as a general public network or a mobile phone network.

飛行ロボット3は、警備装置2からの無線による飛行制御信号を受信して、所定の目標位置まで撮影しながら飛行し、撮影した画像を警備装置2に送信する。図6は、飛行ロボット3の機能ブロックを示した図である。
飛行ロボット3は、警備装置2との無線通信を行うためのアンテナ31、上昇/下降/方向転換/前進などの飛行するための4つのロータ32、ロータ32に駆動力を提供するモータ等からなるロータ駆動部33、鉛直下方にレーザーを投受光して飛行ロボット3の現在高度を計測する高度センサ34、水平方向かつ周囲にレーザーを投受光して飛行ロボット3の周辺状況を計測する測距センサ35、飛行ロボット3の前方をカラー画像にて撮影するカメラ36、周囲が暗いときに点灯しカメラ36での撮影を補助するLED照明である照明37、飛行ロボット3の全体を制御するロボ制御部38、飛行ロボット3の各部に電力を供給するリチウムポリマー電池である電源39から構成されている。
The flying robot 3 receives a wireless flight control signal from the security device 2, flies while photographing to a predetermined target position, and transmits the photographed image to the security device 2. FIG. 6 is a diagram showing functional blocks of the flying robot 3.
The flying robot 3 includes an antenna 31 for performing wireless communication with the security device 2, four rotors 32 for flying such as ascending / descending / turning direction / advancing, a motor for providing driving force to the rotor 32, and the like. A rotor drive unit 33, an altitude sensor 34 for projecting and receiving a laser beam vertically below to measure the current altitude of the flying robot 3, and a distance measuring sensor for projecting and receiving a laser beam in the horizontal direction and surroundings to measure the surrounding situation of the flying robot 3 35, a camera 36 that captures a color image of the front of the flying robot 3, an illumination 37 that is an LED illumination that is turned on when the surroundings are dark and assists the camera 36, and a robot controller that controls the entire flying robot 3. 38, a power source 39 which is a lithium polymer battery for supplying power to each part of the flying robot 3.

また、ロボ制御部38は、アンテナ31を介して警備装置2との無線通信を制御する通信制御手段381、カメラ36の撮影開始/終了やカメラ36が撮影した画像を取得して通信制御手段381から警備装置2へ送信するなどの処理をするカメラ制御手段382、測距センサ35および高度センサ34が測定した高度情報および周辺物体と自機との距離データをスキャンデータとして通信制御手段381から警備装置2へ送信するなどの処理をするスキャン手段383、警備装置2からの飛行制御信号に基づいてロータ駆動部33を制御して飛行ロボット3を目標位置に飛行するように制御する飛行制御手段384から構成されている。 The robot control unit 38 also acquires communication control means 381 for controlling wireless communication with the security device 2 via the antenna 31, acquisition start / end of the camera 36 and images taken by the camera 36, and communication control means 381. Is transmitted from the communication control means 381 as scan data using the altitude information measured by the camera control means 382, the distance measuring sensor 35 and the altitude sensor 34, and the distance data between the surrounding object and the own device. A scanning unit 383 that performs processing such as transmission to the device 2 and a flight control unit 384 that controls the rotor driving unit 33 based on the flight control signal from the security device 2 to control the flying robot 3 to fly to the target position. It is composed of

次に、図1、図4、図5を参照して、警備装置2について詳細に説明する。図1に示す監視領域Eの建屋Bの内部に警備装置2は設置されている。警備装置2は、建屋B内への侵入者を検知するための適宜の場所に設置された建物内センサ5、監視領域E内であって駐車場等の建屋Bの外を検知領域とするレーザセンサ4とそれぞれ接続されている。
図4は、警備装置2の機能ブロックを示す図である。警備装置2は、監視領域Eを監視センタが監視する警備セット状態と監視センタで監視しない警備解除状態との切替操作を行う警備モード切替部21と、レーザセンサ4や建物内センサ5などの各種センサからの信号の入力を受けるセンサインタフェース22、飛行ロボット3との通信を行う飛行ロボット通信部25、飛行ロボット3が撮影した画像、各種センサが検知した異常信号などについて、センタ装置6とネットワークを介して通信を行う監視センタ通信部26、警備装置2の処理に必要なプログラムや各種のデータ、パラメータなどを記憶しているROM/RAMなどの周辺部品にて構成される記憶部24、および警備装置2の全体を統括制御するCPU,MPUなどから成る警備制御部23から構成されている。
Next, the security device 2 will be described in detail with reference to FIGS. 1, 4, and 5. The security device 2 is installed inside the building B in the monitoring area E shown in FIG. The security device 2 includes a sensor 5 in the building installed at an appropriate location for detecting an intruder into the building B, a laser in the monitoring area E and outside the building B such as a parking lot. Each sensor 4 is connected.
FIG. 4 is a diagram illustrating functional blocks of the security device 2. The security device 2 includes a security mode switching unit 21 that performs a switching operation between a security set state monitored by the monitoring center and a security release state that is not monitored by the monitoring center, a laser sensor 4, a sensor 5 in the building, and the like. A sensor interface 22 that receives input of signals from the sensors, a flying robot communication unit 25 that communicates with the flying robot 3, images captured by the flying robot 3, abnormal signals detected by various sensors, and the like are connected to the center device 6 and the network. A monitoring center communication unit 26 for performing communication, a storage unit 24 composed of peripheral components such as ROM / RAM storing programs and various data and parameters necessary for processing of the security device 2, and security The security control unit 23 is composed of a CPU, MPU, etc. for overall control of the entire apparatus 2.

ここで、記憶部24に記憶されている情報について説明する。監視空間マップ241は、監視領域Eを3次元にて表現した情報であって、地面から飛行ロボット3の飛行に必要な程度の高さまでの監視空間を表現したマップ情報である。本実施の形態では、監視領域Eと外部を仕切る塀の存在、建屋B、レーザセンサ4の設置位置などの予め監視空間内に存在している物体の情報が記憶されている。なお、監視空間マップ241には、建屋B内部の3次元情報も入っており、例えば扉や窓のように人が出入り可能な場所が登録されている。   Here, information stored in the storage unit 24 will be described. The monitoring space map 241 is information that represents the monitoring area E in three dimensions, and is map information that represents the monitoring space from the ground to a height required for the flight of the flying robot 3. In the present embodiment, information on objects existing in the monitoring space in advance, such as the presence of a fence that partitions the monitoring area E from the outside, the building B, and the installation position of the laser sensor 4 is stored. Note that the monitoring space map 241 also includes three-dimensional information inside the building B, and places where people can enter and exit are registered, such as doors and windows.

建物内センサ配置情報242は、各建物内センサ5の監視場所の監視空間マップ241における位置情報である。これは、予め警備計画によって決められており、建物内センサ5ごとに監視空間マップ241上の位置が対応付けられている。 The in-building sensor arrangement information 242 is position information in the monitoring space map 241 of the monitoring location of each in-building sensor 5. This is determined in advance by a security plan, and a position on the monitoring space map 241 is associated with each in-building sensor 5.

レーザセンサパラメータ243は、レーザセンサ4の監視空間マップ241における位置、レーザセンサ4の検知領域における位置と監視空間マップ241上の位置との対応関係を含む情報であり、レーザセンサ4にて物体検知した位置を監視空間マップ241上の位置に変換するためのパラメータである。 The laser sensor parameter 243 is information including the correspondence between the position of the laser sensor 4 in the monitoring space map 241 and the position in the detection area of the laser sensor 4 and the position on the monitoring space map 241. It is a parameter for converting the determined position into a position on the monitoring space map 241.

なお、各種パラメータ244は、そのほかに警備装置2が監視領域Eを監視するために必要なセンタ装置6のIPアドレスや飛行ロボット3との通信のためのデータなど種々のパラメータである。記憶部24には、これら以外に警備装置2の機能を実現するための各種プログラムが記憶されている。 The various parameters 244 are various parameters such as the IP address of the center device 6 and data for communication with the flying robot 3 necessary for the security device 2 to monitor the monitoring area E. In addition to these, the storage unit 24 stores various programs for realizing the functions of the security device 2.

次に、警備制御部23について詳細に説明する。なお、警備制御部23は、記憶部24には図示していないソフトウェアモジュールを読み出して、CPU等にて各処理を行うものである。 Next, the security control unit 23 will be described in detail. The security control unit 23 reads a software module (not shown) in the storage unit 24 and performs each process by the CPU or the like.

移動体追跡モジュール231は、センサインタフェース22から入力されるレーザセンサ4の信号を解析処理するソフトウェアである。具体的には、レーザセンサ4がレーザー光にて検知エリアを走査した結果である探査信号を時系列に解析する。検知エリアに新たな進入物体等がなければ、時系列に入力されるレーザセンサ4の探査信号はあまり変化しないので、移動体なしとの解析結果となる。他方、検知エリアに新たな進入物体等があれば、レーザセンサ4の探査信号に変化が生じ、変化が出た検知エリアでの位置を解析して求める。更に、記憶部24のレーザセンサパラメータ243を用いて、監視空間マップ241上の位置に変換し、進入物体の位置・大きさ・移動方向を算出し、進入物体を監視空間マップ241上で追跡する。また、進入物体が停止すると、その後の信号の変化がなくなるので、追跡していた自動車や人物が、停止または立ち止まったと判定することができる。更に、追跡中の進入物体が監視領域Eから外部へ出たことも検出する。外部へ出たこと、すなわち逃走を検出すると、逃走情報生成モジュール235に対し、逃走検出を通知する。
また、移動体追跡モジュール231の解析結果は、後述する異常判定モジュール232、ロボ制御モジュール233、画像処理モジュール234、逃走情報生成モジュール235に出力される。
The moving body tracking module 231 is software for analyzing the signal of the laser sensor 4 input from the sensor interface 22. Specifically, the search signal which is the result of the laser sensor 4 scanning the detection area with laser light is analyzed in time series. If there is no new approaching object or the like in the detection area, the search signal of the laser sensor 4 input in time series does not change so much, and the analysis result indicates that there is no moving object. On the other hand, if there is a new approaching object or the like in the detection area, the search signal of the laser sensor 4 changes, and the position in the detection area where the change has occurred is obtained by analysis. Further, using the laser sensor parameter 243 of the storage unit 24, the position is converted into a position on the monitoring space map 241 to calculate the position / size / movement direction of the approaching object, and the approaching object is tracked on the monitoring space map 241. . Further, when the approaching object stops, there is no change in the signal thereafter, so it can be determined that the car or person being tracked has stopped or stopped. Further, it is also detected that the approaching object being tracked has gone out of the monitoring area E. When it is detected that it has gone out, that is, when it has escaped, the escape information generation module 235 is notified of the escape detection.
The analysis result of the moving body tracking module 231 is output to an abnormality determination module 232, a robot control module 233, an image processing module 234, and an escape information generation module 235, which will be described later.

異常判定モジュール232は、警備モード切替部21からの警備セット/解除信号、建物内センサ5、レーザセンサ4からの信号を受信し、監視領域Eに異常が発生したか否かを判定する。異常判定モジュール232は、警備モード切替部21から警備セット信号を受信すると監視領域Eを警戒する警備セットモードとし、警備解除信号を受信すると監視領域Eを警戒していない警備解除モードに設定する。そして、警備解除モードでは、建物内センサ5やレーザセンサ4からの検知信号を受信しても、特段の処理は行わない。他方、警備セットモードでは、建物内センサ5やレーザセンサ4からの検知信号を受信すると異常発生と判定し、監視センタ通信部26からセンタ装置6に異常通報する。異常通報とともに、ロボ制御モジュール233に対して飛行ロボット3の起動制御を実行する。そして、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を監視センタ通信部26からセンタ装置6に送信する処理を異常状態の解除がされるまで継続する。また、後述する逃走情報生成モジュール235が逃走情報を生成すると、逃走情報をセンタ装置6に送信する。なお、異常状態の解除方法は種々存在するが、本発明との関連性が低いので説明は省略する。 The abnormality determination module 232 receives a security set / release signal from the security mode switching unit 21 and signals from the in-building sensor 5 and the laser sensor 4 and determines whether an abnormality has occurred in the monitoring area E. When receiving the security set signal from the security mode switching unit 21, the abnormality determination module 232 sets the monitoring area E to the security set mode that warns, and when receiving the security release signal, sets the monitoring area E to the security release mode that is not warning. In the security release mode, no special processing is performed even if a detection signal from the in-building sensor 5 or the laser sensor 4 is received. On the other hand, in the security set mode, when a detection signal from the in-building sensor 5 or the laser sensor 4 is received, it is determined that an abnormality has occurred, and the monitoring center communication unit 26 notifies the center device 6 of the abnormality. Along with the abnormality report, the robot control module 233 is controlled to start the flying robot 3. And the process which transmits the image which the flying robot 3 received from the flying robot communication part 25 image | photographed from the monitoring center communication part 26 to the center apparatus 6 is continued until an abnormal state is cancelled | released. Further, when the escape information generation module 235 described later generates the escape information, the escape information is transmitted to the center device 6. Although there are various methods for canceling the abnormal state, the description thereof is omitted because it is not relevant to the present invention.

ロボ制御モジュール233は、異常判定モジュール232にて飛行ロボット3の起動信号を受けると、飛行ロボット通信部25から飛行ロボット3の飛行制御を行う。 When the robot control module 233 receives the activation signal of the flying robot 3 from the abnormality determination module 232, the robot control module 233 performs flight control of the flying robot 3 from the flying robot communication unit 25.

ここで、図5を参照してロボ制御モジュール233を詳細に説明する。図5は、ロボ制御モジュール233の機能ブロック図である。ロボ制御モジュール233は、飛行ロボット3が到達するべき目標位置を決める目標位置設定手段イと、目標位置設定手段イが設定した目標位置に到達するための飛行経路を算出する飛行経路算出手段ロと、飛行経路算出手段ロが算出した飛行経路にて飛行するように飛行ロボット3へ飛行制御信号を生成して送信するロボ制御手段ハと、飛行ロボット3の監視空間マップ241上における現在の飛行位置を算出する飛行位置算出手段ニから構成されている。 Here, the robot control module 233 will be described in detail with reference to FIG. FIG. 5 is a functional block diagram of the robot control module 233. The robot control module 233 includes target position setting means A for determining a target position to be reached by the flying robot 3, flight path calculation means RO for calculating a flight path for reaching the target position set by the target position setting means A, Robo control means C for generating and transmitting a flight control signal to the flying robot 3 so as to fly along the flight path calculated by the flight path calculation means B, and a current flight position on the monitoring space map 241 of the flying robot 3 Flight position calculating means D for calculating

目標位置設定手段イは、移動体追跡モジュール231が算出した進入物体である自動車または人物の監視空間マップ241上の位置を上方5m程度の高度から撮影できる位置を目標位置とする。なお、ここで、5m程度というのは、カメラ36の解像度や画角などの諸性能によって変わるが、飛行ロボット3が自動車や人物の全体を撮影可能な程度の高さである。なお、自動車のナンバープレートを撮影する際は、カメラ36の俯角にもよるが2m程度の高度とし、自動車の後方から撮影できる位置を目標位置とする。 The target position setting means a sets the position on the monitoring space map 241 of the car or person that is the approaching object calculated by the moving body tracking module 231 as a target position where the position can be taken from an altitude of about 5 m above. Here, the distance of about 5 m varies depending on various performances such as the resolution and angle of view of the camera 36, but is high enough to allow the flying robot 3 to photograph the entire vehicle or person. Note that when shooting a license plate of an automobile, the altitude of about 2 m is set depending on the depression angle of the camera 36, and a position where the image can be taken from the rear of the automobile is set as a target position.

図4に戻って、画像処理モジュール234は、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を処理する。 Returning to FIG. 4, the image processing module 234 processes the image captured by the flying robot 3 received from the flying robot communication unit 25.

ここで、図8を参照して画像処理モジュール234を詳細に説明する。図8は、画像処理モジュール234の機能ブロックを示している。画像処理モジュール234は、飛行ロボット3が撮影した画像を順次時系列的に取得し、処理用の画像を記憶部24に保存する画像保存手段ホと、移動体追跡モジュール231から逃走検出の通知を受けると、記憶部24から逃走検知したときの前後の所定数分の画像を取得する画像取得手段ヘと、画像取得手段ヘが取得した画像から自動車または人物を抽出する移動体抽出手段トと、移動体が自動車である場合にナンバープレート、車種、車色を認識する自動車情報認識手段チと、移動体が人物である場合にその人数を計測する人数計測手段リと、移動体を画像上で追跡して逃走方向を判定するトラッキング手段ヌと、自動車情報認識手段チ・人数計測手段リ・トラッキング手段ヌの認識・計測・判定した結果を人間が理解できる自然言語のテキストデータに変換するテキストデータ生成手段ルから構成されている。ここで、逃走を検知したときの前後の所定数は、監視領域Eの広さや各種の認識処理に必要な数などの状況に応じて予め設定されている。 Here, the image processing module 234 will be described in detail with reference to FIG. FIG. 8 shows functional blocks of the image processing module 234. The image processing module 234 sequentially acquires images taken by the flying robot 3 in time series, and stores image data for processing in the storage unit 24, and notification of escape detection from the moving body tracking module 231. When received, the image acquisition means for acquiring a predetermined number of images before and after the escape detection from the storage unit 24, and the moving body extraction means for extracting a car or a person from the image acquired by the image acquisition means, When the moving body is an automobile, the vehicle information recognition means H that recognizes the license plate, the vehicle type, and the color of the vehicle, the number measuring means for measuring the number of persons when the moving body is a person, and the moving body on the image A tracking language that tracks and determines the direction of escape, and a natural language that allows humans to understand the results of recognition, measurement, and determination of vehicle information recognition means, person counting means, and tracking means. And a text data generating means le to be converted in the text data. Here, the predetermined number before and after the escape is detected is set in advance according to the situation such as the size of the monitoring area E and the number necessary for various recognition processes.

移動体抽出手段トは、画像から人物及び/または自動車が写っている領域を抽出する。すなわち、記憶部24の各種パラメータ244に予め記憶している人物テンプレート及び自動車テンプレートを用いて、画像を走査する。そして、マッチングがとれた領域に人物または自動車が存在するとし、人物か自動車を区別して領域を抽出する。 The moving body extracting means extracts a region where a person and / or a car is shown from the image. That is, the image is scanned using the person template and the car template stored in advance in the various parameters 244 of the storage unit 24. Then, assuming that a person or a car exists in the matched area, the area is extracted by distinguishing between the person and the car.

自動車情報認識手段チは、移動体抽出手段トが自動車として抽出した画像から自動車のナンバープレート情報、自動車の車種、および自動車の車色を認識する。ここで、ナンバープレート情報、車種、車色の順でその抽出方法について説明する。 The vehicle information recognition means H recognizes the license plate information of the automobile, the vehicle type of the automobile, and the color of the automobile from the image extracted by the moving body extraction means as the automobile. Here, the extraction method will be described in the order of license plate information, vehicle type, and vehicle color.

自動車情報認識手段チが行う自動車のナンバープレートを撮影した画像からナンバーを読み取る処理について、図9を参照して説明する。画像I1は、飛行ロボット3が撮影した画像から移動体抽出手段トが自動車の領域を抽出した画像であって、自動車の背面の画像である。自動車情報認識手段チは、画像I1から自動車の中央部分且つ下方に位置し、エッジで囲まれたという特徴を持つ領域であるナンバープレート画像I2を抽出する。ここで、ナンバープレート画像が抽出できない場合は、入力された画像にナンバープレートが写っていないと判断する。ナンバープレート画像が抽出されると、そのナンバープレート画像I2から自動車を特定するためのナンバー情報を認識する。すなわち、ナンバープレートに表示されている文字は、位置や文字の種類(数字や漢字など)、配置について様式が定められているので、それに従い文字認識技術を用いて各文字を抽出する。例えば大きな数字(一連指定番号)の左にはひらがな(用途記号)、左上方には漢字(陸運支局名)、右上方には小さな数字(分類番号)が並んでいる。その位置情報を利用し、各文字をナンバープレートの画像から切り出して、周知の文字認識技術によりナンバープレートの画像からナンバー情報を認識する。そして、認識したナンバー情報をテキストデータ生成手段ルがテキスト化する。図9の例では、「練馬、500、お、1234」というテキストデータとして抽出している。 A process of reading a number from an image of a car license plate performed by the car information recognizing means will be described with reference to FIG. The image I1 is an image obtained by extracting the area of the automobile from the image taken by the flying robot 3, and is an image of the back of the automobile. The vehicle information recognition unit H extracts from the image I1 a license plate image I2, which is a region located at the center and below the vehicle and surrounded by edges. If the license plate image cannot be extracted, it is determined that the license plate is not shown in the input image. When the license plate image is extracted, the number information for identifying the automobile is recognized from the license plate image I2. That is, since the character displayed on the license plate has a predetermined format for position, character type (numbers, kanji, etc.) and arrangement, each character is extracted using character recognition technology accordingly. For example, hiragana (use symbol) is on the left of a large number (series designation number), kanji (land transportation branch office name) is on the upper left, and a small number (classification number) is on the upper right. Using the position information, each character is cut out from the license plate image, and the number information is recognized from the license plate image by a known character recognition technique. Then, the recognized number information is converted into text by the text data generating means. In the example of FIG. 9, the text data “Nerima, 500, O, 1234” is extracted.

自動車情報認識手段チが行う自動車の車種を撮影した画像から判定する処理について、図10を参照して説明する。画像I3は、飛行ロボット3が撮影した画像から移動体抽出手段トが自動車の領域を抽出した画像であって、自動車の左側面の画像である。なお、自動車の車種を形状から判定するため、左側と右側のどちら側の画像を用いても同じことである。まず、記憶部24の各種パラメータ244の一つである「車種シルエット」が記憶されている。例えば図10に示すように、セダン、ミニバン、トラックといった3種類の自動車のシルエットである。
自動車情報認識手段チは、画像I3を取得すると、自動車のタイヤ・車体・窓などの自動車の特徴情報を用いたセグメンテーション法により、画像中から自動車部分の領域を抽出する。図10では、点線で示した領域を自動車のシルエットとして抽出している。そして、抽出したシルエットと車種シルエットとを比較し、その尤度が高い車種を画像I3に写っている自動車の車種とする。図10では、「セダン」との尤度が最も高いので、「セダン」との判定となる。そして、判定結果である「セダン」をテキストデータ生成手段ルがテキスト化する。
本実施の形態では、予め記憶している「車種シルエット」との尤度を求めて判定したが、これに変えて車種ごとに学習した複数の学習識別器に画像I3を入力し、直接車種を判定するなど、他の方法を採用してもよい。なお、画像I3から自動車部分の抽出ができない場合は、飛行ロボット3の撮影した画像では車種の判定が不能となる。
The process for determining the type of automobile from the image taken by the automobile information recognition means will be described with reference to FIG. The image I3 is an image obtained by extracting the region of the automobile from the image taken by the flying robot 3, and is an image of the left side of the automobile. In addition, in order to determine the vehicle type of the automobile from the shape, the same is true regardless of which of the left and right side images is used. First, “vehicle type silhouette” which is one of various parameters 244 in the storage unit 24 is stored. For example, as shown in FIG. 10, there are three types of automobile silhouettes such as a sedan, a minivan, and a truck.
When acquiring the image I3, the vehicle information recognition unit H extracts the region of the vehicle portion from the image by the segmentation method using the feature information of the vehicle such as the tire, the vehicle body, and the window of the vehicle. In FIG. 10, a region indicated by a dotted line is extracted as a silhouette of a car. Then, the extracted silhouette and the vehicle type silhouette are compared, and the vehicle type having a high likelihood is set as the vehicle type of the automobile shown in the image I3. In FIG. 10, since the likelihood of “sedan” is the highest, it is determined as “sedan”. Then, the text data generation means converts the determination result “sedan” into text.
In the present embodiment, the likelihood of the “vehicle type silhouette” stored in advance is determined and determined. However, instead of this, the image I3 is input to a plurality of learning discriminators learned for each vehicle type, and the vehicle type is directly selected. Other methods such as determination may be employed. In addition, when the automobile part cannot be extracted from the image I3, the vehicle type cannot be determined from the image captured by the flying robot 3.

自動車情報認識手段チが行う自動車の車色を撮影した画像から判定する処理について、図11を参照して説明する。画像I4は、飛行ロボット3が撮影した画像から移動体抽出手段トが自動車の領域を抽出した画像であって、自動車のボディのカラー画像である。なお、自動車の車色が左右で異なる可能性を考慮する場合は、左側と右側の両方の画像を用いることとなる。自動車情報認識手段チは、画像I4を取得すると、自動車のタイヤ・車体・窓などの自動車の特徴情報を用いたセグメンテーション法により、画像中から自動車のボディ領域を図11の(b)のように抽出する。 Processing for determining the color of the car performed by the car information recognition unit H from the captured image will be described with reference to FIG. The image I4 is an image obtained by extracting the area of the automobile from the image taken by the flying robot 3, and is a color image of the body of the automobile. In addition, when considering the possibility that the color of the vehicle differs between the left and right, both the left and right images are used. Upon obtaining the image I4, the vehicle information recognizing means H identifies the body region of the vehicle from the image as shown in FIG. Extract.

更に、抽出した自動車部分の領域からタイヤ・窓を除いたボディ領域を図11の(c)のように抽出してボディ領域を更に複数のブロックに分割する。 Further, the body region excluding the tire and window is extracted from the extracted automobile part region as shown in FIG. 11C, and the body region is further divided into a plurality of blocks.

この分割した領域の画像ごとに、カラー情報(RGB値)を調べて当該部分の色を特定する。ここで、色の特定は、図11(d)に記載しているように、カラー情報(RGBの輝度割合)と色との対応表から定める。
即ち、分割した領域に含まれる各画素についてRGB値を調べて、その分割領域全体の画素について集計し、RGB値それぞれの平均輝度を求める。求めたRGB値の平均輝度の組合せを図11(d)に記載する対応表を参照し、最も近い組合せをその分割した領域の色と特定する。
例えば、ある分割領域のRGB値の平均輝度の組合せが(220,30、60)であった場合、その分割領域の色は赤色と特定する。同様に、他の分割領域のRGB値の平均輝度の組合せが(110,110,110)であった場合には、各成分が均等の明るさであるので、その分割領域の色は灰色と特定する。 そして、分割領域ごとに定まった色に基づいて、車色を特定する。そのために、各部分領域ごとに特定された色を集計して、ボディ領域について最も多い色を車体全体の色として決定する。例えば、全て分割領域が紺色であれば、「単一紺色」が車色と判断される。また、分割領域の上側が赤色で、下側が黒色であれば、「赤黒のツートンカラー」を車色とする。そして、判定結果である「赤黒のツートンカラー」をテキストデータ生成手段ルがテキスト化する。
For each image in the divided area, the color information (RGB value) is examined to identify the color of the portion. Here, the color is specified from a correspondence table between color information (RGB luminance ratio) and color, as described in FIG.
That is, the RGB value is examined for each pixel included in the divided area, and the pixels of the entire divided area are aggregated to obtain the average luminance of each RGB value. With reference to the correspondence table shown in FIG. 11D, the obtained combination of average luminance values of RGB values is specified as the color of the divided area.
For example, when the combination of the average brightness of the RGB values of a certain divided area is (220, 30, 60), the color of the divided area is specified as red. Similarly, when the combination of the average luminances of the RGB values of the other divided areas is (110, 110, 110), since each component has the same brightness, the color of the divided area is specified as gray. To do. And a vehicle color is specified based on the color decided for every division area. For this purpose, the colors specified for each partial region are totaled, and the most common color for the body region is determined as the color of the entire vehicle body. For example, if all the divided areas are dark blue, “single dark blue” is determined as the car color. Further, if the upper side of the divided area is red and the lower side is black, “red and black two-tone color” is set as the vehicle color. Then, the text data generation means converts the determination result “red and black two-tone color” into text.

次に、人数計測手段リは、移動体抽出手段トが人物として抽出した領域の数を計数する。図12では、点線で囲われている領域が人物として抽出されているので、「1」と計数される。そして、計数結果である「1」をテキストデータ生成手段ルがテキスト化する。   Next, the person counting means counts the number of areas extracted as a person by the moving body extracting means. In FIG. 12, since the area surrounded by the dotted line is extracted as a person, “1” is counted. Then, the text data generation means converts the count result “1” into text.

トラッキング手段ヌは、自動車および/または人物を画像上で追跡して逃走方向を判定する手段である。先ず、移動体抽出手段トが自動車領域を最初に抽出すると、当該自動車領域の画像から色分布や形状、監視空間マップ241上の位置などのテンプレートを付与する。そして、次に取得されたフレーム画像にて抽出された自動車領域のテンプレートとの尤度を計算する。この尤度が所定以上である自動車領域を次フレーム画像における当該自動車の画像であるとし、テンプレートを更新する。これを順次繰り返すことにより、同一の自動車をトラッキングすることが可能となる。また、トラッキング手段ヌは、各自動車領域の重心位置を求め、かかる重心位置の移動軌跡から自動車の移動方向を決定する。なお、トラッキング処理は、次のフレーム画像にて、テンプレートと対応つく自動車領域または人物領域がなくなると当該自動車または人物のトラッキング処理を終了する。 The tracking means is means for tracking the automobile and / or the person on the image to determine the escape direction. First, when the moving body extraction means first extracts the automobile area, a template such as a color distribution and shape, a position on the monitoring space map 241 is assigned from the image of the automobile area. And the likelihood with the template of the motor vehicle area extracted in the frame image acquired next is calculated. The template is updated assuming that the automobile area having the likelihood equal to or larger than the predetermined value is the image of the automobile in the next frame image. By repeating this in sequence, the same vehicle can be tracked. The tracking means obtains the position of the center of gravity of each automobile area and determines the moving direction of the automobile from the movement locus of the center of gravity position. In the tracking process, when there is no car area or person area corresponding to the template in the next frame image, the car or person tracking process ends.

ここで、図13を参照して、トラッキング処理について詳細に説明する。図13は、飛行ロボット3が撮影した記憶部24に保持されている時系列に並べたフレーム画像の例を示している。記憶部24に保持されるフレーム画像は、一定時間経過すると順次古いものから消去される。同図において、t時点のフレーム画像は、移動体抽出手段トが自動車7の写っている領域を最初に抽出したときの自動車領域(点線にて囲まれた領域)を示すフレーム画像である。その後、自動車7がトラッキングされて、監視領域Eから自動車7が逃走する様子を時刻t、tn+1、tn+2、tn+3で撮影されたフレーム画像である。 Here, the tracking process will be described in detail with reference to FIG. FIG. 13 shows an example of frame images arranged in time series held in the storage unit 24 photographed by the flying robot 3. The frame images held in the storage unit 24 are deleted from the oldest ones after a certain time has elapsed. In the same figure, the frame image at time t 0 is a frame image showing the automobile area (area surrounded by a dotted line) when the moving body extracting means first extracts the area where the automobile 7 is shown. Thereafter, the vehicle 7 is tracked, and the state in which the vehicle 7 escapes from the monitoring area E is a frame image taken at times t n , t n + 1 , t n + 2 , t n + 3 .

自動車7は、時刻tn+1に監視領域Eから逃走を図っている。この逃走した時点であるtn+1は、移動体追跡モジュール231にて自動車7の追跡結果から検出する。本実施の形態では、移動体追跡モジュール231にてtn+1を求めているが、画像処理モジュール234にて画像から自動車7が監視領域Eを出たときを検出するようにしてもよい。かかる時刻tn+1の前後のフレーム画像、ここでは、t〜tn+3を用いて、トラッキング手段ヌが自動車7の移動軌跡から求めた移動方向、すなわち、「ゲートを出て左方向」を逃走方向とする。
更に、トラッキング手段ヌは、求めた「ゲートを出て左方向」を監視空間マップ241における方角を示す「西方向」に変換する。そして、トラッキング手段ヌが求めた逃走方向である「西方向」をテキストデータ生成手段ルがテキスト化する。
なお、テキストデータ生成手段ルは、自動車情報認識手段チ、人数計測手段リ、およびトラッキング手段ヌの各認識結果を画像処理の対象とした画像と撮影時刻に対応付けてテキストデータを認識結果として記憶部24に順次記憶させている。
The automobile 7 tries to escape from the monitoring area E at time tn + 1 . The time t n + 1 that is the time of the escape is detected from the tracking result of the automobile 7 by the moving body tracking module 231. In the present embodiment, t n + 1 is obtained by the moving body tracking module 231, but the image processing module 234 may detect when the automobile 7 leaves the monitoring area E from the image. Using the frame images before and after the time t n + 1 , here, t n to t n + 3 , the movement direction obtained from the movement locus of the automobile 7 by the tracking means, that is, “the left direction after leaving the gate” is the escape direction. And
Further, the tracking means converts the obtained “Left direction from the gate” into the “West direction” indicating the direction in the monitoring space map 241. Then, the text data generating means converts the “west direction”, which is the escape direction obtained by the tracking means, into text.
The text data generating means stores the text data as the recognition result by associating the recognition results of the car information recognition means H, the number of people counting means, and the tracking means with the image and shooting time as the object of image processing. The data is sequentially stored in the unit 24.

次に、図4に戻って、逃走情報生成モジュール235について説明する。逃走情報生成モジュール235は、移動体追跡モジュール231にて自動車または人物が監視領域Eから出たことを検出すると、記憶部24に記憶しているその前後所定時間分の画像を逃走情報として、監視センタ通信部26からセンタ装置6に送信する。ここで、前後の所定時間は、監視領域Eの広さを考慮して、適宜定められる時間である。ここで、「逃走情報として」とは、各フレーム画像の属性として逃走情報フラグをON状態にすればセンタ装置6にて他の画像と区別して再生できるようにしたことをいう。このような方法に限らず、一連のシーンを含む画像ファイルに逃走情報という名前を付けるなど、センタ装置6にて他の画像と区別して再生できるようにすれば如何なる方法を採用してもよい。
また、逃走情報生成モジュール235は、画像処理モジュール234が生成したテキストデータになっている自動車情報、人数、逃走方向を記憶部24から読み出して、移動体追跡モジュール231にて特定した自動車または人物が監視領域Eから出た前後所定時間分の画像とともに、センタ装置6に逃走情報として送信する。かかるテキストデータである逃走情報は、センタ装置6のように画像を確認できる装備を持たない人物に対して、逃走情報の伝達が容易となる。なお、移動体追跡モジュール231にて自動車または人物が監視領域Eから出た前後所定時間分の画像を省略し、テキストデータである逃走情報のみを送信するようにしてもよい。
Next, returning to FIG. 4, the escape information generation module 235 will be described. When the escape information generation module 235 detects that the vehicle or person has left the monitoring area E by the moving body tracking module 231, the escape information generation module 235 monitors the images for a predetermined time before and after stored in the storage unit 24 as escape information. The data is transmitted from the center communication unit 26 to the center device 6. Here, the predetermined time before and after is a time determined appropriately in consideration of the size of the monitoring area E. Here, “as escape information” means that the center device 6 can reproduce the image by distinguishing it from other images when the escape information flag is turned ON as an attribute of each frame image. The method is not limited to this method, and any method may be adopted as long as the center device 6 can reproduce the image file including a series of scenes by distinguishing it from other images.
Further, the escape information generation module 235 reads the vehicle information, the number of people, and the escape direction that are text data generated by the image processing module 234 from the storage unit 24, and the vehicle or person specified by the moving body tracking module 231 Along with images for a predetermined time before and after coming out of the monitoring area E, it is transmitted to the center device 6 as escape information. The escape information, which is such text data, facilitates the transmission of the escape information to a person who does not have equipment capable of confirming an image, such as the center device 6. Note that the moving body tracking module 231 may omit images for a predetermined time before and after the car or person leaves the monitoring area E, and transmit only escape information that is text data.

図3に戻って、レーザセンサ4は、屋外に設置されて、監視領域Eの駐車場や建屋Bの周囲への進入を監視している。図2は、レーザセンサ4の検知エリアを示した図である。同図に示すように、レーザセンサ4−1が監視領域Eの左上から建屋B方向を検知エリアとして設置され、レーザセンサ4−2が監視領域Eの右下から建屋B方向の裏手を検知エリアとするように設置されている。 Returning to FIG. 3, the laser sensor 4 is installed outdoors, and monitors the approach of the parking area in the monitoring area E and the surroundings of the building B. FIG. 2 is a diagram showing a detection area of the laser sensor 4. As shown in the figure, the laser sensor 4-1 is installed with the building B direction from the upper left of the monitoring area E as a detection area, and the laser sensor 4-2 detects the back of the building B direction from the lower right of the monitoring area E. It is installed so that.

レーザセンサ4は、予め設定された検知エリアを走査するように、放射状にレーザー光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信する。そして、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求める。 The laser sensor 4 transmits a search signal that is a laser beam in a radial manner so as to scan a preset detection area, and receives the search signal that is reflected back to the object in the detection area. Then, the distance to the object is calculated from the time difference between transmission and reception, and the direction in which the search signal is transmitted and the calculated distance are obtained.

そしてレーザセンサ4は、所定周期で検知エリアを走査した走査単位の結果を警備装置2に送信する。これにより、警備装置2の移動体追跡モジュール231にて、監視領域Eにおける屋外での物体配置状況や進入物体の有無、自動車の追跡などが可能となる。本実施の形態では、地上を走行する自動車の進入監視を目的としているため、水平方向に1段での走査としているが、監視目的によっては、鉛直方向にも複数段の走査をするようにしてもよい。 And the laser sensor 4 transmits the result of the scanning unit which scanned the detection area with the predetermined period to the security apparatus 2. As a result, the moving object tracking module 231 of the security device 2 enables the outdoor object placement status in the monitoring area E, the presence / absence of an approaching object, the tracking of an automobile, and the like. In this embodiment, since the purpose is to monitor the approach of a vehicle traveling on the ground, scanning is performed in one step in the horizontal direction. However, depending on the purpose of monitoring, scanning in a plurality of steps may be performed in the vertical direction. Also good.

建物内センサ5(5a〜5f)は、図1に示すように、建屋B内の各所に適宜に設置されている。例えば、窓や扉には、窓や扉の開閉を検出するマグネットセンサ、ガラス窓にガラス破壊センサ、部屋の内部に人体検出する赤外線センサ、画像にて侵入者などを検出する画像センサなど適宜の場所に設置されている。なお、建物内センサ5ごとに、監視空間マップ241上の検知箇所と対応付けて警備装置2に建物内センサ配置情報242として記憶されている。 The in-building sensors 5 (5a to 5f) are appropriately installed at various locations in the building B as shown in FIG. For example, for a window or door, a magnet sensor that detects opening or closing of the window or door, a glass breakage sensor on a glass window, an infrared sensor that detects a human body inside a room, an image sensor that detects an intruder in an image, etc. It is installed at the place. Each building sensor 5 is stored in the security device 2 as building sensor arrangement information 242 in association with a detection location on the monitoring space map 241.

警備装置2による飛行ロボット3の制御のための処理について、図7を参照して説明する。先ず、警備セット中に自動車7が監視領域Eに進入してくると、レーザセンサ4の信号に基づき、警備装置2にて異常を検出する。そして、警備装置2は、異常の発生に伴ってセンタ装置6に異常通報するとともに、飛行ロボット3の制御を開始する。
警備装置2の異常判定モジュール232にて自動車7を検出して異常発生と判定すると、ロボ制御モジュール233の目標位置設定手段イは、移動体追跡モジュール231が解析した自動車7の重心位置である現在位置から3.5m離れ、高度5mの位置を監視空間マップ241上の位置として目標位置に設定する(S71)。
Processing for controlling the flying robot 3 by the security device 2 will be described with reference to FIG. First, when the automobile 7 enters the monitoring area E during the security set, the security device 2 detects an abnormality based on the signal from the laser sensor 4. The security device 2 notifies the center device 6 of an abnormality when the abnormality occurs, and starts control of the flying robot 3.
When the abnormality determination module 232 of the security device 2 detects the automobile 7 and determines that an abnormality has occurred, the target position setting means a of the robot control module 233 is the current center-of-gravity position of the automobile 7 analyzed by the moving body tracking module 231. A position at a distance of 3.5 m from the position and an altitude of 5 m is set as a target position as a position on the monitoring space map 241 (S71).

そして、飛行経路算出手段ロは、ステップS71にて設定された目標位置、飛行ロボット3の現在位置、監視空間マップ241を用いてA*経路探索アルゴリズムにより、飛行経路を計算する。A*経路探索アルゴリズムは、現在位置と目標位置を設定すれば、監視空間マップ241の配置状況および飛行ロボット3の大きさ等を考慮して、安全にかつ最短で到着できる経路を算出する(S72)。なお、飛行ロボット3は、起動信号を受信するまでは、所定の待機位置に所在しているので、その位置が現在位置となっている。その他のときは、飛行位置算出手段ニが、飛行ロボット3のスキャン手段383が取得したスキャンデータを受信し、このスキャンデータが監視空間マップ241に合致する場所を算出することにより、飛行ロボット3の現在位置を算出する。なお、本実施の形態では、スキャンデータに基づいて現在位置を算出しているが、これに限らず飛行ロボット3にGPS信号の受信機能を設けて、GPS信号に基づいて現在位置を算出してもよい。 Then, the flight route calculation means b calculates the flight route by the A * route search algorithm using the target position set in step S71, the current position of the flying robot 3, and the monitoring space map 241. When the current position and the target position are set, the A * route search algorithm calculates a route that can be reached safely and in the shortest in consideration of the arrangement state of the monitoring space map 241 and the size of the flying robot 3 (S72). ). Since the flying robot 3 is located at a predetermined standby position until the activation signal is received, that position is the current position. At other times, the flight position calculation means D receives the scan data acquired by the scanning means 383 of the flying robot 3 and calculates a place where the scan data matches the monitoring space map 241. The current position is calculated. In the present embodiment, the current position is calculated based on the scan data. However, the present invention is not limited to this, and the flying robot 3 is provided with a GPS signal receiving function, and the current position is calculated based on the GPS signal. Also good.

次に、移動体追跡モジュール231は、レーザセンサ4からの信号に基づいて自動車または人物である移動体の位置を追跡する(S73)。そして、追跡の結果、自動車または人物である移動体が移動しているか否かを判定する(S74)。ステップS74にて、移動体が移動していないと判定すると(S74−いいえ)、ステップS78に進み、ロボ制御モジュール233から目標位置への飛行するための飛行制御信号を飛行ロボット3に送信する。 Next, the moving body tracking module 231 tracks the position of the moving body that is an automobile or a person based on the signal from the laser sensor 4 (S73). Then, as a result of the tracking, it is determined whether or not the moving body that is a car or a person is moving (S74). If it is determined in step S74 that the moving body is not moving (S74-No), the process proceeds to step S78, and a flight control signal for flying to the target position is transmitted from the robot control module 233 to the flying robot 3.

他方、ステップS74にて自動車または人物である移動体が移動したと判定すると(S74−はい)、さらにステップS74にて自動車7が監視領域Eの外に移動したか否か判定する(S75)。ここで、監視領域Eの外は、レーザセンサ4の検知エリア外なので、レーザセンサ4が追跡してきた移動体が消失したことを意味する。つまり、移動体追跡モジュール231が追跡中の自動車または人物である移動体を検出できなくなると監視領域Eの外に移動したと判断する。 On the other hand, if it is determined in step S74 that the vehicle or a moving body that is a person has moved (S74-Yes), it is further determined in step S74 whether the vehicle 7 has moved out of the monitoring area E (S75). Here, since the outside of the monitoring region E is outside the detection area of the laser sensor 4, it means that the moving body tracked by the laser sensor 4 has disappeared. That is, when the mobile body tracking module 231 cannot detect a mobile body that is a car or a person being tracked, it is determined that the mobile body tracking module 231 has moved out of the monitoring area E.

ステップS75にて追跡を継続できる監視領域E内に自動車または人物である移動体を検出していると(S75−いいえ)、自動車または人物である移動体の現在位置に基づき目標位置を変更設定し(S76)、ステップS78に進み、ロボ制御モジュール233から目標位置への飛行するための飛行制御信号を飛行ロボット3に送信する。 If a moving body that is a car or a person is detected in the monitoring area E in which tracking can be continued in step S75 (S75-No), the target position is changed and set based on the current position of the moving body that is a car or a person. (S76), the process proceeds to step S78, and the flight control signal for flying to the target position is transmitted from the robot control module 233 to the flying robot 3.

他方、ステップS75にて監視領域E内から自動車または人物である移動体が出ると(S75−はい)、自動車または移動体が監視領域Eから出た位置を逃走位置として目標位置に変更設定し(S77)、ステップS78に進み、ロボ制御モジュール233から目標位置への飛行するための飛行制御信号を飛行ロボット3に送信する。なお、本フローでは記載していないが、自動車または人物である移動体が監視領域Eから出た場合は、10秒程度の間はその場での撮影を継続し、その後に予め指定されている待機場所を目標位置に設定して待機場所に戻ることになる。 On the other hand, when a moving body that is a car or a person comes out of the monitoring area E in step S75 (S75-Yes), the position at which the car or moving body leaves the monitoring area E is changed to the target position as the escape position ( In step S <b> 77, the process proceeds to step S <b> 78, and a flight control signal for flying from the robot control module 233 to the target position is transmitted to the flying robot 3. Although not described in this flow, when a moving body that is a car or a person leaves the monitoring area E, shooting on the spot is continued for about 10 seconds, and then designated in advance. The standby place is set as the target position and the process returns to the standby place.

ステップS78では、ロボ制御手段ハは、飛行ロボット3が飛行経路算出手段ロの算出した経路を飛行できるように、飛行ロボット3の飛行制御信号を算出する。具体的な飛行制御信号は、飛行ロボット3にある4つのロータ32のそれぞれの回転数である。そして、飛行ロボット通信部25から無線信号にて飛行制御信号を送信する。 In step S78, the robot control means C calculates the flight control signal of the flying robot 3 so that the flying robot 3 can fly along the route calculated by the flight path calculation means B. A specific flight control signal is the number of rotations of each of the four rotors 32 in the flying robot 3. Then, a flight control signal is transmitted from the flying robot communication unit 25 as a radio signal.

飛行ロボット3は、アンテナ31から飛行制御信号を受信すると、受信した飛行制御信号に基づいて飛行する。具体的には、アンテナ31から受信した飛行制御信号が飛行制御手段384に入力され、ロータ駆動部33から各ロータ32の回転数を個別に制御して飛行する。飛行が開始された後は、これらのステップS72〜ステップS78を繰り返し処理して、自動車を追跡しつつ撮影を行う。 When the flying robot 3 receives the flight control signal from the antenna 31, the flying robot 3 flies based on the received flight control signal. Specifically, the flight control signal received from the antenna 31 is input to the flight control means 384, and the number of rotations of each rotor 32 is individually controlled from the rotor drive unit 33 to fly. After the flight is started, these steps S72 to S78 are repeatedly processed to take an image while tracking the automobile.

ここで、図7に示すフローに記載しなかったが、飛行ロボット3が最初に飛行制御信号を受信すると、カメラ制御手段382がカメラ36を起動し、撮影した画像を警備装置2に送信開始する。また、スキャン手段383が測距センサ35、高度センサ34を起動し、スキャンデータを警備装置2に送信を開始する。 Here, although not described in the flow shown in FIG. 7, when the flying robot 3 first receives the flight control signal, the camera control unit 382 activates the camera 36 and starts transmitting the captured image to the security device 2. . In addition, the scanning unit 383 activates the distance measuring sensor 35 and the altitude sensor 34 and starts transmitting scan data to the security device 2.

以上のように、監視システム1では、監視センタのモニタを監視者が視て、自動車の特徴を画像およびテキストデータで迅速に確認することができる。また、テキストデータなので、電話等でも容易に他者に伝えることができる。 As described above, in the monitoring system 1, the monitor can monitor the monitor of the monitoring center and quickly confirm the characteristics of the automobile with the image and text data. Moreover, since it is text data, it can be easily communicated to others by telephone.

本実施の形態では、警備装置2の警備制御部23にて、飛行ロボット3をコントロールするようにしたが、警備装置2機能の全部または一部を適宜に飛行ロボット3に搭載するようにしてもよい。 In the present embodiment, the flying robot 3 is controlled by the security control unit 23 of the security device 2, but all or part of the functions of the security device 2 may be appropriately mounted on the flying robot 3. Good.

本実施の形態では、警備装置2にて飛行ロボット3の位置をスキャンデータから算出しているが、GPS信号にて位置を算出するようにしてもよい。 In the present embodiment, the position of the flying robot 3 is calculated from the scan data by the security device 2, but the position may be calculated by a GPS signal.

本実施の形態では、レーザセンサ4の信号を用いて移動体を追跡したが、飛行ロボット3の測距センサ35にて移動体を捉えることが可能になった後は、スキャンデータに基づいて移動体の追跡をするようにしてもよい。 In the present embodiment, the moving object is tracked using the signal of the laser sensor 4, but after the distance measuring sensor 35 of the flying robot 3 can capture the moving object, the moving object is moved based on the scan data. The body may be tracked.

本実施の形態では、飛行ロボット3にて、移動体を撮影するようにしているが、多数の監視カメラを監視領域Eに設置し、移動体追跡モジュール231にて監視カメラの撮影場所を制御するようにしてもよい。 In this embodiment, the flying robot 3 captures a moving body. However, a large number of monitoring cameras are installed in the monitoring area E, and the moving body tracking module 231 controls the shooting location of the monitoring camera. You may do it.

1・・・監視システム
2・・・警備装置(制御部)
3・・・飛行ロボット
4・・・レーザセンサ(物体センサ)
5・・・建物内センサ
1 ... Monitoring system 2 ... Security device (control unit)
3 ... Flying robot 4 ... Laser sensor (object sensor)
5 ... In-building sensor

Claims (8)

監視領域内が異常状態である場合に監視領域から逃走する移動体に関する逃走情報を監視センタに送信する監視システムであって、
前記監視領域内にて異常が発生した後に当該監視領域内に存在する移動体を追跡する追跡部と、
前記追跡中の移動体を撮影する撮影部と、
前記移動体が前記監視領域から出たか否かを判定する逃走判定部と、
前記逃走判定部にて前記移動体が前記監視領域から出たと判定すると、判定した前後の所定時間分の画像から逃走情報を生成する逃走情報生成部と、
前記逃走情報を前記監視センタに送信する送信部と、を具備することを特徴とした監視システム。
A monitoring system that transmits to the monitoring center escape information about a moving object that escapes from the monitoring area when the monitoring area is in an abnormal state,
A tracking unit that tracks a moving object existing in the monitoring area after an abnormality occurs in the monitoring area;
An imaging unit for imaging the moving body being tracked;
An escape determination unit for determining whether or not the moving object has exited the monitoring area;
When the escape determination unit determines that the mobile body has exited the monitoring area, the escape information generation unit generates escape information from images for a predetermined time before and after the determination,
And a transmission unit that transmits the escape information to the monitoring center.
前記逃走情報生成部は、前記所定時間分の画像を逃走情報とする請求項1に記載の監視システム。   The monitoring system according to claim 1, wherein the escape information generation unit uses the image for the predetermined time as escape information. 更に、前記画像から追跡中の移動体の特徴を認識し、当該認識結果をテキストデータにする画像処理部を有し、
前記逃走情報生成部は当該テキストデータを逃走情報に含める請求項1または請求項2に記載の監視システム。
Furthermore, the image processing unit for recognizing the characteristics of the moving object being tracked from the image and converting the recognition result into text data,
The monitoring system according to claim 1, wherein the escape information generation unit includes the text data in the escape information.
前記画像処理部は、前記逃走判定部にて前記移動体が前記監視領域から出たと判定したときの前後の画像から当該移動体が逃走した方向を判定し、当該方向を認識結果としてテキストデータにする請求項3に記載の監視システム。   The image processing unit determines a direction in which the moving object has escaped from images before and after the escape determining unit determines that the moving object has exited the monitoring area, and the direction is converted into text data as a recognition result. The monitoring system according to claim 3. 前記画像処理部は、前記移動体を撮影した画像から人物を抽出し、当該人物の人数を認識結果としてテキストデータにする請求項3または請求項4に記載の監視システム。   The monitoring system according to claim 3 or 4, wherein the image processing unit extracts a person from an image obtained by photographing the moving body, and uses the number of persons as text data as a recognition result. 前記画像処理部は、前記逃走判定部にて前記移動体が前記監視領域から出たと判定したときの前後の画像から前記移動体が自動車か人物かを判定し、当該判定結果を認識結果としてテキストデータにする請求項3〜請求項5の何れか一項に記載の監視システム。   The image processing unit determines whether the moving body is a car or a person from images before and after the escape determining unit determines that the moving body has exited the monitoring area, and uses the determination result as a recognition result as text. The monitoring system according to any one of claims 3 to 5, wherein the monitoring data is converted into data. 前記画像処理部は、前記移動体を撮影した画像から自動車を抽出し、当該自動車のナンバープレート、車種、車色等の特徴情報を認識し、当該特徴情報を認識結果としてテキストデータにする請求項3〜請求項6の何れか一項に記載の監視システム。   The image processing unit extracts a car from an image of the moving body, recognizes feature information such as a license plate, a car type, and a car color of the car, and converts the feature information into text data as a recognition result. The monitoring system according to any one of claims 3 to 6. 前記撮影部は、前記追跡部が求める前記移動体の現在位置に移動して当該移動体を撮影する飛行ロボットである請求項1〜請求項7の何れか一項に記載の監視システム。

The monitoring system according to any one of claims 1 to 7, wherein the photographing unit is a flying robot that moves to a current position of the moving body required by the tracking unit and photographs the moving body.

JP2012279851A 2012-12-21 2012-12-21 Monitoring system Active JP6163302B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012279851A JP6163302B2 (en) 2012-12-21 2012-12-21 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012279851A JP6163302B2 (en) 2012-12-21 2012-12-21 Monitoring system

Publications (2)

Publication Number Publication Date
JP2014123303A true JP2014123303A (en) 2014-07-03
JP6163302B2 JP6163302B2 (en) 2017-07-12

Family

ID=51403716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012279851A Active JP6163302B2 (en) 2012-12-21 2012-12-21 Monitoring system

Country Status (1)

Country Link
JP (1) JP6163302B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119627A (en) * 2014-12-22 2016-06-30 セコム株式会社 Tracking processing device
JP2019068213A (en) * 2017-09-29 2019-04-25 株式会社イームズラボ Parking lot monitoring device, parking lot management system, and parking lot management program
US11195025B2 (en) 2017-11-27 2021-12-07 Nec Corporation Information processing device, information processing method, and storage medium for temporally dividing time-series data for analysis
CN113841187A (en) * 2019-05-28 2021-12-24 索尼集团公司 Signal processing apparatus, signal processing method, program, and imaging apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222673A (en) * 1999-01-29 2000-08-11 Mitsubishi Electric Corp Vehicle color discriminating device
JP2009176281A (en) * 2008-01-23 2009-08-06 Honeywell Internatl Inc Automatic alerting method and system for aerial vehicle target tracking
JP2011128873A (en) * 2009-12-17 2011-06-30 Toyota Home Kk Crime prevention system
JP2011217055A (en) * 2010-03-31 2011-10-27 Sogo Keibi Hosho Co Ltd Image recording control apparatus and monitoring system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222673A (en) * 1999-01-29 2000-08-11 Mitsubishi Electric Corp Vehicle color discriminating device
JP2009176281A (en) * 2008-01-23 2009-08-06 Honeywell Internatl Inc Automatic alerting method and system for aerial vehicle target tracking
JP2011128873A (en) * 2009-12-17 2011-06-30 Toyota Home Kk Crime prevention system
JP2011217055A (en) * 2010-03-31 2011-10-27 Sogo Keibi Hosho Co Ltd Image recording control apparatus and monitoring system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119627A (en) * 2014-12-22 2016-06-30 セコム株式会社 Tracking processing device
JP2019068213A (en) * 2017-09-29 2019-04-25 株式会社イームズラボ Parking lot monitoring device, parking lot management system, and parking lot management program
JP7190088B2 (en) 2017-09-29 2022-12-15 智幸 伊豆 Parking lot monitoring device, parking lot management system and parking lot management program
US11195025B2 (en) 2017-11-27 2021-12-07 Nec Corporation Information processing device, information processing method, and storage medium for temporally dividing time-series data for analysis
CN113841187A (en) * 2019-05-28 2021-12-24 索尼集团公司 Signal processing apparatus, signal processing method, program, and imaging apparatus

Also Published As

Publication number Publication date
JP6163302B2 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
JP6155032B2 (en) Shooting system
EP4105101A1 (en) Monitoring system, monitoring method, and monitoring device for railway train
JP6140436B2 (en) Shooting system
CN102521578B (en) Method for detecting and identifying intrusion
US10740906B2 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
CN111770266A (en) Intelligent visual perception system
CN108297059A (en) Novel intelligent security robot and its automatic detecting method
JP6080568B2 (en) Monitoring system
JP2014192784A (en) Monitoring system
JP6172958B2 (en) Shooting system
JP6163302B2 (en) Monitoring system
JP6195447B2 (en) Shooting system
KR101459024B1 (en) Security System for Monitoring Facilities
KR20080044812A (en) Automated security system for crime and accident prevention using computer image analysis technology
CN111086451B (en) Head-up display system, display method and automobile
JP5982273B2 (en) Shooting system
GB2574670A (en) Method of and system for recognising a human face
CN113569710A (en) Elevator car stopping method, device, camera equipment, storage medium and system
CN111908288A (en) TensorFlow-based elevator safety system and method
CN216915689U (en) Vehicle door opening early warning system
CN106447828A (en) Automobile data recorder with iris recognition function
CN111241918B (en) Vehicle tracking prevention method and system based on face recognition
KR102541221B1 (en) Movable and intelligent cctv system device with ai based image recognition platform
KR20200133596A (en) Automatic vehicle integrated inspection system
JP6807493B2 (en) Video display system and video display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6163302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250