[go: up one dir, main page]

JP5418072B2 - Monitoring control device and monitoring system - Google Patents

Monitoring control device and monitoring system Download PDF

Info

Publication number
JP5418072B2
JP5418072B2 JP2009198025A JP2009198025A JP5418072B2 JP 5418072 B2 JP5418072 B2 JP 5418072B2 JP 2009198025 A JP2009198025 A JP 2009198025A JP 2009198025 A JP2009198025 A JP 2009198025A JP 5418072 B2 JP5418072 B2 JP 5418072B2
Authority
JP
Japan
Prior art keywords
blind spot
monitoring
moving body
person
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009198025A
Other languages
Japanese (ja)
Other versions
JP2011048736A (en
Inventor
岳 今井
真司 神田
正芳 橋間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009198025A priority Critical patent/JP5418072B2/en
Publication of JP2011048736A publication Critical patent/JP2011048736A/en
Application granted granted Critical
Publication of JP5418072B2 publication Critical patent/JP5418072B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本件は、監視制御装置及び監視システムに関する。   The present case relates to a monitoring control device and a monitoring system.

店舗や住宅などでは、セキュリティ向上のため、壁や天井などに固定された監視カメラによる撮影が行われている。このような監視カメラによる撮影に関する技術として、最近では、特許文献1、2のような技術が提案されている。   In stores and homes, for the purpose of improving security, photographing is performed with a surveillance camera fixed to a wall or ceiling. Recently, techniques such as Patent Documents 1 and 2 have been proposed as techniques relating to such photographing by a monitoring camera.

これらのうち、特許文献1の技術は、複数のカメラが、監視領域を広くカバーするように、死角を考慮して自動的に監視領域を変更するものである。また、特許文献2の技術は、監視カメラの情報などから各エリアの危険性を考慮し、巡回ロボットの巡回経路やスケジュールを決定するものである。   Among these, the technique of Patent Document 1 automatically changes the monitoring area in consideration of the blind spot so that the plurality of cameras cover the monitoring area widely. The technique of Patent Document 2 determines the patrol route and schedule of the patrol robot in consideration of the danger of each area from the information of the monitoring camera.

国際公開第2005/076621号International Publication No. 2005/076761 特開2006−72612号公報JP 2006-72612 A

しかしながら、特許文献1に記載の技術では、例えば、人の往来が激しい場所など、動的な死角が多く発生する場所を監視する場合に、多くの装置を必要とし、ひいては多大なコストを必要とするおそれがある。   However, the technique described in Patent Document 1 requires a large number of devices and consequently a great cost when monitoring a place where a large number of dynamic blind spots occur, such as a place where people frequently travel. There is a risk.

また、特許文献2に記載の技術は、無人の空間への人の進入を警戒するためのものであり、有人の空間に発生する死角、すなわち動的な遮蔽物(人など)による死角を考慮したものではない。   Further, the technique described in Patent Document 2 is intended to warn of a person entering an unmanned space, and considers a blind spot generated in a manned space, that is, a blind spot caused by a dynamic shield (such as a person). It was n’t.

そこで本件は上記の課題に鑑みてなされたものであり、動的な遮蔽物により生じる死角の監視効率を向上することが可能な監視制御装置及び監視システムを提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and an object thereof is to provide a monitoring control device and a monitoring system capable of improving the efficiency of monitoring a blind spot caused by a dynamic shielding object.

本明細書に記載の監視制御装置は、固定カメラから取得された映像から遮蔽物を抽出する遮蔽物抽出手段と、前記固定カメラが設けられた空間を等間隔に分割した複数の管理単位のいずれに、前記遮蔽物抽出手段により抽出された遮蔽物位置するかを推定する遮蔽物位置推定手段と、前記遮蔽物位置推定手段の推定結果に基づいて、前記固定カメラの死角の位置に対応する管理単位を算出する死角算出手段と、前記死角算出手段により算出された前記固定カメラの死角の位置に対応する管理単位に基づいて、移動体の位置姿勢を制御する移動体制御手段と、を備えている。
The monitoring control apparatus described in this specification includes any one of a shielding object extracting unit that extracts a shielding object from an image acquired from a fixed camera, and a plurality of management units that divide a space in which the fixed camera is provided at equal intervals. in the shield position estimating means for shielding extracted by the obstacle extracting unit estimates whether the position, based on the estimation result of the obstacle position estimation device, corresponding to the position of the blind spot of the fixed camera A blind spot calculating means for calculating a management unit; and a moving body control means for controlling the position and orientation of the moving body based on the management unit corresponding to the blind spot position of the fixed camera calculated by the blind spot calculating means. ing.

また、本明細書に記載の監視システムは、映像を取得する固定カメラと、移動可能とされた移動体と、前記固定カメラから取得された映像に基づいて、前記移動体の位置姿勢を制御する本明細書に記載の監視制御装置と、を備えている。   The monitoring system described in this specification controls the position and orientation of the moving body based on a fixed camera that acquires a video, a movable body that is movable, and a video that is acquired from the fixed camera. And a monitoring control device described in this specification.

本明細書に記載の監視制御装置及び監視システムは、動的な遮蔽物により生じる死角の監視効率を向上することができるという効果を奏する。   The monitoring control device and the monitoring system described in the present specification have an effect that it is possible to improve the monitoring efficiency of a blind spot caused by a dynamic shield.

第1の実施形態に係る監視システムが設置される空間を示す図である。It is a figure which shows the space where the monitoring system which concerns on 1st Embodiment is installed. 監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of a monitoring system. 空間を複数のグリッドで等間隔に分割した状態を示す図である。It is a figure which shows the state which divided | segmented space by the some grid at equal intervals. グリッド一覧のデータベースを示す図である。It is a figure which shows the database of a grid list. グリッドの重要度について説明するための図である。It is a figure for demonstrating the importance of a grid. 図6(a)は、18時36分40秒における空間内の状況を示す図であり、図6(b)は、18時37分10秒における空間内の状況を示す図である。FIG. 6A is a diagram showing the situation in the space at 18:36:40, and FIG. 6B is a diagram showing the situation in the space at 18:37:10. 18時39分10秒における空間内の状況を示す図である。It is a figure which shows the condition in the space at 18:39:10. グリッド一覧のデータベース及び死角一覧のデータベースを作成するための処理を示すフローチャートである。It is a flowchart which shows the process for creating the database of a grid list, and the database of a blind spot list. 18時36分40秒におけるグリッド一覧のデータベースを示す図である。It is a figure which shows the database of a grid list in 18 hours 36 minutes 40 seconds. 図10(a)は、18時36分40秒における暫定の死角一覧のデータベースを示す図であり、図10(b)は、18時36分40秒における死角一覧のデータベースを示す図である。FIG. 10A is a diagram showing a provisional blind spot list database at 18:36:40, and FIG. 10B is a diagram showing a blind spot list database at 18:36:40. 18時37分10秒におけるグリッド一覧のデータベースを示す図である。It is a figure which shows the database of a grid list in 18:37:10. 図12(a)は、18時37分10秒における暫定の死角一覧のデータベースを示す図であり、図12(b)は、18時37分10秒における死角一覧のデータベースを示す図である。12A is a diagram showing a provisional blind spot list database at 18:37:10, and FIG. 12B is a diagram showing a blind spot list database at 18:37:10. 18時39分10秒におけるグリッド一覧のデータベースを示す図である。It is a figure which shows the database of a grid list in 18:39:10. 図14(a)は、18時39分10秒における暫定の死角一覧のデータベースを示す図であり、図14(b)は、18時39分10秒における死角一覧のデータベースを示す図である。FIG. 14A is a diagram showing a provisional blind spot list database at 18:39:10, and FIG. 14B is a diagram showing a blind spot list database at 18:39:10. 第1の実施形態の変形例を示す図である。It is a figure which shows the modification of 1st Embodiment. 第2の実施形態に係る監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring system which concerns on 2nd Embodiment.

≪第1の実施形態≫
以下、監視システムの第1の実施形態について、図1〜図14に基づいて詳細に説明する。
<< First Embodiment >>
Hereinafter, a first embodiment of the monitoring system will be described in detail with reference to FIGS.

本第1の実施形態に係る監視システム(以下、「監視システム300」と記述する)は、図1に示す空間100(例えば、店舗)内を撮影して、空間100を監視する者(例えば、店舗の従業員や警備を行う者)に対して、その撮影画像を提供するシステムである。なお、空間100内には、棚110が設置されているものとし、当該棚110の一部に、重要物200が載置されているものとする。   The monitoring system according to the first embodiment (hereinafter, referred to as “monitoring system 300”) captures a person who photographs the space 100 (for example, a store) shown in FIG. This is a system for providing a photographed image to a store employee or a person who performs security. It is assumed that a shelf 110 is installed in the space 100 and an important object 200 is placed on a part of the shelf 110.

監視システム300は、複数(図1では4つ)の固定カメラとしての監視カメラ10A〜10Dと、空間100内を巡視する移動体としての移動ロボット20と、を備える。また、監視システム300は、監視カメラ10A〜10D及び移動ロボット20を制御する監視制御装置としての制御装置40(図2参照)を備える。   The monitoring system 300 includes a plurality of (four in FIG. 1) monitoring cameras 10 </ b> A to 10 </ b> D as fixed cameras, and the mobile robot 20 as a moving body that patrols the space 100. The monitoring system 300 includes a control device 40 (see FIG. 2) as a monitoring control device that controls the monitoring cameras 10A to 10D and the mobile robot 20.

監視カメラ10A〜10Dは、図1に示すように、空間100を仕切る壁に固定されている。図2には、監視システム300の構成がブロック図にて示されている。この図2に示すように、監視カメラ10A〜10Dのそれぞれは、視野VA〜VD(図1参照)内の映像を個別に取得する映像取得手段12と、当該取得した映像を制御装置40に対して出力する映像出力手段14と、を有する。本第1の実施形態では、視野VA〜VDは固定されているものとする。また、監視カメラ10A〜10Dは、空間100内に人などがいない状態で、空間100内の全てを死角なく撮影可能な位置に設置されている。   As shown in FIG. 1, the monitoring cameras 10 </ b> A to 10 </ b> D are fixed to a wall that partitions the space 100. FIG. 2 is a block diagram showing the configuration of the monitoring system 300. As shown in FIG. 2, each of the monitoring cameras 10 </ b> A to 10 </ b> D includes a video acquisition unit 12 that individually acquires videos in the visual fields VA to VD (see FIG. 1), and the acquired video to the control device 40. Video output means 14 for outputting. In the first embodiment, it is assumed that the visual fields VA to VD are fixed. In addition, the monitoring cameras 10A to 10D are installed at positions where the entire space 100 can be photographed without blind spots in a state where there is no person or the like in the space 100.

移動ロボット20は、図2に示すように、位置姿勢検出手段22と、映像取得手段24と、情報通知手段26と、自律移動手段34と、を有する。   As shown in FIG. 2, the mobile robot 20 includes a position / orientation detection unit 22, a video acquisition unit 24, an information notification unit 26, and an autonomous movement unit 34.

位置姿勢検出手段22は、加速度センサや方位センサ(地磁気センサなど)、エンコーダなどを含み、移動ロボット20の位置や姿勢を検出するものである。この位置姿勢検出手段22による検出結果は、情報通知手段26に送信される。   The position / orientation detection means 22 includes an acceleration sensor, an orientation sensor (such as a geomagnetic sensor), an encoder, and the like, and detects the position and orientation of the mobile robot 20. The detection result by the position / orientation detection unit 22 is transmitted to the information notification unit 26.

映像取得手段24は、例えば、移動ロボット20の頭部に設けられたカメラを含み、当該カメラにより、頭部の向いている方向の映像(動画)を取得する。映像取得手段24において取得された映像は、情報通知手段26に送信される。情報通知手段26は、位置姿勢検出手段22から取得した検出結果、及び映像取得手段24から取得した映像を、制御装置40に向けて出力する。   The image acquisition unit 24 includes, for example, a camera provided on the head of the mobile robot 20 and acquires an image (moving image) in a direction in which the head is facing by the camera. The video acquired by the video acquisition unit 24 is transmitted to the information notification unit 26. The information notification unit 26 outputs the detection result acquired from the position / orientation detection unit 22 and the video acquired from the video acquisition unit 24 to the control device 40.

自律移動手段34は、制御装置40からの指示に基づいて、空間100内を移動し、姿勢を変更するものである。具体的には、自律移動手段34は、車輪及び車輪を駆動するモータ、姿勢を変更するためのアクチュエータなどを含んでいる。また、自律移動手段34は、頭部の向きを変更して、カメラの撮影方向を変更するアクチュエータも含んでいる。   The autonomous moving means 34 moves in the space 100 and changes the posture based on an instruction from the control device 40. Specifically, the autonomous moving means 34 includes a wheel, a motor for driving the wheel, an actuator for changing the posture, and the like. The autonomous moving means 34 also includes an actuator that changes the direction of the head to change the shooting direction of the camera.

制御装置40は、ロボット情報取得手段42と、カメラ映像取得手段44と、遮蔽物抽出手段46と、遮蔽物位置推定手段48と、死角算出手段50と、監視必要度更新手段52と、ロボット目標位置姿勢決定手段54と、移動指示手段56と、通報手段58と、を有する。なお、監視必要度更新手段52、ロボット目標位置姿勢決定手段54、及び移動指示手段56は、監視カメラ10A〜10Dの死角の位置に基づいて移動ロボット20の位置姿勢を制御する移動体制御手段の一部を構成している。   The control device 40 includes a robot information acquisition unit 42, a camera image acquisition unit 44, a shielding object extraction unit 46, a shielding object position estimation unit 48, a blind spot calculation unit 50, a monitoring necessity update unit 52, and a robot target. Position / orientation determination means 54, movement instruction means 56, and notification means 58 are provided. The monitoring necessity update unit 52, the robot target position and orientation determination unit 54, and the movement instruction unit 56 are mobile body control units that control the position and orientation of the mobile robot 20 based on the positions of the blind spots of the monitoring cameras 10A to 10D. Part of it.

ロボット情報取得手段42は、移動ロボット20の情報通知手段26から入力された情報(位置姿勢検出手段22による検出結果及び映像取得手段により取得された映像)を取得し、遮蔽物抽出手段46に送信する。カメラ映像取得手段44は、監視カメラ10A〜10Dの映像出力手段14から入力された映像を取得し、遮蔽物抽出手段46に送信する。遮蔽物抽出手段46は、監視カメラ10A〜10Dによる映像と移動ロボット20による映像から、遮蔽物を抽出する。遮蔽物の抽出には、背景差分法などを用いることができる。遮蔽物抽出手段46により遮蔽物が抽出された場合には、監視カメラ10A〜10Dによる映像と移動ロボット20による映像は、遮蔽物位置推定手段48に送信される。   The robot information acquisition unit 42 acquires information (the detection result by the position / orientation detection unit 22 and the video acquired by the video acquisition unit) input from the information notification unit 26 of the mobile robot 20 and transmits the information to the shielding object extraction unit 46. To do. The camera video acquisition unit 44 acquires the video input from the video output unit 14 of the monitoring cameras 10 </ b> A to 10 </ b> D and transmits the video to the shielding object extraction unit 46. The shielding object extraction unit 46 extracts the shielding object from the images from the monitoring cameras 10A to 10D and the image from the mobile robot 20. A background subtraction method or the like can be used to extract the shielding object. When the shielding object is extracted by the shielding object extraction unit 46, the images from the monitoring cameras 10 </ b> A to 10 </ b> D and the image from the mobile robot 20 are transmitted to the shielding object position estimation unit 48.

遮蔽物位置推定手段48は、監視カメラ10A〜10Dによる映像と移動ロボット20による映像から、遮蔽物の位置を推定する。ここでの位置推定には、例えば、ステレオビジョン法などを用いることができる。死角算出手段50は、遮蔽物位置推定手段48による遮蔽物の位置の推定結果に基づいて、死角となっている範囲、すなわち死角領域を算出する。ここでは、例えば、遮蔽物の大きさ及び位置、並びに監視カメラ10A〜10Dの撮影角度などに基づいて、死角領域を算出することができる。なお、死角領域の算出にあたっては、移動ロボット20の撮影領域についても考慮する必要がある。   The shielding object position estimating means 48 estimates the position of the shielding object from the images from the monitoring cameras 10A to 10D and the image from the mobile robot 20. For the position estimation here, for example, a stereo vision method or the like can be used. The blind spot calculating means 50 calculates a blind spot range, that is, a blind spot area, based on the estimation result of the shielding object position by the shielding object position estimating means 48. Here, for example, the blind spot area can be calculated based on the size and position of the shielding object and the imaging angles of the monitoring cameras 10A to 10D. In calculating the blind spot area, it is necessary to consider the imaging area of the mobile robot 20.

監視必要度更新手段52は、死角を監視すべきか否かの必要度を、死角算出手段50による算出結果等に基づいて決定し、更新するものである。ロボット目標位置姿勢決定手段54は、監視必要度更新手段52により更新された監視必要度に応じて、移動ロボット20の移動目標位置や姿勢を決定するものである。移動指示手段56は、移動ロボット20がロボット目標位置姿勢決定手段54において決定された目標位置及び姿勢になるように、自律移動手段34に対して指示を出す。通報手段58は、モニタ等を含み、監視必要度更新手段52において更新された移動ロボットの移動目標位置や姿勢などを、ユーザに知らせるためのものである。   The monitoring necessity degree update means 52 determines and updates the necessity degree of whether or not the blind spot should be monitored based on the calculation result by the blind spot calculation means 50 and the like. The robot target position / posture determination unit 54 determines the movement target position and posture of the mobile robot 20 according to the monitoring necessity updated by the monitoring necessity update unit 52. The movement instructing unit 56 issues an instruction to the autonomous moving unit 34 so that the mobile robot 20 has the target position and posture determined by the robot target position / posture determining unit 54. The reporting unit 58 includes a monitor or the like, and is for notifying the user of the movement target position and posture of the mobile robot updated by the monitoring necessity update unit 52.

次に、制御装置40が空間100を管理する際に用いる管理単位(グリッド)について、図3に基づいて説明する。図3には、空間100を複数のグリッドで等間隔に分割した状態が示されている。なお、図3では、紙面左右方向をX軸方向とし、紙面上下方向をY軸方向としている。また、X軸方向には、23個のグリッドが配列され、Y軸方向には15個のグリッドが配列されている。各グリッドには、左上から順にグリッドIDが付されており、これらグリッドは、図4に示すようなグリッド一覧のデータベースにて管理されている。このデータベースの管理は、図2の監視必要度更新手段52が行う。   Next, a management unit (grid) used when the control device 40 manages the space 100 will be described with reference to FIG. FIG. 3 shows a state in which the space 100 is divided at equal intervals by a plurality of grids. In FIG. 3, the horizontal direction on the paper is the X-axis direction, and the vertical direction on the paper is the Y-axis direction. In addition, 23 grids are arranged in the X-axis direction, and 15 grids are arranged in the Y-axis direction. Each grid is assigned with a grid ID in order from the upper left, and these grids are managed in a grid list database as shown in FIG. This database management is performed by the monitoring necessity level update means 52 of FIG.

図4のグリッド一覧のデータベースでは、グリッドIDの番号に対して、座標、状態(現在の状態)、前状態、最終更新時刻、最終確認時刻、重要度の各項目が関連付けられている。これらのうち、「状態」及び「前状態」の項目には、「監視中」、「遮蔽物」、「死角」のいずれかが記録される。「監視中」は監視カメラ10A〜10Dによる監視が可能な状態を意味し、「遮蔽物」は動的な遮蔽物、すなわち人が存在するグリッドであることを意味する。また、「死角」は遮蔽物の存在により監視が不可能なグリッドであることを意味する。   In the grid list database of FIG. 4, each item of coordinates, state (current state), previous state, last update time, last confirmation time, and importance is associated with the grid ID number. Among these, in the items of “state” and “previous state”, “monitoring”, “shielding object”, or “dead angle” is recorded. “Monitoring” means a state where monitoring by the monitoring cameras 10 </ b> A to 10 </ b> D is possible, and “shielding” means a dynamic shielding, that is, a grid where a person exists. Also, “dead zone” means a grid that cannot be monitored due to the presence of a shield.

また、「最終更新時刻」の項目には、前状態から現在の状態に変わった時刻が記録され、「最終確認時刻」の項目には、最後に監視中であったことを確認した時刻が記録される。「最終確認時刻」は、具体的には、監視カメラ10A〜10D及び移動ロボット20のいずれかにより最後に撮影された時刻を意味している。また、「重要度」の項目は、そのグリッドの場所が監視を重点的にすべき場所であるかを意味する指標であり、例えば、「1」であれば、重要度が高いことを意味し、「0」であれば、重要度が通常であることを意味する。本実施形態では、図5にダブルハッチングを付して示すように、重要物200の周囲に位置するグリッドは、重要度が高いため、その値が1に設定されており、その他の場所は、重要度が通常であるため、その値が0に設定されているものとする。   The “last update time” item records the time when the previous state changed to the current state, and the “last confirmation time” item records the time when the last monitoring was confirmed. Is done. The “final confirmation time” specifically means the time when the image was last taken by any of the monitoring cameras 10A to 10D and the mobile robot 20. The “importance” item is an index that indicates whether the location of the grid is a place where monitoring should be prioritized. For example, “1” means that the importance is high. , “0” means that the importance is normal. In the present embodiment, as shown with double hatching in FIG. 5, the grid located around the important object 200 has a high importance level, and thus its value is set to 1. Since the importance is normal, it is assumed that the value is set to 0.

次に、監視システム300による空間100内の監視方法について、図8のフローチャートに沿って、かつその他の図面を適宜参照しつつ説明する。   Next, a monitoring method in the space 100 by the monitoring system 300 will be described along the flowchart of FIG. 8 and with reference to other drawings as appropriate.

なお、以下の説明では、図3に示すように、空間100内に人が誰も存在していなかった状況から所定時間経過した後、図6(a)に示すように空間100内に人が1人(H1)だけ入ってきたとする。また、図6(a)の状況から所定時間経過後、図6(b)に示すように、別の人(H2)が空間100内に入ってきたとする。更に、図6(b)の状況から所定時間経過後、図7に示すように、空間100内から1人(H2)が退出し、空間100内に人が1人(H1)のみ滞在している状況になったものとする。なお、ここでは、説明の便宜上、監視必要度更新手段52は、30秒ごとに図4のデータベースを更新するものとする。   In the following description, as shown in FIG. 3, after a predetermined time has elapsed from the situation where no one is present in the space 100, a person is placed in the space 100 as shown in FIG. Suppose only one person (H1) came in. Also, assume that another person (H2) enters the space 100 as shown in FIG. 6 (b) after a predetermined time has elapsed from the situation of FIG. 6 (a). Further, after a predetermined time has elapsed from the situation of FIG. 6B, as shown in FIG. 7, one person (H2) leaves the space 100 and only one person (H1) stays in the space 100. It is assumed that the situation has become. Here, for convenience of explanation, it is assumed that the monitoring necessity update unit 52 updates the database of FIG. 4 every 30 seconds.

また、図3の状態を監視カメラ10A〜10Dが最後に確認したのは、18時36分10秒であるものとする。そして、図6(a)の状態になったのを確認したのが、その30秒後の18時36分40秒、図6(b)の状態になったのを確認したのが、更に30秒後の18時37分10秒であるものとする。また、図7の状態になったのを確認したのが、更に2分後の18時39分10秒であるものとする。   Also, it is assumed that the surveillance cameras 10A to 10D finally confirmed the state of FIG. 3 at 18:36:10. Then, it was confirmed that the state of FIG. 6 (a) was reached, but it was confirmed that the state of FIG. 6 (b) was confirmed at 18:36:40 after 30 seconds. Assume that 18 seconds 37 minutes 10 seconds later. In addition, it is assumed that it was 18:39:10, two minutes later, that the state shown in FIG. 7 was confirmed.

以上の前提の下、図8のフローチャートが実行される。以下、18時36分10秒、18時36分40秒、18時37分10秒、18時39分10秒の処理について、順を追って説明する。   Under the above premise, the flowchart of FIG. 8 is executed. Hereinafter, processing at 18:36:10, 18:36:40, 18:37:10, and 18:39:10 will be described in order.

(18時36分10秒)
まず、図8のステップS10では、監視カメラ10A〜10Dの映像をカメラ映像取得手段44が取得する。次のステップS12では、遮蔽物抽出手段46の抽出結果に基づいて、図3の状態で、空間100内に遮蔽物が存在したか否かを判断する。この段階では、遮蔽物は存在していないので、ステップS12の判断は否定され、ステップS10に戻る。
(18:36:10)
First, in step S10 of FIG. 8, the camera image acquisition unit 44 acquires the images of the monitoring cameras 10A to 10D. In the next step S12, based on the extraction result of the shielding object extracting means 46, it is determined whether or not there is a shielding object in the space 100 in the state of FIG. At this stage, since there is no shielding object, the determination in step S12 is denied and the process returns to step S10.

(18時36分40秒)
18時36分40秒においては、再度、ステップS10が行われることにより、カメラ映像取得手段44が監視カメラ10A〜10Dの映像を取得した後、ステップS12に移行する。なお、この段階では、図6(a)に示すように、遮蔽物としての人(H1)が空間100内に存在しているので、ステップS12の判断は肯定される。このように、ステップS12の判断が肯定されると、ステップS14に移行して、遮蔽物位置推定手段48が遮蔽物の位置を推定する。ここでは、図6(a)にハッチングを付して示すように、遮蔽物の位置が、グリッドの座標で、(4,1)、(4,2)、(5,1)、(5,2)と推定される。
(18:36:40)
At 18:36:40, step S10 is performed again, so that the camera image acquisition unit 44 acquires the images of the monitoring cameras 10A to 10D, and then the process proceeds to step S12. At this stage, as shown in FIG. 6A, since the person (H1) as the shielding object exists in the space 100, the determination in step S12 is affirmed. As described above, when the determination in step S12 is affirmed, the process proceeds to step S14, and the shielding object position estimating unit 48 estimates the position of the shielding object. Here, as shown by hatching in FIG. 6A, the position of the shielding object is the coordinates of the grid (4, 1), (4, 2), (5, 1), (5, 2).

次のステップS16では、死角算出手段50が、ステップS14で推定された遮蔽物の位置に基づいて、遮蔽物から生じる死角領域の位置を算出する。ここでの処理の結果、死角領域の位置として、図6(a)にダブルハッチングを付して示すグリッド座標(6,0)、(6,1)、(6,2)、(7,0)、(7,1)、(7,2)、(8,0)、(8,1)、(8,2)が算出されたものとする。なお、死角領域の位置を算出するに際しては、監視カメラ10A〜10Dによる撮影画像のみならず、移動ロボット20のカメラによる撮影画像についても考慮する必要がある。   In the next step S16, the blind spot calculating means 50 calculates the position of the blind spot area generated from the shielding object based on the position of the shielding object estimated in step S14. As a result of the processing here, the grid coordinates (6, 0), (6, 1), (6, 2), (7, 0) shown in FIG. ), (7, 1), (7, 2), (8, 0), (8, 1), (8, 2) are calculated. When calculating the position of the blind spot area, it is necessary to consider not only the images captured by the monitoring cameras 10A to 10D but also the images captured by the camera of the mobile robot 20.

次いで、ステップS18では、監視必要度更新手段52が、グリッド一覧のデータベースを更新する。ここでは、グリッド一覧のデータベースが図9に示すように更新される。なお、図9では、監視中の状態が継続しているグリッドに関する記載を省略している。   Next, in step S18, the monitoring necessity update unit 52 updates the grid list database. Here, the grid list database is updated as shown in FIG. In FIG. 9, the description regarding the grid in which the state being monitored is continued is omitted.

次いで、ステップS20では、監視必要度更新手段52が「死角」となっているグリッドを、連続するグリッドごとに纏める処理を実行する。この場合、図9に示すグリッド座標(6,0)、(6,1)、(6,2)、(7,0)、(7,1)、(7,2)、(8,0)、(8,1)、(8,2)の全てが、上下左右方向に連続している。したがって、ステップS20では、図9において状態の項目が死角になっている全てのグリッドが纏められて、図10(a)に示すようにID「1’」として、暫定的な死角一覧のデータベースに登録される。なお、図10(a)の「検出時刻」の項目は、死角を検出した時刻であり、「最終確認時刻」は、ID「1’」に含まれるグリッドの最終確認時刻のうち、最も早い時刻である。また、「重要度」の項目は、ID「1’」に含まれるグリッドの重要度を合計したものである。ここでは、ID「1’」に含まれるグリッドの重要度は全て0なので(図9参照)、図10(a)、図10(b)の重要度も0となる。   Next, in step S20, the monitoring necessity degree update unit 52 executes a process of collecting the grids having “dead spots” for each continuous grid. In this case, the grid coordinates (6, 0), (6, 1), (6, 2), (7, 0), (7, 1), (7, 2), (8, 0) shown in FIG. , (8, 1), (8, 2) are all continuous in the vertical and horizontal directions. Accordingly, in step S20, all the grids whose status items are blind spots in FIG. 9 are collected, and the ID “1 ′” as shown in FIG. be registered. In addition, the item of “detection time” in FIG. 10A is the time when the blind spot is detected, and “final confirmation time” is the earliest time among the final confirmation times of the grid included in the ID “1 ′”. It is. The “importance” item is the sum of the importance of the grids included in the ID “1 ′”. Here, since the importance levels of the grid included in the ID “1 ′” are all 0 (see FIG. 9), the importance levels in FIGS. 10A and 10B are also 0.

次いで、ステップS22では、監視必要度更新手段52が、直前における死角領域を1つ選択する。ただし、この段階では直前までに死角領域が存在していなかったことから、死角領域を選択することはできず、そのままステップS24に移行する。   Next, in step S22, the monitoring necessity update unit 52 selects one blind spot area immediately before. However, at this stage, since the blind spot area did not exist until immediately before, the blind spot area cannot be selected, and the process proceeds to step S24 as it is.

次いで、ステップS24では、監視必要度更新手段52が、前のステップS22において死角領域を選択できたか否かを判断する。ここでは、死角領域を選択できていないので判断は否定され、ステップS26に移行する。ステップS26では、監視必要度更新手段52が、ステップS20で纏められたグリッドから成る死角領域を、図10(b)に示す死角一覧のデータベースに、死角ID=「1」として新規登録し、図8の処理を終了する。   Next, in step S24, the monitoring necessity degree update unit 52 determines whether or not the blind spot area has been selected in the previous step S22. Here, since the blind spot area has not been selected, the determination is negative, and the process proceeds to step S26. In step S26, the monitoring necessity degree update means 52 newly registers the blind spot area composed of the grid collected in step S20 as the blind spot ID = “1” in the blind spot list database shown in FIG. The process of 8 is finished.

ロボット目標位置姿勢決定手段54は、上記のようにして更新された死角一覧のデータベースに基づいて、移動ロボット20の目標位置及び姿勢を決定する。具体的には、移動ロボット20の目標位置及び姿勢を、死角ID=「1」の死角領域を確認できる位置及び姿勢に決定する。そして、移動指示手段56は、ロボット目標位置姿勢決定手段54により決定された位置及び姿勢となるように、自律移動手段34を制御して移動ロボット20の位置・姿勢を変更する。ここで、監視必要度更新手段52は、移動ロボット20の移動状況を、位置姿勢検出手段22による検出結果や自律移動手段34の動作状況を検出することで、移動ロボット20が目標位置に到達できたか否かを判定する。この判定の結果、所定時間内に目標位置に到達できなかったような場合には、監視必要度更新手段52は、通報手段58(図2参照)を介して、空間100の監視をする監視員や警備員に対して警告を発することができる。なお、ここでは、説明の便宜上、18時37分10秒の段階では、移動ロボット20は死角ID=1の死角領域を監視できていないものとする。   The robot target position / posture determination means 54 determines the target position and posture of the mobile robot 20 based on the blind spot list database updated as described above. Specifically, the target position and posture of the mobile robot 20 are determined to be a position and posture where a blind spot area with a blind spot ID = “1” can be confirmed. Then, the movement instruction unit 56 controls the autonomous moving unit 34 to change the position / posture of the mobile robot 20 so that the position and posture determined by the robot target position / posture determination unit 54 are obtained. Here, the monitoring necessity degree update means 52 can detect the movement status of the mobile robot 20 by detecting the detection result of the position / orientation detection means 22 and the operation status of the autonomous movement means 34 so that the mobile robot 20 can reach the target position. It is determined whether or not. As a result of this determination, if the target position cannot be reached within a predetermined time, the monitoring necessity level update means 52 monitors the space 100 via the notification means 58 (see FIG. 2). And can warn guards. Here, for convenience of explanation, it is assumed that the mobile robot 20 has not been able to monitor the blind spot area of the blind spot ID = 1 at the stage of 18:37:10.

(18時37分10秒)
18時37分10秒においては、ステップS10においてカメラ映像取得手段44が監視カメラ10A〜10Dからの映像を取得した後、ステップS12において、遮蔽物抽出手段46が、遮蔽物があったか否かを判断する。この段階では、図6(b)に示すように、人H1に加えて、人H2も空間100内に侵入してきているため、ここでの判断は肯定されて、ステップS14に移行する。
(18:37:10)
At 18:37:10, after the camera image acquisition unit 44 acquires the images from the surveillance cameras 10A to 10D in step S10, in step S12, the shielding object extraction unit 46 determines whether or not there is a shielding object. To do. At this stage, as shown in FIG. 6B, in addition to the person H1, the person H2 has also entered the space 100, so the determination here is affirmed and the process proceeds to step S14.

ステップS14では、遮蔽物位置推定手段48が、遮蔽物の位置を推定する。ここでは、遮蔽物の位置が、図6(b)にハッチングを付して示すグリッド座標(4,1)、(4,2)、(5,1)、(5,2)、(10,9)、(10,10)、(10,11)、(11,10)、(11,11)と推定される。次いで、ステップS16では、死角算出手段50が、遮蔽物の位置から死角の位置を算出する。ここでは、死角の位置が、図6(b)にダブルハッチングを付して示すグリッド座標(6,0)、(6,1)、(6,2)、(7,0)、(7,1)、(7,2)、(7,9)、(7,10)、(7,11)、(8,0)、(8,1)、(8,2)、(8,9)、(8,10)、(8,11)、(9,9)、(9,10)、(9,11)と算出される。   In step S14, the shielding object position estimating means 48 estimates the position of the shielding object. Here, the positions of the shielding objects are indicated by hatching grid coordinates (4, 1), (4, 2), (5, 1), (5, 2), (10, 9), (10, 10), (10, 11), (11, 10), and (11, 11). Next, in step S16, the blind spot calculating means 50 calculates the position of the blind spot from the position of the shield. Here, the positions of the blind spots are indicated by grid coordinates (6, 0), (6, 1), (6, 2), (7, 0), (7, 0) indicated by double hatching in FIG. 1), (7, 2), (7, 9), (7, 10), (7, 11), (8, 0), (8, 1), (8, 2), (8, 9) , (8, 10), (8, 11), (9, 9), (9, 10), (9, 11).

次いで、ステップS18では、監視必要度更新手段52が、ステップS14、S16の結果に基づいて、グリッド一覧のデータベースを更新する。具体的には、図11に示すようにグリッド一覧のデータベースが更新される。ここでは、図11においてハッチングを付した部分が、新たにグリッド一覧のデータベースに追加されたことになる。   Next, in step S18, the monitoring necessity update unit 52 updates the grid list database based on the results of steps S14 and S16. Specifically, the grid list database is updated as shown in FIG. Here, the hatched portion in FIG. 11 is newly added to the grid list database.

次いで、ステップS20では、監視必要度更新手段52が、死角領域のグリッドを連続するグリッドごとに纏める。このステップS20での処理の結果、図12(a)に示すように、暫定死角一覧のデータベースとして、ID「1’」と「2’」が集計される。この場合、ID「1’」には、グリッドIDが91,92,93,106,107,108,121,122,123のグリッドが含まれ、ID「2’」には、グリッドIDが115,116,117,130,131,132,145,146,147のグリッドが含まれる。   Subsequently, in step S20, the monitoring necessity degree update means 52 collects the blind spot area grids for each continuous grid. As a result of the processing in step S20, as shown in FIG. 12A, IDs “1 ′” and “2 ′” are tabulated as a temporary blind spot list database. In this case, the ID “1 ′” includes grids with grid IDs 91, 92, 93, 106, 107, 108, 121, 122, and 123, and the ID “2 ′” includes grid IDs 115, 116, 117, 130, 131, 132, 145, 146 and 147 grids are included.

次いで、ステップS22では、監視必要度更新手段52が、直前の死角領域を1つ選択する。ここでは、図10(b)に示す死角ID=「1」の死角領域が選択されたものとする。次いで、ステップS24において、監視必要度更新手段52が、死角を選択できたか否かを判断し、ここでの判断が肯定されると、ステップS28に移行する。ステップS28では、監視必要度更新手段52が、選択した領域と最も重複の多い暫定の死角領域を選択する。   Next, in step S22, the monitoring necessity update unit 52 selects one immediately preceding blind spot area. Here, it is assumed that the blind spot area of the blind spot ID = “1” shown in FIG. 10B is selected. Next, in step S24, the monitoring necessity update unit 52 determines whether or not the blind spot has been selected. If the determination here is affirmed, the process proceeds to step S28. In step S28, the monitoring necessity level update unit 52 selects a provisional blind spot area that has the largest overlap with the selected area.

ここでは、図10(b)の死角ID「1」の死角に含まれるグリッドIDと、図12(a)のID「1’」に含まれるグリッドIDとが、全て一致しているため、本ステップS28では、図12(a)のID「1’」が選択される。   Here, since the grid ID included in the blind spot of the blind spot ID “1” in FIG. 10B and the grid ID included in the ID “1 ′” of FIG. In step S28, the ID “1 ′” in FIG. 12A is selected.

次いで、ステップS30では、前のステップS28において、監視必要度更新手段52が、該当する死角領域を選択できたか否かを判断する。ここでの判断は肯定されるので、ステップS34に移行し、監視必要度更新手段52が、直前の死角領域(死角ID=1)を図12(a)のID「1’」の内容で更新する。なお、上記のように、直前の死角領域を暫定の死角領域の内容で更新するのは、同一の遮蔽物により生じる死角を、連続的に追い続けるためである。   Next, in step S30, it is determined in the previous step S28 whether or not the monitoring necessity update unit 52 has selected the corresponding blind spot area. Since the determination here is affirmed, the process proceeds to step S34, and the monitoring necessity level update means 52 updates the previous blind spot area (dead spot ID = 1) with the content of the ID “1 ′” in FIG. To do. As described above, the reason for updating the previous blind spot area with the contents of the provisional blind spot area is to continuously follow the blind spot caused by the same shield.

次いで、ステップS36では、監視必要度更新手段52が、全ての直前の死角領域の処理が終了したか否かを判断する。ここでは、全ての直前の死角領域の処理が終了しているので、判断は肯定され、ステップS38に移行する。   Next, in step S36, the monitoring necessity update unit 52 determines whether or not the processing for all the blind spot areas immediately before has been completed. Here, since the processing of all the blind spot areas immediately before has been completed, the determination is affirmed and the process proceeds to step S38.

ステップS38では、暫定死角一覧のデータベースのうち、更新処理がなされていないIDを新規登録する。すなわち、図12(a)に示すID「2’」の死角を、新たな死角(死角ID=2)として登録する。このようにして、死角一覧のデータベースは、図12(b)に示すように更新される。なお、図12(b)の死角ID「2」の死角領域は、重要度が2となっている。これは、図11に示すように、死角ID「2」の死角領域に含まれるグリッドIDのうち、115と130の重要度が1であり、それらの合計が2になるからである。   In step S38, an ID that has not been updated in the provisional blind spot list database is newly registered. That is, the blind spot of ID “2 ′” shown in FIG. 12A is registered as a new blind spot (dead spot ID = 2). In this way, the blind spot list database is updated as shown in FIG. The blind spot area of the blind spot ID “2” in FIG. This is because, as shown in FIG. 11, among the grid IDs included in the blind spot area of the blind spot ID “2”, the importance of 115 and 130 is 1, and the sum of them is 2.

ロボット目標位置姿勢決定手段54は、上記のようにして更新された死角一覧のデータベースに基づいて、移動ロボット20の移動経路を決定する。すなわち、移動ロボット20がどちらの死角を先に確認するかを決定する。ここで、例えば、死角の確認順序を決定するためには、各死角の優先度を算出する。ここで、各死角の優先度Pは、死角の大きさ(死角に含まれるグリッドIDの数)a、死角になってからの時間b、死角に含まれるグリッドを最後に確認してからの時間c、重要度dとすると、次式(1)から算出することができる。
P=a×α+b×β+c×γ+d×δ …(1)
The robot target position / posture determination means 54 determines the movement path of the mobile robot 20 based on the blind spot list database updated as described above. That is, the mobile robot 20 determines which blind spot to check first. Here, for example, in order to determine the confirmation order of the blind spots, the priority of each blind spot is calculated. Here, the priority P of each blind spot is the size of the blind spot (number of grid IDs included in the blind spot) a, the time b after the blind spot is reached, and the time since the last confirmation of the grid included in the blind spot. Assuming c and importance d, it can be calculated from the following equation (1).
P = a × α + b × β + c × γ + d × δ (1)

なお、α、β、γ、δは、重み付け係数である。したがって、a〜dのうち、重視したい項目に関しては、積算する重み付け係数を大きくすれば良く、また、然程重視しない項目に関しては、積算する重み付け係数を小さくすれば良い。また、考慮する必要のない項目がある場合には、積算する重み付け係数を0にすれば良い。   Α, β, γ, and δ are weighting coefficients. Therefore, among the items a to d, the weighting coefficient to be integrated may be increased for an item to be emphasized, and the weighting coefficient to be integrated may be decreased for an item that is not so important. If there is an item that does not need to be considered, the weighting coefficient to be integrated may be set to zero.

ロボット目標位置姿勢決定手段54は、上記式(1)に基づいて、優先度Pを算出した結果、優先度Pが大きい方から監視をするように移動ロボット20の移動経路を決定する。そして、移動指示手段56は、ロボット目標位置姿勢決定手段54により決定された位置及び姿勢となるように、自律移動手段34を制御して移動ロボット20の位置・姿勢を変更する。なお、本第1の実施形態では、移動ロボット20は、死角ID=1の死角を18時37分50秒に監視し、死角ID=2の死角を18時37分20秒に監視したものとする。   The robot target position / orientation determination means 54 determines the movement path of the mobile robot 20 so as to monitor from the one having the higher priority P as a result of calculating the priority P based on the above equation (1). Then, the movement instruction unit 56 controls the autonomous moving unit 34 to change the position / posture of the mobile robot 20 so that the position and posture determined by the robot target position / posture determination unit 54 are obtained. In the first embodiment, the mobile robot 20 monitors the blind spot with the blind spot ID = 1 at 18:37:50 and monitors the blind spot with the blind spot ID = 2 at 18:37:20. To do.

(18時39分10秒)
18時39分10秒においても、これまでと同様、ステップS10がカメラ映像取得手段44により実行された後、ステップS12において、遮蔽物抽出手段46が、遮蔽物があったか否かを判断する。この段階では、図7に示すように、遮蔽物として人H1が存在しているため、ここでの判断は肯定されて、ステップS14に移行する。
(18:39:10)
Even at 18:39:10, after step S10 is executed by the camera image acquisition unit 44 as in the past, in step S12, the shielding object extraction unit 46 determines whether there is a shielding object. At this stage, as shown in FIG. 7, since there is a person H1 as a shield, the determination here is affirmed, and the routine proceeds to step S14.

ステップS14では、遮蔽物位置推定手段48が、遮蔽物の位置を推定する。ここでは、遮蔽物の位置が、図7にハッチングを付して示すグリッド座標(4,2)、(4,3)、(5,2)、(5,3)、と推定される。次いで、ステップS16では、死角算出手段50が、遮蔽物の位置から死角領域の位置を算出する。ここでは、死角領域の位置が、図7にダブルハッチングを付して示すグリッド座標(6,2)、(6,3)、(6,4)、(7,2)、(7,3)、(7,4)、(8,2)、(8,3)、(8,4)と算出されたものとする。   In step S14, the shielding object position estimating means 48 estimates the position of the shielding object. Here, the position of the shielding object is estimated as grid coordinates (4, 2), (4, 3), (5, 2), (5, 3) indicated by hatching in FIG. Next, in step S16, the blind spot calculating means 50 calculates the position of the blind spot area from the position of the shield. Here, the position of the blind spot area is indicated by grid coordinates (6, 2), (6, 3), (6, 4), (7, 2), (7, 3) indicated by double hatching in FIG. , (7, 4), (8, 2), (8, 3), and (8, 4).

次いで、ステップS18では、監視必要度更新手段52が、ステップS14、S16の結果に基づいて、グリッド一覧のデータベースを更新する。具体的には、図13に示すようにグリッド一覧のデータベースが更新される。   Next, in step S18, the monitoring necessity update unit 52 updates the grid list database based on the results of steps S14 and S16. Specifically, the grid list database is updated as shown in FIG.

次いで、ステップS20では、監視必要度更新手段52が、死角領域のグリッドを連続するグリッドごとに纏めて、暫定の死角一覧データベースに記録する。このステップS20での処理の結果、図14(a)に示すように暫定の死角一覧データベースに、ID「1’」が記録される。この場合、ID「1’」には、グリッドID93,94,95,108,109,110,123,124,125のグリッドが含まれることになる。   Next, in step S20, the monitoring necessity update unit 52 collects the blind spot area grids for each successive grid and records them in the provisional blind spot list database. As a result of the processing in step S20, ID “1 ′” is recorded in the provisional blind spot list database as shown in FIG. In this case, the grid of grid IDs 93, 94, 95, 108, 109, 110, 123, 124, and 125 is included in ID “1 ′”.

次いで、ステップS22では、監視必要度更新手段52が、直前の死角領域を1つ選択する。ここでは、図12(b)に示す死角IDが「1」の死角領域が選択されたものとする。次いで、ステップS24において、監視必要度更新手段52が、死角領域を選択できたか否かを判断し、ここでの判断が肯定されると、ステップS28に移行する。ステップS28では、監視必要度更新手段52が、選択した領域と最も重複の多い暫定の死角領域を選択する。   Next, in step S22, the monitoring necessity update unit 52 selects one immediately preceding blind spot area. Here, it is assumed that the blind spot area having the blind spot ID “1” shown in FIG. 12B is selected. Next, in step S24, the monitoring necessity degree update unit 52 determines whether or not the blind spot area has been selected. If the determination here is affirmed, the process proceeds to step S28. In step S28, the monitoring necessity level update unit 52 selects a provisional blind spot area that has the largest overlap with the selected area.

この場合、図12(b)の死角ID=1の死角と、図14(a)のID=「1’」の死角とが、グリッドIDの一部(図14に下線を付して示すグリッドID)において一致している。したがって、ステップS28では、図14(a)のID=「1」の死角が選択されることとなる。   In this case, the blind spot with the blind spot ID = 1 in FIG. 12B and the blind spot with the ID = “1 ′” in FIG. 14A are part of the grid ID (the grid shown with an underline in FIG. 14). ID). Accordingly, in step S28, the blind spot with ID = “1” in FIG. 14A is selected.

次いで、ステップS30では、前のステップS28において、監視必要度更新手段52が、該当する死角領域が選択されたか否かを判断する。ここでの判断が肯定されると、ステップS34に移行し、監視必要度更新手段52は、直前の死角領域(図12(b)の死角ID「1」)を新たな内容(図14(a)のID「1’」)で更新する。次いで、ステップS36では、監視必要度更新手段52が、直前の死角領域の全てについての処理が終了したか否かを判断する。ここでは、図12(b)の死角ID「2」の死角領域に関する処理が残っているので、判断は否定され、ステップS22に移行する。   Next, in step S30, in the previous step S28, the monitoring necessity degree update unit 52 determines whether or not the corresponding blind spot area has been selected. If the determination here is affirmed, the process proceeds to step S34, and the monitoring necessity degree update unit 52 sets the previous blind spot area (the blind spot ID “1” in FIG. 12B) to a new content (FIG. 14A). ) With ID “1 ′”). Next, in step S36, the monitoring necessity update unit 52 determines whether or not the processing for all of the previous blind spot areas has been completed. Here, since the process related to the blind spot area of the blind spot ID “2” in FIG. 12B remains, the determination is negative and the process proceeds to step S22.

ステップS22では、監視必要度更新手段52が、直前の死角領域を1つ選択する。ここでは、図12(b)に示す死角ID=2の死角が選択されたものとする。次いで、ステップS24において、監視必要度更新手段52が、死角を選択できたか否かを判断し、ここでの判断が肯定されると、ステップS28に移行する。ステップS28では、監視必要度更新手段52が、選択した領域と最も重複の多い死角領域を選択する。ただし、この段階では、死角ID「2」の死角領域とグリッドが重複するものが図14(a)のデータベースには存在していないので、ここでの選択は行われない。   In step S22, the monitoring necessity update unit 52 selects one immediately preceding blind spot area. Here, it is assumed that the blind spot ID = 2 shown in FIG. 12B is selected. Next, in step S24, the monitoring necessity update unit 52 determines whether or not the blind spot has been selected. If the determination here is affirmed, the process proceeds to step S28. In step S <b> 28, the monitoring necessity level update unit 52 selects the blind spot area having the largest overlap with the selected area. However, at this stage, there is no overlapping area of the blind spot area of the blind spot ID “2” and the grid in the database of FIG.

次いで、ステップS30では、監視必要度更新手段52が、該当する死角領域があったか否かを判断する。ここでの判断は否定されるため、ステップS32に移行する。ステップS32では、監視必要度更新手段52が、図14(b)に示すように、死角ID=2の死角を削除してステップS36に移行する。ステップS36では、監視必要度更新手段52が、全ての直前の死角領域の処理が終了したかを判断し、ここでの判断が肯定されると、ステップS38に移行する。そして、ステップS38では、監視必要度更新手段52が、更新処理がされなかった暫定の死角領域を新規登録するが、ここでは更新処理がされなかった暫定の死角領域が存在しないので、そのまま、図8の全処理を終了する。   Next, in step S30, the monitoring necessity update unit 52 determines whether or not there is a corresponding blind spot area. Since the determination here is negative, the process proceeds to step S32. In step S32, the monitoring necessity degree update unit 52 deletes the blind spot with the blind spot ID = 2 as shown in FIG. 14B, and proceeds to step S36. In step S36, the monitoring necessity degree update means 52 determines whether or not the processing of all the blind spot areas immediately before has been completed, and if the determination here is affirmed, the process proceeds to step S38. In step S38, the monitoring necessity update unit 52 newly registers a provisional blind spot area that has not been updated. Here, there is no provisional blind spot area that has not been updated. The whole process of 8 is finished.

ロボット目標位置姿勢決定手段54は、上記のようにして更新された死角一覧のデータベースに基づいて、移動ロボット20の目標位置及び姿勢を、死角ID=1の死角を確認できる位置及び姿勢に決定する。そして、移動指示手段56は、ロボット目標位置姿勢決定手段54により決定された位置及び姿勢となるように、自律移動手段34を制御して移動ロボット20の位置・姿勢を変更する。   The robot target position / posture determination means 54 determines the target position and posture of the mobile robot 20 to be a position and posture at which the blind spot with the blind spot ID = 1 can be confirmed based on the blind spot list database updated as described above. . Then, the movement instruction unit 56 controls the autonomous moving unit 34 to change the position / posture of the mobile robot 20 so that the position and posture determined by the robot target position / posture determination unit 54 are obtained.

以上、詳細に説明したように、本実施形態によると、遮蔽物抽出手段46が、監視カメラ10A〜10Dから取得された映像から遮蔽物を抽出し、遮蔽物位置推定手段が、当該遮蔽物の位置を推定する。そして、死角算出手段50は、推定された遮蔽物の位置から監視カメラ10A〜10Dの死角の位置を算出し、その死角の位置に基づいて、ロボット目標位置姿勢決定手段54及び移動指示手段56が、移動ロボット20の位置姿勢を制御するので、監視カメラ10A〜10Dにより撮影された映像から死角の位置を的確に算出したうえで、移動ロボット20を死角に向けて移動させたり姿勢を変更させたりすることができる。これにより、移動ロボット20が撮影機能を有している場合には、監視カメラで監視することができない死角領域の撮影を行うことが可能である。すなわち、本実施形態によると、人などの動的な遮蔽物により生じる死角の監視効率を向上することが可能である。   As described above in detail, according to the present embodiment, the shielding object extraction unit 46 extracts the shielding object from the images acquired from the monitoring cameras 10A to 10D, and the shielding object position estimation unit detects the shielding object. Estimate the position. The blind spot calculating means 50 calculates the blind spot position of the monitoring cameras 10A to 10D from the estimated position of the shield, and based on the blind spot position, the robot target position / posture determination means 54 and the movement instruction means 56 Since the position and orientation of the mobile robot 20 is controlled, the position of the blind spot is accurately calculated from the images taken by the monitoring cameras 10A to 10D, and then the mobile robot 20 is moved toward the blind spot and the attitude is changed. can do. Thereby, when the mobile robot 20 has a photographing function, it is possible to photograph a blind spot area that cannot be monitored by the surveillance camera. That is, according to the present embodiment, it is possible to improve the monitoring efficiency of blind spots caused by a dynamic shield such as a person.

より具体的には、移動指示手段56は、移動ロボット20が保持するカメラ(映像取得手段24)が監視カメラ10A〜10Dの死角を撮影するように、移動ロボット20の位置姿勢を制御するので、監視カメラのみでは観察ができない死角や、動的な遮蔽物により生じる死角を、移動ロボット20が撮影することができる。これにより、監視員や警備員などが死角となっている場所を直接見に行く必要が無いので、監視員等の手間が省け、かつ、監視員等が不審者に襲われるなどの安全上のリスクを低減することができる。   More specifically, the movement instruction unit 56 controls the position and orientation of the mobile robot 20 so that the camera (video acquisition unit 24) held by the mobile robot 20 captures the blind spots of the monitoring cameras 10A to 10D. The mobile robot 20 can capture a blind spot that cannot be observed with only the surveillance camera or a blind spot caused by a dynamic shield. As a result, there is no need to go directly to the places where watchers and guards are blind spots, so it is possible to save the trouble of the watchers, etc. Risk can be reduced.

また、本実施形態によると、移動指示手段56が自律移動手段34を介して移動ロボット20の位置姿勢を制御しても、死角の撮影が不可能な場合に、通報手段58がその旨を監視員や警備員などのユーザに通報する。これにより、監視員等は、死角を直接的に確認すべき状況であるか否かを容易に判断することができる。   Further, according to the present embodiment, even when the movement instructing means 56 controls the position and orientation of the mobile robot 20 via the autonomous moving means 34, the reporting means 58 monitors the fact that the blind spot cannot be photographed. Alert users such as security personnel and security guards. Thereby, the supervisor or the like can easily determine whether or not the blind spot should be confirmed directly.

また、本実施形態によると、ロボット目標位置姿勢決定手段54は、死角が複数存在する場合に、死角の優先度Pに基づいて、移動ロボット20の位置姿勢を制御する。したがって、死角が複数ある場合でも、その優先度に応じた適切な順序で死角の監視を行うことができる。この場合、死角の大きさを考慮して優先度Pを決定することで、多人数が集まっており、犯罪などの生じる可能性が比較的高い死角を優先的に監視することができる。また、死角である期間を考慮して優先度Pを決定することで、死角である期間が長く、犯罪などが生じている可能性が比較的高くなっている死角を優先的に監視することができる。更に、場所固有の重要度に基づいて優先度Pを決定することで、重要物200の近傍など、比較的犯罪が起こりやすい死角を優先的に監視することができる。   Further, according to the present embodiment, the robot target position / posture determination means 54 controls the position / posture of the mobile robot 20 based on the blind spot priority P when there are a plurality of blind spots. Therefore, even when there are a plurality of blind spots, the blind spots can be monitored in an appropriate order according to the priority. In this case, by determining the priority P in consideration of the size of the blind spot, it is possible to preferentially monitor the blind spot where a large number of people are gathered and the possibility of a crime is relatively high. In addition, by determining the priority P in consideration of the period that is a blind spot, it is possible to preferentially monitor the blind spot that has a long period of the blind spot and a relatively high possibility that a crime has occurred. it can. Furthermore, by determining the priority P based on the importance specific to the place, it is possible to preferentially monitor a blind spot where crime is likely to occur, such as the vicinity of the important object 200.

なお、上記実施形態では、優先度Pを算出する際に、死角になる直前の状況を考慮することもできる。例えば、死角になる前に人が存在していて、その後に死角になった場所は、死角になる前に人が存在していなかった場所よりも犯罪の可能性が高い。したがって、例えば、直前の状態が「遮蔽物」であった場合に優先度Pが高くなるように、上式(1)を変更すれば良い。   In the above embodiment, when the priority P is calculated, the situation immediately before the blind spot is taken into consideration can also be considered. For example, a place where a person exists before becoming a blind spot and a place where the person becomes a blind spot after that has a higher possibility of a crime than a place where a person did not exist before becoming a blind spot. Therefore, for example, the above equation (1) may be changed so that the priority P becomes higher when the previous state is “shielding object”.

なお、上記実施形態では、通報手段58とともに、またはこれに代えて、図15に示すように、監視必要度更新手段52に表示手段としてのディスプレイ60を接続することもできる。ディスプレイ60には、監視必要度更新手段52が決定した死角の監視順序を表示することとしても良い。この場合、監視員や警備員などは、ディスプレイ60上で監視順序を確認することができる。また、監視順序とともに、またはこれに代えて、遮蔽物(人)の位置及び死角の位置の少なくとも一方を、ディスプレイ60上に表示することとしても良い。この場合にも、監視員などの利便性を向上することが可能である。   In the above-described embodiment, a display 60 as a display unit can be connected to the monitoring necessity update unit 52 as shown in FIG. 15 together with or instead of the notification unit 58. The display 60 may display the blind spot monitoring order determined by the monitoring necessity update unit 52. In this case, a monitor, a guard, or the like can check the monitoring order on the display 60. Moreover, it is good also as displaying on the display 60 at least one of the position of a shield (person) and the position of a blind spot with the monitoring order or instead of this. Even in this case, it is possible to improve the convenience of the supervisor.

なお、上記実施形態では、図15に示すように、監視必要度更新手段52に、変更受付手段としての入力インタフェース62を接続できるようにしても良い。この入力インタフェース62は、監視員等が死角の監視順序を変更するためのものである。この場合、単純に、監視順序そのものを変更できるようにしても良い。あるいは、優先度を決定するための少なくとも1つの項目、例えば重要度の項目のみを監視員等が変更できるようにしても良い。後者の場合、変更された項目を用いて、ロボット目標位置姿勢決定手段54が優先度Pを再度算出し、その算出結果に基づいて監視順序を再設定するようにする。また、監視員が見たい位置が指定された場合には、死角領域の位置にかかわらず、移動ロボット20を当該見たい位置に強制的に移動させるようにしても良い。このようにすることで、監視員などの意思を反映した移動ロボット20による適切な監視を実現することが可能である。   In the above embodiment, as shown in FIG. 15, an input interface 62 as a change acceptance unit may be connected to the monitoring necessity update unit 52. The input interface 62 is used by a monitor or the like to change the blind spot monitoring order. In this case, the monitoring order itself may be simply changed. Alternatively, the monitor or the like may change only at least one item for determining the priority, for example, the importance item. In the latter case, using the changed item, the robot target position and orientation determination unit 54 calculates the priority P again, and resets the monitoring order based on the calculation result. In addition, when the position that the monitor wants to see is specified, the mobile robot 20 may be forcibly moved to the position that the user wants to see regardless of the position of the blind spot area. By doing in this way, it is possible to realize appropriate monitoring by the mobile robot 20 reflecting the intention of a monitor or the like.

なお、上記実施形態では、死角一覧のデータベースの重要度を、同一の死角IDに含まれるグリッドの重要度の合計値とする場合について説明したが、これに限られるものではない。死角一覧のデータベースの重要度は、例えば、同一の死角IDに含まれるグリッドの重要度のうち最も大きい値であっても良い。   In the above embodiment, the case where the importance level of the blind spot list database is set to the total value of the importance levels of the grids included in the same blind spot ID is described, but the present invention is not limited to this. The importance of the blind spot list database may be, for example, the highest value among the importance of the grids included in the same blind spot ID.

なお、上記実施形態では、グリッドIDのデータベースを30秒ごとに更新する場合について説明したが、これに限らず、更新の間隔をその他の間隔(例えば、数秒間隔)としても良い。この場合、更新の間隔を短くすればするほど、監視性能が向上することとなる。   In the above-described embodiment, the case where the grid ID database is updated every 30 seconds has been described. However, the present invention is not limited to this, and the update interval may be set to other intervals (for example, intervals of several seconds). In this case, the shorter the update interval, the better the monitoring performance.

また、上記実施形態では、説明の便宜上、人の後方の9つのグリッドが死角になる場合について、説明したが、これに限られるものではない。実際には、人の後方の全てのグリッドが死角になる場合もあるので、実際のカメラの配置、撮影角度などを考慮して、実際の死角をカバーするように死角のグリッドを決定することが好ましい。   Moreover, although the said embodiment demonstrated the case where nine grids behind a person became a blind spot for convenience of explanation, it was not restricted to this. Actually, all the grids behind the person may become blind spots, so it is possible to determine the blind spot grid to cover the actual blind spots in consideration of the actual camera placement, shooting angle, etc. preferable.

≪第2の実施形態≫
以下、監視システムの第2の実施形態について、図16に基づいて説明する。
<< Second Embodiment >>
Hereinafter, a second embodiment of the monitoring system will be described with reference to FIG.

本第2の実施形態では、移動ロボット20が、図2に示す各手段に加えて、図15に示すように、人識別手段28と、インタラクション手段30と、不審度算出手段32と、を更に備えている。なお、その他の構成については、第1の実施形態と同様であるので、それらの説明は省略するものとする。   In the second embodiment, the mobile robot 20 further includes a person identifying means 28, an interaction means 30, and a suspiciousness degree calculating means 32, as shown in FIG. 15, in addition to the means shown in FIG. I have. Since other configurations are the same as those in the first embodiment, the description thereof will be omitted.

人識別手段28は、映像取得手段24において取得された映像から、人物の存在の有無を識別するものである。インタラクション手段30は、音声を発したり画像を表示したりすることで、周囲の人物と対話するものである。不審度算出手段32は、人識別手段28により識別された人物の不審度を算出するものである。不審度算出手段32は、例えば、人物の行動パターンとその不審度とを対応付けたデータベースや、人物の容貌とその不審度とを対応付けたデータベースなどを保持しており、それらのデータベースに基づいて、人物の不審度を算出する。   The person identification means 28 is for identifying the presence or absence of a person from the video acquired by the video acquisition means 24. The interaction means 30 interacts with surrounding people by producing a sound or displaying an image. The suspicious degree calculating means 32 calculates the suspicious degree of the person identified by the person identifying means 28. The suspicious degree calculating means 32 holds, for example, a database in which a person's behavior pattern and its suspicious degree are associated, a database in which a person's appearance and its suspicious degree are associated, and the like. The suspicious degree of the person is calculated.

本第2の実施形態では、第1の実施形態と同様の方法により、グリッド一覧のデータベースを更新する。一方、監視必要度更新手段52が死角一覧のデータベースを更新する際には、不審度算出手段32による算出結果をも考慮する。具体的には、人識別手段28が映像取得手段24の映像に基づいて識別した人について、不審度算出手段32が不審度を算出して、当該算出結果を優先度Pの算出に用いることとする。このようにすることで、不審人物の近傍の監視を重点的に行うようにすることができる。   In the second embodiment, the grid list database is updated by the same method as in the first embodiment. On the other hand, when the monitoring necessity degree update unit 52 updates the blind spot list database, the calculation result by the suspicious degree calculation unit 32 is also taken into consideration. Specifically, for the person identified by the person identifying unit 28 based on the video of the video obtaining unit 24, the suspicious degree calculating unit 32 calculates the suspicious degree and uses the calculation result for calculating the priority P. To do. In this way, it is possible to focus on monitoring the vicinity of a suspicious person.

一方、インタラクション手段30は、人識別手段28により識別された人が邪魔で死角を監視できない場合に、画像や音声などを用いて、別の場所に移動するよう、人に対して指示を出す。このようにすることで、死角の確認を円滑に行うことができるようになる。   On the other hand, when the person identified by the person identification means 28 is in the way and cannot monitor the blind spot, the interaction means 30 instructs the person to move to another place using an image or sound. By doing so, the blind spot can be confirmed smoothly.

以上説明したように、本第2の実施形態によると、第1の実施形態と同様の効果を奏するのに加え、人の不審度を優先度Pの算出に反映させることで、移動ロボット20による監視を適切に行うことができる。また、インタラクション手段30により、人と対話をすることができるので、死角の確認の際に人に移動してもらうことなどができる。これにより、死角の確認を円滑に行うことが可能となる。   As described above, according to the second embodiment, in addition to the same effects as those of the first embodiment, the mobile robot 20 can reflect the suspicious degree of the person in the calculation of the priority P. Monitoring can be performed appropriately. In addition, since the interaction means 30 can interact with a person, the person can be moved when confirming the blind spot. Thereby, it is possible to check the blind spot smoothly.

なお、上記第2の実施形態では、移動ロボット20が不審度算出手段32及びインタラクション手段30の両方を具備している場合について説明したが、これに限られるものではない。移動ロボット20は、上記2つの手段のうちのいずれか一方を具備していても良い。   In the second embodiment, the case where the mobile robot 20 includes both the suspicious degree calculation unit 32 and the interaction unit 30 has been described. However, the present invention is not limited to this. The mobile robot 20 may include any one of the two means.

なお、上記各実施形態では、移動ロボット20が撮影機能(映像取得手段24)を有している場合について説明したが、これに限られるものではない。移動ロボット20は、死角領域が長時間一箇所に存在し続けないように人とコミュニケーションをとる、すなわち、人に移動してもらうのみでも良い。このような場合でも、監視カメラ10A〜10Dが死角の撮影を行うことが可能となるので、死角の監視効率を向上することが可能となる。   In each of the above-described embodiments, the case where the mobile robot 20 has the shooting function (video acquisition unit 24) has been described. However, the present invention is not limited to this. The mobile robot 20 may communicate with a person so that the blind spot area does not exist in one place for a long time, that is, the mobile robot 20 may only have the person move. Even in such a case, since the monitoring cameras 10A to 10D can capture the blind spot, the blind spot monitoring efficiency can be improved.

上述した各実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   Each embodiment mentioned above is an example of suitable implementation of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10A〜10D 監視カメラ(固定カメラ)
20 移動ロボット(移動体)
40 制御装置(監視制御装置)
46 遮蔽物抽出手段
48 遮蔽物位置推定手段
50 死角算出手段
52 監視必要度更新手段(移動体制御手段の一部)
54 ロボット目標位置姿勢決定手段(移動体制御手段の一部)
56 移動指示手段(移動体制御手段の一部)
58 通報手段
60 ディスプレイ(表示手段)
62 入力インタフェース(変更受付手段)
H1、H2 人(遮蔽物)
10A-10D surveillance camera (fixed camera)
20 Mobile robot (moving body)
40 Control device (monitoring control device)
46 shielding object extraction means 48 shielding object position estimation means 50 blind spot calculation means 52 monitoring necessity degree updating means (part of moving body control means)
54 Robot target position and orientation determining means (part of moving body control means)
56 Movement instruction means (part of moving body control means)
58 Notification means 60 Display (display means)
62 Input interface (change acceptance means)
H1, H2 people (shield)

Claims (10)

固定カメラから取得された映像から遮蔽物を抽出する遮蔽物抽出手段と、
前記固定カメラが設けられた空間を等間隔に分割した複数の管理単位のいずれに、前記遮蔽物抽出手段により抽出された遮蔽物位置するかを推定する遮蔽物位置推定手段と、
前記遮蔽物位置推定手段の推定結果に基づいて、前記固定カメラの死角の位置に対応する管理単位を算出する死角算出手段と、
前記死角算出手段により算出された前記固定カメラの死角の位置に対応する管理単位に基づいて、移動体の位置姿勢を制御する移動体制御手段と、を備える監視制御装置。
Shielding object extracting means for extracting a shielding object from an image acquired from a fixed camera;
To any of the plurality of management units obtained by dividing the space in which the fixed camera is provided at regular intervals, and shield position estimating means for shielding extracted by the obstacle extracting unit estimates whether the position,
A blind spot calculating means for calculating a management unit corresponding to the position of the blind spot of the fixed camera based on the estimation result of the shielding object position estimating means;
A monitoring control apparatus comprising: moving body control means for controlling a position and orientation of a moving body based on a management unit corresponding to the position of the blind spot of the fixed camera calculated by the blind spot calculation means.
前記移動体制御手段は、前記固定カメラの死角の位置に対応する連続する管理単位を1つの死角として、前記移動体の位置姿勢を制御することを特徴とする請求項1に記載の監視制御装置。  The monitoring control apparatus according to claim 1, wherein the moving body control unit controls the position and orientation of the moving body with a continuous management unit corresponding to the position of the blind spot of the fixed camera as one blind spot. . 前記移動体制御手段は、前記移動体が保持するカメラが前記固定カメラの死角を撮影するように、前記移動体の位置姿勢を制御することを特徴とする請求項1又は2に記載の監視制御装置。 The moving body control means, as a camera in which the movable body holds photographs the blind spot of the fixed camera, monitoring and control as claimed in claim 1 or 2, characterized in that to control the position and orientation of the movable body apparatus. 前記移動体の位置姿勢を制御しても前記死角の撮影が不可能な場合に、その旨をユーザに通報する通報手段を更に備える請求項に記載の監視制御装置。 The monitoring control apparatus according to claim 3 , further comprising reporting means for notifying the user of the fact that the blind spot cannot be imaged even if the position and orientation of the moving body is controlled. 前記移動体制御手段は、前記死角が複数存在する場合に、前記死角の優先度に基づいて、前記移動体の位置姿勢を制御することを特徴とする請求項1〜のいずれか一項に記載の監視制御装置。 The moving body control means, when the blind spot there are a plurality based on the priority of the blind spot, in any one of claims 1-4, characterized by controlling the position and orientation of the movable body The monitoring and control device described. 前記移動体制御手段は、前記死角の優先度を、死角の大きさ、死角の状態が継続している期間、死角になる直前の状況、及び死角となっている位置の重要度の少なくとも1つに基づいて判定することを特徴とする請求項に記載の監視制御装置。 The moving body control means sets the priority of the blind spot to at least one of the size of the blind spot, the period during which the blind spot state continues, the situation immediately before the blind spot, and the importance of the position at which the blind spot is located. The monitoring control device according to claim 5 , wherein the determination is based on the above. ユーザによる前記死角の優先度の変更を受け付ける変更受付手段を更に備え、
前記移動体制御手段は、前記変更後の優先度に基づいて、前記移動体の位置姿勢を制御することを特徴とする請求項又はに記載の監視制御装置。
A change accepting means for accepting a change in the priority of the blind spot by the user;
The moving body control means, based on the priority after change, monitoring and control device according to claim 5 or 6, characterized in that to control the position and orientation of the movable body.
前記遮蔽物の位置及び前記死角の位置の少なくとも一方を表示する表示手段を更に備える請求項1〜のいずれか一項に記載の監視制御装置。 Monitoring and control device according to any one of claims 1 to 7, further comprising display means for displaying at least one of the position and location of the blind spot of the shield. 映像を取得する固定カメラと、
移動可能とされた移動体と、
前記固定カメラから取得された映像に基づいて、前記移動体の位置姿勢を制御する請求項1〜のいずれか一項に記載の監視制御装置と、を備える監視システム。
A fixed camera that captures video,
A mobile object that is movable,
A monitoring system comprising: the monitoring control device according to any one of claims 1 to 8 that controls a position and orientation of the moving body based on an image acquired from the fixed camera.
前記移動体は、
自己が有するカメラの映像から人を抽出する人抽出手段と、
前記人抽出手段により抽出された人が邪魔となり前記死角の撮影が不可能な場合に、当該人に対してその旨報知する報知手段と、を有することを特徴とする請求項に記載の監視システム。
The moving body is
A person extracting means for extracting a person from the video of the camera possessed by the self;
The monitoring device according to claim 9 , further comprising notification means for notifying the person when the person extracted by the person extraction means is in the way and cannot capture the blind spot. system.
JP2009198025A 2009-08-28 2009-08-28 Monitoring control device and monitoring system Expired - Fee Related JP5418072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198025A JP5418072B2 (en) 2009-08-28 2009-08-28 Monitoring control device and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198025A JP5418072B2 (en) 2009-08-28 2009-08-28 Monitoring control device and monitoring system

Publications (2)

Publication Number Publication Date
JP2011048736A JP2011048736A (en) 2011-03-10
JP5418072B2 true JP5418072B2 (en) 2014-02-19

Family

ID=43834958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198025A Expired - Fee Related JP5418072B2 (en) 2009-08-28 2009-08-28 Monitoring control device and monitoring system

Country Status (1)

Country Link
JP (1) JP5418072B2 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5715775B2 (en) * 2010-06-30 2015-05-13 株式会社日立国際電気 Image monitoring system and image monitoring method
JP6172958B2 (en) * 2013-02-04 2017-08-02 セコム株式会社 Shooting system
JP2014175706A (en) * 2013-03-06 2014-09-22 Sumitomo Electric Ind Ltd Monitor device, monitor method, and imaging unit arrangement method
WO2016147704A1 (en) * 2015-03-18 2016-09-22 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and computer-readable recording medium
JP6599143B2 (en) * 2015-06-30 2019-10-30 セコム株式会社 Autonomous mobile robot
JP6645701B2 (en) * 2016-06-14 2020-02-14 三菱電機株式会社 Damage location identification system
US20190369618A1 (en) * 2016-11-18 2019-12-05 Nec Corporation Control system, control method, and program recording medium
JP6575493B2 (en) * 2016-11-30 2019-09-18 株式会社豊田中央研究所 Control device, distributed control program for moving body
JP2018142907A (en) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method and program of information processing apparatus
WO2018173183A1 (en) * 2017-03-23 2018-09-27 三菱電機株式会社 Optical device control apparatus, optical device control method, and optical device control program
JP6805989B2 (en) * 2017-07-10 2020-12-23 株式会社豊田中央研究所 Coverage device, mobile, control device, distributed control program for mobile
JP2019053426A (en) * 2017-09-13 2019-04-04 富士ゼロックス株式会社 Information processing device and program
JP6989395B2 (en) * 2018-01-10 2022-01-05 パナソニック株式会社 Interaction devices, interaction methods, interaction programs and robots
WO2019171491A1 (en) * 2018-03-07 2019-09-12 日本電気株式会社 Mobile body control device, mobile body, mobile body control system, mobile body control method, and recording medium
WO2020145255A1 (en) 2019-01-11 2020-07-16 日本電気株式会社 Monitoring device, monitoring method, and recording medium
JP7365660B2 (en) * 2019-02-14 2023-10-20 パナソニックIpマネジメント株式会社 Vehicle dispatch control device and monitoring system
KR102677452B1 (en) * 2022-04-25 2024-06-24 재단법인대구경북과학기술원 Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59107898A (en) * 1982-12-06 1984-06-22 ヤマハ株式会社 Method of monitoring work of robot, etc.
JP2001300876A (en) * 2000-04-20 2001-10-30 Yamatake Corp Service robot and serving system using the same
JP4469148B2 (en) * 2003-08-06 2010-05-26 パナソニック株式会社 Surveillance system, fixed camera, moving camera, and photographing method
CN101867785B (en) * 2004-02-03 2012-07-25 松下电器产业株式会社 Monitoring system and camera terminal
JP4827101B2 (en) * 2007-04-17 2011-11-30 富士フイルム株式会社 Control device, control method, imaging system, imaging method, and program

Also Published As

Publication number Publication date
JP2011048736A (en) 2011-03-10

Similar Documents

Publication Publication Date Title
JP5418072B2 (en) Monitoring control device and monitoring system
JP5891061B2 (en) Video monitoring apparatus, monitoring system, and monitoring system construction method
KR101788269B1 (en) Method and apparatus for sensing innormal situation
KR102164863B1 (en) Information processing apparatus, method thereof, and computer readable storage medium
JP6631619B2 (en) Video monitoring system and video monitoring method
TWI623885B (en) Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
JP5790761B2 (en) Distributed image processing system
CN101379825B (en) Automatic tracking device and automatic tracking method
EP2885777B1 (en) Surveillance system
KR101019384B1 (en) Unmanned Surveillance Device and Method Using All-Around Camera and Pan / Tilt / Zoom Camera
CN112703533A (en) Object tracking
US10645311B2 (en) System and method for automated camera guard tour operation
US20040061781A1 (en) Method of digital video surveillance utilizing threshold detection and coordinate tracking
KR20130039844A (en) Intelligent camera appartus and intelligent surveillance metod using the same
JP6233721B2 (en) Information processing system, information processing method, and program
JP2010140425A (en) Image processing system
JP7128577B2 (en) monitoring device
JP4985742B2 (en) Imaging system, method and program
TWI471825B (en) System and method for managing security of a roof
JP6336935B2 (en) Moving object tracking device
JP2020022177A (en) Video monitoring system and video monitoring method
JP6842968B2 (en) Monitoring system
JP4250172B2 (en) Object detection method and object detection apparatus
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
JP6941458B2 (en) Monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131104

LAPS Cancellation because of no payment of annual fees