JP5418072B2 - Monitoring control device and monitoring system - Google Patents
Monitoring control device and monitoring system Download PDFInfo
- Publication number
- JP5418072B2 JP5418072B2 JP2009198025A JP2009198025A JP5418072B2 JP 5418072 B2 JP5418072 B2 JP 5418072B2 JP 2009198025 A JP2009198025 A JP 2009198025A JP 2009198025 A JP2009198025 A JP 2009198025A JP 5418072 B2 JP5418072 B2 JP 5418072B2
- Authority
- JP
- Japan
- Prior art keywords
- blind spot
- monitoring
- moving body
- person
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012544 monitoring process Methods 0.000 title claims description 123
- 238000000605 extraction Methods 0.000 claims description 11
- 238000012806 monitoring device Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 29
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 8
- 238000012790 confirmation Methods 0.000 description 7
- 230000012447 hatching Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010042635 Suspiciousness Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本件は、監視制御装置及び監視システムに関する。 The present case relates to a monitoring control device and a monitoring system.
店舗や住宅などでは、セキュリティ向上のため、壁や天井などに固定された監視カメラによる撮影が行われている。このような監視カメラによる撮影に関する技術として、最近では、特許文献1、2のような技術が提案されている。
In stores and homes, for the purpose of improving security, photographing is performed with a surveillance camera fixed to a wall or ceiling. Recently, techniques such as
これらのうち、特許文献1の技術は、複数のカメラが、監視領域を広くカバーするように、死角を考慮して自動的に監視領域を変更するものである。また、特許文献2の技術は、監視カメラの情報などから各エリアの危険性を考慮し、巡回ロボットの巡回経路やスケジュールを決定するものである。
Among these, the technique of
しかしながら、特許文献1に記載の技術では、例えば、人の往来が激しい場所など、動的な死角が多く発生する場所を監視する場合に、多くの装置を必要とし、ひいては多大なコストを必要とするおそれがある。
However, the technique described in
また、特許文献2に記載の技術は、無人の空間への人の進入を警戒するためのものであり、有人の空間に発生する死角、すなわち動的な遮蔽物(人など)による死角を考慮したものではない。
Further, the technique described in
そこで本件は上記の課題に鑑みてなされたものであり、動的な遮蔽物により生じる死角の監視効率を向上することが可能な監視制御装置及び監視システムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above problems, and an object thereof is to provide a monitoring control device and a monitoring system capable of improving the efficiency of monitoring a blind spot caused by a dynamic shielding object.
本明細書に記載の監視制御装置は、固定カメラから取得された映像から遮蔽物を抽出する遮蔽物抽出手段と、前記固定カメラが設けられた空間を等間隔に分割した複数の管理単位のいずれに、前記遮蔽物抽出手段により抽出された遮蔽物が位置するかを推定する遮蔽物位置推定手段と、前記遮蔽物位置推定手段の推定結果に基づいて、前記固定カメラの死角の位置に対応する管理単位を算出する死角算出手段と、前記死角算出手段により算出された前記固定カメラの死角の位置に対応する管理単位に基づいて、移動体の位置姿勢を制御する移動体制御手段と、を備えている。
The monitoring control apparatus described in this specification includes any one of a shielding object extracting unit that extracts a shielding object from an image acquired from a fixed camera, and a plurality of management units that divide a space in which the fixed camera is provided at equal intervals. in the shield position estimating means for shielding extracted by the obstacle extracting unit estimates whether the position, based on the estimation result of the obstacle position estimation device, corresponding to the position of the blind spot of the fixed camera A blind spot calculating means for calculating a management unit; and a moving body control means for controlling the position and orientation of the moving body based on the management unit corresponding to the blind spot position of the fixed camera calculated by the blind spot calculating means. ing.
また、本明細書に記載の監視システムは、映像を取得する固定カメラと、移動可能とされた移動体と、前記固定カメラから取得された映像に基づいて、前記移動体の位置姿勢を制御する本明細書に記載の監視制御装置と、を備えている。 The monitoring system described in this specification controls the position and orientation of the moving body based on a fixed camera that acquires a video, a movable body that is movable, and a video that is acquired from the fixed camera. And a monitoring control device described in this specification.
本明細書に記載の監視制御装置及び監視システムは、動的な遮蔽物により生じる死角の監視効率を向上することができるという効果を奏する。 The monitoring control device and the monitoring system described in the present specification have an effect that it is possible to improve the monitoring efficiency of a blind spot caused by a dynamic shield.
≪第1の実施形態≫
以下、監視システムの第1の実施形態について、図1〜図14に基づいて詳細に説明する。
<< First Embodiment >>
Hereinafter, a first embodiment of the monitoring system will be described in detail with reference to FIGS.
本第1の実施形態に係る監視システム(以下、「監視システム300」と記述する)は、図1に示す空間100(例えば、店舗)内を撮影して、空間100を監視する者(例えば、店舗の従業員や警備を行う者)に対して、その撮影画像を提供するシステムである。なお、空間100内には、棚110が設置されているものとし、当該棚110の一部に、重要物200が載置されているものとする。
The monitoring system according to the first embodiment (hereinafter, referred to as “
監視システム300は、複数(図1では4つ)の固定カメラとしての監視カメラ10A〜10Dと、空間100内を巡視する移動体としての移動ロボット20と、を備える。また、監視システム300は、監視カメラ10A〜10D及び移動ロボット20を制御する監視制御装置としての制御装置40(図2参照)を備える。
The
監視カメラ10A〜10Dは、図1に示すように、空間100を仕切る壁に固定されている。図2には、監視システム300の構成がブロック図にて示されている。この図2に示すように、監視カメラ10A〜10Dのそれぞれは、視野VA〜VD(図1参照)内の映像を個別に取得する映像取得手段12と、当該取得した映像を制御装置40に対して出力する映像出力手段14と、を有する。本第1の実施形態では、視野VA〜VDは固定されているものとする。また、監視カメラ10A〜10Dは、空間100内に人などがいない状態で、空間100内の全てを死角なく撮影可能な位置に設置されている。
As shown in FIG. 1, the
移動ロボット20は、図2に示すように、位置姿勢検出手段22と、映像取得手段24と、情報通知手段26と、自律移動手段34と、を有する。
As shown in FIG. 2, the
位置姿勢検出手段22は、加速度センサや方位センサ(地磁気センサなど)、エンコーダなどを含み、移動ロボット20の位置や姿勢を検出するものである。この位置姿勢検出手段22による検出結果は、情報通知手段26に送信される。
The position / orientation detection means 22 includes an acceleration sensor, an orientation sensor (such as a geomagnetic sensor), an encoder, and the like, and detects the position and orientation of the
映像取得手段24は、例えば、移動ロボット20の頭部に設けられたカメラを含み、当該カメラにより、頭部の向いている方向の映像(動画)を取得する。映像取得手段24において取得された映像は、情報通知手段26に送信される。情報通知手段26は、位置姿勢検出手段22から取得した検出結果、及び映像取得手段24から取得した映像を、制御装置40に向けて出力する。
The
自律移動手段34は、制御装置40からの指示に基づいて、空間100内を移動し、姿勢を変更するものである。具体的には、自律移動手段34は、車輪及び車輪を駆動するモータ、姿勢を変更するためのアクチュエータなどを含んでいる。また、自律移動手段34は、頭部の向きを変更して、カメラの撮影方向を変更するアクチュエータも含んでいる。
The autonomous moving means 34 moves in the
制御装置40は、ロボット情報取得手段42と、カメラ映像取得手段44と、遮蔽物抽出手段46と、遮蔽物位置推定手段48と、死角算出手段50と、監視必要度更新手段52と、ロボット目標位置姿勢決定手段54と、移動指示手段56と、通報手段58と、を有する。なお、監視必要度更新手段52、ロボット目標位置姿勢決定手段54、及び移動指示手段56は、監視カメラ10A〜10Dの死角の位置に基づいて移動ロボット20の位置姿勢を制御する移動体制御手段の一部を構成している。
The
ロボット情報取得手段42は、移動ロボット20の情報通知手段26から入力された情報(位置姿勢検出手段22による検出結果及び映像取得手段により取得された映像)を取得し、遮蔽物抽出手段46に送信する。カメラ映像取得手段44は、監視カメラ10A〜10Dの映像出力手段14から入力された映像を取得し、遮蔽物抽出手段46に送信する。遮蔽物抽出手段46は、監視カメラ10A〜10Dによる映像と移動ロボット20による映像から、遮蔽物を抽出する。遮蔽物の抽出には、背景差分法などを用いることができる。遮蔽物抽出手段46により遮蔽物が抽出された場合には、監視カメラ10A〜10Dによる映像と移動ロボット20による映像は、遮蔽物位置推定手段48に送信される。
The robot
遮蔽物位置推定手段48は、監視カメラ10A〜10Dによる映像と移動ロボット20による映像から、遮蔽物の位置を推定する。ここでの位置推定には、例えば、ステレオビジョン法などを用いることができる。死角算出手段50は、遮蔽物位置推定手段48による遮蔽物の位置の推定結果に基づいて、死角となっている範囲、すなわち死角領域を算出する。ここでは、例えば、遮蔽物の大きさ及び位置、並びに監視カメラ10A〜10Dの撮影角度などに基づいて、死角領域を算出することができる。なお、死角領域の算出にあたっては、移動ロボット20の撮影領域についても考慮する必要がある。
The shielding object position estimating means 48 estimates the position of the shielding object from the images from the
監視必要度更新手段52は、死角を監視すべきか否かの必要度を、死角算出手段50による算出結果等に基づいて決定し、更新するものである。ロボット目標位置姿勢決定手段54は、監視必要度更新手段52により更新された監視必要度に応じて、移動ロボット20の移動目標位置や姿勢を決定するものである。移動指示手段56は、移動ロボット20がロボット目標位置姿勢決定手段54において決定された目標位置及び姿勢になるように、自律移動手段34に対して指示を出す。通報手段58は、モニタ等を含み、監視必要度更新手段52において更新された移動ロボットの移動目標位置や姿勢などを、ユーザに知らせるためのものである。
The monitoring necessity degree update means 52 determines and updates the necessity degree of whether or not the blind spot should be monitored based on the calculation result by the blind spot calculation means 50 and the like. The robot target position /
次に、制御装置40が空間100を管理する際に用いる管理単位(グリッド)について、図3に基づいて説明する。図3には、空間100を複数のグリッドで等間隔に分割した状態が示されている。なお、図3では、紙面左右方向をX軸方向とし、紙面上下方向をY軸方向としている。また、X軸方向には、23個のグリッドが配列され、Y軸方向には15個のグリッドが配列されている。各グリッドには、左上から順にグリッドIDが付されており、これらグリッドは、図4に示すようなグリッド一覧のデータベースにて管理されている。このデータベースの管理は、図2の監視必要度更新手段52が行う。
Next, a management unit (grid) used when the
図4のグリッド一覧のデータベースでは、グリッドIDの番号に対して、座標、状態(現在の状態)、前状態、最終更新時刻、最終確認時刻、重要度の各項目が関連付けられている。これらのうち、「状態」及び「前状態」の項目には、「監視中」、「遮蔽物」、「死角」のいずれかが記録される。「監視中」は監視カメラ10A〜10Dによる監視が可能な状態を意味し、「遮蔽物」は動的な遮蔽物、すなわち人が存在するグリッドであることを意味する。また、「死角」は遮蔽物の存在により監視が不可能なグリッドであることを意味する。
In the grid list database of FIG. 4, each item of coordinates, state (current state), previous state, last update time, last confirmation time, and importance is associated with the grid ID number. Among these, in the items of “state” and “previous state”, “monitoring”, “shielding object”, or “dead angle” is recorded. “Monitoring” means a state where monitoring by the
また、「最終更新時刻」の項目には、前状態から現在の状態に変わった時刻が記録され、「最終確認時刻」の項目には、最後に監視中であったことを確認した時刻が記録される。「最終確認時刻」は、具体的には、監視カメラ10A〜10D及び移動ロボット20のいずれかにより最後に撮影された時刻を意味している。また、「重要度」の項目は、そのグリッドの場所が監視を重点的にすべき場所であるかを意味する指標であり、例えば、「1」であれば、重要度が高いことを意味し、「0」であれば、重要度が通常であることを意味する。本実施形態では、図5にダブルハッチングを付して示すように、重要物200の周囲に位置するグリッドは、重要度が高いため、その値が1に設定されており、その他の場所は、重要度が通常であるため、その値が0に設定されているものとする。
The “last update time” item records the time when the previous state changed to the current state, and the “last confirmation time” item records the time when the last monitoring was confirmed. Is done. The “final confirmation time” specifically means the time when the image was last taken by any of the
次に、監視システム300による空間100内の監視方法について、図8のフローチャートに沿って、かつその他の図面を適宜参照しつつ説明する。
Next, a monitoring method in the
なお、以下の説明では、図3に示すように、空間100内に人が誰も存在していなかった状況から所定時間経過した後、図6(a)に示すように空間100内に人が1人(H1)だけ入ってきたとする。また、図6(a)の状況から所定時間経過後、図6(b)に示すように、別の人(H2)が空間100内に入ってきたとする。更に、図6(b)の状況から所定時間経過後、図7に示すように、空間100内から1人(H2)が退出し、空間100内に人が1人(H1)のみ滞在している状況になったものとする。なお、ここでは、説明の便宜上、監視必要度更新手段52は、30秒ごとに図4のデータベースを更新するものとする。
In the following description, as shown in FIG. 3, after a predetermined time has elapsed from the situation where no one is present in the
また、図3の状態を監視カメラ10A〜10Dが最後に確認したのは、18時36分10秒であるものとする。そして、図6(a)の状態になったのを確認したのが、その30秒後の18時36分40秒、図6(b)の状態になったのを確認したのが、更に30秒後の18時37分10秒であるものとする。また、図7の状態になったのを確認したのが、更に2分後の18時39分10秒であるものとする。
Also, it is assumed that the
以上の前提の下、図8のフローチャートが実行される。以下、18時36分10秒、18時36分40秒、18時37分10秒、18時39分10秒の処理について、順を追って説明する。 Under the above premise, the flowchart of FIG. 8 is executed. Hereinafter, processing at 18:36:10, 18:36:40, 18:37:10, and 18:39:10 will be described in order.
(18時36分10秒)
まず、図8のステップS10では、監視カメラ10A〜10Dの映像をカメラ映像取得手段44が取得する。次のステップS12では、遮蔽物抽出手段46の抽出結果に基づいて、図3の状態で、空間100内に遮蔽物が存在したか否かを判断する。この段階では、遮蔽物は存在していないので、ステップS12の判断は否定され、ステップS10に戻る。
(18:36:10)
First, in step S10 of FIG. 8, the camera
(18時36分40秒)
18時36分40秒においては、再度、ステップS10が行われることにより、カメラ映像取得手段44が監視カメラ10A〜10Dの映像を取得した後、ステップS12に移行する。なお、この段階では、図6(a)に示すように、遮蔽物としての人(H1)が空間100内に存在しているので、ステップS12の判断は肯定される。このように、ステップS12の判断が肯定されると、ステップS14に移行して、遮蔽物位置推定手段48が遮蔽物の位置を推定する。ここでは、図6(a)にハッチングを付して示すように、遮蔽物の位置が、グリッドの座標で、(4,1)、(4,2)、(5,1)、(5,2)と推定される。
(18:36:40)
At 18:36:40, step S10 is performed again, so that the camera
次のステップS16では、死角算出手段50が、ステップS14で推定された遮蔽物の位置に基づいて、遮蔽物から生じる死角領域の位置を算出する。ここでの処理の結果、死角領域の位置として、図6(a)にダブルハッチングを付して示すグリッド座標(6,0)、(6,1)、(6,2)、(7,0)、(7,1)、(7,2)、(8,0)、(8,1)、(8,2)が算出されたものとする。なお、死角領域の位置を算出するに際しては、監視カメラ10A〜10Dによる撮影画像のみならず、移動ロボット20のカメラによる撮影画像についても考慮する必要がある。
In the next step S16, the blind spot calculating means 50 calculates the position of the blind spot area generated from the shielding object based on the position of the shielding object estimated in step S14. As a result of the processing here, the grid coordinates (6, 0), (6, 1), (6, 2), (7, 0) shown in FIG. ), (7, 1), (7, 2), (8, 0), (8, 1), (8, 2) are calculated. When calculating the position of the blind spot area, it is necessary to consider not only the images captured by the
次いで、ステップS18では、監視必要度更新手段52が、グリッド一覧のデータベースを更新する。ここでは、グリッド一覧のデータベースが図9に示すように更新される。なお、図9では、監視中の状態が継続しているグリッドに関する記載を省略している。
Next, in step S18, the monitoring
次いで、ステップS20では、監視必要度更新手段52が「死角」となっているグリッドを、連続するグリッドごとに纏める処理を実行する。この場合、図9に示すグリッド座標(6,0)、(6,1)、(6,2)、(7,0)、(7,1)、(7,2)、(8,0)、(8,1)、(8,2)の全てが、上下左右方向に連続している。したがって、ステップS20では、図9において状態の項目が死角になっている全てのグリッドが纏められて、図10(a)に示すようにID「1’」として、暫定的な死角一覧のデータベースに登録される。なお、図10(a)の「検出時刻」の項目は、死角を検出した時刻であり、「最終確認時刻」は、ID「1’」に含まれるグリッドの最終確認時刻のうち、最も早い時刻である。また、「重要度」の項目は、ID「1’」に含まれるグリッドの重要度を合計したものである。ここでは、ID「1’」に含まれるグリッドの重要度は全て0なので(図9参照)、図10(a)、図10(b)の重要度も0となる。
Next, in step S20, the monitoring necessity
次いで、ステップS22では、監視必要度更新手段52が、直前における死角領域を1つ選択する。ただし、この段階では直前までに死角領域が存在していなかったことから、死角領域を選択することはできず、そのままステップS24に移行する。
Next, in step S22, the monitoring
次いで、ステップS24では、監視必要度更新手段52が、前のステップS22において死角領域を選択できたか否かを判断する。ここでは、死角領域を選択できていないので判断は否定され、ステップS26に移行する。ステップS26では、監視必要度更新手段52が、ステップS20で纏められたグリッドから成る死角領域を、図10(b)に示す死角一覧のデータベースに、死角ID=「1」として新規登録し、図8の処理を終了する。
Next, in step S24, the monitoring necessity
ロボット目標位置姿勢決定手段54は、上記のようにして更新された死角一覧のデータベースに基づいて、移動ロボット20の目標位置及び姿勢を決定する。具体的には、移動ロボット20の目標位置及び姿勢を、死角ID=「1」の死角領域を確認できる位置及び姿勢に決定する。そして、移動指示手段56は、ロボット目標位置姿勢決定手段54により決定された位置及び姿勢となるように、自律移動手段34を制御して移動ロボット20の位置・姿勢を変更する。ここで、監視必要度更新手段52は、移動ロボット20の移動状況を、位置姿勢検出手段22による検出結果や自律移動手段34の動作状況を検出することで、移動ロボット20が目標位置に到達できたか否かを判定する。この判定の結果、所定時間内に目標位置に到達できなかったような場合には、監視必要度更新手段52は、通報手段58(図2参照)を介して、空間100の監視をする監視員や警備員に対して警告を発することができる。なお、ここでは、説明の便宜上、18時37分10秒の段階では、移動ロボット20は死角ID=1の死角領域を監視できていないものとする。
The robot target position / posture determination means 54 determines the target position and posture of the
(18時37分10秒)
18時37分10秒においては、ステップS10においてカメラ映像取得手段44が監視カメラ10A〜10Dからの映像を取得した後、ステップS12において、遮蔽物抽出手段46が、遮蔽物があったか否かを判断する。この段階では、図6(b)に示すように、人H1に加えて、人H2も空間100内に侵入してきているため、ここでの判断は肯定されて、ステップS14に移行する。
(18:37:10)
At 18:37:10, after the camera
ステップS14では、遮蔽物位置推定手段48が、遮蔽物の位置を推定する。ここでは、遮蔽物の位置が、図6(b)にハッチングを付して示すグリッド座標(4,1)、(4,2)、(5,1)、(5,2)、(10,9)、(10,10)、(10,11)、(11,10)、(11,11)と推定される。次いで、ステップS16では、死角算出手段50が、遮蔽物の位置から死角の位置を算出する。ここでは、死角の位置が、図6(b)にダブルハッチングを付して示すグリッド座標(6,0)、(6,1)、(6,2)、(7,0)、(7,1)、(7,2)、(7,9)、(7,10)、(7,11)、(8,0)、(8,1)、(8,2)、(8,9)、(8,10)、(8,11)、(9,9)、(9,10)、(9,11)と算出される。 In step S14, the shielding object position estimating means 48 estimates the position of the shielding object. Here, the positions of the shielding objects are indicated by hatching grid coordinates (4, 1), (4, 2), (5, 1), (5, 2), (10, 9), (10, 10), (10, 11), (11, 10), and (11, 11). Next, in step S16, the blind spot calculating means 50 calculates the position of the blind spot from the position of the shield. Here, the positions of the blind spots are indicated by grid coordinates (6, 0), (6, 1), (6, 2), (7, 0), (7, 0) indicated by double hatching in FIG. 1), (7, 2), (7, 9), (7, 10), (7, 11), (8, 0), (8, 1), (8, 2), (8, 9) , (8, 10), (8, 11), (9, 9), (9, 10), (9, 11).
次いで、ステップS18では、監視必要度更新手段52が、ステップS14、S16の結果に基づいて、グリッド一覧のデータベースを更新する。具体的には、図11に示すようにグリッド一覧のデータベースが更新される。ここでは、図11においてハッチングを付した部分が、新たにグリッド一覧のデータベースに追加されたことになる。
Next, in step S18, the monitoring
次いで、ステップS20では、監視必要度更新手段52が、死角領域のグリッドを連続するグリッドごとに纏める。このステップS20での処理の結果、図12(a)に示すように、暫定死角一覧のデータベースとして、ID「1’」と「2’」が集計される。この場合、ID「1’」には、グリッドIDが91,92,93,106,107,108,121,122,123のグリッドが含まれ、ID「2’」には、グリッドIDが115,116,117,130,131,132,145,146,147のグリッドが含まれる。
Subsequently, in step S20, the monitoring necessity degree update means 52 collects the blind spot area grids for each continuous grid. As a result of the processing in step S20, as shown in FIG. 12A, IDs “1 ′” and “2 ′” are tabulated as a temporary blind spot list database. In this case, the ID “1 ′” includes grids with
次いで、ステップS22では、監視必要度更新手段52が、直前の死角領域を1つ選択する。ここでは、図10(b)に示す死角ID=「1」の死角領域が選択されたものとする。次いで、ステップS24において、監視必要度更新手段52が、死角を選択できたか否かを判断し、ここでの判断が肯定されると、ステップS28に移行する。ステップS28では、監視必要度更新手段52が、選択した領域と最も重複の多い暫定の死角領域を選択する。
Next, in step S22, the monitoring
ここでは、図10(b)の死角ID「1」の死角に含まれるグリッドIDと、図12(a)のID「1’」に含まれるグリッドIDとが、全て一致しているため、本ステップS28では、図12(a)のID「1’」が選択される。 Here, since the grid ID included in the blind spot of the blind spot ID “1” in FIG. 10B and the grid ID included in the ID “1 ′” of FIG. In step S28, the ID “1 ′” in FIG. 12A is selected.
次いで、ステップS30では、前のステップS28において、監視必要度更新手段52が、該当する死角領域を選択できたか否かを判断する。ここでの判断は肯定されるので、ステップS34に移行し、監視必要度更新手段52が、直前の死角領域(死角ID=1)を図12(a)のID「1’」の内容で更新する。なお、上記のように、直前の死角領域を暫定の死角領域の内容で更新するのは、同一の遮蔽物により生じる死角を、連続的に追い続けるためである。
Next, in step S30, it is determined in the previous step S28 whether or not the monitoring
次いで、ステップS36では、監視必要度更新手段52が、全ての直前の死角領域の処理が終了したか否かを判断する。ここでは、全ての直前の死角領域の処理が終了しているので、判断は肯定され、ステップS38に移行する。
Next, in step S36, the monitoring
ステップS38では、暫定死角一覧のデータベースのうち、更新処理がなされていないIDを新規登録する。すなわち、図12(a)に示すID「2’」の死角を、新たな死角(死角ID=2)として登録する。このようにして、死角一覧のデータベースは、図12(b)に示すように更新される。なお、図12(b)の死角ID「2」の死角領域は、重要度が2となっている。これは、図11に示すように、死角ID「2」の死角領域に含まれるグリッドIDのうち、115と130の重要度が1であり、それらの合計が2になるからである。 In step S38, an ID that has not been updated in the provisional blind spot list database is newly registered. That is, the blind spot of ID “2 ′” shown in FIG. 12A is registered as a new blind spot (dead spot ID = 2). In this way, the blind spot list database is updated as shown in FIG. The blind spot area of the blind spot ID “2” in FIG. This is because, as shown in FIG. 11, among the grid IDs included in the blind spot area of the blind spot ID “2”, the importance of 115 and 130 is 1, and the sum of them is 2.
ロボット目標位置姿勢決定手段54は、上記のようにして更新された死角一覧のデータベースに基づいて、移動ロボット20の移動経路を決定する。すなわち、移動ロボット20がどちらの死角を先に確認するかを決定する。ここで、例えば、死角の確認順序を決定するためには、各死角の優先度を算出する。ここで、各死角の優先度Pは、死角の大きさ(死角に含まれるグリッドIDの数)a、死角になってからの時間b、死角に含まれるグリッドを最後に確認してからの時間c、重要度dとすると、次式(1)から算出することができる。
P=a×α+b×β+c×γ+d×δ …(1)
The robot target position / posture determination means 54 determines the movement path of the
P = a × α + b × β + c × γ + d × δ (1)
なお、α、β、γ、δは、重み付け係数である。したがって、a〜dのうち、重視したい項目に関しては、積算する重み付け係数を大きくすれば良く、また、然程重視しない項目に関しては、積算する重み付け係数を小さくすれば良い。また、考慮する必要のない項目がある場合には、積算する重み付け係数を0にすれば良い。 Α, β, γ, and δ are weighting coefficients. Therefore, among the items a to d, the weighting coefficient to be integrated may be increased for an item to be emphasized, and the weighting coefficient to be integrated may be decreased for an item that is not so important. If there is an item that does not need to be considered, the weighting coefficient to be integrated may be set to zero.
ロボット目標位置姿勢決定手段54は、上記式(1)に基づいて、優先度Pを算出した結果、優先度Pが大きい方から監視をするように移動ロボット20の移動経路を決定する。そして、移動指示手段56は、ロボット目標位置姿勢決定手段54により決定された位置及び姿勢となるように、自律移動手段34を制御して移動ロボット20の位置・姿勢を変更する。なお、本第1の実施形態では、移動ロボット20は、死角ID=1の死角を18時37分50秒に監視し、死角ID=2の死角を18時37分20秒に監視したものとする。
The robot target position / orientation determination means 54 determines the movement path of the
(18時39分10秒)
18時39分10秒においても、これまでと同様、ステップS10がカメラ映像取得手段44により実行された後、ステップS12において、遮蔽物抽出手段46が、遮蔽物があったか否かを判断する。この段階では、図7に示すように、遮蔽物として人H1が存在しているため、ここでの判断は肯定されて、ステップS14に移行する。
(18:39:10)
Even at 18:39:10, after step S10 is executed by the camera
ステップS14では、遮蔽物位置推定手段48が、遮蔽物の位置を推定する。ここでは、遮蔽物の位置が、図7にハッチングを付して示すグリッド座標(4,2)、(4,3)、(5,2)、(5,3)、と推定される。次いで、ステップS16では、死角算出手段50が、遮蔽物の位置から死角領域の位置を算出する。ここでは、死角領域の位置が、図7にダブルハッチングを付して示すグリッド座標(6,2)、(6,3)、(6,4)、(7,2)、(7,3)、(7,4)、(8,2)、(8,3)、(8,4)と算出されたものとする。 In step S14, the shielding object position estimating means 48 estimates the position of the shielding object. Here, the position of the shielding object is estimated as grid coordinates (4, 2), (4, 3), (5, 2), (5, 3) indicated by hatching in FIG. Next, in step S16, the blind spot calculating means 50 calculates the position of the blind spot area from the position of the shield. Here, the position of the blind spot area is indicated by grid coordinates (6, 2), (6, 3), (6, 4), (7, 2), (7, 3) indicated by double hatching in FIG. , (7, 4), (8, 2), (8, 3), and (8, 4).
次いで、ステップS18では、監視必要度更新手段52が、ステップS14、S16の結果に基づいて、グリッド一覧のデータベースを更新する。具体的には、図13に示すようにグリッド一覧のデータベースが更新される。
Next, in step S18, the monitoring
次いで、ステップS20では、監視必要度更新手段52が、死角領域のグリッドを連続するグリッドごとに纏めて、暫定の死角一覧データベースに記録する。このステップS20での処理の結果、図14(a)に示すように暫定の死角一覧データベースに、ID「1’」が記録される。この場合、ID「1’」には、グリッドID93,94,95,108,109,110,123,124,125のグリッドが含まれることになる。
Next, in step S20, the monitoring
次いで、ステップS22では、監視必要度更新手段52が、直前の死角領域を1つ選択する。ここでは、図12(b)に示す死角IDが「1」の死角領域が選択されたものとする。次いで、ステップS24において、監視必要度更新手段52が、死角領域を選択できたか否かを判断し、ここでの判断が肯定されると、ステップS28に移行する。ステップS28では、監視必要度更新手段52が、選択した領域と最も重複の多い暫定の死角領域を選択する。
Next, in step S22, the monitoring
この場合、図12(b)の死角ID=1の死角と、図14(a)のID=「1’」の死角とが、グリッドIDの一部(図14に下線を付して示すグリッドID)において一致している。したがって、ステップS28では、図14(a)のID=「1」の死角が選択されることとなる。 In this case, the blind spot with the blind spot ID = 1 in FIG. 12B and the blind spot with the ID = “1 ′” in FIG. 14A are part of the grid ID (the grid shown with an underline in FIG. 14). ID). Accordingly, in step S28, the blind spot with ID = “1” in FIG. 14A is selected.
次いで、ステップS30では、前のステップS28において、監視必要度更新手段52が、該当する死角領域が選択されたか否かを判断する。ここでの判断が肯定されると、ステップS34に移行し、監視必要度更新手段52は、直前の死角領域(図12(b)の死角ID「1」)を新たな内容(図14(a)のID「1’」)で更新する。次いで、ステップS36では、監視必要度更新手段52が、直前の死角領域の全てについての処理が終了したか否かを判断する。ここでは、図12(b)の死角ID「2」の死角領域に関する処理が残っているので、判断は否定され、ステップS22に移行する。
Next, in step S30, in the previous step S28, the monitoring necessity
ステップS22では、監視必要度更新手段52が、直前の死角領域を1つ選択する。ここでは、図12(b)に示す死角ID=2の死角が選択されたものとする。次いで、ステップS24において、監視必要度更新手段52が、死角を選択できたか否かを判断し、ここでの判断が肯定されると、ステップS28に移行する。ステップS28では、監視必要度更新手段52が、選択した領域と最も重複の多い死角領域を選択する。ただし、この段階では、死角ID「2」の死角領域とグリッドが重複するものが図14(a)のデータベースには存在していないので、ここでの選択は行われない。
In step S22, the monitoring
次いで、ステップS30では、監視必要度更新手段52が、該当する死角領域があったか否かを判断する。ここでの判断は否定されるため、ステップS32に移行する。ステップS32では、監視必要度更新手段52が、図14(b)に示すように、死角ID=2の死角を削除してステップS36に移行する。ステップS36では、監視必要度更新手段52が、全ての直前の死角領域の処理が終了したかを判断し、ここでの判断が肯定されると、ステップS38に移行する。そして、ステップS38では、監視必要度更新手段52が、更新処理がされなかった暫定の死角領域を新規登録するが、ここでは更新処理がされなかった暫定の死角領域が存在しないので、そのまま、図8の全処理を終了する。
Next, in step S30, the monitoring
ロボット目標位置姿勢決定手段54は、上記のようにして更新された死角一覧のデータベースに基づいて、移動ロボット20の目標位置及び姿勢を、死角ID=1の死角を確認できる位置及び姿勢に決定する。そして、移動指示手段56は、ロボット目標位置姿勢決定手段54により決定された位置及び姿勢となるように、自律移動手段34を制御して移動ロボット20の位置・姿勢を変更する。
The robot target position / posture determination means 54 determines the target position and posture of the
以上、詳細に説明したように、本実施形態によると、遮蔽物抽出手段46が、監視カメラ10A〜10Dから取得された映像から遮蔽物を抽出し、遮蔽物位置推定手段が、当該遮蔽物の位置を推定する。そして、死角算出手段50は、推定された遮蔽物の位置から監視カメラ10A〜10Dの死角の位置を算出し、その死角の位置に基づいて、ロボット目標位置姿勢決定手段54及び移動指示手段56が、移動ロボット20の位置姿勢を制御するので、監視カメラ10A〜10Dにより撮影された映像から死角の位置を的確に算出したうえで、移動ロボット20を死角に向けて移動させたり姿勢を変更させたりすることができる。これにより、移動ロボット20が撮影機能を有している場合には、監視カメラで監視することができない死角領域の撮影を行うことが可能である。すなわち、本実施形態によると、人などの動的な遮蔽物により生じる死角の監視効率を向上することが可能である。
As described above in detail, according to the present embodiment, the shielding
より具体的には、移動指示手段56は、移動ロボット20が保持するカメラ(映像取得手段24)が監視カメラ10A〜10Dの死角を撮影するように、移動ロボット20の位置姿勢を制御するので、監視カメラのみでは観察ができない死角や、動的な遮蔽物により生じる死角を、移動ロボット20が撮影することができる。これにより、監視員や警備員などが死角となっている場所を直接見に行く必要が無いので、監視員等の手間が省け、かつ、監視員等が不審者に襲われるなどの安全上のリスクを低減することができる。
More specifically, the
また、本実施形態によると、移動指示手段56が自律移動手段34を介して移動ロボット20の位置姿勢を制御しても、死角の撮影が不可能な場合に、通報手段58がその旨を監視員や警備員などのユーザに通報する。これにより、監視員等は、死角を直接的に確認すべき状況であるか否かを容易に判断することができる。
Further, according to the present embodiment, even when the movement instructing means 56 controls the position and orientation of the
また、本実施形態によると、ロボット目標位置姿勢決定手段54は、死角が複数存在する場合に、死角の優先度Pに基づいて、移動ロボット20の位置姿勢を制御する。したがって、死角が複数ある場合でも、その優先度に応じた適切な順序で死角の監視を行うことができる。この場合、死角の大きさを考慮して優先度Pを決定することで、多人数が集まっており、犯罪などの生じる可能性が比較的高い死角を優先的に監視することができる。また、死角である期間を考慮して優先度Pを決定することで、死角である期間が長く、犯罪などが生じている可能性が比較的高くなっている死角を優先的に監視することができる。更に、場所固有の重要度に基づいて優先度Pを決定することで、重要物200の近傍など、比較的犯罪が起こりやすい死角を優先的に監視することができる。
Further, according to the present embodiment, the robot target position / posture determination means 54 controls the position / posture of the
なお、上記実施形態では、優先度Pを算出する際に、死角になる直前の状況を考慮することもできる。例えば、死角になる前に人が存在していて、その後に死角になった場所は、死角になる前に人が存在していなかった場所よりも犯罪の可能性が高い。したがって、例えば、直前の状態が「遮蔽物」であった場合に優先度Pが高くなるように、上式(1)を変更すれば良い。 In the above embodiment, when the priority P is calculated, the situation immediately before the blind spot is taken into consideration can also be considered. For example, a place where a person exists before becoming a blind spot and a place where the person becomes a blind spot after that has a higher possibility of a crime than a place where a person did not exist before becoming a blind spot. Therefore, for example, the above equation (1) may be changed so that the priority P becomes higher when the previous state is “shielding object”.
なお、上記実施形態では、通報手段58とともに、またはこれに代えて、図15に示すように、監視必要度更新手段52に表示手段としてのディスプレイ60を接続することもできる。ディスプレイ60には、監視必要度更新手段52が決定した死角の監視順序を表示することとしても良い。この場合、監視員や警備員などは、ディスプレイ60上で監視順序を確認することができる。また、監視順序とともに、またはこれに代えて、遮蔽物(人)の位置及び死角の位置の少なくとも一方を、ディスプレイ60上に表示することとしても良い。この場合にも、監視員などの利便性を向上することが可能である。
In the above-described embodiment, a
なお、上記実施形態では、図15に示すように、監視必要度更新手段52に、変更受付手段としての入力インタフェース62を接続できるようにしても良い。この入力インタフェース62は、監視員等が死角の監視順序を変更するためのものである。この場合、単純に、監視順序そのものを変更できるようにしても良い。あるいは、優先度を決定するための少なくとも1つの項目、例えば重要度の項目のみを監視員等が変更できるようにしても良い。後者の場合、変更された項目を用いて、ロボット目標位置姿勢決定手段54が優先度Pを再度算出し、その算出結果に基づいて監視順序を再設定するようにする。また、監視員が見たい位置が指定された場合には、死角領域の位置にかかわらず、移動ロボット20を当該見たい位置に強制的に移動させるようにしても良い。このようにすることで、監視員などの意思を反映した移動ロボット20による適切な監視を実現することが可能である。
In the above embodiment, as shown in FIG. 15, an
なお、上記実施形態では、死角一覧のデータベースの重要度を、同一の死角IDに含まれるグリッドの重要度の合計値とする場合について説明したが、これに限られるものではない。死角一覧のデータベースの重要度は、例えば、同一の死角IDに含まれるグリッドの重要度のうち最も大きい値であっても良い。 In the above embodiment, the case where the importance level of the blind spot list database is set to the total value of the importance levels of the grids included in the same blind spot ID is described, but the present invention is not limited to this. The importance of the blind spot list database may be, for example, the highest value among the importance of the grids included in the same blind spot ID.
なお、上記実施形態では、グリッドIDのデータベースを30秒ごとに更新する場合について説明したが、これに限らず、更新の間隔をその他の間隔(例えば、数秒間隔)としても良い。この場合、更新の間隔を短くすればするほど、監視性能が向上することとなる。 In the above-described embodiment, the case where the grid ID database is updated every 30 seconds has been described. However, the present invention is not limited to this, and the update interval may be set to other intervals (for example, intervals of several seconds). In this case, the shorter the update interval, the better the monitoring performance.
また、上記実施形態では、説明の便宜上、人の後方の9つのグリッドが死角になる場合について、説明したが、これに限られるものではない。実際には、人の後方の全てのグリッドが死角になる場合もあるので、実際のカメラの配置、撮影角度などを考慮して、実際の死角をカバーするように死角のグリッドを決定することが好ましい。 Moreover, although the said embodiment demonstrated the case where nine grids behind a person became a blind spot for convenience of explanation, it was not restricted to this. Actually, all the grids behind the person may become blind spots, so it is possible to determine the blind spot grid to cover the actual blind spots in consideration of the actual camera placement, shooting angle, etc. preferable.
≪第2の実施形態≫
以下、監視システムの第2の実施形態について、図16に基づいて説明する。
<< Second Embodiment >>
Hereinafter, a second embodiment of the monitoring system will be described with reference to FIG.
本第2の実施形態では、移動ロボット20が、図2に示す各手段に加えて、図15に示すように、人識別手段28と、インタラクション手段30と、不審度算出手段32と、を更に備えている。なお、その他の構成については、第1の実施形態と同様であるので、それらの説明は省略するものとする。
In the second embodiment, the
人識別手段28は、映像取得手段24において取得された映像から、人物の存在の有無を識別するものである。インタラクション手段30は、音声を発したり画像を表示したりすることで、周囲の人物と対話するものである。不審度算出手段32は、人識別手段28により識別された人物の不審度を算出するものである。不審度算出手段32は、例えば、人物の行動パターンとその不審度とを対応付けたデータベースや、人物の容貌とその不審度とを対応付けたデータベースなどを保持しており、それらのデータベースに基づいて、人物の不審度を算出する。
The person identification means 28 is for identifying the presence or absence of a person from the video acquired by the video acquisition means 24. The interaction means 30 interacts with surrounding people by producing a sound or displaying an image. The suspicious degree calculating means 32 calculates the suspicious degree of the person identified by the
本第2の実施形態では、第1の実施形態と同様の方法により、グリッド一覧のデータベースを更新する。一方、監視必要度更新手段52が死角一覧のデータベースを更新する際には、不審度算出手段32による算出結果をも考慮する。具体的には、人識別手段28が映像取得手段24の映像に基づいて識別した人について、不審度算出手段32が不審度を算出して、当該算出結果を優先度Pの算出に用いることとする。このようにすることで、不審人物の近傍の監視を重点的に行うようにすることができる。
In the second embodiment, the grid list database is updated by the same method as in the first embodiment. On the other hand, when the monitoring necessity
一方、インタラクション手段30は、人識別手段28により識別された人が邪魔で死角を監視できない場合に、画像や音声などを用いて、別の場所に移動するよう、人に対して指示を出す。このようにすることで、死角の確認を円滑に行うことができるようになる。 On the other hand, when the person identified by the person identification means 28 is in the way and cannot monitor the blind spot, the interaction means 30 instructs the person to move to another place using an image or sound. By doing so, the blind spot can be confirmed smoothly.
以上説明したように、本第2の実施形態によると、第1の実施形態と同様の効果を奏するのに加え、人の不審度を優先度Pの算出に反映させることで、移動ロボット20による監視を適切に行うことができる。また、インタラクション手段30により、人と対話をすることができるので、死角の確認の際に人に移動してもらうことなどができる。これにより、死角の確認を円滑に行うことが可能となる。
As described above, according to the second embodiment, in addition to the same effects as those of the first embodiment, the
なお、上記第2の実施形態では、移動ロボット20が不審度算出手段32及びインタラクション手段30の両方を具備している場合について説明したが、これに限られるものではない。移動ロボット20は、上記2つの手段のうちのいずれか一方を具備していても良い。
In the second embodiment, the case where the
なお、上記各実施形態では、移動ロボット20が撮影機能(映像取得手段24)を有している場合について説明したが、これに限られるものではない。移動ロボット20は、死角領域が長時間一箇所に存在し続けないように人とコミュニケーションをとる、すなわち、人に移動してもらうのみでも良い。このような場合でも、監視カメラ10A〜10Dが死角の撮影を行うことが可能となるので、死角の監視効率を向上することが可能となる。
In each of the above-described embodiments, the case where the
上述した各実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 Each embodiment mentioned above is an example of suitable implementation of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10A〜10D 監視カメラ(固定カメラ)
20 移動ロボット(移動体)
40 制御装置(監視制御装置)
46 遮蔽物抽出手段
48 遮蔽物位置推定手段
50 死角算出手段
52 監視必要度更新手段(移動体制御手段の一部)
54 ロボット目標位置姿勢決定手段(移動体制御手段の一部)
56 移動指示手段(移動体制御手段の一部)
58 通報手段
60 ディスプレイ(表示手段)
62 入力インタフェース(変更受付手段)
H1、H2 人(遮蔽物)
10A-10D surveillance camera (fixed camera)
20 Mobile robot (moving body)
40 Control device (monitoring control device)
46 shielding object extraction means 48 shielding object position estimation means 50 blind spot calculation means 52 monitoring necessity degree updating means (part of moving body control means)
54 Robot target position and orientation determining means (part of moving body control means)
56 Movement instruction means (part of moving body control means)
58 Notification means 60 Display (display means)
62 Input interface (change acceptance means)
H1, H2 people (shield)
Claims (10)
前記固定カメラが設けられた空間を等間隔に分割した複数の管理単位のいずれに、前記遮蔽物抽出手段により抽出された遮蔽物が位置するかを推定する遮蔽物位置推定手段と、
前記遮蔽物位置推定手段の推定結果に基づいて、前記固定カメラの死角の位置に対応する管理単位を算出する死角算出手段と、
前記死角算出手段により算出された前記固定カメラの死角の位置に対応する管理単位に基づいて、移動体の位置姿勢を制御する移動体制御手段と、を備える監視制御装置。 Shielding object extracting means for extracting a shielding object from an image acquired from a fixed camera;
To any of the plurality of management units obtained by dividing the space in which the fixed camera is provided at regular intervals, and shield position estimating means for shielding extracted by the obstacle extracting unit estimates whether the position,
A blind spot calculating means for calculating a management unit corresponding to the position of the blind spot of the fixed camera based on the estimation result of the shielding object position estimating means;
A monitoring control apparatus comprising: moving body control means for controlling a position and orientation of a moving body based on a management unit corresponding to the position of the blind spot of the fixed camera calculated by the blind spot calculation means.
前記移動体制御手段は、前記変更後の優先度に基づいて、前記移動体の位置姿勢を制御することを特徴とする請求項5又は6に記載の監視制御装置。 A change accepting means for accepting a change in the priority of the blind spot by the user;
The moving body control means, based on the priority after change, monitoring and control device according to claim 5 or 6, characterized in that to control the position and orientation of the movable body.
移動可能とされた移動体と、
前記固定カメラから取得された映像に基づいて、前記移動体の位置姿勢を制御する請求項1〜8のいずれか一項に記載の監視制御装置と、を備える監視システム。 A fixed camera that captures video,
A mobile object that is movable,
A monitoring system comprising: the monitoring control device according to any one of claims 1 to 8 that controls a position and orientation of the moving body based on an image acquired from the fixed camera.
自己が有するカメラの映像から人を抽出する人抽出手段と、
前記人抽出手段により抽出された人が邪魔となり前記死角の撮影が不可能な場合に、当該人に対してその旨報知する報知手段と、を有することを特徴とする請求項9に記載の監視システム。 The moving body is
A person extracting means for extracting a person from the video of the camera possessed by the self;
The monitoring device according to claim 9 , further comprising notification means for notifying the person when the person extracted by the person extraction means is in the way and cannot capture the blind spot. system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198025A JP5418072B2 (en) | 2009-08-28 | 2009-08-28 | Monitoring control device and monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198025A JP5418072B2 (en) | 2009-08-28 | 2009-08-28 | Monitoring control device and monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011048736A JP2011048736A (en) | 2011-03-10 |
JP5418072B2 true JP5418072B2 (en) | 2014-02-19 |
Family
ID=43834958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009198025A Expired - Fee Related JP5418072B2 (en) | 2009-08-28 | 2009-08-28 | Monitoring control device and monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5418072B2 (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5715775B2 (en) * | 2010-06-30 | 2015-05-13 | 株式会社日立国際電気 | Image monitoring system and image monitoring method |
JP6172958B2 (en) * | 2013-02-04 | 2017-08-02 | セコム株式会社 | Shooting system |
JP2014175706A (en) * | 2013-03-06 | 2014-09-22 | Sumitomo Electric Ind Ltd | Monitor device, monitor method, and imaging unit arrangement method |
WO2016147704A1 (en) * | 2015-03-18 | 2016-09-22 | 日本電気株式会社 | Monitoring device, monitoring system, monitoring method, and computer-readable recording medium |
JP6599143B2 (en) * | 2015-06-30 | 2019-10-30 | セコム株式会社 | Autonomous mobile robot |
JP6645701B2 (en) * | 2016-06-14 | 2020-02-14 | 三菱電機株式会社 | Damage location identification system |
US20190369618A1 (en) * | 2016-11-18 | 2019-12-05 | Nec Corporation | Control system, control method, and program recording medium |
JP6575493B2 (en) * | 2016-11-30 | 2019-09-18 | 株式会社豊田中央研究所 | Control device, distributed control program for moving body |
JP2018142907A (en) * | 2017-02-28 | 2018-09-13 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, control method and program of information processing apparatus |
WO2018173183A1 (en) * | 2017-03-23 | 2018-09-27 | 三菱電機株式会社 | Optical device control apparatus, optical device control method, and optical device control program |
JP6805989B2 (en) * | 2017-07-10 | 2020-12-23 | 株式会社豊田中央研究所 | Coverage device, mobile, control device, distributed control program for mobile |
JP2019053426A (en) * | 2017-09-13 | 2019-04-04 | 富士ゼロックス株式会社 | Information processing device and program |
JP6989395B2 (en) * | 2018-01-10 | 2022-01-05 | パナソニック株式会社 | Interaction devices, interaction methods, interaction programs and robots |
WO2019171491A1 (en) * | 2018-03-07 | 2019-09-12 | 日本電気株式会社 | Mobile body control device, mobile body, mobile body control system, mobile body control method, and recording medium |
WO2020145255A1 (en) | 2019-01-11 | 2020-07-16 | 日本電気株式会社 | Monitoring device, monitoring method, and recording medium |
JP7365660B2 (en) * | 2019-02-14 | 2023-10-20 | パナソニックIpマネジメント株式会社 | Vehicle dispatch control device and monitoring system |
KR102677452B1 (en) * | 2022-04-25 | 2024-06-24 | 재단법인대구경북과학기술원 | Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59107898A (en) * | 1982-12-06 | 1984-06-22 | ヤマハ株式会社 | Method of monitoring work of robot, etc. |
JP2001300876A (en) * | 2000-04-20 | 2001-10-30 | Yamatake Corp | Service robot and serving system using the same |
JP4469148B2 (en) * | 2003-08-06 | 2010-05-26 | パナソニック株式会社 | Surveillance system, fixed camera, moving camera, and photographing method |
CN101867785B (en) * | 2004-02-03 | 2012-07-25 | 松下电器产业株式会社 | Monitoring system and camera terminal |
JP4827101B2 (en) * | 2007-04-17 | 2011-11-30 | 富士フイルム株式会社 | Control device, control method, imaging system, imaging method, and program |
-
2009
- 2009-08-28 JP JP2009198025A patent/JP5418072B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011048736A (en) | 2011-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5418072B2 (en) | Monitoring control device and monitoring system | |
JP5891061B2 (en) | Video monitoring apparatus, monitoring system, and monitoring system construction method | |
KR101788269B1 (en) | Method and apparatus for sensing innormal situation | |
KR102164863B1 (en) | Information processing apparatus, method thereof, and computer readable storage medium | |
JP6631619B2 (en) | Video monitoring system and video monitoring method | |
TWI623885B (en) | Modification of at least one parameter used by a video processing algorithm for monitoring of a scene | |
JP5790761B2 (en) | Distributed image processing system | |
CN101379825B (en) | Automatic tracking device and automatic tracking method | |
EP2885777B1 (en) | Surveillance system | |
KR101019384B1 (en) | Unmanned Surveillance Device and Method Using All-Around Camera and Pan / Tilt / Zoom Camera | |
CN112703533A (en) | Object tracking | |
US10645311B2 (en) | System and method for automated camera guard tour operation | |
US20040061781A1 (en) | Method of digital video surveillance utilizing threshold detection and coordinate tracking | |
KR20130039844A (en) | Intelligent camera appartus and intelligent surveillance metod using the same | |
JP6233721B2 (en) | Information processing system, information processing method, and program | |
JP2010140425A (en) | Image processing system | |
JP7128577B2 (en) | monitoring device | |
JP4985742B2 (en) | Imaging system, method and program | |
TWI471825B (en) | System and method for managing security of a roof | |
JP6336935B2 (en) | Moving object tracking device | |
JP2020022177A (en) | Video monitoring system and video monitoring method | |
JP6842968B2 (en) | Monitoring system | |
JP4250172B2 (en) | Object detection method and object detection apparatus | |
JP5712401B2 (en) | Behavior monitoring system, behavior monitoring program, and behavior monitoring method | |
JP6941458B2 (en) | Monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130722 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131022 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131104 |
|
LAPS | Cancellation because of no payment of annual fees |