JP7314974B2 - 映像監視システム、映像監視方法、及びプログラム - Google Patents
映像監視システム、映像監視方法、及びプログラム Download PDFInfo
- Publication number
- JP7314974B2 JP7314974B2 JP2021123073A JP2021123073A JP7314974B2 JP 7314974 B2 JP7314974 B2 JP 7314974B2 JP 2021123073 A JP2021123073 A JP 2021123073A JP 2021123073 A JP2021123073 A JP 2021123073A JP 7314974 B2 JP7314974 B2 JP 7314974B2
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- captured image
- monitored
- state
- monitoring point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Burglar Alarm Systems (AREA)
Description
図1は、実施形態1に係る画像処理装置2000を示すブロック図である。図1において、矢印は情報の流れを表している。さらに、図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
図2は、実施形態1の画像処理装置2000が実行する処理の流れを例示するフローチャートである。ステップS102において、状態取得部2020は、撮像画像に写っている監視対象の状態を取得する。ステップS104において、監視ポイント取得部2040は、監視ポイント情報記憶部3020から、状態取得部2020が取得した監視対象の状態に対応する監視ポイントを取得する。ステップS106において、提示部2060は、提示対象画像上に、監視ポイント取得部2040によって取得された監視ポイントを提示する。
本実施形態の画像処理装置2000によれば、監視対象の状態に対応する監視ポイントを表す表示が、撮像画像上に提示される。そのため画像処理装置2000によれば、監視映像等において、監視対象の状態に応じて監視すべき箇所が適切に提示されるようになる。よって、監視映像等を監視する監視員等は、監視映像等において監視すべき箇所を適切に把握することができるようになる。
画像処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア構成要素(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエア構成要素とソフトウエア構成要素との組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。
画像処理装置2000が扱う監視対象は様々である。例えば画像処理装置2000は、人や物などのオブジェクト、又はこれらオブジェクトの集合(群衆など)などを監視対象として扱う。なお、物を表すオブジェクトには、場所が含まれてもよい。つまり、画像処理装置2000は、撮像画像に写っている場所(領域)を監視対象として扱ってもよい。
状態取得部2020は、監視対象の状態を示す情報(以下、状態情報)を取得する。状態情報は、示されている状態がどの監視対処についてのものであるかを特定できる情報である必要がある。ここで監視対象は、例えば「撮像画像のID、撮像画像上の座標、監視対象の種類」の組み合わせによって表される。この場合、状態情報は、「撮像画像のID、撮像画像上の座標、監視対象の種類、監視対象の状態」という組み合わせで構成される。
<<監視ポイントの表し方>>
前述したように、提示部2060は、カメラ3040によって撮像された撮像画像(提示対象画像)上に監視ポイントを提示する。ここで、提示部2060が監視ポイントを提示する方法は様々である。例えば、提示部2060は、監視ポイントの周囲に枠線等を提示することで監視ポイントを提示する。また例えば、提示部2060は、監視ポイント又はその周辺の色を変更することで、監視ポイントを提示する。なお、「監視ポイント等の色を変更する」という処理には、監視ポイント等の色の明るさやコントラスト等を変更する処理、監視ポイント等の元々の色に別の色をブレンドする処理、監視ポイント等を特定の色で塗りつぶす処理など、様々な処理が含まれる。また提示部2060は、監視ポイントの周囲に枠線等を表示し、その内部の色を変更したり、その枠線や色を変更した領域を点滅させたりしてもよい。
監視ポイント取得部2040によって監視ポイントが複数取得されたとする。この場合、提示部2060は、取得された監視ポイントの全てを提示対象画像上に提示してもよいし、取得された監視ポイントの一部のみを提示してもよい。取得された監視ポイントの一部のみを提示する場合、例えば監視ポイント情報記憶部3020に記憶する監視ポイントに優先度を付しておく。そして、提示部2060は、取得した複数の監視ポイントのうち、優先度が高いものほど優先的に表示する。例えば1つの提示対象画像上に提示できる監視ポイントの上限数を設けておく。そして、提示部2060は、取得された監視ポイントの数が上限数を超えている場合、優先度が高い順に、上限数以下の監視ポイントのみを提示対象画像上に提示する。この上限数は、画像処理装置2000の内部又は外部に設けた記憶部に予め記憶しておく。
ある状態情報に対応する監視ポイントが提示される提示対象画像は、その状態情報の生成に用いられた撮像画像であってもよいし、それ以外の撮像画像であってもよい。前者の場合、例えば提示部2060は、1番目から n 番目の撮像画像を用いて生成された状態情報に対応する監視ポイントを、n 番目の撮像画像上に提示する。また後者の場合、例えば提示部2060は、1番目から n 番目の撮像画像を用いて生成された状態情報に対応する監視ポイントを、n+1 番目の撮像画像上に提示する。
監視ポイントは、監視対象の状態に対応付けて予め定められている。以下、監視対象の状態と監視ポイントとの対応付けを表す具体例を示す。
例えば、撮像画像10に写っている場所の混雑度合いに応じて、監視すべき場所が異なる場合がある。例えば、その場所にほとんど人がいない場合は今後その場所に入ってくる人について注意をすべきであるため、その場所への出入り口(ドアや画像の端部分など)を監視すべきであると考えられる。一方、その場所が混んでいる場合、人が密集している場所や人が通る場所等を監視すべきであると考えられる。特に狭い通路がある場合、そこで群衆の流れが滞りやすいため、そのような狭い通路を監視する必要がある。そこで提示部2060は、撮像画像10に写っている場所の混雑度合いに応じた監視ポイントを提示する。また、同じ混雑度であっても、段差が存在するなど、混雑して足元が見えにくくなると急激に危険性が増す場所もある。そのような場所も、監視ポイントとして提示してもよい。
例えば撮像画像に写っている監視対象の動きによって、監視すべき場所が異なる場合がある。例えば、撮像画像に2つの群衆が写っており、それらが移動するといずれ交差する可能性がある場合、将来それらが交差すると予想される位置を監視することが好ましいと考えられる。そこで提示部2060は、撮像画像に写っている監視対象の動きに応じた監視ポイントを提示する。
撮像画像に写っている群衆が行列を成している場合、その行列の状態によって監視すべき場所が異なると考えられる。例えば、行列の方向があるべき方向(通路やロープに沿った方向など)に延びている場合、行列は正しく整列されているため、行列の途中にはあまり危険がないといえる。このような場合、新たに人が加わる行列の末尾を監視すればよいと考えられる。そこで監視ポイント情報記憶部3020は、「監視対象の状態:行列が整列されている、監視ポイント:行列の末尾」という監視ポイント情報を記憶する。
画像処理装置2000は、異なるカメラ3040によって撮像された複数の撮像画像から得られる情報を用いてもよい。図10は、2つの異なるカメラ3040によって撮像された2つの撮像画像10を示す図である。撮像画像10-1と撮像画像10-2は隣接する場所を撮像した画像であり、撮像画像10-1の下端と撮像画像10-2の上端がつながっている。
上述の通り、監視対象の状態は様々である。そのため、状態情報を生成するためには、監視対象の状態がどの状態に当てはまるかを判別する必要がある。そのために、例えば各状態について、1つ又は複数の撮像画像から得られる監視対象の特徴量(群衆密度や流れ、及びその分布など)を入力とし、その状態に当てはまるか否かを判定するモデルを予め生成しておく。このモデルは、例えば「監視対象の特徴量、監視対象の状態」の組み合わせから成る訓練データを用いて事前に機械学習させることにより生成する。そして、ある状態について生成したモデルに対して撮像画像から得られた群衆の特徴量を入力することで、その撮像画像に写っている監視対象がその状態に当てはまるか否かを判別する。
図11は、実施形態2に係る画像処理装置2000をその使用環境と共に示すブロック図である。図11において、矢印は情報の流れを表している。さらに図11において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
例えば被監視位置は、監視員の視線方向や顔の向き(以下、顔方向)に基づいて特定される。この場合、被監視位置は、監視員の視線方向又は顔方向と表示画面3060との交点及びその周辺となる。ここで、「その周辺」は、交点を中心とする所定形状の領域や所定半径の円形領域などである。また、カメラ3040を予め所定の部分領域に分割しておき、監視員の視線方向等と交わる部分領域を被監視位置としてもよい。なお、上記の所定形状や所定半径を示す情報は、画像処理装置2000の内部又は外部の記憶装置に予め記憶しておく。
被監視位置は、監視員の視線方向や顔方向に基づいて被監視位置を特定する方法と同様の方法で、監視員の手や指が指す方向によって特定されてもよい。
さらに、監視員が触れた表示画面3060上の位置又はその周辺を被監視位置としてもよい。監視員が触れた表示画面3060上の位置は、例えば表示画面3060として監視員が触れた位置を検出できる画面(タッチパネル等)を利用することで特定できる。また監視員が触れた表示画面3060上の位置は、カメラ等で表示画面3060に対する監視員の動きを監視することによっても特定できる。なお、監視員が所定時間以上続けて触れた位置や所定頻度より高い頻度で触れた位置のみを被監視位置とするようにしてもよい。
図13は、実施形態2の画像処理装置2000が実行する処理の流れを例示するフローチャートである。なお、図13のステップS102及びS104はそれぞれ、図2のステップS102及びS104と同様の処理である。そのため、これらの処理についての説明は省略する。
本実施形態によれば、監視ポイントのうち、監視員が監視している位置(被監視位置)又はその周辺に含まれない監視ポイントが、表示画面3060上に表示されるようになる。これにより、監視員が監視していない監視ポイントに枠線等を提示することで監視漏れを防ぎつつ、既に監視員が監視している監視ポイントには枠線等を表示しないことで監視箇所の視認性が低下することを防ぐことができる。
実施形態3に係る画像処理装置2000は、実施形態1又は2に係る画像処理装置2000と同様の構成を有し、下記で説明する点を除き、実施形態1又は2に係る画像処理装置2000と同様の機能を有する。
例えば第2要素は、日付、曜日、又は時間などを表すスケジュール情報である。例えば昼間は安全であるが夜は危険な箇所、平日は安全であるが週末や祝日は危険な箇所などのように、監視すべきか否かがその時々に応じて異なる箇所がある。
例えば第2要素は、天候(天気、気温、湿度、又は風速など)を表す天候情報である。例えば、晴天時には安全な箇所でも、水たまりができやすいため雨天時には注意が必要である場合などがある。
また例えば第2要素は、監視場所又はその周辺等で行われるイベントに関する情報(以下、イベント情報)である。試合が行われるスタジアム等、何らかのイベントが行われる場所を監視する場合、イベントの状態や結果に応じて監視すべき場所が変動しうる。例えば試合が行われるスタジアムの場合、試合に負けたチームの応援席やその応援席から出口に向かう通路等には、苛立っているサポーターなどが多く存在する可能性が高く、監視の必要が高い。
図14は、実施形態3の画像処理装置2000が実行する処理の流れを例示するフローチャートである。なお、図14のステップS102及びS106はそれぞれ、図2のステップS102及びS106と同様の処理である。そのため、これらの処理についての説明は省略する。
本実施形態によれば、監視対象の状態に加え、さらに天候情報等の第2要素を考慮して、監視ポイントが取得される。こうすることで、監視対象の状態のみに基づいて監視ポイントを取得する場合と比較し、よりその時の状況に適した監視ポイントを表す表示を提示できるようになる。結果、監視員は監視している時の状況に応じてより適した監視を行うことができるようになる。
図15は、実施形態4に係る画像処理装置2000を示すブロック図である。図15において、矢印は情報の流れを表している。さらに、図15において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
例えば監視ポイント情報生成部2100は、状態情報と被監視位置とを、取得した順に対応付けていく。具体的には、監視ポイント情報生成部2100は、n 番目に取得した状態情報と n 番目に取得した被監視位置とを対応付けて監視ポイント情報を生成する。この方法は、例えば状態情報及び被監視位置をリアルタイムで順次取得する場合に利用される。
監視ポイント情報生成部2100は、複数の監視員による監視行動に基づいて監視ポイント情報を生成してもよい。この場合、監視ポイント情報生成部2100は、監視ポイント情報生成部2100は、監視ポイントの重要度を決定し、重要度が高い監視ポイントについてのみ監視ポイント情報を生成してもよい。具体的にはまず、監視ポイント情報生成部2100は、「状態取得部2020が取得した監視対象の状態、被監視位置取得部2080によって取得された被監視位置、監視を行った監視員のID」とを対応付けて、監視ポイント情報の候補(以下、候補情報)を生成する。そして、監視ポイント情報生成部2100は、ある「監視対象の状態、被監視位置」の組み合わせを共通して示す候補情報の数が所定数以上である場合に、その組み合わせを監視ポイント情報とする。この場合、候補情報の数、つまりはある被監視位置を監視した監視員の数が、その被監視位置に対応する監視ポイントの重要度となる。
図16は、実施形態4の画像処理装置2000が実行する処理の流れを例示するフローチャートである。ステップS402において、状態取得部2020は、撮像画像に写っている監視対象の状態を取得する。ステップS404において、被監視位置取得部2080は被監視位置を取得する。ステップS406において、監視ポイント情報生成部2100は、被監視位置取得部2080によって取得された被監視位置と、状態取得部2020によって取得された監視対象の状態とを対応付けて監視ポイント情報を生成する
本実施形態によれば、撮像画像における監視対象の状態と、その撮像画像を監視している監視員によって監視されている位置とに基づいて、監視ポイント情報が生成される。つまり、監視員による監視行動が画像処理装置2000によって学習され、その学習結果として監視ポイント情報が生成されるようになる。こうすることで、監視ポイント情報を手動で作成する手間が軽減される。
1. カメラによって撮像された撮像画像に写っている監視対象の状態を取得する状態取得手段と、
監視対象の状態と、前記撮像画像の内の監視すべき位置を表す監視ポイントとを対応付けて記憶する監視ポイント情報記憶手段から、前記状態取得手段が取得した監視対象の状態に対応する前記監視ポイントを取得する監視ポイント取得手段と、
前記カメラによって撮像された第1撮像画像上に、前記監視ポイント取得手段によって取得された監視ポイントを提示する提示手段と、
を有する画像処理装置。
2. 前記撮像画像が表示される表示画面を見ている監視員によって監視されている位置である被監視位置を取得する被監視位置取得手段を有し、
前記提示手段は、前記監視ポイント取得手段が取得した監視ポイントのうち、前記表示画面上における提示位置が、前記被監視位置取得手段が取得した被監視位置又はその周辺の位置でない監視ポイントを、優先的に前記第1撮像画像上に提示する1.に記載の画像処理装置。
3. 前記被監視位置取得手段は、前記監視員の視線方向に対応する前記表示画面上の位置、前記監視員の指又は手が指す方向に対応する前記表示画面上の位置、及び前記監視員が触れた前記表示画面上の位置の内のいずれか一つ以上を前記被監視位置とする2.に記載の画像処理装置。
4. 前記状態取得手段は、監視対象の状態として、群衆の混雑度合いを取得する1.乃至3.いずれか一つに記載の画像処理装置。
5. 前記状態取得手段は、監視対象の状態として、群衆の移動状態を取得する1.乃至4.いずれか一つに記載の画像処理装置。
6. 前記状態取得手段は、監視対象の状態として行列の整列状態を取得する1.乃至5.いずれか一つに記載の画像処理装置。
7. 前記監視ポイント情報記憶手段は、前記監視対象の状態及び前記監視ポイントを、スケジュール情報とさらに対応付けて記憶しており、
前記監視ポイント取得手段は、前記状態取得手段が取得した監視対象の状態と前記撮像画像が撮像された時点に対応するスケジュール情報とに対応する前記監視ポイントを取得する1.乃至6.いずれか一つに記載の画像処理装置。
8. 前記監視ポイント情報記憶手段は、前記監視対象の状態及び前記監視ポイントを、天候情報とさらに対応付けて記憶しており、
前記監視ポイント取得手段は、前記状態取得手段が取得した監視対象の状態と前記撮像画像が撮像された時点の天候を表す天候情報とに対応する前記監視ポイントを取得する1.乃至7.いずれか一つに記載の画像処理装置。
9. 前記監視ポイント情報記憶手段は、前記監視対象の状態及び前記監視ポイントを、前記カメラが設置されている場所で行われるイベントの状態とさらに対応付けて記憶しており、
前記監視ポイント取得手段は、前記状態取得手段が取得した監視対象の状態と前記撮像画像が撮像された時点における前記イベントの状態とに対応する前記監視ポイントを取得する1.乃至8.いずれか一つに記載の画像処理装置。
10. カメラによって撮像された撮像画像に写っている監視対象の状態を取得する状態取得手段と、
前記撮像画像が表示される表示画面を見ている監視員が監視している位置である被監視位置を取得する被監視位置取得手段と、
前記被監視位置を前記撮像画像の内の監視すべき位置を表す監視ポイントとし、その監視ポイントと前記監視対象の状態とを対応付けて監視ポイント情報を生成する監視ポイント情報生成手段と、
を有する画像処理装置。
11. 前記被監視位置取得手段は、複数の監視員について被監視位置を取得し、
前記監視ポイント情報生成手段は、ある被監視位置を監視した監視員の数に応じてその被監視位置に対応する監視ポイントの重要度を決定する10.に記載の画像処理装置。
12. ある監視員について取得した前記被監視位置は、その監視員のスキルの高さに応じて重み付けされており、
前記監視ポイント情報生成手段は、前記被監視位置の重み付き和に基づいて、その被監視位置に対応する監視ポイントの重要度を決定する10.に記載の画像処理装置。
13. 1.乃至9.いずれか一つに記載のカメラ、監視ポイント情報記憶手段、及び画像処理装置を有する監視システム。
14. 10.乃至12.に記載のカメラ及び画像処理装置を有する監視システム。
15. コンピュータによって実行される画像処理方法であって、
カメラによって撮像された撮像画像に写っている監視対象の状態を取得する状態取得ステップと、
監視対象の状態と、前記撮像画像の内の監視すべき位置を表す監視ポイントとを対応付けて記憶する監視ポイント情報記憶手段から、前記状態取得ステップが取得した監視対象の状態に対応する前記監視ポイントを取得する監視ポイント取得ステップと、
前記カメラによって撮像された第1撮像画像上に、前記監視ポイント取得ステップによって取得された監視ポイントを提示する提示ステップと、
を有する画像処理方法。
16. 前記撮像画像が表示される表示画面を見ている監視員によって監視されている位置である被監視位置を取得する被監視位置取得ステップを有し、
前記提示ステップは、前記監視ポイント取得ステップで取得した監視ポイントのうち、前記表示画面上における提示位置が、前記被監視位置取得ステップで取得した被監視位置又はその周辺の位置でない監視ポイントを、優先的に前記第1撮像画像上に提示する15.に記載の画像処理方法。
17. 前記被監視位置取得ステップは、前記監視員の視線方向に対応する前記表示画面上の位置、前記監視員の指又は手が指す方向に対応する前記表示画面上の位置、及び前記監視員が触れた前記表示画面上の位置の内のいずれか一つ以上を前記被監視位置とする16.に記載の画像処理方法。
18. 前記状態取得ステップは、監視対象の状態として、群衆の混雑度合いを取得する15.乃至17.いずれか一つに記載の画像処理方法。
19. 前記状態取得ステップは、監視対象の状態として、群衆の移動状態を取得する15.乃至18.いずれか一つに記載の画像処理方法。
20. 前記状態取得ステップは、監視対象の状態として行列の整列状態を取得する15.乃至19.いずれか一つに記載の画像処理方法。
21. 前記監視ポイント情報記憶手段は、前記監視対象の状態及び前記監視ポイントを、スケジュール情報とさらに対応付けて記憶しており、
前記監視ポイント取得ステップは、前記状態取得ステップで取得した監視対象の状態と前記撮像画像が撮像された時点に対応するスケジュール情報とに対応する前記監視ポイントを取得する15.乃至20.いずれか一つに記載の画像処理方法。
22. 前記監視ポイント情報記憶手段は、前記監視対象の状態及び前記監視ポイントを、天候情報とさらに対応付けて記憶しており、
前記監視ポイント取得ステップは、前記状態取得ステップで取得した監視対象の状態と前記撮像画像が撮像された時点の天候を表す天候情報とに対応する前記監視ポイントを取得する15.乃至21.いずれか一つに記載の画像処理方法。
23. 前記監視ポイント情報記憶手段は、前記監視対象の状態及び前記監視ポイントを、前記カメラが設置されている場所で行われるイベントの状態とさらに対応付けて記憶しており、
前記監視ポイント取得ステップは、前記状態取得ステップで取得した監視対象の状態と前記撮像画像が撮像された時点における前記イベントの状態とに対応する前記監視ポイントを取得する15.乃至22.いずれか一つに記載の画像処理方法。
24. コンピュータによって実行される画像処理方法であって、
カメラによって撮像された撮像画像に写っている監視対象の状態を取得する状態取得ステップと、
前記撮像画像が表示される表示画面を見ている監視員が監視している位置である被監視位置を取得する被監視位置取得ステップと、
前記被監視位置を前記撮像画像の内の監視すべき位置を表す監視ポイントとし、その監視ポイントと前記監視対象の状態とを対応付けて監視ポイント情報を生成する監視ポイント情報生成ステップと、
を有する画像処理方法。
25. 前記被監視位置取得ステップは、複数の監視員について被監視位置を取得し、
前記監視ポイント情報生成ステップは、ある被監視位置を監視した監視員の数に応じてその被監視位置に対応する監視ポイントの重要度を決定する24.に記載の画像処理方法。
26. ある監視員について取得した前記被監視位置は、その監視員のスキルの高さに応じて重み付けされており、
前記監視ポイント情報生成ステップは、前記被監視位置の重み付き和に基づいて、その被監視位置に対応する監視ポイントの重要度を決定する25.に記載の画像処理方法。
27. コンピュータを、1.乃至12.いずれか一つに記載の画像処理装置として動作させるプログラム。
Claims (11)
- 撮像画像において監視員が監視すべき領域を示す監視領域を取得する取得部と、
複数の前記監視領域を示す枠を前記撮像画像に重畳表示し、前記撮像画像に映る群衆の人数が所定人数以上の場合に、前記監視領域のうち少なくとも一つの前記枠の表示位置を、前記群衆の人数に関して予め対応付けられている位置に変化させる表示制御部と、
を備える映像監視システム。 - 前記撮像画像に映る群衆の人数を算出する算出部と、
前記算出した人数と所定の閾値との関係に基づき、前記撮像画像に映る人物群衆の混雑度を判定する判定部と、をさらに備え、
前記表示制御部は、前記判定の結果に基づき、前記監視領域の前記枠の表示位置を変化させる、
請求項1に記載の映像監視システム。 - 前記表示制御部は、前記判定の結果に基づき、前記撮像画像より後に撮像された第2撮像画像上における前記監視領域の前記枠の表示位置を決定する、
請求項2に記載の映像監視システム。 - 前記取得部は、前記混雑度と、前記撮像画像内の監視すべき位置を表す監視領域との対応関係に基づいて、前記群衆の混雑度に対応する前記監視領域を取得する、
請求項2または3に記載の映像監視システム。 - 前記対応関係は、監視している場所の前記混雑度が低い場合は、前記場所への出入り口が前記監視領域であることを示し、前記混雑度が高い場合は、人が密集している場所又は人が通る場所が前記監視領域であることを示す、
請求項4に記載の映像監視システム。 - コンピュータによって実行される映像監視方法であって、
撮像画像において監視員が監視すべき領域を示す監視領域を取得し、
複数の前記監視領域を示す枠を前記撮像画像に重畳表示し、前記撮像画像に映る群衆の人数が所定人数以上の場合に、前記監視領域のうち少なくとも一つの前記枠の表示位置を、前記群衆の人数に関して予め対応付けられている位置に変化させる、
ことを含む映像監視方法。 - 前記撮像画像に映る群衆の人数を算出し、
前記算出した人数と所定の閾値との関係に基づき、前記撮像画像に映る人物群衆の混雑度を判定し、
前記判定の結果に基づき、前記監視領域の前記枠の表示位置を変化させる、
ことを更に含む、請求項6に記載の映像監視方法。 - 前記判定の結果に基づき、前記撮像画像より後に撮像された第2撮像画像上における前記監視領域の前記枠の表示位置を決定する、
ことを更に含む、請求項7に記載の映像監視方法。 - コンピュータを、
撮像画像において監視員が監視すべき領域を示す監視領域を取得する手段、
複数の前記監視領域を示す枠を前記撮像画像に重畳表示し、前記撮像画像に映る群衆の人数が所定人数以上の場合に、前記監視領域のうち少なくとも一つの前記枠の表示位置を、前記群衆の人数に関して予め対応付けられている位置に変化させる手段、
として機能させるためのプログラム。 - 前記コンピュータを、
前記撮像画像に映る群衆の人数を算出する手段、および、
前記算出した人数と所定の閾値との関係に基づき、前記撮像画像に映る人物群衆の混雑度を判定する手段、としてさらに機能させ、
前記枠の表示位置を変化させる手段は、前記判定の結果に基づき、前記監視領域の前記枠の表示位置を変化させる、
請求項9に記載のプログラム。 - 前記枠の表示位置を変化させる手段は、前記判定の結果に基づき、前記撮像画像より後に撮像された第2撮像画像上における前記監視領域の前記枠の表示位置を決定する、
請求項10に記載のプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014152336 | 2014-07-25 | ||
JP2014152336 | 2014-07-25 | ||
JP2019182126A JP6922962B2 (ja) | 2014-07-25 | 2019-10-02 | 画像処理装置、監視システム、画像処理方法、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019182126A Division JP6922962B2 (ja) | 2014-07-25 | 2019-10-02 | 画像処理装置、監視システム、画像処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021182754A JP2021182754A (ja) | 2021-11-25 |
JP2021182754A5 JP2021182754A5 (ja) | 2022-05-10 |
JP7314974B2 true JP7314974B2 (ja) | 2023-07-26 |
Family
ID=55162834
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016535828A Active JP6597611B2 (ja) | 2014-07-25 | 2015-06-01 | 画像処理装置、監視システム、画像処理方法、及びプログラム |
JP2019182126A Active JP6922962B2 (ja) | 2014-07-25 | 2019-10-02 | 画像処理装置、監視システム、画像処理方法、及びプログラム |
JP2021123073A Active JP7314974B2 (ja) | 2014-07-25 | 2021-07-28 | 映像監視システム、映像監視方法、及びプログラム |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016535828A Active JP6597611B2 (ja) | 2014-07-25 | 2015-06-01 | 画像処理装置、監視システム、画像処理方法、及びプログラム |
JP2019182126A Active JP6922962B2 (ja) | 2014-07-25 | 2019-10-02 | 画像処理装置、監視システム、画像処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (5) | US10699130B2 (ja) |
JP (3) | JP6597611B2 (ja) |
AR (1) | AR101276A1 (ja) |
WO (1) | WO2016013298A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875431B2 (en) * | 2013-06-28 | 2018-01-23 | Nec Corporation | Training data generating device, method, and program, and crowd state recognition device, method, and program |
US10699130B2 (en) * | 2014-07-25 | 2020-06-30 | Nec Corporation | Image processing apparatus, monitoring system, image processing method, and program |
WO2017154655A1 (ja) | 2016-03-07 | 2017-09-14 | 日本電気株式会社 | 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体 |
US20190230320A1 (en) * | 2016-07-14 | 2019-07-25 | Mitsubishi Electric Corporation | Crowd monitoring device and crowd monitoring system |
JP6542279B2 (ja) * | 2017-02-24 | 2019-07-10 | セコム株式会社 | 画像監視装置 |
WO2018207476A1 (ja) * | 2017-05-11 | 2018-11-15 | シャープ株式会社 | 画像処理装置、監視カメラ、監視システム、プログラムおよび画像処理方法 |
US10839552B2 (en) * | 2017-06-01 | 2020-11-17 | Nec Corporation | Image processing apparatus, tracking method, and program |
JP6852791B2 (ja) * | 2017-06-30 | 2021-03-31 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
JP6664420B2 (ja) * | 2017-09-27 | 2020-03-13 | ソフトバンク株式会社 | 監視システム |
JP7081659B2 (ja) * | 2018-03-27 | 2022-06-07 | 日本電気株式会社 | 情報処理装置、データ生成方法、及びプログラム |
US11164335B2 (en) * | 2018-11-06 | 2021-11-02 | International Business Machines Corporation | Passenger travel route inferencing in a subway system |
CN109922311B (zh) * | 2019-02-12 | 2022-01-28 | 平安科技(深圳)有限公司 | 基于音视频联动的监控方法、装置、终端及存储介质 |
EP3742412A1 (en) * | 2019-05-24 | 2020-11-25 | IMEC vzw | A computer-implemented method for estimating movements of a crowd between areas |
AU2019100806A4 (en) * | 2019-07-24 | 2019-08-29 | Dynamic Crowd Measurement Pty Ltd | Real-Time Crowd Measurement And Management Systems And Methods Thereof |
JP7521772B2 (ja) | 2020-03-17 | 2024-07-24 | i-PRO株式会社 | 監視カメラ、画像符号化方法、移動先予測枠表示方法およびプログラム |
KR102616921B1 (ko) | 2022-12-27 | 2023-12-27 | 주식회사 베스트디지탈 | Ai를 기반으로 하는 위험 상황 예측 방법 및 그 시스템 |
CN116527874A (zh) * | 2023-05-19 | 2023-08-01 | 中国卫星海上测控部 | 一种多设备的异常状态监视方法 |
CN117156259B (zh) * | 2023-10-30 | 2024-03-22 | 海信集团控股股份有限公司 | 一种视频流获取方法及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004178358A (ja) | 2002-11-28 | 2004-06-24 | Meidensha Corp | イベント警備監視方法及びイベント警備監視装置 |
JP2010237971A (ja) | 2009-03-31 | 2010-10-21 | Saxa Inc | 歩きたばこ監視装置 |
JP2010277547A (ja) | 2009-06-01 | 2010-12-09 | Chuo Electronics Co Ltd | 混雑状況検出装置、方法、およびプログラム |
JP2013003964A (ja) | 2011-06-20 | 2013-01-07 | Toshiba Corp | 顔画像検索システム、及び顔画像検索方法 |
WO2013057904A1 (ja) | 2011-10-19 | 2013-04-25 | パナソニック株式会社 | 蝟集判定装置及び蝟集判定方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2987353B2 (ja) * | 1997-11-26 | 1999-12-06 | 日本ソフト開発株式会社 | 映像監視方法 |
JP3824454B2 (ja) | 1999-08-10 | 2006-09-20 | セコム株式会社 | 画像監視システム |
US9892606B2 (en) * | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
JP2002238046A (ja) * | 2001-02-08 | 2002-08-23 | Toshiba Corp | 駅務遠隔監視システム及びその監視方法並びにそれで用いるプログラム |
JP3910626B2 (ja) * | 2003-10-21 | 2007-04-25 | 松下電器産業株式会社 | 監視装置 |
WO2005039181A1 (ja) * | 2003-10-21 | 2005-04-28 | Matsushita Electric Industrial Co., Ltd. | 監視装置 |
KR100652643B1 (ko) * | 2004-07-20 | 2006-12-06 | 엘지전자 주식회사 | 절첩식 플러그를 구비한 어댑터 |
ES2460866T3 (es) | 2004-11-02 | 2014-05-14 | Tyco Fire & Security Gmbh | Sistema y método de control de fila |
JP4947993B2 (ja) * | 2006-02-21 | 2012-06-06 | 綜合警備保障株式会社 | 監視システム及び監視方法 |
WO2008040488A1 (en) * | 2006-10-04 | 2008-04-10 | M & P Patent Aktiengesellschaft | Controlled release delivery system for nasal application of neurotransmitters |
US9516460B2 (en) | 2008-03-28 | 2016-12-06 | Securitypoint Holdings Llc | Systems and methods for security checkpoint condition information and sharing |
JP5193952B2 (ja) | 2009-06-01 | 2013-05-08 | 日本電信電話株式会社 | 文書検索装置および文書検索プログラム |
JP2011097487A (ja) * | 2009-11-02 | 2011-05-12 | Hitachi Kokusai Electric Inc | 画像監視装置 |
US20120063367A1 (en) | 2009-12-22 | 2012-03-15 | Waldeck Technology, Llc | Crowd and profile based communication addresses |
JP5400718B2 (ja) | 2010-07-12 | 2014-01-29 | 株式会社日立国際電気 | 監視システムおよび監視方法 |
JP2012069022A (ja) | 2010-09-27 | 2012-04-05 | Hitachi Ltd | 監視システム |
EP2709064B1 (en) * | 2012-07-18 | 2019-06-26 | AGT International GmbH | Image processing to derive movement characteristics for a plurality of queue objects |
US10699130B2 (en) * | 2014-07-25 | 2020-06-30 | Nec Corporation | Image processing apparatus, monitoring system, image processing method, and program |
-
2015
- 2015-06-01 US US15/328,666 patent/US10699130B2/en active Active
- 2015-06-01 JP JP2016535828A patent/JP6597611B2/ja active Active
- 2015-06-01 WO PCT/JP2015/065726 patent/WO2016013298A1/ja active Application Filing
- 2015-07-22 AR ARP150102325A patent/AR101276A1/es unknown
-
2019
- 2019-03-05 US US16/293,404 patent/US10614317B2/en active Active
- 2019-03-05 US US16/293,449 patent/US10628685B2/en active Active
- 2019-03-05 US US16/293,424 patent/US10628684B2/en active Active
- 2019-10-02 JP JP2019182126A patent/JP6922962B2/ja active Active
-
2020
- 2020-05-20 US US16/879,501 patent/US11373408B2/en active Active
-
2021
- 2021-07-28 JP JP2021123073A patent/JP7314974B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004178358A (ja) | 2002-11-28 | 2004-06-24 | Meidensha Corp | イベント警備監視方法及びイベント警備監視装置 |
JP2010237971A (ja) | 2009-03-31 | 2010-10-21 | Saxa Inc | 歩きたばこ監視装置 |
JP2010277547A (ja) | 2009-06-01 | 2010-12-09 | Chuo Electronics Co Ltd | 混雑状況検出装置、方法、およびプログラム |
JP2013003964A (ja) | 2011-06-20 | 2013-01-07 | Toshiba Corp | 顔画像検索システム、及び顔画像検索方法 |
WO2013057904A1 (ja) | 2011-10-19 | 2013-04-25 | パナソニック株式会社 | 蝟集判定装置及び蝟集判定方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020074512A (ja) | 2020-05-14 |
WO2016013298A1 (ja) | 2016-01-28 |
JPWO2016013298A1 (ja) | 2017-06-01 |
US20190266411A1 (en) | 2019-08-29 |
JP6597611B2 (ja) | 2019-10-30 |
US10628684B2 (en) | 2020-04-21 |
US20200356784A1 (en) | 2020-11-12 |
AR101276A1 (es) | 2016-12-07 |
US20190266412A1 (en) | 2019-08-29 |
JP6922962B2 (ja) | 2021-08-18 |
JP2021182754A (ja) | 2021-11-25 |
US10628685B2 (en) | 2020-04-21 |
US11373408B2 (en) | 2022-06-28 |
US20170213090A1 (en) | 2017-07-27 |
US10614317B2 (en) | 2020-04-07 |
US20190266413A1 (en) | 2019-08-29 |
US10699130B2 (en) | 2020-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7314974B2 (ja) | 映像監視システム、映像監視方法、及びプログラム | |
JP6801760B2 (ja) | 画像処理装置、監視システム、画像処理方法、及びプログラム | |
US11074461B2 (en) | People flow estimation device, display control device, people flow estimation method, and recording medium | |
JP6156665B1 (ja) | 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法 | |
JP7388478B2 (ja) | 情報処理システム、情報処理方法および情報処理プログラム | |
US20130080120A1 (en) | Method for Optimal and Efficient Guard Tour Configuration Utilizing Building Information Model and Adjacency Information | |
US20140211019A1 (en) | Video camera selection and object tracking | |
JP4402505B2 (ja) | 待ち時間案内システムおよび方法 | |
JP7359621B2 (ja) | エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム | |
JP7533646B2 (ja) | 評価装置、評価方法、及びプログラム | |
CN108363953A (zh) | 一种行人检测的方法及双目监控设备 | |
CN112070052A (zh) | 一种间距监测方法、装置、系统及存储介质 | |
JP2019029747A (ja) | 画像監視システム | |
JP2011145730A (ja) | 監視画面表示制御装置 | |
JP2015176489A (ja) | 監視システムおよび監視方法ならびに監視プログラム | |
WO2021059385A1 (ja) | 空間検知システム、および空間検知方法 | |
KR20240096957A (ko) | 디지털 트윈 기반 전시 공간 통합 관리 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230626 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7314974 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |