JP6828708B2 - 制御装置、監視システム、及び監視カメラ制御方法 - Google Patents
制御装置、監視システム、及び監視カメラ制御方法 Download PDFInfo
- Publication number
- JP6828708B2 JP6828708B2 JP2018063965A JP2018063965A JP6828708B2 JP 6828708 B2 JP6828708 B2 JP 6828708B2 JP 2018063965 A JP2018063965 A JP 2018063965A JP 2018063965 A JP2018063965 A JP 2018063965A JP 6828708 B2 JP6828708 B2 JP 6828708B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- imaging devices
- flow line
- tracking information
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Devices (AREA)
Description
まず、図1を参照して、本発明の実施形態1に係る監視システム100について説明する。図1は、実施形態1に係る監視システム100の構成を示す図である。実施形態に係る監視システム100は、複数のカメラC1〜Cnを制御して、複数のカメラC1〜Cnに被検知体の追跡情報を設定する。被検知体は、監視システム100の管理者によって設定される。被検知体は、例えば、特定の人物の顔、又は特定の人物の全身である。被検知体は、特定追跡対象物の一例である。
ステップS102において、1つのカメラに追跡情報を設定する。以下、カメラC1に追跡情報の設定が行われたとして説明する。一方、ユーザーが追跡指示を入力しない場合(ステップS101のNo)、ユーザーが追跡指示を入力するまで待機する。ステップS102における追跡情報の設定の詳細については、図4を参照して後述する。ステップS102において、追跡情報を設定した後、処理はステップS103に進む。
この場合、入力装置52は、複数のカメラC1〜C15のうち、仮想動線の近傍に位置するカメラを全て選択する。ここで、カメラが仮想動線の近傍に位置するか否かの判定は、仮想動線とカメラの中心位置との最短距離が予め設定した所定の距離以下である場合にカメラが仮想動線の近傍にあると判定することにより行う。そして、予め設定した所定の距離は、フロアのレイアウトの規模に応じて適宜設定することができる。具体的には、フロアのレイアウトにおいて典型的な通路の幅が3メートルである場合、所定の距離として1メートルを設定することができる。このように、フロアのレイアウトの通路の幅に応じて所定の距離を予め設定する。
この場合、図1の装置記憶部54が、複数のカメラC1〜Cnの撮像範囲を示すデータを記憶している。そして、入力装置52は、装置記憶部54から各カメラC1〜Cnの撮像範囲を示すデータを読み出し、仮想動線と各カメラの撮像範囲とが交差するか否かを判定する。仮想動線と撮像範囲とが交差した場合、入力装置52は交差したカメラを選択する。なお、撮像範囲を示すデータの一例として、カメラが実際に撮像する3次元空間である撮像範囲をフロアのレイアウトへ投影した2次元の領域データを用いることができる。
次に、図1を参照して、実施形態2に係る監視システム100について説明する。
次に、図1を参照して、実施形態3に係る監視システム100について説明する。
11 撮像素子
12 カメラ通信部
13 カメラ記憶部
5 制御装置
51 装置通信部
52 入力装置
53 出力装置
54 装置記憶部
55 装置制御部
72 仮想動線の候補
100 監視システム
Claims (10)
- 複数の撮像装置を制御する制御装置であって、
前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶する記憶部と、
前記複数の撮像装置の位置関係を表示する表示部と、
前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を設定する入力部と
を備え、
前記入力部が、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する、制御装置。 - 前記表示部は、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を1つの画像として編集する、請求項1に記載の制御装置。
- 前記撮像画像はフラグを有し、
前記撮像装置は、前記特定追跡対象物を示す画像が含まれた前記撮像画像の前記フラグをオン状態にし、前記表示部は、前記フラグがオン状態である前記撮像画像を複数取得することにより、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を1つの画像として編集する、請求項2に記載の制御装置。 - 前記追跡情報は、前記特定追跡対象物を示す画像を覆う検知領域を含む、請求項1〜3の何れか1項に記載の制御装置。
- 前記入力部は、ユーザーの指示に基づいて前記仮想動線を入力する、請求項1〜4の何れか1項に記載の制御装置。
- 前記表示部は、前記特定追跡対象物の動線を表示する、請求項1〜5の何れか1項に記載の制御装置。
- 前記表示部は、前記撮像装置の撮像範囲を表示する、請求項1〜6の何れか1項に記載の制御装置。
- 前記表示部が、前記複数の撮像装置と前記複数の撮像装置が配置されたフロアのレイアウトとを表示することにより、前記表示部は、前記複数の撮像装置の位置関係を表示する、請求項1〜7の何れか1項に記載の制御装置。
- 複数の撮像装置と、
前記複数の撮像装置を制御する制御装置と
を備え、
前記制御装置は、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶する記憶部と、
前記複数の撮像装置の位置関係を表示する表示部と、
前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を設定する入力部と
を備え、
前記入力部が、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する、監視システム。 - 制御装置の制御により複数の撮像装置を制御する監視カメラ制御方法であって、
前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶部により記憶する記憶ステップと、
前記複数の撮像装置の位置関係を表示部により表示する表示ステップと、
前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を入力部により設定する入力ステップと
を備え、
前記入力ステップは、前記入力部により、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する、監視カメラ制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018063965A JP6828708B2 (ja) | 2018-03-29 | 2018-03-29 | 制御装置、監視システム、及び監視カメラ制御方法 |
US16/365,797 US10771716B2 (en) | 2018-03-29 | 2019-03-27 | Control device, monitoring system, and monitoring camera control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018063965A JP6828708B2 (ja) | 2018-03-29 | 2018-03-29 | 制御装置、監視システム、及び監視カメラ制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019176378A JP2019176378A (ja) | 2019-10-10 |
JP6828708B2 true JP6828708B2 (ja) | 2021-02-10 |
Family
ID=68057439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018063965A Expired - Fee Related JP6828708B2 (ja) | 2018-03-29 | 2018-03-29 | 制御装置、監視システム、及び監視カメラ制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10771716B2 (ja) |
JP (1) | JP6828708B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7514076B2 (ja) | 2019-12-26 | 2024-07-10 | 株式会社コロプラ | プログラム、方法および情報処理装置 |
WO2021210657A1 (ja) * | 2020-04-16 | 2021-10-21 | 日本電気株式会社 | 表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体 |
JP6800509B1 (ja) * | 2020-09-30 | 2020-12-16 | アースアイズ株式会社 | 撮影システム、及び、撮影方法 |
JP7195367B2 (ja) * | 2021-04-22 | 2022-12-23 | 三菱電機株式会社 | 待機者誘導装置、待機者誘導方法及び待機者誘導プログラム |
CN113450258B (zh) * | 2021-08-31 | 2021-11-05 | 贝壳技术有限公司 | 视角转换方法和装置、存储介质、电子设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7522186B2 (en) * | 2000-03-07 | 2009-04-21 | L-3 Communications Corporation | Method and apparatus for providing immersive surveillance |
US20080263592A1 (en) * | 2007-04-18 | 2008-10-23 | Fuji Xerox Co., Ltd. | System for video control by direct manipulation of object trails |
JP4933354B2 (ja) * | 2007-06-08 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、及び情報処理方法 |
US8270767B2 (en) * | 2008-04-16 | 2012-09-18 | Johnson Controls Technology Company | Systems and methods for providing immersive displays of video camera information from a plurality of cameras |
WO2013114862A1 (ja) | 2012-01-30 | 2013-08-08 | パナソニック株式会社 | 最適カメラ設定装置及び最適カメラ設定方法 |
JP5506989B1 (ja) * | 2013-07-11 | 2014-05-28 | パナソニック株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
JP6490349B2 (ja) * | 2014-04-15 | 2019-03-27 | 株式会社日立国際電気 | 監視カメラシステム |
JP5999394B2 (ja) * | 2015-02-20 | 2016-09-28 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
JP2016224919A (ja) * | 2015-06-01 | 2016-12-28 | キヤノン株式会社 | データ閲覧装置、データ閲覧方法、及びプログラム |
US20180007991A1 (en) * | 2016-07-11 | 2018-01-11 | John Sodec, Jr. | Safer baseball batting helmet |
JP6740074B2 (ja) * | 2016-09-30 | 2020-08-12 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2018
- 2018-03-29 JP JP2018063965A patent/JP6828708B2/ja not_active Expired - Fee Related
-
2019
- 2019-03-27 US US16/365,797 patent/US10771716B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US10771716B2 (en) | 2020-09-08 |
JP2019176378A (ja) | 2019-10-10 |
US20190306433A1 (en) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6828708B2 (ja) | 制御装置、監視システム、及び監視カメラ制御方法 | |
US9690388B2 (en) | Identification of a gesture | |
JP6159179B2 (ja) | 画像処理装置、画像処理方法 | |
CN104284146B (zh) | 跟踪辅助装置、跟踪辅助系统和跟踪辅助方法 | |
CN104284145B (zh) | 跟踪辅助装置、跟踪辅助系统和跟踪辅助方法 | |
CN105229582B (zh) | 基于近距离传感器和图像传感器的手势检测 | |
JP6961363B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
WO2019033957A1 (zh) | 交互位置确定方法、系统、存储介质和智能终端 | |
JP2013069224A (ja) | 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム | |
TW201836541A (zh) | 移動式機器人及其控制方法 | |
JP6270325B2 (ja) | 情報処理装置およびその制御方法 | |
JP5674465B2 (ja) | 画像処理装置、カメラ、画像処理方法およびプログラム | |
JP6210234B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
CN107771314A (zh) | 用于通过选择和跟踪图像区域进行视频缩放的装置和方法 | |
JP5769277B2 (ja) | 入力装置、入力方法及びプログラム | |
JP6575845B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
CN106797429A (zh) | 控制装置、对控制装置进行控制的方法和程序 | |
US10146870B2 (en) | Video playback method and surveillance system using the same | |
JP6910208B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6617547B2 (ja) | 画像管理システム、画像管理方法、プログラム | |
JP6602067B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP2017162432A (ja) | 画像処理システム、情報処理装置、情報端末、プログラム | |
US9041689B1 (en) | Estimating fingertip position using image analysis | |
JP2011227828A (ja) | 情報処理装置、その処理方法及びプログラム | |
US20220283698A1 (en) | Method for operating an electronic device in order to browse through photos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6828708 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |