[go: up one dir, main page]

JP2015088819A - Imaging simulation device - Google Patents

Imaging simulation device Download PDF

Info

Publication number
JP2015088819A
JP2015088819A JP2013224139A JP2013224139A JP2015088819A JP 2015088819 A JP2015088819 A JP 2015088819A JP 2013224139 A JP2013224139 A JP 2013224139A JP 2013224139 A JP2013224139 A JP 2013224139A JP 2015088819 A JP2015088819 A JP 2015088819A
Authority
JP
Japan
Prior art keywords
monitoring
imaging
space
area
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013224139A
Other languages
Japanese (ja)
Other versions
JP6174968B2 (en
Inventor
貴幸 守澤
Takayuki Morisawa
貴幸 守澤
利彦 櫻井
Toshihiko Sakurai
利彦 櫻井
嘉信 足達
Yoshinobu Adachi
嘉信 足達
英人 田中
Hideto Tanaka
英人 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013224139A priority Critical patent/JP6174968B2/en
Publication of JP2015088819A publication Critical patent/JP2015088819A/en
Application granted granted Critical
Publication of JP6174968B2 publication Critical patent/JP6174968B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To grasp how precisely imaging is being performed by a camera.SOLUTION: An imaging simulation device is configured to calculate an amount of monitoring representing a monitoring degree at a predetermined position within a monitoring space by means of an imaging apparatus installed in the monitoring space. The imaging simulation device stores a three-dimensional space model of the monitoring space and imaging condition information including an installation position, an attitude, an angle of view and a resolution of the imaging apparatus. An evaluation region is set on the space model and while using the imaging condition information, the number of pixels in a region corresponding to the evaluation region on a projection surface where the space model is projected in a three-dimensional manner, is calculated. From a ratio of the pixels per unit area of the evaluation region, the amount of monitoring at the predetermined position is calculated and outputted.

Description

本発明は、監視空間に設置された撮像装置によって、当該監視空間の所定の位置がどの程度詳細に監視されているかをシミュレーションにより評価する撮像シミュレーション装置に関する。   The present invention relates to an imaging simulation apparatus that evaluates by simulation how much a predetermined position in a monitoring space is monitored by an imaging apparatus installed in the monitoring space.

近年、セキュリティを目的として、街やビルディングといった広い監視空間に、多くの可視カメラや赤外線カメラ等の撮像装置を設置して監視するケースが増加しつつある。このように広い監視空間に多くの撮像装置を設置する場合、各撮像装置によって監視空間内のどの領域を撮像することができるのかを、管理者が計画段階において容易に把握できることが管理上必要とされている。   In recent years, for the purpose of security, cases in which a large number of imaging devices such as a visible camera and an infrared camera are installed and monitored in a wide monitoring space such as a town or a building are increasing. When many imaging devices are installed in such a large monitoring space, it is necessary for management that the administrator can easily grasp which region in the monitoring space can be imaged by each imaging device at the planning stage. Has been.

例えば、特許文献1には、撮像装置の設置位置、姿勢(光軸)、焦点距離等の情報を用いて、監視空間についての地図(平面図)上に撮像装置の撮像範囲を生成して明示する技術が開示されている。   For example, in Patent Literature 1, an imaging range of an imaging device is generated and explicitly shown on a map (plan view) of a monitoring space using information such as the installation position, orientation (optical axis), and focal length of the imaging device. Techniques to do this are disclosed.

特開2008−011433JP2008-011433A

しかしながら、上記の従来技術では、監視空間における所定の領域が撮像装置の撮像範囲内にあるか否かを把握することができたとしても、当該領域が当該撮像装置によってどの程度詳細に撮像されているのかといったことを、管理者が把握することができなかった。例えば、同じ撮像装置を用いてある領域を撮像するとき、遠方の位置から広範囲に撮像した場合と、近辺の位置から撮像した場合とでは、当該領域に相当する撮像画像の領域の情報量(画素数)は、後者の撮像画像の方が大きく、後者の撮像画像の方が当該領域を詳細に把握することができる。また、異なる撮像装置を用いて同じ位置からある領域を撮像する際、解像度の大きい撮像装置の方が当該領域をより詳細に把握することができる。したがって、監視空間内のある位置が撮像範囲内に含まれているか否かだけでなく、どの程度詳細に撮像されているのかを把握できるようにしたいといった監視ニーズがあった。   However, in the above-described conventional technology, even if it is possible to grasp whether or not the predetermined area in the monitoring space is within the imaging range of the imaging device, how much the area is captured by the imaging device. The administrator could not grasp whether there was. For example, when an area is imaged using the same imaging device, the amount of information (pixels) of the area of the captured image corresponding to the area when the image is captured widely from a distant position and when the image is captured from a nearby position. The number of the latter captured image is larger, and the latter captured image can grasp the region in detail. In addition, when imaging a region from the same position using different imaging devices, an imaging device having a higher resolution can grasp the region in more detail. Therefore, there is a monitoring need not only to determine whether or not a certain position in the monitoring space is included in the imaging range, but also to know how much the image is captured.

そこで本発明は、監視空間内の所定位置が撮像装置によってどの程度詳細に撮像されているのかといった監視度合いを表す監視量を求めることにより、上記監視ニーズを満たすことを目的とする。   Therefore, the present invention has an object to satisfy the above monitoring needs by obtaining a monitoring amount representing a degree of monitoring such as how much a predetermined position in the monitoring space is imaged by the imaging device.

上記した目的を達成するために、監視空間に設置した一又は複数の撮像装置により、該監視空間内の所定位置における監視度合いを表す監視量を求める撮像シミュレーション装置であって、
前記監視空間を3次元の仮想空間として表現した空間モデルと、前記撮像装置の前記監視空間における設置位置及び姿勢を前記仮想空間に対応付けた情報並びに該撮像装置の画角及び解像度とからなる撮像条件情報と、を記憶する記憶部と、前記所定位置に対応する前記空間モデル上の位置を含む評価領域を設定し、前記撮像条件情報を用いて前記撮像装置から該空間モデルを3次元投影した投影面における該評価領域に相当する領域の画素数を求め、該画素数と該評価領域に相当する面積とを用いて該評価領域の単位面積当たりの画素の割合から前記所定位置の前記監視量を求める制御部と、前記監視量を出力する出力部と、を有することを特徴とする撮像シミュレーション装置を提供する。
In order to achieve the above-described object, an imaging simulation apparatus for obtaining a monitoring amount representing a monitoring degree at a predetermined position in the monitoring space by one or a plurality of imaging apparatuses installed in the monitoring space,
Imaging including a space model expressing the monitoring space as a three-dimensional virtual space, information relating the installation position and orientation of the imaging device in the monitoring space to the virtual space, and the angle of view and resolution of the imaging device A storage unit for storing condition information and an evaluation area including a position on the space model corresponding to the predetermined position are set, and the space model is three-dimensionally projected from the image pickup apparatus using the image pickup condition information The number of pixels in the area corresponding to the evaluation area on the projection surface is obtained, and the monitoring amount at the predetermined position is determined from the ratio of pixels per unit area of the evaluation area using the number of pixels and the area corresponding to the evaluation area. There is provided an imaging simulation apparatus characterized by having a control unit for obtaining the output and an output unit for outputting the monitoring amount.

かかる構成により、管理者は、出力部にて出力された監視量によって、監視空間の所定の位置がどの程度詳細に撮像されているのかといった監視度合いを容易に把握することができる。したがって、管理者は、監視量を考慮して、当該位置における監視状況を判断し、必要に応じて撮像装置を増設や設置変更したり、警備員を配置したり、監視ロボットを向かわせたりといった、対応を行うことが容易になる。   With this configuration, the administrator can easily grasp the degree of monitoring such as how much a predetermined position in the monitoring space is imaged based on the monitoring amount output from the output unit. Therefore, the administrator determines the monitoring status at the position in consideration of the monitoring amount, and if necessary, installs or changes the imaging device, arranges security guards, or points the monitoring robot. , Making it easier to deal with.

また、本発明の好ましい態様として、前記記憶部は、更に、前記撮像装置のフレームレートを記憶し、前記制御部は、前記監視量を前記フレームレートが大きいほど大きくなるよう算出するものとする。   As a preferred aspect of the present invention, the storage unit further stores a frame rate of the imaging apparatus, and the control unit calculates the monitoring amount so as to increase as the frame rate increases.

一般的に、フレームレートが大きくなるほど、素早く移動する物体を捉えることができたり、短い時間で多くの物体の特徴を捉えることができるため、撮像画像から取得できる情報量は大きくなる。したがって、上記構成により、管理者は、フレームレートを考慮したより精度の高い監視量を把握することができるため、監視するにあたってより適切な対応をとることが可能となる。   In general, as the frame rate increases, an object that moves quickly can be captured, or the characteristics of many objects can be captured in a short time, and thus the amount of information that can be acquired from a captured image increases. Therefore, with the above configuration, the administrator can grasp the monitoring amount with higher accuracy in consideration of the frame rate, and thus can take a more appropriate response in monitoring.

また、本発明の好ましい態様として、前記記憶部は、更に、前記撮像装置の被写界深度を記憶し、前記制御部は、前記撮像装置の前記設置位置から前記評価領域の重心位置までの距離を算出し、該距離が前記被写界深度の範囲から外れるほど前記監視量が小さくなるよう算出するものとする。   As a preferred aspect of the present invention, the storage unit further stores a depth of field of the imaging device, and the control unit is a distance from the installation position of the imaging device to the center of gravity position of the evaluation area. And the amount of monitoring is calculated to be smaller as the distance deviates from the range of the depth of field.

一般的に、被写界深度の範囲外に物体が存在すればする程、当該物体の焦点が合わずにボケた表示になるため、たとえ撮像装置の撮像範囲内に位置していたとしても撮像画像から得られる情報量は相対的に小さくなる。したがって、上記構成により、被写界深度として、例えば、近点距離(前端距離)と遠点距離(後端距離)を予め記憶部に記憶しておき、評価領域の重心位置までの距離が当該被写界深度の距離範囲から外れるほど(すなわち、近点距離よりも小さい値であるほど/遠点距離よりも大きい値であるほど)、監視量が小さくなるよう算出する。これにより、管理者は、被写界深度を考慮したより高精度の監視量を把握することができるため、監視するにあたってより適切な対応をとることが可能となる。   In general, the more an object is located outside the depth of field, the more blurred the object will be out of focus, so even if it is within the imaging range of the imaging device The amount of information obtained from the image is relatively small. Therefore, with the above configuration, as the depth of field, for example, the near point distance (front end distance) and the far point distance (rear end distance) are stored in advance in the storage unit, and the distance to the center of gravity position of the evaluation region is The monitoring amount is calculated to be smaller as the distance from the depth of field is out of the distance range (that is, the smaller the distance from the near point / the larger the distance from the far point). As a result, the administrator can grasp the monitoring amount with higher accuracy in consideration of the depth of field, and can take a more appropriate response when monitoring.

また、本発明の好ましい態様として、前記制御部は、更に、前記評価領域に対応する前記空間モデルの領域を前記監視量に応じた色又は濃淡にて表した監視量画像を生成し、前記出力部は、前記監視量画像を表示出力するものとする。   Moreover, as a preferable aspect of the present invention, the control unit further generates a monitoring amount image in which a region of the space model corresponding to the evaluation region is represented by a color or shading corresponding to the monitoring amount, and the output The unit displays and outputs the monitoring amount image.

かかる構成により、監視空間の複数の評価領域について監視量を算出し、当該評価領域について監視量に応じた色や濃淡によって表した監視量画像を出力することができる。これにより、管理者は、監視量画像を参照することにより、広い監視空間において撮像装置によってしっかり監視(撮像)されている箇所と、あまり監視(撮像)されていない箇所といった監視の「粗密」について、一目で把握することができる。   With this configuration, it is possible to calculate a monitoring amount for a plurality of evaluation regions in the monitoring space and output a monitoring amount image represented by colors and shades corresponding to the monitoring amount for the evaluation region. As a result, the administrator refers to the monitoring amount image so that “roughness” of monitoring such as a portion that is firmly monitored (imaging) by the imaging device and a portion that is not monitored (imaging) in a wide monitoring space. , Can be grasped at a glance.

また、本発明の好ましい態様として、前記記憶部は、更に、所定の高さにおける前記監視量の閾値を予め記憶し、前記制御部は、更に、前記高さにおける前記評価領域の前記監視量を算出し、前記監視量が前記閾値よりも大きい評価領域を、それ以外の空間モデルの領域と識別可能に表示した識別領域画像を生成し、前記出力部は、前記識別領域画像を表示出力するものとする。   As a preferred aspect of the present invention, the storage unit further stores in advance a threshold value of the monitoring amount at a predetermined height, and the control unit further stores the monitoring amount of the evaluation area at the height. Calculating and generating an identification area image in which the evaluation area whose monitoring amount is larger than the threshold value is displayed so as to be distinguishable from other spatial model areas, and the output unit displays and outputs the identification area image And

かかる構成により、管理者は、所定の高さにおいて所定の監視量よりも大きい領域を一目で把握することができる。これにより、例えば、監視空間に設置した撮像装置によって人物・車等の物体を認証する認証装置が認証できる領域を識別することができる。すなわち、認証装置が認証対象とする物体部位の地面からの高さ(例えば、顔の高さやナンバープレートの高さ)と、該認証装置が認証可能となる前記監視量の下限を示す閾値とを予め記憶し、当該高さにおける監視量が閾値以上となる領域を識別領域画像として表示することにより、当該識別領域画像を見た管理者は、広い監視空間において認証装置により認証可能な領域を一目で把握することができる。   With this configuration, the administrator can grasp at a glance an area larger than a predetermined monitoring amount at a predetermined height. Thereby, for example, it is possible to identify an area that can be authenticated by an authentication device that authenticates an object such as a person or a car using an imaging device installed in a monitoring space. That is, the height of the object part to be authenticated by the authentication device from the ground (for example, the height of the face or the height of the license plate) and the threshold value indicating the lower limit of the monitoring amount that can be authenticated by the authentication device. By storing an area where the monitoring amount at the height is equal to or greater than the threshold value as an identification area image, the administrator who has viewed the identification area image can easily identify an area that can be authenticated by the authentication device in a wide monitoring space. Can be grasped.

本発明のプログラムは、監視空間に設置した一又は複数の撮像装置により、該監視空間内の所定位置における監視度合いを表す監視量を求めるプログラムであって、
前記監視空間を3次元の仮想空間として表現した空間モデルと、前記撮像装置の前記監視空間における設置位置及び姿勢を前記仮想空間に対応付けた情報並びに該撮像装置の画角及び解像度とからなる撮像条件情報と、を記憶しており、前記プログラムは、コンピュータに、前記所定位置に対応する前記空間モデル上の位置を含む評価領域を設定する処理と、前記撮像条件情報を用いて前記撮像装置から該空間モデルを3次元投影した投影面における該評価領域に相当する領域の画素数を求める処理と、該画素数と該評価領域に相当する面積とを用いて該評価領域の単位面積当たりの画素の割合から前記所定位置の前記監視量を求める処理と、を実行させる。
The program of the present invention is a program for obtaining a monitoring amount representing a monitoring degree at a predetermined position in the monitoring space by one or a plurality of imaging devices installed in the monitoring space,
Imaging including a space model expressing the monitoring space as a three-dimensional virtual space, information relating the installation position and orientation of the imaging device in the monitoring space to the virtual space, and the angle of view and resolution of the imaging device Condition information, and the program stores a processing for setting an evaluation area including a position on the spatial model corresponding to the predetermined position in the computer, and the imaging apparatus using the imaging condition information. Pixels per unit area of the evaluation region using the processing for obtaining the number of pixels in the region corresponding to the evaluation region on the projection plane on which the spatial model is three-dimensionally projected, and the area corresponding to the evaluation region And a process of obtaining the monitoring amount at the predetermined position from the ratio of.

このプログラムによっても、上記と同様に、管理者は、監視空間の所定の位置がどの程度詳細に撮像されているのかといった監視度合いを容易に把握することができる。   Also with this program, as described above, the administrator can easily grasp the degree of monitoring such as how much the predetermined position of the monitoring space is imaged.

上記のように、本発明によれば、管理者は、監視空間内の所定位置が撮像装置によってどの程度詳細に撮像されているのかといった監視度合いを表す監視量を把握することができる。   As described above, according to the present invention, the administrator can grasp the monitoring amount indicating the degree of monitoring such as how much the predetermined position in the monitoring space is imaged by the imaging device.

撮像シミュレーション装置の構成を示すブロック図Block diagram showing the configuration of the imaging simulation device 空間モデルを説明する図Diagram explaining the spatial model 評価領域情報を示すテーブルTable showing evaluation area information 空間モデルを評価領域で区分して表した図A diagram showing the spatial model divided into evaluation areas 画素数算出処理を説明する図The figure explaining pixel number calculation processing 画素数算出処理を説明する図The figure explaining pixel number calculation processing 制御部における処理を示すフローチャートFlow chart showing processing in the control unit 監視量画像の一例を表す図A figure showing an example of a monitoring amount image 画素数算出処理を説明する図The figure explaining pixel number calculation processing 監視量画像の他の例を表す図The figure showing the other example of a monitoring amount image 識別領域画像の一例を表す図The figure showing an example of an identification area image

以下、屋外(街)の所定のエリアを監視空間とし、当該監視空間内に複数の撮像装置が設置されているとき、当該監視空間における所定の位置が、これらの撮像装置によってどの程度詳細に撮像されているのかといった監視度合いについて一目で把握できるよう、監視空間の領域毎に当該監視度合いを表す監視量を算出し、算出した監視量に基づいた色(又は濃淡)によって当該領域を着色して表示出力する撮像シミュレーション装置の実施形態について、添付した図面を参照しながら詳細に説明する。なお、本実施形態における撮像装置は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成される所謂監視カメラであり、建物壁面の上部又は電柱等に設置されて監視空間を俯瞰して撮像するものであるが、詳細については、本発明の本質的なことでないので説明を省略する。   Hereinafter, when a predetermined area outside (town) is set as a monitoring space and a plurality of imaging devices are installed in the monitoring space, how much the predetermined position in the monitoring space is captured by these imaging devices. In order to be able to grasp at a glance about the degree of monitoring, such as whether or not it is being performed, a monitoring amount representing the degree of monitoring is calculated for each region of the monitoring space, and the region is colored by a color (or shading) based on the calculated monitoring amount An embodiment of an imaging simulation apparatus that performs display output will be described in detail with reference to the accompanying drawings. Note that the image pickup apparatus in the present embodiment is a so-called monitoring camera including an image pickup element such as a CCD element or a C-MOS element, an optical system part, etc., and is installed on the upper surface of a building wall or on a utility pole for monitoring. Although the image is taken from a bird's-eye view, the details are not essential to the present invention, and the description thereof will be omitted.

(撮像シミュレーション装置の全体構成について)
図1に示すように、本実施形態の撮像シミュレーション装置1は、記憶部11、制御部12、表示部13及び入力部14を含んで概略構成される。入力部14は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。撮像シミュレーション装置1の管理者は、入力部14を用いて、例えば、後述する空間モデル111の3次元形状データなどを記憶部11に記憶させたり、様々な設定情報を設定することができる。
(About the overall configuration of the imaging simulation device)
As shown in FIG. 1, the imaging simulation apparatus 1 of the present embodiment is schematically configured to include a storage unit 11, a control unit 12, a display unit 13, and an input unit 14. The input unit 14 is an information input device such as a keyboard, a mouse, a touch panel, or a portable storage medium reading device. An administrator of the imaging simulation apparatus 1 can use the input unit 14 to store, for example, three-dimensional shape data of a space model 111 described later in the storage unit 11 or set various setting information.

記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間モデル111、撮像条件情報112、フレームレート113、評価領域情報114、その他、制御部12の処理に使用される各種情報(例えば、後述する評価領域の画素数や監視量等)を記憶している。   The storage unit 11 is an information storage device such as a ROM, RAM, or HDD. The storage unit 11 stores various programs and various data, and inputs / outputs such information to / from the control unit 12. The various data includes the space model 111, the imaging condition information 112, the frame rate 113, the evaluation area information 114, and other various information used for the processing of the control unit 12 (for example, the number of pixels in the evaluation area described later, the monitoring amount, etc. ) Is remembered.

空間モデル111は、監視空間に存在する現実世界の建造物・地面・樹木等の物体をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。空間モデル111における3次元形状データは、監視空間の形状情報に基づいて3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により監視空間の3次元形状を取り込んだデータを利用しても良い。このようにして作成された空間モデル111は、管理者により入力部14から設定登録されることにより記憶部11に記憶される。図2は、本実施形態で利用する空間モデル111について、3次元の仮想空間を表す座標情報から3次元形状として表現したものである。   The space model 111 is coordinate information representing a three-dimensional virtual space including three-dimensional shape data created by modeling an object such as a real world building, ground, or tree existing in the monitoring space. The three-dimensional shape data in the space model 111 may be created by three-dimensional CAD based on the monitoring space shape information, or using data obtained by capturing the three-dimensional shape of the monitoring space with a three-dimensional laser scanner or the like. Also good. The space model 111 created in this way is stored in the storage unit 11 by being set and registered from the input unit 14 by the administrator. FIG. 2 represents the space model 111 used in the present embodiment as a three-dimensional shape from coordinate information representing a three-dimensional virtual space.

撮像条件情報112は、監視空間に設置された撮像装置の設置位置や姿勢に関する情報と、画角(視野角)に関する情報と、解像度(縦横の画素数)に関する情報とからなり、撮像装置毎に記憶される。ここで、設置位置及び姿勢に関する情報は、空間モデル111の仮想空間における座標情報に対応付けられた値で記憶されている。すなわち、設置位置に関する情報とは、監視空間内(実空間)を3次元直交座標系として表し、当該3次元直交座標系で座標が既知である基準点の座標値に基準点からの相対距離、方向を測定して補正する等の公知の技術を使用して算出した座標データとして表した情報である。また、姿勢に関する情報とは、上記3次元直交座標系の座標軸に対する撮像装置の光軸の回転角度に関する情報であり、撮像装置のいわゆるパン角度、チルト角度から求めることができる。撮像条件情報112は、初期設定時に管理者によって入力部14から設定登録されることにより、記憶部11に記憶される。   The imaging condition information 112 includes information on the installation position and orientation of the imaging device installed in the monitoring space, information on the angle of view (viewing angle), and information on the resolution (number of vertical and horizontal pixels). Remembered. Here, information regarding the installation position and orientation is stored as a value associated with coordinate information in the virtual space of the space model 111. That is, the information regarding the installation position represents the monitoring space (real space) as a three-dimensional orthogonal coordinate system, and the relative value from the reference point to the coordinate value of the reference point whose coordinates are known in the three-dimensional orthogonal coordinate system, This is information expressed as coordinate data calculated using a known technique such as measuring and correcting the direction. The information related to the posture is information related to the rotation angle of the optical axis of the imaging apparatus with respect to the coordinate axis of the three-dimensional orthogonal coordinate system, and can be obtained from so-called pan angle and tilt angle of the imaging apparatus. The imaging condition information 112 is stored in the storage unit 11 by being registered by the administrator from the input unit 14 at the time of initial setting.

フレームレート113は、監視空間に設置された撮像装置の単位時間あたりに取得する撮像画像の数(フレーム数)を表す情報であり、撮像装置毎に1秒間当たりのフレーム数として、例えば30fpsなどのように記憶される。フレームレート113は、初期設定時に管理者によって入力部14から設定登録されることにより、記憶部11に記憶される。   The frame rate 113 is information indicating the number of captured images (number of frames) acquired per unit time of the imaging device installed in the monitoring space, and the number of frames per second for each imaging device is, for example, 30 fps. Is memorized. The frame rate 113 is stored in the storage unit 11 by being registered from the input unit 14 by the administrator at the time of initial setting.

評価領域情報114は、空間モデル111上に設定された監視量を算出する単位領域である評価領域についての情報であり、図3に表すように、各評価領域の識別情報と、評価領域の範囲を表す座標情報と、評価領域に相当する実空間における面積とを対応付けたテーブルとして記憶される。本実施形態では、図4の点線にて区分した領域のように、監視空間における地面と建造物壁面に相当する空間モデル111の全ての領域をそれぞれ評価領域として区分し、各評価領域の監視量について算出する。そのため、図3に表すように、評価領域は区分した数分だけ複数の情報(レコード)が評価領域情報114に記憶される。これらの評価領域情報114は、後述する評価領域設定手段121にて自動的に算出され、設定される。しかし、これに限らず、管理者によって入力部14(例えばマウス等)により、空間モデル111に所定の位置が指定されたとき、当該位置を含む所定の範囲の領域(例えば、実空間において1m×1mに相当する範囲の領域)を評価領域とし、当該1つの評価領域についてのレコードからなる情報を評価領域情報114として記憶してもよい。   The evaluation area information 114 is information about an evaluation area that is a unit area for calculating a monitoring amount set on the space model 111, and as shown in FIG. 3, the identification information of each evaluation area and the range of the evaluation area Is stored as a table that associates the coordinate information representing the area with the area in the real space corresponding to the evaluation area. In the present embodiment, like the areas divided by dotted lines in FIG. 4, all areas of the space model 111 corresponding to the ground and the building wall surface in the monitoring space are divided as evaluation areas, and the monitoring amount of each evaluation area Is calculated. Therefore, as shown in FIG. 3, a plurality of pieces of information (records) are stored in the evaluation area information 114 for the number of evaluation areas. The evaluation area information 114 is automatically calculated and set by an evaluation area setting unit 121 described later. However, the present invention is not limited to this. When a predetermined position is designated in the space model 111 by the administrator using the input unit 14 (for example, a mouse or the like), an area within a predetermined range including the position (for example, 1 m × in real space) An area in a range corresponding to 1 m) may be used as an evaluation area, and information including a record for the one evaluation area may be stored as the evaluation area information 114.

制御部12は、CPU等を備えたコンピュータで構成され、後述する図7に示す一連の処理を実行するべく、評価領域設定手段121、画素数算出手段122、監視量算出手段123、監視量画像生成手段124を含んでいる。   The control unit 12 is configured by a computer including a CPU and the like, and performs an evaluation area setting unit 121, a pixel number calculation unit 122, a monitoring amount calculation unit 123, a monitoring amount image, in order to execute a series of processes shown in FIG. Generation means 124 is included.

評価領域設定手段121は、空間モデル111上に監視量を算出する単位領域である評価領域を設定し、評価領域情報114として記憶部11に記憶する評価領域設定処理を行う。本実施形態では、図4の点線にて区分した領域のように、監視空間の地面と建造物壁面に相当する空間モデル111の全ての領域をそれぞれ評価領域として区分し、各評価領域についての評価領域情報114を求める。すなわち、監視空間の地面と建造物壁面に相当する空間モデル111の全ての領域を、予め設定した面積内に納まるよう分割し、それら分割された各領域を評価領域として、範囲を表す座標値と、当該評価領域に相当する実空間における面積とを幾何算出する。しかし、実空間における面積に限らず、空間モデル111の当該領域に相当する仮想的な面積であってもよい。   The evaluation area setting unit 121 sets an evaluation area, which is a unit area for calculating the monitoring amount, on the space model 111 and performs an evaluation area setting process for storing the evaluation area information 114 in the storage unit 11. In the present embodiment, like the areas divided by dotted lines in FIG. 4, all areas of the space model 111 corresponding to the ground of the monitoring space and the building wall surface are divided as evaluation areas, and the evaluation for each evaluation area is performed. The area information 114 is obtained. That is, all the regions of the space model 111 corresponding to the ground of the monitoring space and the building wall surface are divided so as to be within a preset area, and each of the divided regions is used as an evaluation region, and coordinate values representing ranges Then, the geometrical calculation of the area in the real space corresponding to the evaluation area is performed. However, it is not limited to the area in the real space, but may be a virtual area corresponding to the area of the space model 111.

画素数算出手段122は、撮像条件情報112を用いて前記撮像装置から空間モデル111を3次元投影(透視投影)した投影面における評価領域に相当する領域の画素数を算出する画素数算出処理を行う。以下、画素数算出処理の詳細について説明する。   The pixel number calculation unit 122 performs pixel number calculation processing for calculating the number of pixels in an area corresponding to an evaluation area on a projection plane obtained by three-dimensionally projecting (perspective projection) the spatial model 111 from the imaging apparatus using the imaging condition information 112. Do. Details of the pixel number calculation process will be described below.

画素数算出処理では、まず、撮像条件情報112の設置位置及び姿勢に基づいて、空間モデル111上に仮想カメラを配置する。ここで、仮想カメラとは、実空間である監視空間内に配置された撮像装置を、仮想空間である空間モデル111において模した仮想的なカメラであり、当該撮像装置の設置位置や姿勢、画角、解像度等により仮想空間を撮像して仮想カメラ画像を出力する。図5は、画素数算出処理を模式的に説明する図である。図5において、符号111a、111bは、空間モデル111の一部を切り欠いて表したものであり、そのうち111aが監視空間の地面に相当するものであり、111bが監視空間に存在する建造物の壁面に相当するものとする。図5に表すように、画素数算出処理では、仮想カメラ32の光学中心Oが撮像条件情報112の設置位置に基づいて仮想空間内に設定され、また、仮想カメラ32の光軸(座標軸に対する回転角度ω, φ, κ)が撮像条件情報112の姿勢に基づいて設定される。   In the pixel count calculation process, first, a virtual camera is arranged on the space model 111 based on the installation position and orientation of the imaging condition information 112. Here, the virtual camera is a virtual camera that imitates an imaging device arranged in a monitoring space that is a real space in a space model 111 that is a virtual space, and the installation position, orientation, and image of the imaging device. The virtual space is imaged by the corner, resolution, etc., and a virtual camera image is output. FIG. 5 is a diagram schematically illustrating the pixel number calculation process. In FIG. 5, reference numerals 111 a and 111 b are notched portions of the space model 111, of which 111 a is equivalent to the ground of the monitoring space, and 111 b is a building that exists in the monitoring space. It shall correspond to a wall surface. As shown in FIG. 5, in the pixel count calculation process, the optical center O of the virtual camera 32 is set in the virtual space based on the installation position of the imaging condition information 112, and the optical axis (rotation with respect to the coordinate axis) of the virtual camera 32 is set. (Angles ω, φ, κ) are set based on the posture of the imaging condition information 112.

次に、画素数算出処理では、仮想カメラ32の位置及び姿勢から撮像条件情報112の画角び解像度に基づいて、当該仮想カメラ32から撮像したときの画像に相当する仮想カメラ画像を求める。この際、仮想カメラ画像を、既知のコンピュータグラフィックス技術によるレンダリング処理にて求める。なお、その手法については、例えば、「コンピュータグラフィックス」(コンピュータグラフィックス編集委員会
編集・出版、平成18年刊)に詳細に記述されている
図5において、仮想カメラ32の光学中心Oを頭頂点とした四角錐Oa’b’c’d’は、撮像条件情報112から幾何学的に算出した仮想カメラ32の視野に相当し、当該四角錘に接して光軸に垂直な平面である投影面abcdが仮想カメラ画像に相当する。また、当該四角錐と空間モデル111との干渉面ABECDFは仮想カメラ32の撮像範囲に相当し、当該撮像範囲内の空間モデル111を二次元画像として投影したものが仮想カメラ画像として表示される。すなわち、図5において、空間モデル111a上の符号Iで記す箇所は、仮想カメラ画像(投影面)の符号iで記す箇所に投影される。
Next, in the pixel number calculation process, a virtual camera image corresponding to an image captured from the virtual camera 32 is obtained from the position and orientation of the virtual camera 32 based on the angle of view resolution of the imaging condition information 112. At this time, a virtual camera image is obtained by rendering processing using a known computer graphics technique. The method is described in detail in, for example, “Computer Graphics” (Computer Graphics Editorial Board Editing / Publishing, 2006). In FIG. 5, the optical center O of the virtual camera 32 is the top vertex. The quadrangular pyramid Oa′b′c′d ′, which corresponds to the field of view of the virtual camera 32 geometrically calculated from the imaging condition information 112, is a projection plane that is in contact with the quadrangular pyramid and is perpendicular to the optical axis. abcd corresponds to a virtual camera image. The interference plane ABECDF between the quadrangular pyramid and the space model 111 corresponds to the imaging range of the virtual camera 32, and a projection of the space model 111 in the imaging range as a two-dimensional image is displayed as a virtual camera image. That is, in FIG. 5, the part indicated by the symbol I on the space model 111a is projected to the part indicated by the symbol i of the virtual camera image (projection plane).

次に、画素数算出処理では、空間モデル111上の所定の評価領域に相当する仮想カメラ画像(投影面)の画像領域を求める。例えば、図5に示すように、監視量を算出したい評価領域30が空間モデル111a上に示した矩形GHIJからなる領域であるとしたとき、当該評価領域30に相当する仮想カメラ画像(投影面)における画像領域ghij(以下、「対応領域31」という)を求める。次に、画素数算出処理では、仮想カメラ画像上の対応領域31の画素数を計数する。このようにして、画素数算出処理では、撮像条件情報112を用いて空間モデル111を3次元投影した投影面における評価領域に相当する対応領域31の画素数を求める。   Next, in the pixel count calculation process, an image area of a virtual camera image (projection plane) corresponding to a predetermined evaluation area on the space model 111 is obtained. For example, as shown in FIG. 5, when an evaluation area 30 for which a monitoring amount is desired to be calculated is an area composed of a rectangular GHIJ shown on the space model 111a, a virtual camera image (projection plane) corresponding to the evaluation area 30 An image region ghij (hereinafter referred to as “corresponding region 31”) is obtained. Next, in the pixel number calculation process, the number of pixels in the corresponding region 31 on the virtual camera image is counted. In this way, in the pixel number calculation process, the number of pixels in the corresponding area 31 corresponding to the evaluation area on the projection plane on which the spatial model 111 is three-dimensionally projected is obtained using the imaging condition information 112.

なお、本実施形態では、レンダリング処理によって求めた仮想カメラ画像を用いて評価領域に相当する対応領域31の画素数を求めているが、これに限らず、仮想カメラ画像を出力するまでもなく、既知の幾何計算により当該画素数を求めることができる。すなわち、3次元の仮想空間上で定義された空間モデル111を、撮像装置の設置位置・姿勢から得られる変換行列により視野変換し、さらに、撮像装置の画角より得られる変換行列により透視変換することで2次元の投影面に投影する。そして、既知の陰面消去技術(物体空間アルゴリズム、画像空間アルゴリズム、優先順位アルゴリズム等による)を施して手前に存在する面によって隠されて見えない面を消去することによって、任意の評価領域の投影面上に投影された対応領域31について、投影面全体の面積に対する当該対応領域31の面積割合を計算することができる。この面積割合と解像度とを用いて、対応領域の画素数を算出することができる。なお、上記の幾何計算については、前述の「コンピュータグラフィックス」に詳細に説明されている。   In the present embodiment, the number of pixels of the corresponding area 31 corresponding to the evaluation area is obtained using the virtual camera image obtained by the rendering process. However, the present invention is not limited thereto, and it is not necessary to output the virtual camera image. The number of pixels can be obtained by known geometric calculation. That is, the field of view of the space model 111 defined in the three-dimensional virtual space is converted by the conversion matrix obtained from the installation position / orientation of the imaging apparatus, and further, the perspective transformation is performed by the conversion matrix obtained from the angle of view of the imaging apparatus. Thus, it is projected onto a two-dimensional projection plane. Then, by applying a known hidden surface removal technique (using object space algorithm, image space algorithm, priority algorithm, etc.), the surface hidden by the surface existing in front is erased, so that the projected surface of any evaluation area For the corresponding region 31 projected above, the area ratio of the corresponding region 31 to the area of the entire projection surface can be calculated. Using the area ratio and the resolution, the number of pixels in the corresponding region can be calculated. The above-described geometric calculation is described in detail in the aforementioned “computer graphics”.

監視量算出手段124は、画素数算出手段122にて算出した評価領域の画素数と、評価領域設定処理にて算出した当該評価領域に相当する実空間における面積とを用いて、当該評価領域の単位面積当たりの画素の割合(以下、「画素密度」という)を算出し、当該画素密度を用いて当該評価領域の監視量を求める監視量算出処理を行う。以下、監視量算出処理の詳細について説明する。   The monitoring amount calculation means 124 uses the number of pixels in the evaluation area calculated by the pixel number calculation means 122 and the area in the real space corresponding to the evaluation area calculated in the evaluation area setting process. A ratio of pixels per unit area (hereinafter referred to as “pixel density”) is calculated, and a monitoring amount calculation process for obtaining a monitoring amount of the evaluation region using the pixel density is performed. Details of the monitoring amount calculation process will be described below.

監視量算出処理では、まず、評価対象の評価領域についての画素密度を、画素数算出手段122にて算出した評価領域の画素数Nと、評価領域情報114の面積Sとを用いて、画素密度ρ[pics/m^2]=N/Sにより算出する。次に、算出した画素密度ρとフレームレート113とを用いて、フレームレート113が大きいほど監視量が大きくなるよう算出する。本実施形態では、基準とするフレームレートによって、正規化した値を画素密度ρに乗ずることにより監視量を算出する。すなわち、基準とするフレームレートを30fpsとし、画素密度ρを求めた撮像装置のフレームレートが60fpsとしたとき、監視量V=画素密度ρ×(60/30)によって算出する。なお、評価領域によっては、複数の撮像装置によって撮像される場合がある。このような複数の撮像装置によって撮像されている評価領域の監視量は、撮像装置毎に算出した監視量の総和によって算出する。   In the monitoring amount calculation process, first, the pixel density of the evaluation region to be evaluated is calculated using the pixel number N of the evaluation region calculated by the pixel number calculation unit 122 and the area S of the evaluation region information 114. ρ [pics / m ^ 2] = N / S. Next, using the calculated pixel density ρ and the frame rate 113, the larger the frame rate 113, the larger the monitoring amount. In the present embodiment, the monitoring amount is calculated by multiplying the normalized value by the pixel density ρ according to the reference frame rate. That is, when the frame rate used as a reference is 30 fps and the frame rate of the imaging apparatus for which the pixel density ρ is obtained is 60 fps, the monitoring amount V = pixel density ρ × (60/30). Note that, depending on the evaluation region, the image may be captured by a plurality of imaging devices. The monitoring amount of the evaluation area captured by such a plurality of imaging devices is calculated by the sum of the monitoring amounts calculated for each imaging device.

以上の評価領域設定処理、画素数算出処理、監視量算出処理といった一連の処理により、所定の評価領域についての監視量を算出することが可能となる。ここで、評価領域が建造物等の陰になっている場合の監視量について説明する。図6は、壁面111bから庇部111cが突き出している場合における空間モデル111を表している。同図に表すように、仮想カメラ32から見たとき評価領域30aの一部が庇部111cの陰に隠れているため対応領域31aは小さくなる。そのため、当該対応領域31aの画素数は少なく計数されるため、当該対応領域31aの監視量は、図5における評価領域30の監視量と比べて小さくなる。また、仮想カメラ32から見たとき全部が庇部111cの陰に隠れている評価領域30bについては、対応領域が存在せず、監視量は0となる。このように、本発明は、建造物等の陰になって撮像範囲から外れている評価領域の監視量が小さく算出されるといったように、監視空間の3次元構造を踏まえた監視量を求めることができる。したがって、管理者は、監視するにあたって監視空間の3次元構造を踏まえたより適切な対応(例えば、死角となる領域に警備員を配置する等)をとることが可能となる。   The monitoring amount for a predetermined evaluation region can be calculated by a series of processing such as the above-described evaluation region setting processing, pixel number calculation processing, and monitoring amount calculation processing. Here, the monitoring amount when the evaluation area is behind a building or the like will be described. FIG. 6 shows the space model 111 when the collar 111c protrudes from the wall surface 111b. As shown in the figure, since the part of the evaluation area 30a is hidden behind the collar 111c when viewed from the virtual camera 32, the corresponding area 31a becomes small. Therefore, since the number of pixels in the corresponding area 31a is counted to be small, the monitoring amount of the corresponding area 31a is smaller than the monitoring amount of the evaluation area 30 in FIG. In addition, for the evaluation area 30b that is entirely hidden behind the buttock 111c when viewed from the virtual camera 32, there is no corresponding area and the monitoring amount is zero. As described above, the present invention obtains the monitoring amount based on the three-dimensional structure of the monitoring space so that the monitoring amount in the evaluation area which is out of the imaging range behind the building or the like is calculated to be small. Can do. Therefore, the manager can take a more appropriate response (for example, arranging a guard in a blind spot area) based on the three-dimensional structure of the monitoring space.

監視量画像生成手段124は、記憶部11の空間モデル111と、評価領域設定手段121にて設定した評価領域情報114と、監視量算出手段123にて算出した監視量とを用いて、所定の視点・視野から空間モデル111をレンダリング処理した仮想画像であって、空間モデル111における評価領域に対応する監視量に応じた色(又は濃淡)で着色した画像である監視量画像を生成する監視量画像生成処理を行い、生成した監視量画像を表示部24に出力する処理を行う。以下、監視量画像生成処理の詳細について説明する。   The monitoring amount image generation unit 124 uses a space model 111 in the storage unit 11, the evaluation region information 114 set by the evaluation region setting unit 121, and the monitoring amount calculated by the monitoring amount calculation unit 123. A monitoring amount for generating a monitoring amount image that is a virtual image obtained by rendering the space model 111 from the viewpoint / view and is colored with a color (or light and shade) corresponding to the monitoring amount corresponding to the evaluation region in the space model 111 Image generation processing is performed, and processing for outputting the generated monitoring amount image to the display unit 24 is performed. Details of the monitoring amount image generation processing will be described below.

監視量画像生成処理では、まず、監視量画像を生成するために実施するレンダリング処理にて必要とされる視点・視野に関する情報を記憶部11から読み出す。なお、この視点・視野に関する情報は、管理者等により初期設定時に固定的に設定入力されていることとする。しかし、管理者等が必要に応じて入力部14を用いて設定入力してもよい。次に、監視量画像生成処理では、記憶部11から読み出した視点・視野に関する情報を用いて空間モデル111を撮像した仮想画像を生成する。そして、評価領域情報114の評価領域の範囲に関する情報に基づいて、生成した仮想画像における評価領域に相当する画像領域に、当該評価領域に対応する監視量に応じた色で着色(テクスチャマッピング)する。例えば、監視量が大きい値であるほど、濃い赤色で着色し、監視量が小さくなる程、白色(無色)に近づいていくように着色する。   In the monitoring amount image generation process, first, information on the viewpoint and visual field required in the rendering process performed to generate the monitoring amount image is read from the storage unit 11. It is assumed that the information regarding the viewpoint and the visual field is fixedly set and input by an administrator or the like at the time of initial setting. However, an administrator or the like may perform setting input using the input unit 14 as necessary. Next, in the monitoring amount image generation process, a virtual image obtained by capturing the space model 111 is generated using information on the viewpoint and visual field read from the storage unit 11. Then, based on the information about the range of the evaluation area in the evaluation area information 114, the image area corresponding to the evaluation area in the generated virtual image is colored (texture mapping) with a color corresponding to the monitoring amount corresponding to the evaluation area. . For example, the larger the monitoring amount, the darker the red color, and the smaller the monitoring amount, the closer it becomes white (colorless).

表示部13は、ディスプレイ等の情報表示デバイスである。表示部13は、制御部12の監視量画像生成手段124から出力された監視量画像を表示する。なお、表示部13は、本発明における出力部として機能する。   The display unit 13 is an information display device such as a display. The display unit 13 displays the monitoring amount image output from the monitoring amount image generation unit 124 of the control unit 12. The display unit 13 functions as an output unit in the present invention.

(撮像シミュレーション装置1の制御部12が実行する処理について)
以下、本実施形態の撮像シミュレーション装置1の制御部12が実行する処理の流れの一例について、図7を参照しながら詳細に説明する。なお、本実施例では、監視空間に2台の撮像装置が設置されているものとして説明する。
(About processing executed by the control unit 12 of the imaging simulation apparatus 1)
Hereinafter, an example of the flow of processing executed by the control unit 12 of the imaging simulation apparatus 1 according to the present embodiment will be described in detail with reference to FIG. In the present embodiment, description will be made assuming that two imaging devices are installed in the monitoring space.

撮像シミュレーション装置1の動作に先立ち、管理者により撮像シミュレーション装置1の入力部14を用いて撮像条件情報112の設定、及び空間モデル111の登録等の各種初期設定が行なわれる(ST1)。本実施形態では、監視空間に2台の撮像装置が設置されている場合を想定しているため、撮像装置ごとに撮像条件情報112が初期設定にて登録される。また、空間モデル111として図2の3次元形状データが、初期設定にて登録されたとして以下の処理を説明する。   Prior to the operation of the imaging simulation apparatus 1, the administrator performs various initial settings such as setting of the imaging condition information 112 and registration of the spatial model 111 using the input unit 14 of the imaging simulation apparatus 1 (ST1). In the present embodiment, since it is assumed that two imaging devices are installed in the monitoring space, the imaging condition information 112 is registered for each imaging device with initial settings. Further, the following processing will be described assuming that the three-dimensional shape data of FIG.

次に、評価領域設定手段121は、図4の点線で表す領域のような、空間モデル111上に監視量を算出する単位領域である評価領域を設定する評価領域設定処理を行う(ST2)。評価領域設定処理では、評価領域の範囲を表す座標値と、当該評価領域に相当する実空間における面積とを求め記憶部11に評価領域情報114として記憶する。なお、以降の処理である図7のループ1の処理では、設定した評価領域毎に処理を行う。すなわち、ループ1は、設定した評価領域の数分だけ実行することを意味する。以降の説明において、対象評価領域とは、ループ1にて処理対象となっている評価領域をいう。また、図7のループ2の処理では、監視空間に設置した撮像装置毎に処理を行う。すなわち、ループ2は、設置した撮像装置の数分だけ実行することを意味する。以降の説明において、対象撮像装置とは、ループ2にて処理対象となっている撮像装置をいう。   Next, the evaluation area setting unit 121 performs an evaluation area setting process for setting an evaluation area, which is a unit area for calculating a monitoring amount, on the space model 111, such as an area represented by a dotted line in FIG. 4 (ST2). In the evaluation area setting process, a coordinate value representing the range of the evaluation area and an area in the real space corresponding to the evaluation area are obtained and stored as evaluation area information 114 in the storage unit 11. In the subsequent processing of loop 1 in FIG. 7, processing is performed for each set evaluation area. That is, the loop 1 means that the number of evaluation areas set is executed. In the following description, the target evaluation area refers to an evaluation area that is a processing target in the loop 1. Further, in the processing of the loop 2 in FIG. 7, the processing is performed for each imaging device installed in the monitoring space. In other words, the loop 2 means that the number of executions is equal to the number of installed imaging devices. In the following description, the target imaging device refers to an imaging device that is a processing target in loop 2.

次に、画素数算出手段122は、画素数算出処理を行う(ST3)。画素数算出処理では、対象撮像装置に対応する撮像条件情報112を読出し、当該撮像条件情報112を用いて前記撮像装置から空間モデル111を3次元投影(透視投影)した投影面(二次元の仮想カメラ画像)において、対象評価領域に相当する画像領域(対応領域)の画素数を算出する。画素数算出処理の詳細については、前述したためここでは説明を省略する。   Next, the pixel number calculation means 122 performs a pixel number calculation process (ST3). In the pixel count calculation process, the imaging condition information 112 corresponding to the target imaging device is read, and the projection plane (two-dimensional virtual projection) obtained by three-dimensionally projecting (perspective projection) the spatial model 111 from the imaging device using the imaging condition information 112. In the camera image), the number of pixels in the image area (corresponding area) corresponding to the target evaluation area is calculated. Since the details of the pixel number calculation process have been described above, the description thereof is omitted here.

次に、監視量算出手段123は、ST3にて算出した画素数と、ST2にて算出した対象評価領域に相当する実空間における面積と、対象撮像装置のフレームレート113とを用いて、対象撮像装置による対象評価領域の監視量を算出する監視量算出処理を行う(ST4)。監視量算出処理の詳細については、前述したためここでは説明を省略する。   Next, the monitoring amount calculation unit 123 uses the number of pixels calculated in ST3, the area in the real space corresponding to the target evaluation area calculated in ST2, and the frame rate 113 of the target imaging device to perform target imaging. A monitoring amount calculation process for calculating the monitoring amount of the target evaluation area by the apparatus is performed (ST4). Since the details of the monitoring amount calculation processing have been described above, description thereof is omitted here.

次に、監視量算出手段123は、ループ2にて対象撮像装置毎に算出した対象評価領域の監視量の総和を求め、その値を対象評価領域の監視量として算出する(ST5)。一般的に、所定の評価領域が複数の撮像装置によって撮像されているとき、当該評価領域について得られる情報量(=監視度合い)は1台のときに比べて大きくなる。そのため、対象評価領域の監視量を、各撮像装置による監視量の総和として算出することにより、複数の撮像装置が設置された監視空間についての監視量を簡易的に算出することができる。このようにして算出した監視量を各対象評価領域の識別情報と対応付けて記憶部11に一時的に記憶し、ループ1にて全ての評価領域についての監視量を算出するよう処理を繰り返す。   Next, the monitoring amount calculation means 123 calculates the sum of the monitoring amounts of the target evaluation area calculated for each target imaging device in the loop 2, and calculates the value as the monitoring amount of the target evaluation area (ST5). In general, when a predetermined evaluation area is imaged by a plurality of imaging devices, the amount of information (= degree of monitoring) obtained for the evaluation area is larger than when one apparatus is used. Therefore, by calculating the monitoring amount of the target evaluation area as the sum of the monitoring amounts by the respective imaging devices, it is possible to easily calculate the monitoring amount for the monitoring space where a plurality of imaging devices are installed. The monitoring amount calculated in this manner is temporarily stored in the storage unit 11 in association with the identification information of each target evaluation region, and the process is repeated so as to calculate the monitoring amount for all the evaluation regions in the loop 1.

次に、評価領域設定手段121は、ループ1にて算出した全ての評価領域の監視量と、ST2にて設定した評価領域情報114と、記憶部11の空間モデル111とを用いて、監視量画像を生成する監視量画像生成処理を行う(ST6)。監視量画像生成処理の詳細については、前述したためここでは説明を省略する。次に、制御部12は、ST6にて生成された監視量画像を表示部13に表示出力する出力処理を行う(ST7)。   Next, the evaluation area setting unit 121 uses the monitoring amount of all evaluation areas calculated in loop 1, the evaluation area information 114 set in ST2, and the space model 111 of the storage unit 11 to monitor the amount of monitoring. Monitoring amount image generation processing for generating an image is performed (ST6). Since the details of the monitoring amount image generation processing have been described above, the description thereof is omitted here. Next, the control unit 12 performs output processing for displaying and outputting the monitoring amount image generated in ST6 on the display unit 13 (ST7).

図8は、監視量画像40の一例を表した図である。図8において、符号32a、32bは、それぞれ監視空間に設置された2台の撮像装置に対応した仮想カメラを表している。本実施形態では、仮想カメラ32aに対応する撮像装置は比較的低い位置から建物の間の通りを撮像しており、仮想カメラ32bに対応する撮像装置は比較的高高度の位置から広い範囲を撮像している。同図において表すように、仮想カメラ32a、32bの視野方向近傍の位置である符号33a、33bの点線内の評価領域の監視量は濃い色で表示され、監視量が大きいことが容易に把握できる。特に、低い位置から撮像している仮想カメラ32aの視野方向近傍の領域33aにおいては、領域33bと比べて大きい監視量であることがわかり、これは当該領域33aの方が多くの情報量(画素数)で撮像されていることを意味している。一方、高高度の位置から広い範囲を撮像している仮想カメラ32bの視野方向近傍の領域33bは領域33aと比較して監視量が小さいことがわかる。これは当該領域33aが仮想仮想カメラ32bから離れているため、領域33aと比較して少ない情報量(画素数)で撮像されていることを意味している。また、同図から、仮想カメラ32aの視野と仮想カメラ32bの視野とが重なる領域33cの監視量が比較的大きいことが把握できるが、これはST5にて仮想カメラ32aによる監視量と仮想カメラ32bによる監視量との総和を求めたためである。   FIG. 8 is a diagram illustrating an example of the monitoring amount image 40. In FIG. 8, reference numerals 32 a and 32 b represent virtual cameras corresponding to two imaging devices installed in the monitoring space. In the present embodiment, the imaging device corresponding to the virtual camera 32a images a street between buildings from a relatively low position, and the imaging device corresponding to the virtual camera 32b images a wide range from a relatively high altitude position. doing. As shown in the figure, the monitoring amount of the evaluation area within the dotted lines indicated by reference numerals 33a and 33b, which are positions in the vicinity of the visual field direction of the virtual cameras 32a and 32b, is displayed in a dark color, and it can be easily understood that the monitoring amount is large. . In particular, it can be seen that the region 33a in the vicinity of the visual field direction of the virtual camera 32a picked up from a low position has a larger monitoring amount than the region 33b, and this region 33a has a larger amount of information (pixels). Number). On the other hand, it can be seen that the monitoring amount is small in the region 33b in the vicinity of the visual field direction of the virtual camera 32b that captures a wide range from the high altitude position compared to the region 33a. This means that the area 33a is away from the virtual virtual camera 32b, so that the image is captured with a smaller amount of information (number of pixels) than the area 33a. In addition, it can be understood from FIG. 6 that the monitoring amount of the region 33c where the visual field of the virtual camera 32a and the visual field of the virtual camera 32b overlap is relatively large. This is because the monitoring amount by the virtual camera 32a and the virtual camera 32b in ST5. This is because the sum total with the amount of monitoring by.

以上のように、本実施形態の撮像シミュレーション装置1は、監視空間に設置された撮像装置により、監視空間の所定の位置がどの程度詳細に撮像されているのかといった監視度合いを表す監視量を監視量画像として集約表示することができる。これにより、管理者は、表示部13からの表示出力された監視量画像を参照することにより、これらの撮像装置によってどの程度詳細に撮像されているのかといった監視度合いについて一目で把握することができる。したがって、管理者は、既設の撮像装置による監視が弱い領域、例えば、当該撮像装置の撮像範囲に含まれていたとしても監視画像においては小さく(少ない画素数で)表示されるような領域を把握することができる。そして、当該監視が弱い領域のセキュリティを確保するよう、撮像装置の増設や、警備員の配置、又は監視移動ロボットを向かわせるなどのような対応を取ることができる。   As described above, the imaging simulation apparatus 1 according to the present embodiment monitors the monitoring amount indicating the degree of monitoring such as how much a predetermined position in the monitoring space is imaged by the imaging apparatus installed in the monitoring space. It can be aggregated and displayed as a quantity image. Thereby, the administrator can grasp at a glance the degree of monitoring, such as how much the image is captured by these imaging devices, by referring to the monitoring amount image output from the display unit 13. . Therefore, the administrator grasps a region that is weakly monitored by the existing imaging device, for example, a region that is displayed small (with a small number of pixels) in the monitoring image even if included in the imaging range of the imaging device. can do. Then, in order to ensure the security of the area where the monitoring is weak, it is possible to take measures such as adding an imaging device, arranging guards, or pointing the monitoring mobile robot.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記実施形態では、監視量を算出するにあたって、撮像装置の設置位置や姿勢、画角、解像度といった撮像条件情報112を用いた。しかし、これに限らず、撮像装置の被写界深度を更に用いて監視量を算出してもよい。一般的に、被写界深度の範囲外に物体が位置すればする程、当該物体にフォーカス(焦点)が合わずにボケた表示になるため、たとえ撮像装置の撮像範囲内に位置し、大きく撮像されていたとしても、このような場合において撮像画像から得られる情報量は相対的に小さくなる。したがって、被写界深度を考慮することにより、より正確な監視量を算出することができる。例えば、被写界深度として近点距離(前端距離)と遠点距離(後端距離)を予め記憶部11に記憶しておく。そして、評価領域設定手段121は、仮想カメラの光学中心O(撮像装置の設置位置)から評価領域の重心位置までの距離を幾何計算する。そして、監視量算出手段123は、当該距離が近点距離よりも小さい値であるほど監視量が小さい値になるよう、また、当該距離が遠点距離よりも大きい値であるほど監視量が小さい値になるよう補正する。これにより、管理者は、被写界深度を考慮したより適切な監視量を把握することができる。なお、被写界深度を予め記憶部11に記憶するのではなく、他のパラメーター(例えば、焦点距離、絞り値等)を予め記憶部11に記憶しておき、当該パラメーターを用いて既知の方法により被写界深度を算出してもよい。   In the above embodiment, in calculating the monitoring amount, the imaging condition information 112 such as the installation position and orientation of the imaging apparatus, the angle of view, and the resolution is used. However, the present invention is not limited to this, and the monitoring amount may be calculated by further using the depth of field of the imaging device. In general, the more an object is located outside the depth of field, the more blurred the display will be because the object is out of focus (focus). Even if the image is captured, the amount of information obtained from the captured image is relatively small in such a case. Therefore, a more accurate monitoring amount can be calculated by considering the depth of field. For example, a near point distance (front end distance) and a far point distance (rear end distance) are stored in advance in the storage unit 11 as the depth of field. Then, the evaluation area setting unit 121 geometrically calculates the distance from the optical center O (installation position of the imaging device) of the virtual camera to the gravity center position of the evaluation area. Then, the monitoring amount calculation unit 123 is configured such that the monitoring amount becomes smaller as the distance is smaller than the near point distance, and the monitoring amount is smaller as the distance is larger than the far point distance. Correct it to a value. Thereby, the administrator can grasp a more appropriate monitoring amount in consideration of the depth of field. The depth of field is not stored in the storage unit 11 in advance, but other parameters (for example, focal length, aperture value, etc.) are stored in the storage unit 11 in advance, and a known method using the parameters is stored. The depth of field may be calculated by

上記実施形態では、評価領域設定手段121が監視空間の地面と建造物壁面に相当する空間モデル111の領域を評価領域として設定したが、これに限らず、監視空間の地面や壁面ではない上空部分を評価領域として設定してもよい。例えば、図9に表すように、評価領域設定手段121は上空部分に球体等の評価領域30cを設定し、画素数算出手段122は当該評価領域30cに対応する対応領域31cの画素数を算出することにより、監視量画像生成手段124は当該評価領域30cにおける監視量を同様に算出することができる。図10は監視空間において人物が通行できる地面上空に評価領域を設定して、上空における複数個所の監視量を算出したときの監視量画像40を例示したものである。このように、地面や壁面等の空間モデル111に接する領域の監視量だけでなく、上空部分の監視量を算出することにより、管理者は所定の高さにおける監視量を正確に把握することができる。したがって、例えば、人物の顔位置の高さにおける監視量を把握したいときにおいても本発明を利用することができる。   In the above embodiment, the evaluation area setting unit 121 sets the area of the space model 111 corresponding to the ground and the building wall surface of the monitoring space as the evaluation area. May be set as the evaluation region. For example, as shown in FIG. 9, the evaluation area setting unit 121 sets an evaluation area 30c such as a sphere in the sky, and the pixel number calculation unit 122 calculates the number of pixels in the corresponding area 31c corresponding to the evaluation area 30c. Thus, the monitoring amount image generation unit 124 can similarly calculate the monitoring amount in the evaluation area 30c. FIG. 10 shows an example of a monitoring amount image 40 when an evaluation region is set above the ground where a person can pass in the monitoring space, and the monitoring amounts at a plurality of locations in the sky are calculated. Thus, by calculating not only the monitoring amount of the area in contact with the space model 111 such as the ground surface or the wall surface, but also the monitoring amount of the sky portion, the administrator can accurately grasp the monitoring amount at a predetermined height. it can. Therefore, for example, the present invention can be used when it is desired to grasp the monitoring amount at the height of the person's face position.

上記実施形態では、監視量画像生成手段124にて監視量に応じた色や濃淡にて着色した監視量画像を生成し、表示部13にて表示出力しているが、これに限らず、監視量画像を生成せずに監視量を数値出力してもよい。例えば、管理者が入力部14(例えばマウス等)を用いて監視空間の所定の地点を指定したとき、当該地点を含む評価領域の監視量を算出し、当該監視量を数値として表示部13に出力してもよい。
或いは、監視空間のあらゆる領域について監視量を算出し、所定の閾値以下の監視量となる領域を他の領域と識別可能に画像出力してもよい。
或いは、算出した監視量を用いて認証装置が認証できる領域を表示出力してもよい。すなわち、認証装置が認証対象する物体部位の床面からの高さと、当該認証装置が認証可能となる監視量の下限値を表す閾値とを対応付けた認証装置情報を、予め記憶部11に記憶しておく。例えば、認証装置が認証対象する物体の部位を「人物の顔」とし、その高さを1.7mと記憶しておく。また、認証装置が認証可能となる監視量の下限値として、認証可能となる顔画像の画素数と、顔の概略面積から求められる画素密度を記憶しておく。そして、評価領域設定手段121は適当な大きさ(例えば、頭部に相当する大きさ)からなる評価領域を当該高さの位置に設定し、画素数算出手段122は当該評価領域に相当する対応領域の画素数を算出し、監視量算出手段123は、当該評価領域における監視量を同様に算出する。なお、より好適には、監視量の算出にあたっては、フレームレート113を考慮せず、また、撮像装置毎の監視量の総和を算出しないことが望ましい。そして、監視量画像生成手段124は、前記閾値よりも大きい評価領域を、それ以外の空間モデルの領域と識別可能に表示した識別領域画像を生成し、当該識別領域画像を表示部13により表示出力する。図11は、識別領域画像の一例であり、監視量が閾値よりも大きい評価領域の垂直下方向の地面部分33dを他の領域と識別可能に表示(塗りつぶし表示)したときの識別領域画像41である。このように、管理者は、識別領域画像41を見ることにより、広い監視空間において認証装置により認証可能な領域33dを一目で把握することができる。
In the above-described embodiment, the monitoring amount image generation unit 124 generates a monitoring amount image colored in colors or shades according to the monitoring amount, and displays and outputs it on the display unit 13. The monitoring amount may be output as a numerical value without generating the amount image. For example, when the administrator designates a predetermined point in the monitoring space using the input unit 14 (for example, a mouse), the monitoring amount of the evaluation area including the point is calculated, and the monitoring amount is displayed as a numerical value on the display unit 13. It may be output.
Alternatively, the monitoring amount may be calculated for every region in the monitoring space, and the region having the monitoring amount equal to or smaller than a predetermined threshold may be output as an image so that it can be distinguished from other regions.
Alternatively, an area that can be authenticated by the authentication apparatus may be displayed and output using the calculated monitoring amount. That is, authentication device information in which the height from the floor surface of the object part to be authenticated by the authentication device and the threshold value indicating the lower limit value of the monitoring amount that can be authenticated by the authentication device is stored in the storage unit 11 in advance. Keep it. For example, the part of the object to be authenticated by the authentication apparatus is “person's face”, and the height is stored as 1.7 m. Further, as the lower limit value of the monitoring amount that can be authenticated by the authentication apparatus, the number of pixels of the face image that can be authenticated and the pixel density obtained from the approximate area of the face are stored. Then, the evaluation area setting unit 121 sets an evaluation area having an appropriate size (for example, a size corresponding to the head) at the height position, and the pixel number calculation unit 122 corresponds to the evaluation area. The number of pixels in the region is calculated, and the monitoring amount calculation unit 123 similarly calculates the monitoring amount in the evaluation region. More preferably, when calculating the monitoring amount, it is preferable not to consider the frame rate 113 and to calculate the sum of the monitoring amounts for each imaging device. Then, the monitoring amount image generation unit 124 generates an identification area image in which the evaluation area larger than the threshold value is displayed so as to be distinguishable from other spatial model areas, and the display area 13 displays and outputs the identification area image. To do. FIG. 11 is an example of an identification area image, and is an identification area image 41 when the vertically downward ground portion 33d of the evaluation area whose monitoring amount is larger than the threshold is displayed (filled display) so as to be distinguishable from other areas. is there. Thus, the administrator can grasp at a glance the area 33d that can be authenticated by the authentication apparatus in a wide monitoring space by looking at the identification area image 41.

上記実施形態では、撮像装置の設置位置や姿勢、画角、解像度といった撮像条件情報112やフレームレート113を、予め管理者等により設定登録されることにより記憶部11に記憶されている。しかし、これに限らず、撮像シミュレーション装置1に有線LAN/無線LANやUSB等の通信インタフェースである通信部を備え、当該通信部を介して撮像装置や当該撮像装置を管理するサーバ装置とネットワーク接続し、これらの装置から撮像条件情報112やフレームレート113を受信して記憶部11に記憶する構成であってもよい。これにより、例えば、カメラコントローラー等によるパン、チルト、ズーム等の操作により撮像装置の姿勢や画角が変更された場合や、移動ロボット搭載の撮像装置の撮像位置が変更された場合であっても、管理者は、当該変更を反映した監視量を適宜把握することができる。   In the above embodiment, the imaging condition information 112 such as the installation position and orientation of the imaging device, the angle of view, and the resolution, and the frame rate 113 are stored in the storage unit 11 by being set and registered in advance by an administrator or the like. However, the present invention is not limited to this, and the imaging simulation apparatus 1 includes a communication unit that is a communication interface such as a wired LAN / wireless LAN or USB, and is connected to the imaging apparatus and a server apparatus that manages the imaging apparatus via the communication unit via a network connection. The imaging condition information 112 and the frame rate 113 may be received from these devices and stored in the storage unit 11. Thereby, for example, even when the attitude or angle of view of the imaging device is changed by an operation such as panning, tilting, or zooming by a camera controller, or when the imaging position of the imaging device mounted on the mobile robot is changed. The administrator can appropriately grasp the monitoring amount reflecting the change.

1・・・撮像シミュレーション装置
11・・・記憶部
12・・・制御部
13・・・表示部
14・・・入力部
111・・・空間モデル
112・・・撮像条件情報
113・・・フレームレート
114・・・評価領域情報
121・・・評価領域設定手段
122・・・画素数算出手段
123・・・監視量算出手段
124・・・監視量画像生成手段
30・・・評価領域
31・・・対応領域
32・・・仮想カメラ
40・・・監視量画像
41・・・識別領域画像
DESCRIPTION OF SYMBOLS 1 ... Imaging simulation apparatus 11 ... Memory | storage part 12 ... Control part 13 ... Display part 14 ... Input part 111 ... Spatial model 112 ... Imaging condition information 113 ... Frame rate 114 ... Evaluation area information 121 ... Evaluation area setting means 122 ... Number of pixels calculation means 123 ... Monitoring amount calculation means 124 ... Monitoring amount image generation means 30 ... Evaluation area 31 ... Corresponding area 32 ... Virtual camera 40 ... Monitoring amount image 41 ... Identification area image

Claims (6)

監視空間に設置した一又は複数の撮像装置により、該監視空間内の所定位置における監視度合いを表す監視量を求める撮像シミュレーション装置であって、
前記監視空間を3次元の仮想空間として表現した空間モデルと、前記撮像装置の前記監視空間における設置位置及び姿勢を前記仮想空間に対応付けた情報並びに該撮像装置の画角及び解像度とからなる撮像条件情報と、を記憶する記憶部と、
前記所定位置に対応する前記空間モデル上の位置を含む評価領域を設定し、前記撮像条件情報を用いて前記撮像装置から該空間モデルを3次元投影した投影面における該評価領域に相当する領域の画素数を求め、該画素数と該評価領域に相当する面積とを用いて該評価領域の単位面積当たりの画素の割合から前記所定位置の前記監視量を求める制御部と、
前記監視量を出力する出力部と、
を有することを特徴とする撮像シミュレーション装置。
An imaging simulation apparatus for obtaining a monitoring amount representing a monitoring degree at a predetermined position in the monitoring space by one or a plurality of imaging apparatuses installed in the monitoring space,
Imaging including a space model expressing the monitoring space as a three-dimensional virtual space, information relating the installation position and orientation of the imaging device in the monitoring space to the virtual space, and the angle of view and resolution of the imaging device A storage unit for storing condition information;
An evaluation area including a position on the spatial model corresponding to the predetermined position is set, and an area corresponding to the evaluation area on a projection plane on which the spatial model is three-dimensionally projected from the imaging apparatus using the imaging condition information. A control unit that obtains the number of pixels and obtains the monitoring amount at the predetermined position from a ratio of pixels per unit area of the evaluation region using the number of pixels and an area corresponding to the evaluation region;
An output unit for outputting the monitoring amount;
An imaging simulation apparatus comprising:
前記記憶部は、更に、前記撮像装置のフレームレートを記憶し、
前記制御部は、前記監視量を前記フレームレートが大きいほど大きくなるよう算出する請求項1に記載の撮像シミュレーション装置。
The storage unit further stores a frame rate of the imaging device,
The imaging simulation apparatus according to claim 1, wherein the control unit calculates the monitoring amount so as to increase as the frame rate increases.
前記記憶部は、更に、前記撮像装置の被写界深度を記憶し、
前記制御部は、前記撮像装置の前記設置位置から前記評価領域の重心位置までの距離を算出し、該距離が前記被写界深度の範囲から外れるほど前記監視量が小さくなるよう算出する請求項1又は請求項2に記載の撮像シミュレーション装置。
The storage unit further stores a depth of field of the imaging device,
The control unit calculates a distance from the installation position of the imaging device to a gravity center position of the evaluation area, and calculates so that the monitoring amount decreases as the distance deviates from the range of the depth of field. The imaging simulation apparatus according to claim 1 or 2.
前記制御部は、更に、前記評価領域に対応する前記空間モデルの領域を前記監視量に応じた色又は濃淡にて表した監視量画像を生成し、
前記出力部は、前記監視量画像を表示出力する請求項1から請求項3の何れか一項に記載の撮像シミュレーション装置。
The control unit further generates a monitoring amount image in which a region of the spatial model corresponding to the evaluation region is represented by a color or shade corresponding to the monitoring amount,
The imaging simulation apparatus according to any one of claims 1 to 3, wherein the output unit displays and outputs the monitoring amount image.
前記記憶部は、更に、所定の高さにおける前記監視量の閾値を予め記憶し、
前記制御部は、更に、前記高さにおける前記評価領域の前記監視量を算出し、前記監視量が前記閾値よりも大きい評価領域を、それ以外の空間モデルの領域と識別可能に表示した識別領域画像を生成し、
前記出力部は、前記識別領域画像を表示出力する請求項1から請求項4の何れか一項に記載の撮像シミュレーション装置。
The storage unit further stores in advance a threshold value of the monitoring amount at a predetermined height,
The control unit further calculates the monitoring amount of the evaluation region at the height, and displays an evaluation region in which the monitoring amount is larger than the threshold so as to be distinguishable from other spatial model regions. Generate an image,
The imaging simulation apparatus according to claim 1, wherein the output unit displays and outputs the identification area image.
監視空間に設置した一又は複数の撮像装置により、該監視空間内の所定位置における監視度合いを表す監視量を求めるプログラムであって、
前記監視空間を3次元の仮想空間として表現した空間モデルと、前記撮像装置の前記監視空間における設置位置及び姿勢を前記仮想空間に対応付けた情報並びに該撮像装置の画角及び解像度とからなる撮像条件情報と、を記憶しており、
前記プログラムは、コンピュータに、
前記所定位置に対応する前記空間モデル上の位置を含む評価領域を設定する処理と、前記撮像条件情報を用いて前記撮像装置から該空間モデルを3次元投影した投影面における該評価領域に相当する領域の画素数を求める処理と、該画素数と該評価領域に相当する面積とを用いて該評価領域の単位面積当たりの画素の割合から前記所定位置の前記監視量を求める処理と、
を実行させることを特徴とするプログラム。
A program for obtaining a monitoring amount representing a degree of monitoring at a predetermined position in the monitoring space by one or a plurality of imaging devices installed in the monitoring space,
Imaging including a space model expressing the monitoring space as a three-dimensional virtual space, information relating the installation position and orientation of the imaging device in the monitoring space to the virtual space, and the angle of view and resolution of the imaging device Condition information, and
The program is stored in a computer.
A process of setting an evaluation area including a position on the spatial model corresponding to the predetermined position, and corresponding to the evaluation area on a projection plane obtained by three-dimensionally projecting the spatial model from the imaging apparatus using the imaging condition information Processing for determining the number of pixels in the region, processing for determining the monitoring amount at the predetermined position from the ratio of pixels per unit area of the evaluation region using the number of pixels and the area corresponding to the evaluation region,
A program characterized by having executed.
JP2013224139A 2013-10-29 2013-10-29 Imaging simulation device Active JP6174968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013224139A JP6174968B2 (en) 2013-10-29 2013-10-29 Imaging simulation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013224139A JP6174968B2 (en) 2013-10-29 2013-10-29 Imaging simulation device

Publications (2)

Publication Number Publication Date
JP2015088819A true JP2015088819A (en) 2015-05-07
JP6174968B2 JP6174968B2 (en) 2017-08-02

Family

ID=53051218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013224139A Active JP6174968B2 (en) 2013-10-29 2013-10-29 Imaging simulation device

Country Status (1)

Country Link
JP (1) JP6174968B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135531A (en) * 2016-01-27 2017-08-03 三菱電機ビルテクノサービス株式会社 Security camera installation support device and program
WO2019012803A1 (en) * 2017-07-13 2019-01-17 シャープ株式会社 Designation device and designation method
JP2019179528A (en) * 2018-03-30 2019-10-17 セコム株式会社 Controller
WO2020026325A1 (en) * 2018-07-31 2020-02-06 日本電気株式会社 Evaluation device, derivation device, monitoring method, monitoring device, evaluation method, computer program, and derivation method
JP2020167452A (en) * 2019-03-28 2020-10-08 セコム株式会社 Image generator, image generator and image generation method
JP2021010070A (en) * 2019-06-28 2021-01-28 セコム株式会社 Camera arrangement evaluation device, camera arrangement evaluation method, and computer program
EP3815357A4 (en) * 2018-08-09 2021-08-18 Zhejiang Dahua Technology Co., Ltd. METHOD AND SYSTEM FOR SELECTING AN IMAGE CAPTURE DEVICE
CN113709409A (en) * 2020-05-20 2021-11-26 杭州萤石软件有限公司 Indoor monitoring processing method, device and equipment
CN116805351A (en) * 2023-06-14 2023-09-26 壹品慧数字科技(上海)有限公司 A smart building management system and method based on the Internet of Things

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009105802A (en) * 2007-10-25 2009-05-14 Toa Corp Camera installation simulator program
JP2009217115A (en) * 2008-03-12 2009-09-24 Toa Corp Camera picture simulator program
JP2009239821A (en) * 2008-03-28 2009-10-15 Toa Corp Camera installation simulator program
JP2012124839A (en) * 2010-12-10 2012-06-28 Secom Co Ltd Image monitoring apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009105802A (en) * 2007-10-25 2009-05-14 Toa Corp Camera installation simulator program
JP2009217115A (en) * 2008-03-12 2009-09-24 Toa Corp Camera picture simulator program
JP2009239821A (en) * 2008-03-28 2009-10-15 Toa Corp Camera installation simulator program
JP2012124839A (en) * 2010-12-10 2012-06-28 Secom Co Ltd Image monitoring apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135531A (en) * 2016-01-27 2017-08-03 三菱電機ビルテクノサービス株式会社 Security camera installation support device and program
WO2019012803A1 (en) * 2017-07-13 2019-01-17 シャープ株式会社 Designation device and designation method
JPWO2019012803A1 (en) * 2017-07-13 2020-07-02 シャープ株式会社 Designated device and designated program
JP7106327B2 (en) 2018-03-30 2022-07-26 セコム株式会社 Control device
JP2019179528A (en) * 2018-03-30 2019-10-17 セコム株式会社 Controller
WO2020026325A1 (en) * 2018-07-31 2020-02-06 日本電気株式会社 Evaluation device, derivation device, monitoring method, monitoring device, evaluation method, computer program, and derivation method
US11328404B2 (en) 2018-07-31 2022-05-10 Nec Corporation Evaluation apparatus, evaluation method, and non-transitory storage medium
EP3815357A4 (en) * 2018-08-09 2021-08-18 Zhejiang Dahua Technology Co., Ltd. METHOD AND SYSTEM FOR SELECTING AN IMAGE CAPTURE DEVICE
US11195263B2 (en) 2018-08-09 2021-12-07 Zhejiang Dahua Technology Co., Ltd. Method and system for selecting an image acquisition device
JP2020167452A (en) * 2019-03-28 2020-10-08 セコム株式会社 Image generator, image generator and image generation method
JP7319069B2 (en) 2019-03-28 2023-08-01 セコム株式会社 Image generation device, image generation program and image generation method
JP7291013B2 (en) 2019-06-28 2023-06-14 セコム株式会社 Camera placement evaluation device, camera placement evaluation method, and computer program
JP2021010070A (en) * 2019-06-28 2021-01-28 セコム株式会社 Camera arrangement evaluation device, camera arrangement evaluation method, and computer program
CN113709409A (en) * 2020-05-20 2021-11-26 杭州萤石软件有限公司 Indoor monitoring processing method, device and equipment
CN113709409B (en) * 2020-05-20 2024-03-01 杭州萤石软件有限公司 Indoor monitoring processing method, device and equipment
CN116805351A (en) * 2023-06-14 2023-09-26 壹品慧数字科技(上海)有限公司 A smart building management system and method based on the Internet of Things

Also Published As

Publication number Publication date
JP6174968B2 (en) 2017-08-02

Similar Documents

Publication Publication Date Title
JP6174968B2 (en) Imaging simulation device
JP7632518B2 (en) Image processing device, image processing method, and program
JP6423435B2 (en) Method and apparatus for representing a physical scene
US9443353B2 (en) Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP5093053B2 (en) Electronic camera
CN107836012A (en) Mapping method between projection image generation method and its device, image pixel and depth value
CN112912936B (en) Mixed reality system, program, mobile terminal device and method
WO2010130987A2 (en) Image generation method
Marcin et al. Hierarchical, three‐dimensional measurement system for crime scene scanning
JP2013257349A (en) Camera calibration result verification device and method
JP2016170610A (en) 3D model processing apparatus and camera calibration system
CN112669392B (en) Map positioning method and system applied to indoor video monitoring system
JP5525495B2 (en) Image monitoring apparatus, image monitoring method and program
CN110807413B (en) Target display method and related device
JP5714960B2 (en) Monitoring range detector
JP2019066196A (en) Tilt measuring device and tilt measuring method
JP2013211741A (en) Image monitoring device
JP2025067106A (en) Photographing device, photographing operation support method, and photographing operation support program
JP2020057430A (en) Mixed reality system, program, mobile terminal device, and method
JP2012213084A (en) Monitoring detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170707

R150 Certificate of patent or registration of utility model

Ref document number: 6174968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250