[go: up one dir, main page]

JP3365182B2 - Video surveillance equipment - Google Patents

Video surveillance equipment

Info

Publication number
JP3365182B2
JP3365182B2 JP34086995A JP34086995A JP3365182B2 JP 3365182 B2 JP3365182 B2 JP 3365182B2 JP 34086995 A JP34086995 A JP 34086995A JP 34086995 A JP34086995 A JP 34086995A JP 3365182 B2 JP3365182 B2 JP 3365182B2
Authority
JP
Japan
Prior art keywords
image
plane
unit
virtual
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34086995A
Other languages
Japanese (ja)
Other versions
JPH09179984A (en
Inventor
麻奈美 大園
田中  敦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP34086995A priority Critical patent/JP3365182B2/en
Publication of JPH09179984A publication Critical patent/JPH09179984A/en
Application granted granted Critical
Publication of JP3365182B2 publication Critical patent/JP3365182B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は移動する被監視物
体に対し所望視野/角度の仮想補間画像として再現をす
る、または最適カメラで表示をする映像監視装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image monitoring apparatus for reproducing a moving object to be monitored as a virtual interpolation image having a desired field of view / angle or displaying the image with an optimum camera.

【0002】[0002]

【従来の技術】たとえば特開平5−334572号公報
に示す従来の映像監視装置は図12のように、固定カメ
ラ51は、部屋内部全体を固定視野下で常時撮像をす
る。追尾カメラ51aは、被監視物体(侵入者など)を
検知するとその移動に応じ、演算部52から起動部53
と追尾部54とを介する起動と追尾指令および倍率指令
により、詳細な特徴(人相など)を把握できるように内
蔵ズーミングモータで追尾動作をし、被監視物体を中心
に視野に応じた拡大画像の撮像をする。画像部52は、
固定カメラ51からの映像信号に基づき被監視物体を検
知し起動と追尾指令をすると共に所望拡大画像の倍率指
令をする。録画部55は、固定と追尾カメラ51から5
1aから撮像画像を記録し、要すれば再現し検討する。
またたとえば一般に示す従来の移動する被監視物体(監
視領域への侵入者や侵入物体)の検出/追跡技術とし
て、映像カメラ2台による撮像画像情報に対し特徴点を
認識し当該座標検出後、画像補間中間画像を生成する方
式やパターンマッチング等による抽出物体の中心座標と
カメラの方位角から三角測量で対象物体の3次元位置や
大きさを取得する方式など、また特開平6−32518
0号公報のように撮像画像情報から一定時間後の追跡対
象物位置を予測する方式などがある。
2. Description of the Related Art As shown in FIG. 12, a conventional video monitoring apparatus disclosed in, for example, Japanese Patent Laid-Open No. 334572/1990, a fixed camera 51 always takes an image of the entire interior of a room under a fixed field of view. When the tracking camera 51a detects an object to be monitored (intruder or the like), the tracking camera 51a moves from the calculation unit 52 to the activation unit 53 according to the movement of the object.
The start-up and tracking command and the magnification command via the tracking unit 54 and the tracking command are performed by the built-in zooming motor so that detailed features (human phase, etc.) can be grasped by the command and the magnification command, and an enlarged image corresponding to the field of view centered on the monitored object. The image of. The image section 52 is
The object to be monitored is detected based on the video signal from the fixed camera 51, and the start and tracking commands are issued and the magnification command of the desired enlarged image is issued. The recording unit 55 includes fixed and tracking cameras 51 to 5
The captured image is recorded from 1a, reproduced if necessary, and examined.
Further, for example, as a conventional technique of detecting / tracking a moving monitored object (intruder or intruding object into the monitoring area) generally shown, a feature point is recognized with respect to image information captured by two video cameras, and the image is detected after the coordinates are detected. A method of generating an interpolated intermediate image, a method of acquiring the three-dimensional position and size of the target object by triangulation from the center coordinates of the extracted object and the azimuth angle of the camera by pattern matching or the like, and JP-A-6-32518.
There is a method of predicting the position of a tracking target object after a predetermined time from captured image information as in Japanese Patent No. 0.

【0003】上記従来の映像監視装置は、移動する被監
視物体方向にカメラ自体を動かすか数台のカメラを切り
替えて映像監視をする方式を採る。
The above-mentioned conventional video monitoring apparatus adopts a system of video monitoring by moving the camera itself in the direction of a moving object to be monitored or switching several cameras.

【0004】[0004]

【発明が解決しようとする課題】上記のような従来の映
像監視装置では、移動する被監視物体方向にカメラ自体
を動かすか数台のカメラを切り替える方式を採るから、
カメラ雲台の回転速度やカメラ台数により監視区域を限
定する。また所望視野/角度の映像表示をしたい場合
(複数の監視者がいる場合や複数視野から確認したい場
合など)にカメラ台数を増やす必要がある。また地震や
雷などの天災やシステム異常の発生時、映像監視の自動
起動条件の組合せが固定的で限定されてしまう問題点が
あった。
In the conventional image monitoring apparatus as described above, since the camera itself is moved in the direction of the moving object to be monitored or several cameras are switched,
The monitoring area is limited by the rotation speed of the camera platform and the number of cameras. In addition, it is necessary to increase the number of cameras when it is desired to display an image with a desired field of view / angle (when there are a plurality of observers or when it is desired to confirm from a plurality of fields of view). In addition, when a natural disaster such as an earthquake or lightning strike or a system abnormality occurs, the combination of automatic start conditions for video surveillance is fixed and limited.

【0005】この発明が解決しようとする課題は、映像
監視装置で次の方式を提供することにある。 (1)複数のカメラから取り込む各撮像画像の抽出特徴
点に対し、仮想視点からの距離による重みづけをし合成
する仮想補間画像を用い映像監視をする方式(仮想映像
監視方式) (2)広域カメラで捉えられる範囲であれば被監視物体
の認識、追跡などを不要とし、自律的に映像監視操作を
する方式(自律映像監視方式) (3)ネットワーク上に複数配置をする観測系間通信で
広範囲の監視を可能としかつ自律的な協調動作による負
荷分散を計り映像監視をする方式(自律協調分散映像監
視方式) (4)各システムに対応し所要監視情報を常時モニター
し複数要素の組合せを設定する自動起動条件で映像監視
をする方式(自動起動映像監視方式)
The problem to be solved by the present invention is to provide the following system in a video surveillance device. (1) A method of performing video monitoring using a virtual interpolated image in which the extracted feature points of each captured image captured from a plurality of cameras are weighted and combined according to the distance from the virtual viewpoint (virtual video monitoring method) (2) Wide area A system that does not require recognition and tracking of the monitored object within the range that can be captured by the camera, and that autonomously performs video monitoring operation (autonomous video monitoring system) (3) In the inter-observation communication that arranges multiple devices on the network Video monitoring system that enables wide-range monitoring and measures load distribution through autonomous cooperative operation (autonomous cooperative distributed video monitoring system) (4) Corresponding to each system, the required monitoring information is constantly monitored and multiple elements are combined. Video monitoring method under the auto-start condition set (auto-start video monitoring method)

【0006】[0006]

【課題を解決するための手段】この発明の映像監視装置
は、上記課題を解決するためつぎの手段を設け、仮想/
自律/自律協調分散/自動起動映像監視方式を採ること
を特徴とする。すなわち、この発明に係る映像監視装置
は、同一平面上に設置された3台以上のカメラから取り
込まれる各撮像画像の特徴点を抽出する画像認識部と、
前記同一平面上の各カメラ位置によって構成される平面
を特定する平面特定部と、入力手段から前記平面特定部
で特定された平面上に設定された所望仮想視点と前記3
台以上の各カメラ位置との各平面距離を抽出する平面距
離演算部と、前記画像認識部によって抽出された当該各
特徴点の位置座標それぞれに対して前記平面距離演算部
からの各平面相対距離による重みづけを繰返すことによ
り、前記撮像画像から、前記所望仮想視点を視点とする
平面仮想補間画像を合成する平面仮想補間画像合成部と
を備えたものである。また、前記同一平面上に設置され
たカメラと同じ平面上にない第2のカメラから取り込ま
れる各撮像画像の特徴点を抽出する第2の画像認識部
と、入力手段によって設定された空間上の所望仮想視点
と前記第2のカメラ位置とを結ぶ直線と、前記平面特定
部で特定された平面との交点を平面上の仮想視点として
特定する平面視点特定部と、前記平面上の仮想視点に対
する前記空間上の所望仮想視点および前記第2のカメラ
位置との各空間距離を抽出する空間距離演算部と、前記
第2の画像認識部によって抽出された当該特徴点の位置
座標のそれぞれと前記平面仮想補間画像合成部から出力
される平面仮想補間画像の被監視物体位置座標とに対し
て、前記空間距離演算部からの各空間相対距離による重
みづけを繰返すことにより、前記空間上の所望仮想視点
を視点とする空間仮想補間画像を合成する空間仮想補間
画像合成部とを備えたものである。また、前記カメラか
ら取り込まれる撮像画像を先行撮像画像として一時保管
をする先行画像保管部と、前記先行画像保管部に保管さ
れた先行撮像画像と前記カメラから取り込まれる現行撮
像画像との差分を取ることにより、時間軸方向の変化範
囲を特定し、当該変化範囲だけを前記画像認識部からの
当該各特徴点として前記平面仮想補間画像合成部に出力
する変化範囲認識部とを備えたものである。また、入力
手段によって設定された前記平面上の仮想視点を視点と
する視野画像を作成済みの3次元データに基づいて描画
作成する3次元グラフィック画像生成部と、前記3次元
グラフィック画像生成部からの3次元グラフィック画像
と前記平面仮想補間画像合成部からの変化範囲だけの平
面仮想補間画像とを画像合成することにより、前記平面
上の仮想視点を視点とする3次元画像を生成する3次元
画像合成部とを備えたものである。また、前記入力手段
が、両目の視差に相当する間隔だけ離れた右目用および
左目用の2つの仮想視点を設定するとともに、前記平面
仮想補間画像合成部が前記2つの仮想視点の各々に対応
して、右目用および左目用の2つの平面補間画像を生成
するものである。
In order to solve the above-mentioned problems, the video monitoring apparatus of the present invention is provided with the following means,
It is characterized by adopting autonomous / autonomous cooperative decentralized / auto-start video monitoring system. That is, the video monitoring apparatus according to the present invention includes an image recognition unit that extracts a feature point of each captured image captured from three or more cameras installed on the same plane,
The plane specifying unit that specifies a plane formed by the camera positions on the same plane, the desired virtual viewpoint set on the plane specified by the plane specifying unit from the input unit, and the 3
A plane distance calculation unit that extracts each plane distance from each camera position on a table or more, and each plane relative distance from the plane distance calculation unit with respect to each position coordinate of each feature point extracted by the image recognition unit. And a plane virtual interpolation image synthesizing unit for synthesizing the plane virtual interpolation image having the desired virtual viewpoint as a viewpoint by repeating the weighting by the above. In addition, a second image recognition unit that extracts a characteristic point of each captured image captured from a second camera that is not on the same plane as the camera installed on the same plane, and a space set by the input unit. A straight line connecting a desired virtual viewpoint and the second camera position, and a plane viewpoint specifying unit that specifies an intersection of the plane specified by the plane specifying unit as a virtual viewpoint on the plane, and a virtual viewpoint on the plane. position of a desired virtual viewpoint and the the spatial distance calculator for extracting each spatial distance between the second camera position, the feature points extracted by the second image recognition unit on the space
For each coordinate and the monitored object position coordinates of the plane virtual interpolation image output from the plane virtual interpolation image synthesizing unit, by repeating weighting by each spatial relative distance from the spatial distance calculating unit, And a spatial virtual interpolation image synthesizing unit for synthesizing a spatial virtual interpolation image having a desired virtual viewpoint in space as a viewpoint. In addition, the preceding image storage unit that temporarily stores the captured image captured from the camera as the preceding captured image, and the difference between the preceding captured image stored in the preceding image storage unit and the current captured image captured from the camera is calculated. Thus, the change range recognizing unit that specifies the change range in the time axis direction and outputs only the change range to the plane virtual interpolation image synthesizing unit as the respective feature points from the image recognizing unit is provided. . In addition, a three-dimensional graphic image generation unit that draws and creates a visual field image with the virtual viewpoint on the plane set by the input unit as a viewpoint, and the three-dimensional graphic image generation unit. A three-dimensional image synthesis for generating a three-dimensional image with a virtual viewpoint on the plane as a viewpoint by image-synthesizing a three-dimensional graphic image and a plane virtual interpolation image of only the change range from the plane virtual interpolation image synthesis unit. And a section. Further, the input unit sets two virtual viewpoints for the right eye and the left eye that are separated by an interval corresponding to the parallax of both eyes, and the plane virtual interpolation image synthesizing unit corresponds to each of the two virtual viewpoints. Thus, two plane interpolation images for the right eye and the left eye are generated.

【0007】なお、画像認識部は、同じ平面上にある3
台以上のカメラから取り込む各撮像画像の特徴点を抽出
する。または同じ平面上にある3台以上のカメラと同じ
平面上にない1台以上のカメラから取り込む各撮像画像
の特徴点を抽出する。
It should be noted that the image recognition units are located on the same plane.
Characteristic points of each captured image captured from one or more cameras are extracted. Alternatively, the characteristic points of each captured image captured from three or more cameras on the same plane and one or more cameras not on the same plane are extracted.

【0008】平面特定部は、同じ平面上にある3台以上
の各カメラ位置で構成する平面を特定する。
The plane specifying section specifies a plane formed by the positions of three or more cameras on the same plane.

【0009】平面距離演算部は、設定する入力手段から
の平面特定部で特定する平面上の所望仮想視点または両
目視差を利用して左もしくは右目用に変換した平面上の
左もしくは右目用所望仮想視点に対する同じ平面上にあ
る3台以上の各カメラ位置との各平面距離を抽出する。
The plane distance calculation unit uses the desired virtual viewpoint on the plane specified by the plane specifying unit from the input means to be set or the left or right eye desired virtual image on the plane converted by using the two-eye difference. Extract each plane distance with each of three or more camera positions on the same plane with respect to the viewpoint.

【0010】平面仮想補間画像合成部は、画像認識部か
らの当該各特徴点に対し、平面距離演算部からの各平面
相対距離による重みづけを繰返し、平面仮想補間画像を
合成する。
The plane virtual interpolation image synthesizing unit repeats weighting for each feature point from the image recognizing unit by each plane relative distance from the plane distance calculating unit to synthesize a plane virtual interpolation image.

【0011】平面視点特定部は、設定する入力手段から
の任意の空間上の所望仮想視点と同じ平面上にないカメ
ラとを通り一意に定まる一直線と平面特定部で特定する
平面との交点として平面上の仮想視点または両目視差を
利用して左もしくは右目用に変換した平面上の左もしく
は右目用仮想視点を特定する。
The plane view point specifying section is a plane as an intersection of a straight line uniquely determined by a straight line passing through a camera not on the same plane as the desired virtual view point in an arbitrary space from the input means to be set and the plane specified by the plane specifying section. The virtual viewpoint for the left or right eye on the plane converted for the left or right eye is specified using the above virtual viewpoint or the two-eyes visual difference.

【0012】空間距離演算部は、平面視点特定部からの
平面上の仮想視点に対する空間上の所望仮想視点と同じ
平面上にないカメラ位置との各空間距離を抽出する。
The spatial distance calculation unit extracts each spatial distance between the virtual viewpoint on the plane from the planar viewpoint specifying unit and the desired virtual viewpoint on the space and the camera position not on the same plane.

【0013】空間仮想補間画像合成部は、画像認識部か
らの同じ平面上にない当該カメラから取り込む撮像画像
の特徴点と平面仮想補間画像合成部からの平面仮想補間
画像とに対し、空間距離演算部からの各空間相対距離に
よる重みづけを繰返し空間仮想補間画像を合成する。
The spatial virtual interpolation image synthesizing unit calculates a spatial distance between the feature points of the captured image captured by the camera which is not on the same plane from the image recognizing unit and the planar virtual interpolation image from the planar virtual interpolation image synthesizing unit. The spatial virtual interpolated image is synthesized by repeating weighting according to each spatial relative distance from the part.

【0014】先行画像保管部は、各カメラから取り込む
各撮像画像を各先行撮像画像として一時保管をする。
The preceding image storage unit temporarily stores each captured image captured from each camera as each preceding captured image.

【0015】変化範囲認識部は、各カメラから取り込む
各現行撮像画像と先行画像保管部からの各先行撮像画像
との差分を取り時間軸方向の変化範囲を特定する。当該
変化範囲だけ画像認識部からの当該各特徴点を平面仮想
補間画像合成部に出力する。
The change range recognition section determines the change range in the time axis direction by obtaining the difference between each current captured image captured from each camera and each preceding captured image from the preceding image storage section. The respective feature points from the image recognition unit are output to the plane virtual interpolation image synthesis unit only for the change range.

【0016】3次元グラフィック画像生成部は、設定す
る入力手段からの平面上の仮想視点による視野画像に対
し、作成済みの3次元データで描画作成をする。
The three-dimensional graphic image generation unit draws and creates the created three-dimensional data for the visual field image from the virtual viewpoint on the plane from the input means to be set.

【0017】3次元監視画像合成部は、3次元グラフィ
ック画像生成部からの3次元グラフィック画像と平面仮
想補間画像合成部からの変化範囲だけの平面仮想補間画
像との画像合成をし3次元監視画像を生成する。
The three-dimensional monitoring image synthesizing unit performs image synthesizing of the three-dimensional graphic image from the three-dimensional graphic image generating unit and the plane virtual interpolation image of only the change range from the plane virtual interpolation image synthesizing unit to obtain the three-dimensional monitoring image. To generate.

【0018】物体位置特定部は、被観測区域全体を観測
する広域カメラから取り込む広域撮像画像の特徴点を抽
出し、当該被監視物体の特定位置情報を生成する。
The object position specifying unit extracts the characteristic points of the wide area imaged image captured by the wide area camera for observing the entire observed area, and generates the specific position information of the monitored object.

【0019】近視カメラ制御部は、物体位置特定部から
の特定位置情報に従い被観測区域内にある1台以上の近
視カメラから、近視カメラ選択制御手段で選択制御をす
る近視撮像画像を取り込み、画像表示部で表示する。ま
たは物体位置特定部からの特定位置情報に従い被観測区
域内にある1台以上の可動機構をもつ近視カメラから、
まず近視カメラ選択制御手段で選択制御をすると共に、
つぎに可動カメラ制御手段で動作制御をする近視撮像画
像を取り込み、画像表示部で表示する。
The myopic camera control unit fetches a myopic image which is selected and controlled by the myopic camera selection control means from one or more myopic cameras in the observation area according to the specific position information from the object position specifying unit, and the image is taken. Display on the display. Alternatively, according to the specific position information from the object position specifying unit, from a myopic camera having one or more movable mechanisms in the observation area,
First, the myopia camera selection control means controls the selection,
Next, the near-sighted image whose operation is controlled by the movable camera control means is captured and displayed on the image display unit.

【0020】仮想カメラ制御部は、近視カメラ制御部に
代えて設け、物体位置特定部からの特定位置情報に従い
近視カメラを用いず、仮想補間画像合成手段で被監視物
体を近視する最適位置での仮想視点からの仮想補間画像
として合成をする仮想近視撮像画像を取り込み、画像表
示部で表示する。
The virtual camera control section is provided in place of the myopic camera control section, and does not use the myopic camera according to the specific position information from the object position specifying section, but at the optimum position where the monitored object is myopic by the virtual interpolation image synthesizing means. A virtual myopia image to be combined is captured as a virtual interpolation image from a virtual viewpoint, and is displayed on the image display unit.

【0021】移動物体認識部は、複数設け、被観測区域
全体の一部分を観測する複数のカメラから取り込む各撮
像画像の特徴点を抽出し、当該被監視物体の現在位置と
進行方向情報を生成する。
A plurality of moving object recognition units are provided and extract characteristic points of each captured image taken from a plurality of cameras that observe a part of the entire observed area, and generate current position and traveling direction information of the monitored object. .

【0022】撮像画像データ送受信器は、複数設け、撮
像画像データ送受信制御部を介し、複数のカメラから当
該撮像画像を取り込み、画像表示部で表示する。
A plurality of picked-up image data transmitters / receivers are provided, the picked-up image data are taken in from a plurality of cameras via the picked-up image data transmission / reception control unit, and are displayed on the image display unit.

【0023】被監視物体進行方向情報送信器は、複数設
け、複数の移動物体認識部からの現在位置と進行方向情
報で当該被監視物体が撮像可能範囲内にあるかどうかを
判断し、範囲外であれば当該被監視物体の進行方向にあ
る隣の被監視物体進行方向受信器に通信回線を介しその
旨を通知する。
A plurality of monitored object traveling direction information transmitters are provided, and it is judged whether or not the monitored object is within the image capturing range based on the current position and traveling direction information from the plurality of moving object recognition units, and the outside of the range is determined. In that case, the fact is notified to the adjacent monitored object traveling direction receiver in the traveling direction of the monitored object via the communication line.

【0024】被監視物体進行方向情報受信器は、被監視
物体進行方向情報送信器から当該通知を受け当該被監視
物体が撮像可能範囲内に入ってくると、撮像画像データ
送受信制御部に通信回線を介しその旨を通知する。
When the monitored object traveling direction information receiver receives the notification from the monitored object traveling direction information transmitter and the monitored object enters the image capturing range, the captured image data transmission / reception control section communicates with the communication line. It will be notified via.

【0025】入力情報処理部は、監視カメラ/センサに
よる入力情報から所要監視情報だけを抽出する。
The input information processing unit extracts only the required monitoring information from the input information from the monitoring camera / sensor.

【0026】送信開始条件保持部は、所要監視情報によ
る任意の送信開始条件を予め設定するまたは任意の送信
開始条件をダウンロードして指定するパラメータをもつ
条件判定式を保持する。またはダウンロードする送信開
始条件パラメータに対し自動的に最適化をする送信条件
自動変更手段を設ける。
The transmission start condition holding unit holds a condition judgment expression having a parameter for presetting an arbitrary transmission start condition according to required monitoring information or downloading an arbitrary transmission start condition. Alternatively, a transmission condition automatic changing means for automatically optimizing the transmission start condition parameter to be downloaded is provided.

【0027】条件評価部は、送信開始条件保持部から参
照する条件判定式と入力情報処理部からの所要監視情報
との比較評価をする。
The condition evaluation unit compares and evaluates the condition determination formula referred from the transmission start condition holding unit and the required monitoring information from the input information processing unit.

【0028】送信部は、条件評価部からの判断結果に従
い画像表示部に対し、監視カメラから取り込む撮像画像
の送信を開始する。
The transmission unit starts transmission of the picked-up image captured from the surveillance camera to the image display unit according to the judgment result from the condition evaluation unit.

【0029】[0029]

【発明の実施の形態】この発明の実施の一形態を示す映
像監視装置は図1のように、AとBとCの監視カメラ1
は、同じ平面上にあり被監視物体を撮像する。AとBと
Cの画像認識部2は、AとBとCの監視カメラ1による
各撮像画像データから被監視物体(特徴点)を認識し当
該位置座標を検出する。平面特定部3は、AとBとCの
監視カメラ1による3点位置で構成する平面を特定す
る。入力部4は、平面特定部3で特定する平面上の所望
仮想視点をキーボード、マウスその他の入力手段で設定
し、平面距離演算部3に対して入力する。平面距離演算
部5は、入力部4からの平面上の所望仮想視点に対する
AとBとCの監視カメラ1位置との各平面距離を抽出す
る。平面仮想補間画像合成部6は、AとBとCの画像認
識部2からの各被監視物体位置座標に対し、平面距離演
算部5からの各平面相対距離による重みづけをする画像
補間処理を繰返すことにより、平面上の仮想視点からの
被監視物体撮像画像(平面仮想補間画像)を合成する。
画像表示部7は、平面仮想補間画像合成部6から必要に
応じ平面仮想補間画像を表示する。平面上の所望仮想視
点からの被監視物体撮像画像でカメラ自体の操作や移動
をしないで複数の監視者が所望視点から監視できる。
BEST MODE FOR CARRYING OUT THE INVENTION As shown in FIG. 1, a video surveillance apparatus showing an embodiment of the present invention is a surveillance camera 1 for A, B, and C.
Is on the same plane and images the monitored object. The image recognition unit 2 for A, B, and C recognizes the monitored object (feature point) from each image data captured by the monitoring cameras 1 for A, B, and C, and detects the position coordinates. The plane specifying unit 3 specifies a plane formed by the three points A, B, and C of the monitoring cameras 1. The input unit 4 sets a desired virtual viewpoint on the plane specified by the plane specifying unit 3 with a keyboard, a mouse or other input means, and inputs it to the plane distance calculation unit 3. The plane distance calculation unit 5 extracts each plane distance between the positions of the monitoring cameras 1 of A, B, and C with respect to the desired virtual viewpoint on the plane from the input unit 4. The plane virtual interpolation image synthesizing unit 6 performs image interpolation processing for weighting each monitored object position coordinate from the A, B, and C image recognizing units 2 with each plane relative distance from the plane distance calculating unit 5. By repeating this, the monitored object captured image (planar virtual interpolation image) from a virtual viewpoint on the plane is synthesized.
The image display unit 7 displays the plane virtual interpolation image from the plane virtual interpolation image synthesis unit 6 as necessary. Plural observers can monitor from a desired viewpoint without operating or moving the camera itself in the captured image of the monitored object from a desired virtual viewpoint on a plane.

【0030】上記実施の形態の映像監視装置は、複数の
カメラから取り込む各撮像画像の抽出特徴点に対し、仮
想視点からの距離による重みづけをし合成する仮想補間
画像を用い映像監視をする方式(仮想映像監視方式)を
採る。
The video monitoring apparatus according to the above-mentioned embodiment carries out video monitoring using a virtual interpolation image in which the extracted feature points of the captured images captured from a plurality of cameras are weighted by the distance from the virtual viewpoint and synthesized. (Virtual video monitoring method) is adopted.

【0031】平面仮想補間画像合成部6は図2(a)の
ように、AとBとCの画像認識部2からの各被監視物体
位置座標を(x1 、y1 )と(x2 、y2 )と(x3
3)とし、平面距離演算部5からのAとBとCの監視
カメラ1と仮想視点との各相対距離をaとbとcとする
と、まず対応する仮想視点からの被監視物体位置座標
(x、y)を次のとおり算出し、つぎに当該演算を繰返
すことにより図2(b)のように平面仮想補間画像を合
成する。 x=(a×x1 +b×x2 +c×x3 )/3 y=(a×y1 +b×y2 +c×y3 )/3
As shown in FIG. 2A, the plane virtual interpolated image synthesizing unit 6 converts the position coordinates of each monitored object from the image recognizing units 2 of A, B, and C into (x 1 , y 1 ) and (x 2 ). , Y 2 ) and (x 3 ,
y 3 ), and the relative distances between the monitoring cameras 1 of A, B, and C and the virtual viewpoint from the plane distance calculating unit 5 are a, b, and c, first, the monitored object position coordinates from the corresponding virtual viewpoints. (X, y) is calculated as follows, and then the calculation is repeated to synthesize the plane virtual interpolation image as shown in FIG. x = (a × x 1 + b × x 2 + c × x 3 ) / 3 y = (a × y 1 + b × y 2 + c × y 3 ) / 3

【0032】なお上記図1に示す発明の実施の形態で図
3のように、AとBとCの監視カメラ1と同じ平面にな
い監視カメラ1aと、当該撮像画像データから被監視物
体を認識し当該位置座標を検出する画像認識部2aとの
ほか、平面視点特定部3aと入力部4aと空間距離演算
部5aと空間仮想補間画像合成部6aと画像表示部7a
とを別途設けてもよい。空間上の所望仮想視点からの被
監視物体撮像画像でカメラ自体の操作や移動をしないで
複数の監視者が所望視点の監視ができる。平面視点特定
部3aは、入力部4に代えて入力部4aのキーボード、
マウスその他の入力手段で設定する空間上の第1の所望
仮想視点と監視カメラ1aとを通り一意に定まる一直線
と平面特定部3で特定する平面との交点として平面上の
第1の仮想視点を特定する。空間距離演算部5aは、平
面視点特定部3aからの平面上の第1の仮想視点に対す
る入力部4aで設定する空間上の第1の所望仮想視点と
監視カメラ1a位置との各空間距離を抽出する。空間仮
想補間画像合成部6aは、画像認識部2aからの被監視
物体位置座標と平面仮想補間画像合成部6からの平面仮
想補間画像とに対し、空間距離演算部5aからの各空間
相対距離による重みづけをする画像補間処理を繰返すこ
とにより空間仮想補間画像を合成する。画像表示部7a
は画像表示部7に代えて、空間仮想補間画像合成部6a
から必要に応じ空間仮想補間画像を表示する。
In the embodiment of the invention shown in FIG. 1, as shown in FIG. 3, the surveillance camera 1a not on the same plane as the surveillance cameras 1 for A, B, and C, and the monitored object are recognized from the captured image data. In addition to the image recognition unit 2a that detects the position coordinates, the plane view point identification unit 3a, the input unit 4a, the spatial distance calculation unit 5a, the spatial virtual interpolation image synthesis unit 6a, and the image display unit 7a.
And may be separately provided. A plurality of observers can monitor a desired viewpoint without operating or moving the camera itself in a captured object captured image from a desired virtual viewpoint in space. The plane viewpoint specifying unit 3a is a keyboard of the input unit 4a instead of the input unit 4,
The first virtual viewpoint on the plane is defined as an intersection of the first desired virtual viewpoint in the space set by the mouse or other input means and the straight line uniquely determined through the surveillance camera 1a and the plane specified by the plane specifying unit 3. Identify. The spatial distance calculating unit 5a extracts each spatial distance between the first desired virtual viewpoint in the space set by the input unit 4a and the position of the surveillance camera 1a for the first virtual viewpoint on the plane from the planar viewpoint specifying unit 3a. To do. The spatial virtual interpolation image synthesizing unit 6a uses the spatial relative distances from the spatial distance calculating unit 5a for the monitored object position coordinates from the image recognizing unit 2a and the plane virtual interpolating image from the plane virtual interpolating image synthesizing unit 6. The spatial virtual interpolation image is synthesized by repeating the image interpolation processing for weighting. Image display section 7a
Instead of the image display unit 7, the spatial virtual interpolation image synthesizing unit 6a
The spatial virtual interpolation image is displayed as required.

【0033】また上記図1に示す発明の実施の形態で図
4のように、AとBとCの先行画像保管部8と、AとB
とCの変化範囲認識部9とを別途設け、図5のように平
面仮想補間画像を合成してもよい。画像の変化範囲だけ
で高速の画像補間処理ができる。AとBとCの先行画像
保管部8は、AとBとCの監視カメラ1による各撮像画
像データに対し、AとBとCの画像認識部2で画像処理
をすると共に各先行撮像画像データとして一時保管をす
る。AとBとCの変化範囲認識部9は、AとBとCの画
像認識部2から入力する各現行撮像画像データとAとB
とCの先行画像保管部8からの各先行撮像画像データと
の差分を取り時間軸方向の変化範囲を特定し、AとBと
Cの画像認識部2からの各被監視物体位置座標を当該変
化範囲だけ平面仮想補間画像合成部6に出力する。
In the embodiment of the invention shown in FIG. 1, as shown in FIG. 4, the preceding image storage units 8 of A, B and C, and A and B are stored.
It is also possible to separately provide the change range recognition unit 9 for C and C and synthesize the planar virtual interpolation image as shown in FIG. High-speed image interpolation processing can be performed only with the image change range. The preceding image storage unit 8 of A, B, and C performs image processing on the imaged image data of the monitoring cameras 1 of A, B, and C by the image recognition unit 2 of A, B, and C, and also each preceding captured image. Temporarily store as data. The change range recognizing unit 9 for A, B, and C recognizes each current captured image data and A and B input from the image recognizing unit 2 for A, B, and C.
And C, the difference between each of the preceding captured image data from the preceding image storage unit 8 is obtained, the change range in the time axis direction is specified, and the monitored object position coordinates from the A, B, and C image recognition units 2 are calculated. Only the change range is output to the plane virtual interpolation image synthesizing unit 6.

【0034】また上記図4に示す発明の実施の形態で図
6のように、入力部4からの平面上の所望仮想視点によ
る視野画像に対し、予め作成済の3次元データで描画作
成をする3次元(3D)グラフィック画像生成部10
と、当該3Dグラフィック画像データと平面仮想補間画
像合成部6から変化範囲だけの平面仮想補間画像データ
との画像合成をし、監視画像に対する現在の3D所望視
野画像との合成による3D監視画像を生成する3D監視
画像合成部11とを別途設けてもよい。既存の3Dデー
タで簡易に3D監視画像を合成できる。
In the embodiment of the invention shown in FIG. 4, as shown in FIG. 6, the visual field image from the desired virtual viewpoint on the plane from the input unit 4 is drawn and created with the three-dimensional data already created. Three-dimensional (3D) graphic image generation unit 10
Then, the 3D graphic image data and the plane virtual interpolation image synthesizing unit 6 perform image synthesis on the plane virtual interpolation image data only in the change range to generate a 3D monitoring image by synthesizing the monitoring image with the current 3D desired visual field image. The 3D monitoring image synthesizing unit 11 may be separately provided. 3D monitoring images can be easily combined with existing 3D data.

【0035】また上記図1に示す発明の実施の形態で平
面上の所望仮想視点に代えて、図7のように両目視差を
利用して左(または右)目用に変換した平面上の左(ま
たは右)目用仮想視点を用いてもよい。平面上の左/右
目用仮想視点(原点を左にした場合)は、平面上の所望
仮想視点座標を(x、y)、両目視差をαcmとする
と、おおよそ(x−α×θ/2、y)/(x+α×θ/
2、y)(θは誤差または距離によるずれ)と予測で
き、左/右目用平面仮想補間画像を得て立体視画像を容
易に作成できる。
Further, instead of the desired virtual viewpoint on the plane in the embodiment of the invention shown in FIG. 1, the left on the plane converted for the left (or right) eye by utilizing both visual differences as shown in FIG. A virtual viewpoint for the eye (or the right) may be used. If the desired virtual viewpoint coordinates on the plane are (x, y) and the visual difference between them is αcm, the virtual viewpoint for the left / right eyes on the plane (when the origin is on the left) is approximately (x−α × θ / 2, y) / (x + α × θ /
2, y) (θ is an error or a shift due to a distance), and a stereoscopic image can be easily created by obtaining a left / right eye plane virtual interpolation image.

【0036】また上記図4と図6または図7に示す発明
の実施の形態は図1に示す発明の実施の形態で画像補間
処理をするとして説明したが、上記図2または図2、図
4もしくは図6に示す発明の実施の形態のほか、2台以
上のカメラ入力で画像補間処理をするすべての映像監視
方式にも適用できるのはいうまでもない。
Although the embodiment of the invention shown in FIG. 4 and FIG. 6 or FIG. 7 has been described as the image interpolation processing in the embodiment of the invention shown in FIG. 1, the embodiment shown in FIG. 2 or FIG. Alternatively, it is needless to say that the present invention can be applied to all the video surveillance methods in which the image interpolation processing is performed by the input of two or more cameras, in addition to the embodiment of the invention shown in FIG.

【0037】この発明に関連する実施の一形態を示す映
像監視装置は図8(a)のように、AとBとCの近視カ
メラ21は、特定位置の被監視物体を撮像する。AとB
の広域カメラ21aは、常に被観測区域全体を観測す
る。AとBの物体位置特定部22は、AとBの広域カメ
ラ21aによる各広域撮像画像データから被監視物体を
認識し当該位置座標を検出し、特定位置情報を生成す
る。近視カメラ制御部23は、AとBの物体位置特定部
22からの特定位置情報に従い近視カメラ選択制御手段
で自動または手動で選択制御をするA、BまたはCの近
視カメラ21から近視撮像画像データを取り込み、近視
カメラ画像表示部24で表示する。一定フレームごとに
繰返し自律的に最適カメラによる被監視物体を追跡し、
監視操作負荷を軽減できる。
As shown in FIG. 8 (a), the myopic cameras 21 of A, B, and C of the image monitoring apparatus according to the embodiment related to the present invention image the monitored object at a specific position. A and B
The wide area camera 21a constantly observes the entire observed area. The A and B object position specifying units 22 recognize the monitored object from the wide area image data captured by the A and B wide area cameras 21a, detect the position coordinates, and generate specific position information. The myopia camera control unit 23 automatically or manually selects and controls the myopia camera 21 from the myopia camera 21 of the A, B or C according to the specific position information from the A and B object position specifying units 22. Is captured and displayed on the near-sighted camera image display unit 24. It repeatedly and autonomously tracks the monitored object by the optimal camera every fixed frame,
The monitoring operation load can be reduced.

【0038】上記実施の形態の映像監視装置は、広域カ
メラで捉えられる範囲であれば、被監視物体の認識、追
跡などを不要とし、自律的に映像監視操作をする方式
(自律映像監視方式)を採る。
The image monitoring apparatus of the above embodiment does not require recognition or tracking of a monitored object within a range captured by a wide area camera, and autonomously performs image monitoring operation (autonomous image monitoring method). Take.

【0039】なお上記図8(a)に示す発明の実施の一
形態で近視カメラ21と近視カメラ制御部23に代え
て、図8(b)のようにズーム、パン、チルトなどの可
動機構をもつ近視カメラ(可動カメラ)21bと、Aと
Bの物体位置特定部22からの特定位置情報に従い、ま
ず近視カメラ選択制御手段で自動または手動で選択制御
をすると共に、つぎに可動カメラ制御手段でズーム、パ
ン、チルトなどの動作制御をするA、BまたはCの近視
カメラ21bから近視撮像画像データを取り込み、近視
カメラ画像表示部24で表示する近視カメラ制御部23
aとして構成してもよい。一定フレームごとに繰返し自
律的に最適カメラによる最適視野の被監視物体を追跡
し、監視操作負荷を軽減できる。
In the embodiment of the invention shown in FIG. 8A, instead of the myopic camera 21 and the myopic camera control section 23, a movable mechanism for zooming, panning, tilting, etc. is provided as shown in FIG. 8B. According to the myopic camera (movable camera) 21b and the specific position information from the object position specifying unit 22 of A and B, first the myopic camera selection control means performs automatic or manual selection control, and then the movable camera control means. A myopic camera control unit 23 that takes in myopic imaged image data from the A, B, or C myopic camera 21b that controls operations such as zooming, panning, and tilting, and displays the data on the myopic camera image display unit 24.
It may be configured as a. The monitoring operation load can be reduced by repeatedly and autonomously tracking the monitored object in the optimum field of view by the optimum camera every fixed frame.

【0040】また上記図8(a)に示す発明の実施の一
形態で近視カメラ制御部23に代えて、図9のようにA
とBの物体位置特定部22からの各特定位置情報(被監
視物体位置座標)に従い、近視カメラ21を用いず、仮
想補間画像合成手段で被監視物体を近視する最適位置で
の仮想視点からの被監視物体撮像画像(仮想補間画像)
として画像補間処理により合成する仮想近視撮像画像デ
ータを取り込み、近視カメラ画像表示部24で表示する
仮想カメラ制御部23bとして構成してもよい。一定フ
レームごとに繰返し自律的に仮想視点による被監視物体
を追跡し、監視操作負荷を軽減できる。
Further, in place of the myopic camera control unit 23 in the embodiment of the invention shown in FIG. 8 (a), as shown in FIG.
According to each specific position information (monitored object position coordinates) from the object position specifying unit 22 of B and B, the myopic camera 21 is not used, and the virtual interpolation image synthesizing means performs a myopic view of the monitored object from the virtual viewpoint at the optimum position. Image of monitored object (virtual interpolation image)
Alternatively, the virtual camera control unit 23b may be configured to fetch virtual myopic imaged image data to be combined by image interpolation processing and display the image on the myopic camera image display unit 24. It is possible to autonomously track a monitored object from a virtual viewpoint repeatedly every fixed frame and reduce the monitoring operation load.

【0041】この発明に関連する他の実施の一形態を示
す映像監視装置は図10のように、AとBとCとDの観
測カメラ31は、被監視区域全体の一部分を観測する。
AとBとCとDの移動物体認識部32は、AとBとCと
Dの観測カメラ31による撮像画像データから移動する
被監視物体を認識し当該位置と進行方向を特定する。A
とBとCとDの撮像画像データ送受信器33は、撮像画
像データ送受信制御部37を介し、AとBとCとDの観
測カメラ31から当該撮像画像データを取り込み画像表
示部38で表示する。AとBとCとDの被監視物体進行
方向情報送信器34は、AとBとCとDの移動物体認識
部32からの現在位置と進行方向情報で当該被監視物体
が撮像可能範囲内にあるかどうかを判断し、範囲外であ
れば当該被監視物体の進行方向にある隣のA、B、C、
またはDの被監視物体進行方向情報受信器34に通信回
線36を介しその旨を通知する。A、B、CまたはDの
被監視物体進行方向情報受信器35は、当該通知を受け
当該被監視物体が撮像可能範囲内に入ってくると、撮像
画像データ送受信制御部37に通信回線を介しその旨を
通知する。上記連続動作により広範囲に監視でき、自律
的に協調して負荷分散ができる。なお観測カメラはズー
ム、パン、チルトなどの可動機構をもつ可動カメラでも
よいのはいうまでもない。
As shown in FIG. 10, an image monitoring apparatus according to another embodiment related to the present invention has observation cameras 31 for A, B, C and D for observing a part of the entire monitored area.
The moving object recognition unit 32 of A, B, C, and D recognizes the moving monitored object from the image data captured by the observation cameras 31 of A, B, C, and D, and specifies the position and the traveling direction. A
The captured image data transmitter / receiver 33 of B, C, and D captures the captured image data from the observation cameras 31 of A, B, C, and D via the captured image data transmission / reception control unit 37, and displays the captured image data on the image display unit 38. . The monitored object traveling direction information transmitters 34 of A, B, C, and D use the current position and traveling direction information from the moving object recognition units 32 of A, B, C, and D to detect the monitored object within the image capturing range. If it is out of the range, the adjacent A, B, C in the traveling direction of the monitored object,
Alternatively, it notifies the monitored object traveling direction information receiver 34 of D to that effect via the communication line 36. When the monitored object traveling direction information receiver 35 of A, B, C, or D receives the notification and enters the monitored object within the image capturing range, the captured image data transmission / reception control unit 37 transmits the monitored image through the communication line. Notify that. It is possible to monitor a wide range by the above continuous operation, and it is possible to autonomously cooperate and distribute the load. It goes without saying that the observation camera may be a movable camera having a movable mechanism such as zoom, pan and tilt.

【0042】上記実施の形態の映像監視装置は、ネット
ワーク上に複数配置をする観測系間通信で広範囲の監視
を可能としかつ自律的な協調動作による負荷分散を計り
映像監視をする方式(自律協調分散映像監視方式)を採
る。
The video monitoring apparatus according to the above-described embodiment enables a wide range of monitoring through inter-observation system communication arranged on a network, and performs video monitoring by measuring load distribution by autonomous cooperative operation (autonomous cooperation). Distributed video surveillance method).

【0043】撮像画像データ送受信器33と被監視物体
進行方向情報送/受信器35/36は図10のように、
たとえばまず被監視物体が図中の位置で右方向へ移動中
とすると、当該撮像可能範囲内にあるBの観測カメラ3
1からの撮像画像データに対し、Bの撮像画像データ送
受信器33が取り込み撮像画像データ送受信制御部37
を介し画像表示部38で表示をする。つぎに被監視物体
が右方向へ移動してBの観測カメラ31の撮像可能範囲
外になることが予測される場合、Bの被監視物体進行方
向情報送信器34からCの被監視物体進行方向情報受信
器35に通信回線36を介し、被監視物体の現在位置と
進行方向情報を送受信すると、Bよりも右方向の撮像可
能範囲内にあるCの観測カメラ31からの撮像画像デー
タに対し、Cの撮像画像データ送受信器33が取り込み
撮像画像データ送受信制御部37を介し画像表示部38
で表示をする。
The picked-up image data transmitter / receiver 33 and the monitored object traveling direction information transmitter / receiver 35/36 are as shown in FIG.
For example, if the monitored object is moving to the right at the position shown in the figure, the observation camera 3 of B within the imageable range concerned.
The picked-up image data transmission / reception control unit 37 takes in the picked-up image data transceiver 33 of B for the picked-up image data from
The image is displayed on the image display unit 38 via. Next, when it is predicted that the monitored object moves to the right and is out of the image capturing range of the observation camera 31 of B, the monitored object traveling direction information transmitter 34 of B transmits the monitored object traveling direction of C. When the current position and the traveling direction information of the monitored object are transmitted / received to / from the information receiver 35 via the communication line 36, for the image data captured from the observation camera 31 of C in the image capture range to the right of B, The captured image data transmitter / receiver 33 of C loads the image display unit 38 via the captured image data transmission / reception control unit 37.
To display.

【0044】この発明に関連する他の実施の一形態を示
す映像監視装置は図11(a)のように、監視カメラ4
1は、被監視物体を撮像する。監視センサ41aは、た
とえば気温の変化などを検知する。入力情報処理部42
は、監視カメラ41や監視センサ41aからの入力情報
に対し、画像の変化範囲、振動の大きさ、気温の上昇な
どの所要監視情報だけを抽出する。送信開始条件保持部
43は、所要監視情報(たとえば画像の変化範囲、振動
の大きさなど)による任意の送信開始条件を予め設定す
る条件判定式(たとえば画像の変化20%以上‖(また
は)震度2以上)を保持する。条件評価部44は、送信
開始条件保持部43から参照する条件判定式と入力情報
処理部42からの所要監視情報(たとえば画像の変化5
%、震度3など)との比較評価をし、「送信開始」の要
否を判断する。送信部45は、条件評価部44から「送
信開始」の判断結果に従い画像表示部46に対し、監視
カメラ41から取り込む撮像画像データの送信を開始す
る。各システムに対応し複数要素の組合せで映像監視の
自動起動条件を容易に決定できる。
An image monitoring apparatus showing another embodiment related to the present invention is as shown in FIG.
1 images the monitored object. The monitoring sensor 41a detects, for example, a change in temperature. Input information processing unit 42
Extracts only the required monitoring information such as the image change range, the magnitude of vibration, and the temperature rise from the input information from the monitoring camera 41 or the monitoring sensor 41a. The transmission start condition holding unit 43 uses a condition determination formula (for example, image change of 20% or more ‖ (or) seismic intensity that presets an arbitrary transmission start condition based on required monitoring information (for example, image change range, vibration magnitude, etc.). 2 or more). The condition evaluation unit 44 uses the condition determination formula referred from the transmission start condition holding unit 43 and the required monitoring information from the input information processing unit 42 (for example, image change 5).
%, Seismic intensity 3, etc.) to determine whether or not “start transmission” is necessary. The transmission unit 45 starts transmission of the captured image data captured from the surveillance camera 41 to the image display unit 46 according to the determination result of “transmission start” from the condition evaluation unit 44. The automatic start condition for video surveillance can be easily determined by combining multiple elements corresponding to each system.

【0045】上記実施の形態の映像監視装置は、各シス
テムに対応し所要監視情報を常時モニターし複数要素の
組合せを設定する自動起動条件で映像監視をする方式
(自動起動映像監視方式)を採る。
The video monitoring apparatus according to the above-described embodiment adopts a system (automatic startup video monitoring system) that constantly monitors required monitoring information corresponding to each system and performs video monitoring under an automatic startup condition that sets a combination of a plurality of elements. .

【0046】なお上記図11(a)に示す発明の実施の
一形態で送信開始条件保持部43は条件判定式に任意の
送信開始条件を予め設定しておく方法を採るとして説明
したが、図11(b)のように条件判定式のパラメータ
として任意の送信開始条件(たとえばA:「画像変化2
0%以上」、B:「震度2以上」、C:「‖(「また
は」の意)をとる」などのキーワード)をダウンロード
して指定する方法を採る送信開始条件保持部43bとし
て構成してもよい。任意の送信開始条件パラメータで作
成する条件判定式により自動起動条件を容易に設定し変
更できる。
In the embodiment of the invention shown in FIG. 11 (a), the transmission start condition holding unit 43 has been described as a method of presetting an arbitrary transmission start condition in the condition judgment expression. 11 (b), an arbitrary transmission start condition (for example, A: “Image change 2
0% or more ", B:" Seismic intensity of 2 or more ", C:" Keywords such as "takes""(meaning" or ")" and is specified as the transmission start condition holding unit 43b. Good. The automatic start condition can be easily set and changed by the condition judgment formula created with any transmission start condition parameter.

【0047】また上記図11(b)に示す発明の実施の
一形態で送信開始条件保持部43bは図11(c)のよ
うに、送信条件自動変更手段でダウンロードする送信開
始条件パラメータに対し自動的に最適化をする送信開始
条件保持部43cとして構成してもよい。たとえば屋外
設置下で昼間と夜間とで明らかに画像変化が20%を越
える場合、「画像変化20%以上」の送信開始条件パラ
メータを「10秒先行画像との画像変化20%」に自動
変更をする。ある程度予想できる環境変化に対応し最適
化をする送信開始条件パラメータで作成する条件判定式
により自動起動条件を容易に設定し変更できる。
In the embodiment of the invention shown in FIG. 11 (b), the transmission start condition holding section 43b automatically sets the transmission start condition parameters downloaded by the transmission condition automatic changing means as shown in FIG. 11 (c). You may comprise as the transmission start condition holding part 43c which optimizes dynamically. For example, when the image change clearly exceeds 20% between the daytime and nighttime under outdoor installation, the transmission start condition parameter of "image change 20% or more" is automatically changed to "image change 20% with preceding image for 10 seconds". To do. The automatic start condition can be easily set and changed by the condition judgment formula created by the transmission start condition parameter that optimizes in response to the environmental change that can be predicted to some extent.

【0048】[0048]

【発明の効果】上記のようなこの発明の映像監視装置で
は、仮想/自律/自律協調分散/自動起動映像監視方式
を採るから、従来のように移動する被監視物体方向にカ
メラ自体を動かすか数台のカメラを切り替えて映像監視
をする方式に比べ難点を解消し、各発明ごとにつぎの効
果がある。 (1)平面上の所望仮想視点からの被監視物体撮像画像
でカメラ自体の操作や移動をしないで複数の監視者が所
望平面視点から監視できる。 (2)空間上の所望仮想視点からの被監視物体撮像画像
でカメラ自体の操作や移動をしないで複数の監視者が所
望空間視点から監視できる。 (3)画像の変化範囲だけで高速の画像補間処理ができ
る。 (4)既存の3次元データで簡易に3次元監視画像を合
成できる。 (5)左/右目用平面仮想補間画像を得て立体視画像を
容易に作成できる
As described above, the video monitoring apparatus according to the present invention adopts the virtual / autonomous / autonomous cooperative distributed / auto-start video monitoring system. Therefore, the camera itself should be moved toward the moving monitored object as in the conventional case. Compared with the method of monitoring video by switching several cameras, the drawbacks are solved and the following effects are obtained for each invention. (1) A plurality of observers can monitor from a desired plane viewpoint without operating or moving the camera itself in a captured image of a monitored object from a desired virtual viewpoint on a plane. (2) A plurality of observers can monitor from the desired space viewpoint without operating or moving the camera itself in the captured image of the monitored object from the desired virtual viewpoint in space. (3) High-speed image interpolation processing can be performed only in the image change range. (4) A three-dimensional monitoring image can be easily combined with existing three-dimensional data. (5) A stereoscopic image can be easily created by obtaining a plane virtual interpolation image for the left / right eyes .

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施の一形態を示す映像監視装置
の構成図。
FIG. 1 is a configuration diagram of a video surveillance device showing an embodiment of the present invention.

【図2】 図1に示す平面仮想補間画像合成部の機能を
説明する図。
FIG. 2 is a diagram illustrating a function of a plane virtual interpolation image synthesizing unit shown in FIG.

【図3】 この発明の実施の形態の他の一形態を示す構
成図。
FIG. 3 is a configuration diagram showing another form of the embodiment of the present invention.

【図4】 この発明の実施の形態の他の一形態を示す構
成図。
FIG. 4 is a configuration diagram showing another form of the embodiment of the present invention.

【図5】 図4に示す平面仮想補間画像の合成過程を表
す図。
FIG. 5 is a diagram showing a process of synthesizing the plane virtual interpolation image shown in FIG.

【図6】 この発明の実施の他の一形態を示す構成図。FIG. 6 is a configuration diagram showing another embodiment of the present invention.

【図7】 この発明の実施の他の一形態を示す構成図。FIG. 7 is a configuration diagram showing another embodiment of the present invention.

【図8】 この発明に関連する実施の一形態を示す映像
監視装置の構成図。
FIG. 8 is a configuration diagram of a video surveillance device showing an embodiment related to the present invention.

【図9】 この発明に関連する実施の他の一形態を示す
構成図。
FIG. 9 is a configuration diagram showing another embodiment related to the present invention.

【図10】 この発明に関連する他の実施の一形態を示
す映像監視装置の構成図。
FIG. 10 is a configuration diagram of a video surveillance device showing another embodiment related to the invention.

【図11】 この発明に関連する他の実施の一形態を示
す映像監視装置の構成図と当該実施の他の二形態を示す
構成図。
FIG. 11 is a configuration diagram of a video surveillance device showing another embodiment related to the invention and a configuration diagram showing two other forms of the embodiment.

【図12】 従来の技術を示す映像監視装置の構成図。FIG. 12 is a configuration diagram of a video surveillance device showing a conventional technique.

【符号の説明】[Explanation of symbols]

1 監視カメラ、1a 同じ平面上にない監視カメラ、
2、2a 画像認識部、3 平面特定部、3a 平面視
点特定部、4、4a 入力部、5 平面距離演算部、5
a 空間距離演算部、6 平面仮想補間画像合成部、6
a 空間仮想補間画像合成部、7、7a 画像表示部、
8 先行画像保管部、9 変化範囲認識部、10 3次
元(D)グラフィック画像生成部、11 監視画像合成
部、21近視カメラ、21a 広域カメラ、21b 可
動カメラ、22 物体位置特定部、23、23a 近視
カメラ制御部、23b 仮想カメラ制御部、24 近視
カメラ画像表示部、31 観測カメラ、32 移動物体
認識部、33 撮像画像データ送受信器、34 被監視
物体進行方向情報送信器、35 被監視物体進行方向情
報受信器、36 通信回線、37 撮像画像データ送受
信制御部、38画像表示部、41 監視カメラ、41a
監視センサ、42 入力情報処理部、43、43a、
43b 送信開始条件保持部、44 条件評価部、45
送信部、46 画像表示部。なお図中、同一符号は同
一または相当部分を示す。
1 surveillance cameras, 1a surveillance cameras not on the same plane,
2, 2a Image recognition unit, 3 Plane specifying unit, 3a Plane viewpoint specifying unit, 4, 4a Input unit, 5 Plane distance calculating unit, 5
a Spatial distance calculator, 6 Plane virtual interpolation image synthesizer, 6
a space virtual interpolation image synthesizing unit, 7, 7a image display unit,
8 preceding image storage unit, 9 change range recognition unit, 10 three-dimensional (D) graphic image generation unit, 11 surveillance image synthesis unit, 21 myopia camera, 21a wide area camera, 21b movable camera, 22 object position specification unit, 23, 23a Myopia camera control unit, 23b virtual camera control unit, 24 myopia camera image display unit, 31 observation camera, 32 moving object recognition unit, 33 imaged image data transceiver, 34 monitored object traveling direction information transmitter, 35 monitored object progress Direction information receiver, 36 communication line, 37 captured image data transmission / reception control unit, 38 image display unit, 41 surveillance camera, 41a
Monitoring sensor, 42 input information processing unit, 43, 43a,
43b Transmission start condition holding unit, 44 Condition evaluation unit, 45
Transmitter, 46 image display. In the drawings, the same reference numerals indicate the same or corresponding parts.

フロントページの続き (56)参考文献 特開 平7−129792(JP,A) 特開 平7−274063(JP,A) 特開 平7−287761(JP,A) 特開 平6−325180(JP,A) 特開 平5−334572(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 315 G08B 13/196 H04N 7/18 Continuation of the front page (56) Reference JP-A-7-129792 (JP, A) JP-A-7-274063 (JP, A) JP-A-7-287761 (JP, A) JP-A-6-325180 (JP , A) JP-A-5-334572 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 315 G08B 13/196 H04N 7/18

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 同一平面上に設置された3台以上のカメ
ラから取り込まれる各撮像画像の特徴点を抽出する画像
認識部と、前記同一平面上の各カメラ位置によって構成
される平面を特定する平面特定部と、入力手段から前記
平面特定部で特定された平面上に設定された所望仮想視
点と前記3台以上の各カメラ位置との各平面距離を抽出
する平面距離演算部と、前記画像認識部によって抽出さ
れた当該各特徴点の位置座標それぞれに対して前記平面
距離演算部からの各平面相対距離による重みづけを繰返
すことにより、前記撮像画像から、前記所望仮想視点を
視点とする平面仮想補間画像を合成する平面仮想補間画
像合成部とを備えたことを特徴とする映像監視装置。
1. An image recognition unit for extracting a feature point of each captured image captured from three or more cameras installed on the same plane, and a plane formed by each camera position on the same plane is specified. A plane specifying unit; a plane distance calculating unit that extracts a plane distance between the desired virtual viewpoint set on the plane specified by the plane specifying unit from the input unit and each of the three or more camera positions; A plane having the desired virtual viewpoint as a viewpoint from the captured image by repeating weighting by the relative distance of each plane from the plane distance calculating unit for each position coordinate of each feature point extracted by the recognition unit. And a plane virtual interpolation image synthesizing unit for synthesizing virtual interpolation images.
【請求項2】 前記同一平面上に設置されたカメラと同
じ平面上にない第2のカメラから取り込まれる各撮像画
像の特徴点を抽出する第2の画像認識部と、入力手段に
よって設定された空間上の所望仮想視点と前記第2のカ
メラ位置とを結ぶ直線と、前記平面特定部で特定された
平面との交点を平面上の仮想視点として特定する平面視
点特定部と、前記平面上の仮想視点に対する前記空間上
の所望仮想視点および前記第2のカメラ位置との各空間
距離を抽出する空間距離演算部と、前記第2の画像認識
部によって抽出された当該特徴点の位置座標それぞれ
前記平面仮想補間画像合成部から出力される平面仮想補
間画像の被監視物体位置座標とに対して、前記空間距離
演算部からの各空間相対距離による重みづけを繰返すこ
とにより、前記空間上の所望仮想視点を視点とする空間
仮想補間画像を合成する空間仮想補間画像合成部とを備
えたことを特徴とする請求項1記載の映像監視装置。
2. A second image recognition section for extracting a feature point of each captured image captured from a second camera which is not on the same plane as the camera installed on the same plane, and is set by the input means. A plane viewpoint specifying unit that specifies an intersection point between a desired virtual viewpoint in space and the second camera position and a plane specified by the plane specifying unit as a virtual viewpoint on the plane, and a plane viewpoint specifying unit on the plane. A spatial distance calculation unit that extracts spatial distances between the desired virtual viewpoint in the space and the second camera position with respect to the virtual viewpoint, and position coordinates of the feature points extracted by the second image recognition unit. By repeating weighting with respect to the monitored object position coordinates of the plane virtual interpolation image output from the plane virtual interpolation image synthesizing unit by each spatial relative distance from the spatial distance calculating unit, The video monitoring device according to claim 1, further comprising: a spatial virtual interpolation image synthesizing unit that synthesizes a spatial virtual interpolation image having the desired virtual viewpoint as a viewpoint.
【請求項3】 前記カメラから取り込まれる撮像画像を
先行撮像画像として一時保管をする先行画像保管部と、
前記先行画像保管部に保管された先行撮像画像と前記カ
メラから取り込まれる現行撮像画像との差分を取ること
により、時間軸方向の変化範囲を特定し、当該変化範囲
だけを前記画像認識部からの当該各特徴点として前記平
面仮想補間画像合成部に出力する変化範囲認識部とを備
えたことを特徴とする請求項1または2記載の映像監視
装置。
3. A preceding image storage unit for temporarily storing a captured image captured from the camera as a preceding captured image,
By determining the difference between the preceding captured image stored in the preceding image storage unit and the current captured image captured from the camera, the change range in the time axis direction is specified, and only the change range from the image recognition unit is specified. 3. The video monitoring apparatus according to claim 1, further comprising: a change range recognition unit that outputs the plane virtual interpolation image synthesis unit as each feature point.
【請求項4】 入力手段によって設定された前記平面上
の仮想視点を視点とする視野画像を作成済みの3次元デ
ータに基づいて描画作成する3次元グラフィック画像生
成部と、前記3次元グラフィック画像生成部からの3次
元グラフィック画像と前記平面仮想補間画像合成部から
の変化範囲だけの平面仮想補間画像とを画像合成するこ
とにより、前記平面上の仮想視点を視点とする3次元画
像を生成する3次元画像合成部とを備えたことを特徴と
する請求項3記載の映像監視装置。
4. A three-dimensional graphic image generation unit for drawing and creating a visual field image having a virtual visual point on the plane set by an input means as a viewpoint, and the three-dimensional graphic image generation. 3D image from the virtual viewpoint on the plane is generated by image-compositing the 3D graphic image from the image plane and the plane virtual interpolation image from the plane virtual interpolation image synthesizing unit 3 The image monitoring apparatus according to claim 3, further comprising a three-dimensional image combining unit.
【請求項5】 前記入力手段が、両目の視差に相当する
間隔だけ離れた右目用および左目用の2つの仮想視点を
設定するとともに、前記平面仮想補間画像合成部が前記
2つの仮想視点の各々に対応して、右目用および左目用
の2つの平面補間画像を生成することを特徴とする請求
項1ないし請求項4のいずれかに記載の映像監視装置。
5. The input means sets two virtual viewpoints for the right eye and the left eye separated by an interval corresponding to the parallax of both eyes, and the plane virtual interpolation image synthesizing unit sets each of the two virtual viewpoints. 5. The video monitoring apparatus according to claim 1, wherein two plane interpolation images for the right eye and the left eye are generated corresponding to the above.
JP34086995A 1995-12-27 1995-12-27 Video surveillance equipment Expired - Fee Related JP3365182B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34086995A JP3365182B2 (en) 1995-12-27 1995-12-27 Video surveillance equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34086995A JP3365182B2 (en) 1995-12-27 1995-12-27 Video surveillance equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002243033A Division JP2003163929A (en) 2002-08-23 2002-08-23 Image monitor

Publications (2)

Publication Number Publication Date
JPH09179984A JPH09179984A (en) 1997-07-11
JP3365182B2 true JP3365182B2 (en) 2003-01-08

Family

ID=18341069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34086995A Expired - Fee Related JP3365182B2 (en) 1995-12-27 1995-12-27 Video surveillance equipment

Country Status (1)

Country Link
JP (1) JP3365182B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522186B2 (en) 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
JP2002092751A (en) * 2000-09-18 2002-03-29 Matsushita Electric Ind Co Ltd Monitoring system
EP1636993A2 (en) 2003-06-19 2006-03-22 L3 Communications Corp Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system
JP4573599B2 (en) * 2004-08-17 2010-11-04 エイディシーテクノロジー株式会社 Display device
JP3887403B2 (en) * 2004-12-21 2007-02-28 松下電器産業株式会社 Camera terminal and photographing area adjusting device
CN100428781C (en) * 2004-12-21 2008-10-22 松下电器产业株式会社 Camera terminal and shooting area adjustment device
WO2006067947A1 (en) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. Camera terminal and monitoring system
JP2006352539A (en) * 2005-06-16 2006-12-28 Sharp Corp Wide-field video system
JP4990852B2 (en) * 2008-07-31 2012-08-01 Kddi株式会社 Free viewpoint video generation system and recording medium for three-dimensional movement
JP5192442B2 (en) * 2009-05-21 2013-05-08 日本電信電話株式会社 VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, VIDEO GENERATION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
EP2474162B8 (en) * 2009-08-31 2019-08-14 Trace Optics Pty Ltd A method and apparatus for relative control of multiple cameras
JP5456020B2 (en) * 2009-10-30 2014-03-26 キヤノン株式会社 Information processing apparatus and method
JP5804007B2 (en) 2013-09-03 2015-11-04 カシオ計算機株式会社 Movie generation system, movie generation method and program
EP3075215B1 (en) * 2014-03-19 2017-05-10 Philips Lighting Holding B.V. Multi-modal sensing
CN112840641A (en) * 2018-10-09 2021-05-25 古野电气株式会社 Periphery monitoring device and periphery monitoring method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05334572A (en) * 1992-06-01 1993-12-17 Fuji Electric Co Ltd Indoor monitoring device
JPH06325180A (en) * 1993-05-14 1994-11-25 Matsushita Electric Ind Co Ltd Automatic tracking device for moving body
JP3032414B2 (en) * 1993-10-29 2000-04-17 キヤノン株式会社 Image processing method and image processing apparatus
JPH07274063A (en) * 1994-03-29 1995-10-20 Canon Inc Image processing method and apparatus thereof
JPH07287761A (en) * 1994-04-19 1995-10-31 Canon Inc Device and method for processing picture

Also Published As

Publication number Publication date
JPH09179984A (en) 1997-07-11

Similar Documents

Publication Publication Date Title
JP3365182B2 (en) Video surveillance equipment
JP2998791B2 (en) 3D structure estimation device
JP4195991B2 (en) Surveillance video monitoring system, surveillance video generation method, and surveillance video monitoring server
EP3419283B1 (en) System and method for tracking moving objects in a scene
KR101695249B1 (en) Method and system for presenting security image
US6867799B2 (en) Method and apparatus for object surveillance with a movable camera
JP4167777B2 (en) VIDEO DISPLAY DEVICE, VIDEO DISPLAY METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR DISPLAYING VIDEO
KR101120131B1 (en) Intelligent Panorama Camera, Circuit and Method for Controlling thereof, and Video Monitoring System
JPH08265741A (en) Apparatus and method for video monitoring of area
CN100551046C (en) The method and apparatus of information processing
RU83675U1 (en) VIDEO MONITORING SYSTEM
KR101916093B1 (en) Method for tracking object
KR101096157B1 (en) Real-time monitoring device using dual camera
KR101977635B1 (en) Multi-camera based aerial-view 360-degree video stitching and object detection method and device
CN102547237B (en) Dynamic monitoring system based on multiple image acquisition devices
JPH1169342A (en) Intruding object tracking image processing system
JPH09130783A (en) Distributed video monitoring system
JP3096612B2 (en) Time-division stereoscopic video signal detection method, time-division stereoscopic video signal detection device, and stereoscopic video display device
JP2005252660A (en) Photographing system and photographing control method
JP3656823B2 (en) Automatic monitoring method and automatic monitoring device
JP2003163929A (en) Image monitor
KR101410985B1 (en) monitoring system and monitoring apparatus using security camera and monitoring method thereof
JP6720010B2 (en) Information processing apparatus, information processing method, and program
EP0989747A2 (en) Television lens apparatus adapted for a virtual studio
CN115176286A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees