JP2003179930A - Moving object extraction method and extraction device - Google Patents
Moving object extraction method and extraction deviceInfo
- Publication number
- JP2003179930A JP2003179930A JP2001376299A JP2001376299A JP2003179930A JP 2003179930 A JP2003179930 A JP 2003179930A JP 2001376299 A JP2001376299 A JP 2001376299A JP 2001376299 A JP2001376299 A JP 2001376299A JP 2003179930 A JP2003179930 A JP 2003179930A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- video
- moving
- background
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
(57)【要約】
【課題】 撮影領域が所望の背景をカバーすることがで
き、かつ、動オブジェクトが映像上で一定の大きさをも
つことが可能となる動オブジェクト抽出方法及び抽出装
置を提供することを目的とする。
【解決手段】 複数の固定背景映像カメラの映像信号か
ら動オブジェクトを抽出し、放送映像カメラの撮影映像
にマッピングして動オブジェクトの抽出を行う動オブジ
ェクト抽出方法であって、前記複数の固定背景映像カメ
ラ間で重複した映像信号の領域から得られた動オブジェ
クトを同定する同定段階と、異なる固定背景映像カメラ
の映像信号から同一の動オブジェクトが抽出された場合
に、前記背景映像カメラの画面の中心と前記動オブジェ
クトの重心との距離が最小となる背景映像から抽出され
た動オブジェクトを選択する選択段階と、前記選択段階
で選択された動オブジェクトの領域を前記放送映像カメ
ラの撮影映像にマッピングすることにより動オブジェク
トの抽出を行う抽出段階とを備えることにより上記課題
を解決する。
(57) [Problem] To provide a moving object extracting method and an extracting device in which a photographing area can cover a desired background and a moving object can have a certain size on a video. The purpose is to do. A moving object extraction method for extracting a moving object from video signals of a plurality of fixed background video cameras, mapping the moving objects to a video captured by a broadcast video camera, and extracting the moving objects, comprising: An identification step of identifying a moving object obtained from an area of a video signal overlapping between cameras; and, when the same moving object is extracted from a video signal of a different fixed background video camera, a center of the screen of the background video camera. Selecting a moving object extracted from a background image having a minimum distance between the moving image and the center of gravity of the moving object, and mapping an area of the moving object selected in the selecting step to a captured image of the broadcast video camera. And an extraction step for extracting a moving object.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、動オブジェクト抽
出方法及び抽出装置に係り、特に、オブジェクト画像符
号化やオブジェクト連動型データ放送システムを実現す
るために映像内の動オブジェクトの抽出を行う動オブジ
ェクト抽出方法及び抽出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object extracting method and extracting apparatus, and more particularly, to a moving object for extracting a moving object in a video to realize object image coding and an object-linked data broadcasting system. The present invention relates to an extraction method and an extraction device.
【0002】[0002]
【従来の技術】オブジェクトベースの画像符号化やオブ
ジェクトに連動した映像を放送する連動型データ放送シ
ステムを実現するために、映像から意味のある又は動き
のあるオブジェクトを抽出することは必要不可欠な技術
となっている。2. Description of the Related Art In order to realize an object-based image coding and a linked data broadcasting system for broadcasting a video linked to an object, it is indispensable to extract a meaningful or moving object from the video. Has become.
【0003】従来の動オブジェクト抽出方法は、クロマ
キーにおける背景のように特別の仕掛けを必要とするも
のや、レンジファインダの特別センサを必要とするもの
等がある。Some conventional moving object extraction methods require a special device such as a background in chroma keys, and some require a special sensor for a range finder.
【0004】一方、通常のカメラ等によって取得された
自然画像からオブジェクトを切り出す技術としては、輝
度・色情報や動きベクトル場に基づいて画像を領域分解
する方法や、人間がおおよその位置・輪郭を与え、その
エッジ情報に基づいてオブジェクトを切り出す方法等が
あるが、その中でも輝度値の時間方向の統計情報を用い
て背景と前景とを分離することによりオブジェクトを抽
出する背景差分オブジェクト抽出法は最も安定してお
り、この目的に適している。On the other hand, as a technique for cutting out an object from a natural image acquired by a normal camera or the like, a method of dividing an image into regions based on luminance / color information or a motion vector field, or a method in which a human approximates a position / contour Given that, there is a method of cutting out an object based on the edge information, but among them, the background difference object extraction method that extracts the object by separating the background and the foreground using the statistical information of the luminance value in the time direction is the most It is stable and suitable for this purpose.
【0005】また、従来の動オブジェクト抽出法の実施
においては、カメラが固定していなければならず、実際
の放送映像の撮影ではパン、チルト、ロール、ズーム、
フォーカス、ドリー等の様々なカメラ操作が行われるた
め、使用に対して制限条件があった。しかしながら、例
えば、本発明者の発明に係る特願2001−19607
7号出願に記載されているように、撮影時に放送映像カ
メラと別に、1台の固定の背景映像カメラを設置し、背
景映像から動オブジェクトの抽出を行い、更にフレーム
毎に前記放送映像カメラの繰作パラメータ(パン角度、
チルト角度、ロール角度、ズーム比、フォーカス量、ド
リー量)を計測し、計測したパラメータと背景映像から
の抽出結果を用いて放送映像内の動オブジェクトの抽出
を行う方法がある。これにより、放送映像からの動オブ
ジェクトの抽出を、固定カメラで撮影した背景映像から
動オブジェクトを抽出し、前記固定カメラと前記背景映
像カメラとの2カメラ映像間のオブジェクト領域を射影
変換処理ことにより、背景映像からの高精度の動オブジ
ェクトが抽出でき、また、2カメラ映像間の動オブジェ
クト領域の射影変換処理が単純な座標変換処理(マッピ
ング)であるため、放送映像からの動オブジェクトの抽
出を高精度に行うことが可能となる。Further, in the practice of the conventional moving object extraction method, the camera must be fixed, and pan, tilt, roll, zoom, and
Since various camera operations such as focus and dolly are performed, there are restrictions on the use. However, for example, Japanese Patent Application No. 2001-19607 relating to the invention of the present inventor
As described in the No. 7 application, a fixed background video camera is installed separately from the broadcast video camera at the time of shooting, a moving object is extracted from the background video, and the broadcast video camera of the broadcast video camera is extracted for each frame. Repetition parameters (pan angle,
There is a method of measuring a tilt angle, a roll angle, a zoom ratio, a focus amount, a dolly amount), and extracting a moving object in a broadcast video by using the measured parameters and the extraction result from the background video. Accordingly, by extracting the moving object from the broadcast video, by extracting the moving object from the background video shot by the fixed camera, and projecting the object area between the two cameras of the fixed camera and the background video camera. , A high-precision moving object can be extracted from the background image, and the projective transformation process of the moving object area between the two camera images is a simple coordinate transformation process (mapping). It can be performed with high accuracy.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、放送映
像内の動オブジェクトの輪郭に一定の精度を持たせるた
めには、背景映像内の動オブジェクトが一定の大きさを
有することが必要である。また、1台の背景映像カメラ
では、実際の背景映像カメラの画角や撮影距離に仕様上
もしくは運用上の制限が生じてしまい、広画角で撮影し
なければならないものには対応することができない。こ
れらのことから、1台の背景映像カメラでは所望の背景
をカバーすることができない。また、動オブジェクトの
輪郭について十分な精度を確保できないことがある。However, in order to provide the contour of the moving object in the broadcast video with a certain degree of accuracy, it is necessary that the moving object in the background video has a certain size. Also, with one background video camera, there are restrictions in specifications or operation of the actual field of view and the distance of the background video camera, and it is possible to handle those that require a wide field of view. Can not. For these reasons, a single background video camera cannot cover a desired background. In addition, sufficient accuracy may not be ensured for the contour of the moving object.
【0007】本発明は、上述の点に鑑みなされたもので
あり、撮影時に複数の背景映像カメラを設置し、前記複
数の背景映像カメラからの映像を繋ぎ合わせることで所
望の背景をカバーするような構成にし、背景映像カメラ
の撮影領域が所望の背景をカバーしながら動オブジェク
トが映像上で一定の大きさをもつことにより、高精度な
動オブジェクトの抽出を行うことができる動オブジェク
ト抽出方法及び抽出装置を提供することを目的とする。The present invention has been made in view of the above-mentioned points, and a plurality of background image cameras are installed at the time of shooting, and the images from the plurality of background image cameras are connected to cover a desired background. And a moving object extracting method capable of extracting a moving object with high accuracy by allowing the moving object to have a certain size on the image while the shooting area of the background video camera covers a desired background. An object is to provide an extraction device.
【0008】[0008]
【課題を解決するための手段】上記課題を解決するため
に、本件発明は、以下の特徴を有する課題を解決するた
めの手段を採用している。In order to solve the above problems, the present invention employs means for solving the problems having the following features.
【0009】請求項1に記載された発明は、複数の固定
背景映像カメラの映像信号から動オブジェクトを抽出
し、放送映像カメラの撮影映像にマッピングして動オブ
ジェクトの抽出を行う動オブジェクト抽出方法であっ
て、前記複数の固定背景映像カメラ間で重複した映像信
号の領域から得られた動オブジェクトを同定する同定段
階と、異なる固定背景映像カメラの映像信号から同一の
動オブジェクトが抽出された場合に、前記背景映像カメ
ラの画面の中心と前記動オブジェクトの重心との距離が
最小となる背景映像から抽出された動オブジェクトを選
択する選択段階と、前記選択段階で選択された動オブジ
ェクトの領域を前記放送映像カメラの撮影映像にマッピ
ングすることにより動オブジェクトの抽出を行う抽出段
階とを有することを特徴とする。The invention described in claim 1 is a moving object extraction method for extracting a moving object by extracting a moving object from video signals of a plurality of fixed background video cameras and mapping it to a video image captured by a broadcast video camera. There is an identification step of identifying a moving object obtained from a region of video signals that overlap between the plurality of fixed background video cameras, and the same moving object is extracted from video signals of different fixed background video cameras. A selection step of selecting a moving object extracted from the background image in which the distance between the center of the screen of the background video camera and the center of gravity of the moving object is minimum; and a region of the moving object selected in the selection step, It has a step of extracting a moving object by mapping it to a video image captured by a broadcast video camera. To.
【0010】請求項1記載の発明によれば、複数の固定
背景映像カメラを用いることで、所望の背景をカバーす
ることができる。また、動オブジェクトの重心と画面の
中心の距離が最小となる背景映像を選択し、選択された
背景映像内の動オブジェクトを放送映像にマッピングす
ることにより動オブジェクトが一定の大きさをもつこと
ができ、抽出精度を向上させることができる。According to the first aspect of the present invention, a desired background can be covered by using a plurality of fixed background image cameras. Also, by selecting a background image that minimizes the distance between the center of gravity of the moving object and the center of the screen, and mapping the moving object in the selected background image to the broadcast image, the moving object may have a certain size. Therefore, the extraction accuracy can be improved.
【0011】請求項2に記載された発明は、前記同定段
階は、前記複数の固定背景映像カメラから撮影された映
像信号から抽出した動オブジェクトの実空間における重
心間の距離が、異なる背景映像間で所定の閾値以下のも
ので、かつ他の動オブジェクトとの重心間の距離と比較
して最小のものを同一の動オブジェクトとすることを特
徴とする。According to a second aspect of the present invention, in the identifying step, between background images in which the distance between the centers of gravity of the moving objects extracted from the image signals captured by the plurality of fixed background image cameras in the real space is different. Is smaller than or equal to a predetermined threshold value and is the smallest compared with the distance between the centers of gravity with other moving objects, and is set as the same moving object.
【0012】請求項2記載の発明によれば、背景映像の
重複領域に存在する動オブジェクトが同一の動オブジェ
クトであるか否かを容易に認識することができる。According to the second aspect of the present invention, it is possible to easily recognize whether or not the moving objects existing in the overlapping area of the background image are the same moving object.
【0013】請求項3に記載された発明は、複数の固定
背景映像カメラの映像信号から動オブジェクトを抽出
し、放送映像カメラの撮影映像にマッピングして動オブ
ジェクトの抽出を行う動オブジェクト抽出装置であっ
て、前記複数の固定背景映像カメラ間で重複した映像信
号の領域から得られた動オブジェクトを同定する同定部
と、異なる固定背景映像カメラの映像信号から同一の動
オブジェクトが抽出された場合に、前記背景映像カメラ
の画面の中心と前記動オブジェクトの重心との距離が最
小となる背景映像から抽出された動オブジェクトを選択
する選択部と、前記選択部で選択された動オブジェクト
の領域を前記放送映像カメラの撮影映像にマッピングす
ることにより動オブジェクトの抽出を行う抽出部とを有
することを特徴とする。A third aspect of the present invention is a moving object extracting apparatus for extracting a moving object from video signals of a plurality of fixed background video cameras, and mapping the video object to a video captured by a broadcast video camera to extract the moving object. In the case where the same moving object is extracted from the video signals of different fixed background video cameras, the identification unit that identifies the moving objects obtained from the regions of the video signals that overlap between the plurality of fixed background video cameras, A selection unit for selecting a moving object extracted from a background image having a minimum distance between the center of the screen of the background video camera and the center of gravity of the moving object; and a region of the moving object selected by the selection unit, And a extracting unit for extracting a moving object by mapping the image on the image captured by the broadcast image camera.
【0014】請求項4に記載された発明は、前記同定部
は、前記複数の固定背景映像カメラから撮影された映像
信号から抽出した動オブジェクトの実空間における重心
間の距離が、異なる背景映像間で所定の閾値以下のもの
で、かつ他の動オブジェクトとの重心間の距離と比較し
て最小のものを同一の動オブジェクトとすることを特徴
とする。According to a fourth aspect of the present invention, the identifying section is arranged between background images having different distances between the centers of gravity of the moving objects extracted from the image signals captured by the plurality of fixed background image cameras in the real space. Is smaller than or equal to a predetermined threshold value and is the smallest compared with the distance between the centers of gravity with other moving objects, and is set as the same moving object.
【0015】請求項3から4に記載された発明によれ
ば、請求項1又は2に記載の動オブジェクト抽出方法に
適した抽出装置を提供することができる。According to the invention described in claims 3 to 4, it is possible to provide an extraction apparatus suitable for the moving object extraction method according to claim 1 or 2.
【0016】[0016]
【発明の実施の形態】次に、本発明の実施の形態につい
て図面に基づいて説明する。BEST MODE FOR CARRYING OUT THE INVENTION Next, embodiments of the present invention will be described with reference to the drawings.
【0017】図1は、本発明における動オブジェクト抽
出装置の一実施例の構成図である。図1の動オブジェク
ト抽出装置は、カメラキャリブレーション回路1と、動
オブジェクト抽出・追跡・同定回路2と、自動切換え回
路3と、放送映像動オブジェクト抽出回路4とを備える
よう構成されている。FIG. 1 is a block diagram of an embodiment of a moving object extracting apparatus according to the present invention. The moving object extracting apparatus of FIG. 1 is configured to include a camera calibration circuit 1, a moving object extracting / tracking / identifying circuit 2, an automatic switching circuit 3, and a broadcast video moving object extracting circuit 4.
【0018】図1において、カメラキャリブレーション
回路1は、3次元空間で座標位置が明確なターゲット点
と、それに対応した画像上での点の座標とを用いて焦点
距離、光軸と画像面との交点である画像中心位置、及び
レンズの歪曲収差等のカメラ内部パラメータを求める。
また、カメラの位置、姿勢を推定する。In FIG. 1, the camera calibration circuit 1 uses a target point whose coordinate position is clear in a three-dimensional space and the coordinate of the point corresponding to the target point to determine the focal length, the optical axis and the image plane. The camera internal parameters such as the image center position, which is the intersection of, and the lens distortion, are obtained.
It also estimates the position and orientation of the camera.
【0019】動オブジェクト抽出・追跡・同定回路2
は、夫々の背景映像から動オブジェクトを抽出・追跡
し、シーン内の同一の動オブジェクトに対応するもの
に、同一の識別番号(ID)を付与する。Moving object extraction / tracking / identification circuit 2
Extracts and tracks a moving object from each background image, and assigns the same identification number (ID) to those corresponding to the same moving object in the scene.
【0020】自動切換え回路3は、抽出した動オブジェ
クト領域を放送映像にマッピングする際に複数の背景映
像から得られる同一の動オブジェクトの中から最適な動
オブジェクトを抽出できるように背景映像を選択する。The automatic switching circuit 3 selects a background image so that an optimum moving object can be extracted from the same moving object obtained from a plurality of background images when the extracted moving object area is mapped to a broadcast image. .
【0021】また、放送映像動オブジェクト抽出回路4
は、自動切換え回路3に供給される動オブジェクト領域
を放送映像にマッピングする。Further, the broadcast video moving object extraction circuit 4
Maps the moving object area supplied to the automatic switching circuit 3 to the broadcast video.
【0022】上述の内容により、設置した固定カメラ分
の撮影距離を確保することができ、また、背景映像から
高精度な動オブジェクトの抽出が可能となる。With the above contents, it is possible to secure the shooting distance of the fixed camera installed, and it is also possible to extract a moving object with high accuracy from the background image.
【0023】次に、動作について詳細に説明する。Next, the operation will be described in detail.
【0024】図2は、複数の背景映像カメラの撮影範囲
の関係を示す一例の図である。FIG. 2 is a diagram showing an example of the relationship between the shooting ranges of a plurality of background video cameras.
【0025】本実施形態において、図2のように複数の
背景映像カメラから夫々撮影された映像を繋ぎ合わせる
ことで、放送映像カメラの撮影可能な範囲をカバーする
ように適切な位置、方向、画角で背景映像カメラを設置
して固定する。図2では、一例として背景映像カメラの
数NをN=3とするが、カメラの台数はこの限りではな
い。また、設置した全てのカメラの動作を同期させて撮
影を行い、映像信号を出力する。In the present embodiment, as shown in FIG. 2, the images taken by the plurality of background image cameras are connected to each other, so that an appropriate position, direction, and image are displayed so as to cover the imageable range of the broadcast image camera. Install and fix the background video camera at the corner. In FIG. 2, the number N of background video cameras is N = 3 as an example, but the number of cameras is not limited to this. Also, the shooting is performed by synchronizing the operations of all installed cameras, and a video signal is output.
【0026】カメラキャリブレーション回路1は、スポ
ーツ会場に描かれる白線の交点等のような特徴となる点
とその画像座標を用いてカメラの内部パラメータと位
置、姿勢を推定する。The camera calibration circuit 1 estimates internal parameters, position, and orientation of the camera by using characteristic points such as intersections of white lines drawn in a sports venue and their image coordinates.
【0027】本実施形態では、動オブジェクトが3次元
空間中の1つの平面にあると仮定し、キャリブレーショ
ンに用いる特徴点として前記平面内にあるものを用い
る。この場合、3次元空間中の点と画像上の点とは1対
1の射影関係をもつ。なお、キャリブレーションはカメ
ラ設置後に行う。また、放送映像カメラに対し予めレン
ズの状態毎に内部パラメータを求めてテーブルに保存し
ておく。In this embodiment, it is assumed that the moving object is on one plane in the three-dimensional space, and the feature points used in the calibration are those on the plane. In this case, the points in the three-dimensional space and the points on the image have a one-to-one projective relationship. Note that calibration is performed after installing the camera. In addition, the internal parameters of the broadcast video camera are obtained in advance for each lens state and stored in a table.
【0028】なお、前述の推定方法の具体的な内容につ
いては、例えば、本発明者の発明に係る特開2001−
86392号公報に記載されているように、カメラにカ
メラの位置、姿勢、及びレンズの状態を計測する夫々の
センサを取り付け、撮影を行う際にこれらのカメラ操作
パラメータを映像信号と同期して取得すると共に、カメ
ラのキャリブレーションにより予め求めておいたカメラ
の内部パラメータの供給を受けてカメラの動きに対応し
た動画像の動き推定を行う推定方法等を用いる。The specific contents of the above-mentioned estimation method are described in, for example, Japanese Patent Application Laid-Open No. 2001-
As described in Japanese Patent No. 86392, each sensor for measuring the position, orientation, and lens state of the camera is attached to the camera, and these camera operation parameters are acquired in synchronization with a video signal when taking a picture. At the same time, an estimation method or the like is used that estimates the motion of the moving image corresponding to the motion of the camera by receiving the internal parameter of the camera that is obtained in advance by the calibration of the camera.
【0029】抽出・追跡・同定回路2では、まず、各背
景映像に対し、背景差分法を用いて動オブジェクトの抽
出を行う。本実施形態においては、背景差分オブジェク
ト抽出法として境田らの手法(境田ら、“背景差分によ
る動オブジェクト抽出手法の検討”、1999年電子情
報通信学会総合大会)を用いる。The extraction / tracking / identification circuit 2 first extracts a moving object from each background image by using the background difference method. In the present embodiment, the method of Sakaida et al. (“Study of moving object extraction technique by background difference”, 1999 IEICE General Conference) is used as the background difference object extraction method.
【0030】ここで、前記背景差分による動オブジェク
ト抽出手法について、その概要を説明する。Here, the outline of the moving object extraction method based on the background difference will be described.
【0031】まず、画像の各画素に対する時間方向輝度
値ヒストグラムの最頻値として背景画像を得る。次に、
各フレームの画像と背景画像との差分をとり、差分によ
って画像を次の条件により、3種類の領域の画素に分類
する。
(1)差分が、ある閾値Thを超える画素を動オブジェ
クトとする。
(2)差分が、ある閾値Tl(Tl<Th)以下の画素
を背景領域とする。
(3)背景領域、動オブジェクトのどちらにも属さない
画素を未確定領域とする。First, the background image is obtained as the mode value of the time-direction luminance value histogram for each pixel of the image. next,
The difference between the image of each frame and the background image is calculated, and the image is classified into pixels of three types of areas according to the following conditions. (1) A pixel whose difference exceeds a certain threshold Th is set as a moving object. (2) Pixels whose difference is less than or equal to a certain threshold Tl (Tl <Th) are set as the background area. (3) Pixels that do not belong to either the background area or the moving object are undetermined areas.
【0032】なお、前記閾値Th及び閾値Tlは差分の
統計情報に基づいて決定される。最後に、未確定領域を
動オブジェクト或いは背景領域に属させるために、マー
カ付きwatershedを施す。また、watershedには、各フレ
ームのエッジ画像を用いるものとする。The threshold value Th and the threshold value Tl are determined based on the statistical information of the difference. Finally, in order to make the undetermined area belong to the moving object or the background area, watershed with a marker is applied. The edge image of each frame is used for watershed.
【0033】次に、各フレームで抽出した動オブジェク
トについて、前後のフレームの関係から動オブジェクト
の追跡を行い、時間方向の関連付けを行う。なお、追跡
方法としては、例えば、本発明者の発明に係る特願20
01−166525号出願に記載されている手法を用い
ることにより、映像における雑音、オブジェクトの変
形、オブジェクト間の掩蔽、オブジェクトの出現・消滅
が生じ得る映像入力に対してオブジェクトの検出・追跡
を行うことができる。Next, with respect to the moving object extracted in each frame, the moving object is tracked from the relationship between the preceding and succeeding frames, and is associated in the time direction. As a tracking method, for example, Japanese Patent Application No.
By using the method described in the application No. 01-166525, the detection and tracking of an object can be performed with respect to a video input in which noise in an image, deformation of an object, obscuration between objects, appearance and disappearance of an object can occur. You can
【0034】ここで、前述した検出・追跡の方法につい
て、フローチャートを用いて説明する。Here, the above-mentioned detection / tracking method will be described with reference to a flowchart.
【0035】図3は、動オブジェクトの検出・追跡方法
を説明するためのフローチャートの一例である。FIG. 3 is an example of a flowchart for explaining a method of detecting and tracking a moving object.
【0036】特願2001−166525号出願に記載
の動(映像)オブジェクトの検出・追跡方法は、まず、
映像信号を前景領域と背景領域とに領域分割を行い、前
景形状信号を生成(S1)する。次に、前記映像信号と
前記前景形状信号の1以上から少なくとも映像オブジェ
クトを特徴づける情報及び座標情報を含んだ画像特徴量
信号を抽出(S2)する。A method of detecting and tracking a moving (video) object described in Japanese Patent Application No. 2001-166525 is as follows.
The video signal is divided into a foreground area and a background area, and a foreground shape signal is generated (S1). Next, an image feature amount signal including at least information characterizing a video object and coordinate information is extracted from one or more of the video signal and the foreground shape signal (S2).
【0037】次に、映像情報と推定位置・形状情報とか
ら特徴照合領域を絞り込み(S3)、前記特徴照合領域
と、画像特徴量信号とオブジェクト特徴データベース内
の各映像オブジェクトの位置・形状情報を示すオブジェ
クト存在領域情報と前記オブジェクト存在領域情報の信
頼の度合いを示す信頼度hとを生成(S4)し、前記オ
ブジェクト存在領域情報と前記信頼度hとに基づいて、
現時点での映像オブジェクトの位置及び形状を推定し、
推定位置・形状情報を生成(S5)する。Next, the feature matching area is narrowed down from the video information and the estimated position / shape information (S3), and the feature matching area, the image feature amount signal, and the position / shape information of each video object in the object feature database are obtained. The object existence area information and the reliability h indicating the degree of trust of the object existence area information are generated (S4), and based on the object existence area information and the reliability h,
Estimate the current position and shape of the video object,
Estimated position / shape information is generated (S5).
【0038】その後、前記推定位置・形状情報の監視
(S6)を行い、映像オブジェクトのフレームアウト又
は消滅を検出した場合は、オブジェクト特徴データベー
ス内の画像特徴量からフレームアウト又は消滅した映像
オブジェクトの識別番号に対応するレコードを削除(S
7)する。After that, the estimated position / shape information is monitored (S6), and when the frame-out or disappearance of the video object is detected, the video object which is frame-out or disappeared is identified from the image feature amount in the object feature database. Delete the record corresponding to the number (S
7) Do.
【0039】前記識別番号の映像オブジェクトに関する
照合の信頼度hを監視(S8)して、信頼度hが予め定
められた数値範囲に至ったことを検出した場合、オブジ
ェクト特徴データベース内の画像特徴量の要素である識
別番号の映像オブジェクトの画像及び領域形状と、映像
オブジェクト内の色ベクトルの平均及び共分散と、映像
オブジェクト外の色ベクトルの平均及び共分散とを再計
算して更新(S9)する。When the reliability h of the collation for the video object having the identification number is monitored (S8) and it is detected that the reliability h reaches a predetermined numerical range, the image feature amount in the object feature database is detected. The image and area shape of the video object having the identification number, which is an element of, the average and covariance of the color vector inside the video object, and the average and covariance of the color vector outside the video object are recalculated and updated (S9). To do.
【0040】上述のS3〜S9までの動作をオブジェク
ト特徴データベースに蓄積されている映像オブジェクト
の数分、繰り返し実行(S10)する。The above-described operations from S3 to S9 are repeatedly executed (S10) for the number of video objects stored in the object feature database.
【0041】次に、前記推定位置・形状情報で示される
各映像オブジェクトの存在領域と前景形状信号とを比較
(S11)して、新規映像オブジェクトを検出した場合
は、オブジェクト特徴データベース内の画像特徴量に新
たな固有の識別番号をもつ新たなレコードを追加(S1
2)する。Next, the presence area of each video object indicated by the estimated position / shape information is compared with the foreground shape signal (S11), and if a new video object is detected, the image feature in the object feature database is detected. A new record with a new unique identification number is added to the quantity (S1
2) Do.
【0042】S1〜S12までの動作は、1フレームの
映像オブジェクト検出動作であるため、オブジェクトの
動きを追跡する場合は、S1〜S12までの動作を連続
したフレームの数分、繰り返し実行(S13)すること
で、追跡を行うことができる。Since the operation from S1 to S12 is a one-frame video object detecting operation, when tracking the movement of the object, the operation from S1 to S12 is repeatedly executed for the number of consecutive frames (S13). By doing, tracking can be performed.
【0043】ここで、本発明においては、複数の背景映
像カメラを用いて撮影するため、背景映像カメラの撮影
部分が重なる領域(図2におけるグレー領域)が存在す
る。そのような領域においては、シーン内の同一の動オ
ブジェクト(図2における動オブジェクト21)が複数
の背景映像に抽出、追跡される。Here, in the present invention, since a plurality of background image cameras are used for image capturing, there is an area (gray area in FIG. 2) where the image capturing portions of the background image cameras overlap. In such a region, the same moving object (moving object 21 in FIG. 2) in the scene is extracted and tracked in a plurality of background images.
【0044】前述の問題に対応するため、背景映像間で
動オブジェクトを同定し、シーン内で同一と判断された
動オブジェクトに同一の識別番号を付与する。In order to deal with the above-mentioned problem, moving objects are identified between background images and the same identification number is given to moving objects determined to be the same in a scene.
【0045】ここで、n番目の背景映像から抽出したk
番目のオブジェクトをOBJnkとする。まず、各々の
OBJnkを、上述した本発明者の発明に係る特願20
01−196077号出願に記載されているように、実
空間中の平面内にマッピングし、夫々のオブジェクトを
OBJnkとする。次に、2つのオブジェクトOBJ
n1k1とOBJn2k2は以下の条件が満たされれば
シーン内で同一オブジェクトであると判定する。Here, k extracted from the n-th background image
OBJ the second objectnkAnd First, each
OBJnkThe Japanese Patent Application No. 20 according to the invention of the present inventor described above.
As described in the 01-0196077 application,
Map each object in a plane in space
OBJnkAnd Next, the two objects OBJ
n1k1And OBJn2k2If the following conditions are met
It is determined that they are the same object in the scene.
【0046】
D(C(OBJn1k1),C(OBJn2k2))≦Dt ・・・(1)
かつ
D(C(OBJn1k1),C(OBJn2k2))<D(C(OBJn1k 1
),C(OBJn2k)),n1≠n2,k≠k2 ・・・(2)
ここで、C(X)はオブジェクトXの重心、D(X,
Y)は点X、Yの間の距離を表す。D (C (OBJ n1k1 ), C (OBJ n2k2 )) ≦ D t ... (1) and D (C (OBJ n1 k1 ), C (OBJ n2k2 )) <D (C (OBJ n1k 1 ). , C (OBJ n2k )), n 1 ≠ n 2 , k ≠ k 2 (2) where C (X) is the center of gravity of the object X and D (X,
Y) represents the distance between points X and Y.
【0047】条件式(1)はOBJn1k1とOBJ
n2k2の重心間の距離が、ある閾値Dt以下であるこ
とを意味する。本実施例では、一例として、閾値Dtを
オブジェクトの物理的大きさの横方向の長さの2分の1
に設定するが閾値の値はこの限りではない。Conditional expression (1) is OBJ n1k1 and OBJ
This means that the distance between the centers of gravity of n2k2 is less than or equal to a certain threshold value D t . In the present embodiment, as an example, the threshold value D t is set to ½ of the horizontal length of the physical size of the object.
However, the threshold value is not limited to this.
【0048】また、条件式(2)は、n2番目の背景映
像に式(1)を満たすオブジェクトが複数存在する場
合、OBJn2k2の重心位置が他のオブジェクトより
もOBJn1k1の重心位置に近いことを意味する。[0048] Further, conditional expression (2), when the object satisfying the equation (1) to the n 2 th background image there are multiple, close to the center of gravity of the OBJ N1k1 the center of gravity is another object of the OBJ N2k2 Means that.
【0049】上述した処理を全てのOBJnkに対して
行った後、シーン内の各動オブジェクトに一意の識別番
号を付与する。識別番号を付与することで、複数の背景
映像カメラから撮影された同一の動オブジェクトを認識
することができる。[0049] After the above-described processing for all the OBJ nk, imparts a unique identification number to respective dynamic objects in the scene. By giving an identification number, the same moving object photographed by a plurality of background video cameras can be recognized.
【0050】自動切換え回路3は、シーン内の同一動オ
ブジェクトが複数の背景映像から抽出された場合、放送
映像へマッピングする際にどの背景映像を用いるかを決
める回路である。本実施形態では、複数の背景映像から
抽出された、シーン内の同一のものに対応する動オブジ
ェクトについて、動オブジェクトの重心と、その動オブ
ジェクトを有する複数の背景映像の画面の中心との距離
を計算し、この距離が最小となる背景映像を用いて動オ
ブジェクトを放送映像にマッピングする。このため、放
送映像の同一画面内の複数の動オブジェクトは異なる背
景映像からマッピングされて生成されることもある。The automatic switching circuit 3 is a circuit that determines which background image is used when mapping the same moving object in a scene from a plurality of background images when mapping it to a broadcast image. In the present embodiment, the distance between the center of gravity of the moving object and the center of the screen of the plurality of background images having the moving object is calculated for the moving object corresponding to the same object in the scene extracted from the plurality of background images. The moving object is calculated and mapped to the broadcast image using the background image having the minimum distance. Therefore, a plurality of moving objects in the same screen of the broadcast video may be generated by mapping from different background videos.
【0051】放送映像動オブジェクト抽出回路4は、自
動切換え回路3で選択された背景映像の動オブジェクト
抽出結果と、カメラキャリブレーション回路1で供給さ
れるカメラ内部パラメータと、放送映像カメラにより供
給されるカメラ操作パラメータを用いて放送映像の動オ
ブジェクト抽出を行う回路部分である。The broadcast video moving object extraction circuit 4 is supplied by the broadcast video camera with the result of moving object extraction of the background video selected by the automatic switching circuit 3, the camera internal parameters supplied by the camera calibration circuit 1. This is a circuit part that extracts a moving object of a broadcast video using camera operation parameters.
【0052】ここでの処理は、上述した本発明者の発明
に係る特願2001−196077号出願に記載されて
いるように、カメラ操作パラメータとカメラ内部パラメ
ータを用いて背景映像の動オブジェクトの領域を放送映
像にマッピングすることで、放送映像の動オブジェクト
を一意のID付きで抽出することができる。The processing here is performed by using the camera operation parameter and the camera internal parameter as described in the above-mentioned Japanese Patent Application No. 2001-196077 filed by the present inventor. Is mapped to the broadcast video, the moving object of the broadcast video can be extracted with a unique ID.
【0053】上述のように本発明は、動オブジェクト抽
出方法において、撮影時に放送映像カメラと複数の背景
映像カメラを設置して、各背景映像からシーン内の動オ
ブジェクトを抽出し、背景映像間で動オブジェクトを同
定して、背景映像を適切に切換えて用いることにより、
動オブジェクトを放送映像へマッピングし、高精度な動
オブジェクトの抽出を行うことができる。As described above, in the moving object extracting method according to the present invention, a broadcast video camera and a plurality of background video cameras are installed at the time of shooting to extract a moving object in a scene from each background video, By identifying moving objects and switching the background image appropriately,
It is possible to map moving objects to broadcast video and extract moving objects with high accuracy.
【0054】また、複数の背景映像カメラを用いること
でフレームイン、フレームアウトに影響されずに撮影領
域が所望の背景をカバーすることができ、かつ、動オブ
ジェクトが映像上で一定の大きさをもつことが可能とな
る。また、動オブジェクトの輪郭について十分な精度を
確保することができる。Further, by using a plurality of background image cameras, the photographing area can cover a desired background without being affected by frame-in and frame-out, and the moving object has a certain size on the image. It becomes possible to have. Further, it is possible to secure sufficient accuracy for the contour of the moving object.
【0055】また、オブジェクトベースの画像符号化や
オブジェクトと連動した映像を放送する連動型データ放
送システムを実現することができる。Further, it is possible to realize an object-based image coding and a linked data broadcasting system for broadcasting a video linked with an object.
【0056】[0056]
【発明の効果】上述の如く、本発明によれば、撮影領域
が所望の背景をカバーすることができ、かつ、動オブジ
ェクトが映像上で一定の大きさをもつことが可能となる
動オブジェクト抽出方法及び抽出装置を提供することが
できる。As described above, according to the present invention, a moving object can be extracted so that the shooting area can cover a desired background and the moving object can have a certain size on the image. A method and extraction device can be provided.
【図1】本発明における動オブジェクト抽出装置の一実
施例の構成図である。FIG. 1 is a configuration diagram of an embodiment of a moving object extraction device according to the present invention.
【図2】複数の背景映像カメラの撮影範囲の関係を示す
一例の図である。FIG. 2 is a diagram illustrating an example of a relationship between shooting ranges of a plurality of background video cameras.
【図3】動オブジェクトの検出・追跡方法を説明するた
めのフローチャートの一例である。FIG. 3 is an example of a flowchart for explaining a method of detecting and tracking a moving object.
1 カメラキャリブレーション回路 2 動オブジェクト抽出・追跡・同定回路 3 自動切換え回路 4 放送映像動オブジェクト抽出回路 21 動オブジェクト 1 Camera calibration circuit 2 Moving object extraction / tracking / identification circuit 3 Automatic switching circuit 4 Broadcast video moving object extraction circuit 21 moving objects
───────────────────────────────────────────────────── フロントページの続き (72)発明者 三須 俊彦 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 Fターム(参考) 5C022 AB61 AB62 AB63 AB68 5C059 MB04 MB12 MB21 PP04 PP28 PP29 SS14 UA02 UA05 UA38 5L096 FA02 GA08 HA01 JA11 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Toshihiko Misu 1-10-11 Kinuta, Setagaya-ku, Tokyo, Japan Broadcasting Association Broadcast Technology Institute F-term (reference) 5C022 AB61 AB62 AB63 AB68 5C059 MB04 MB12 MB21 PP04 PP28 PP29 SS14 UA02 UA05 UA38 5L096 FA02 GA08 HA01 JA11
Claims (4)
ら動オブジェクトを抽出し、放送映像カメラの撮影映像
にマッピングして動オブジェクトの抽出を行う動オブジ
ェクト抽出方法であって、 前記複数の固定背景映像カメラ間で重複した映像信号の
領域から得られた動オブジェクトを同定する同定段階
と、 異なる固定背景映像カメラの映像信号から同一の動オブ
ジェクトが抽出された場合に、前記背景映像カメラの画
面の中心と前記動オブジェクトの重心との距離が最小と
なる背景映像から抽出された動オブジェクトを選択する
選択段階と、 前記選択段階で選択された動オブジェクトの領域を前記
放送映像カメラの撮影映像にマッピングすることにより
動オブジェクトの抽出を行う抽出段階とを有することを
特徴とする動オブジェクト抽出方法。1. A moving object extraction method for extracting a moving object by extracting moving objects from video signals of a plurality of fixed background video cameras, and mapping to a video image shot by a broadcast video camera to extract the moving objects. The identification step of identifying a moving object obtained from the area of the video signal overlapped between the video cameras, and the same moving object extracted from the video signals of different fixed background video cameras A selecting step of selecting a moving object extracted from a background image in which a distance between a center and a center of gravity of the moving object is minimum; and a region of the moving object selected in the selecting step is mapped to an image captured by the broadcast image camera. Object extraction by performing extraction of moving objects by Method.
から抽出した動オブジェクトの実空間における重心間の
距離が、異なる背景映像間で所定の閾値以下のもので、
かつ他の動オブジェクトとの重心間の距離と比較して最
小のものを同一の動オブジェクトとすることを特徴とす
る請求項1に記載の動オブジェクト抽出方法。2. The identifying step is performed when the distance between the centers of gravity of the moving objects extracted from the video signals captured by the plurality of fixed background video cameras in the real space is less than or equal to a predetermined threshold between different background videos. ,
The moving object extraction method according to claim 1, wherein the smallest moving object is compared with the distance between the centers of gravity of the moving objects and another moving object.
ら動オブジェクトを抽出し、放送映像カメラの撮影映像
にマッピングして動オブジェクトの抽出を行う動オブジ
ェクト抽出装置であって、 前記複数の固定背景映像カメラ間で重複した映像信号の
領域から得られた動オブジェクトを同定する同定部と、 異なる固定背景映像カメラの映像信号から同一の動オブ
ジェクトが抽出された場合に、前記背景映像カメラの画
面の中心と前記動オブジェクトの重心との距離が最小と
なる背景映像から抽出された動オブジェクトを選択する
選択部と、 前記選択部で選択された動オブジェクトの領域を前記放
送映像カメラの撮影映像にマッピングすることにより動
オブジェクトの抽出を行う抽出部とを有することを特徴
とする動オブジェクト抽出装置。3. A moving object extracting device for extracting moving objects from video signals of a plurality of fixed background video cameras and mapping the captured moving images of broadcast video cameras to extract moving objects. When the same moving object is extracted from the video signals of different fixed background video cameras, the identification unit that identifies the moving objects obtained from the areas of video signals that overlap between video cameras, A selection unit for selecting a moving object extracted from a background image having a minimum distance between the center and the center of gravity of the moving object, and a region of the moving object selected by the selection unit is mapped to an image captured by the broadcast video camera. And a moving object extracting device for extracting a moving object.
から抽出した動オブジェクトの実空間における重心間の
距離が、異なる背景映像間で所定の閾値以下のもので、
かつ他の動オブジェクトとの重心間の距離と比較して最
小のものを同一の動オブジェクトとすることを特徴とす
る請求項3に記載の動オブジェクト抽出装置。4. The identifying unit determines that a distance between the centers of gravity of moving objects extracted from video signals captured by the plurality of fixed background video cameras in a real space is equal to or less than a predetermined threshold between different background videos. ,
The moving object extracting apparatus according to claim 3, wherein the smallest moving object is the same moving object as compared with the distance between the centers of gravity of the moving objects and another moving object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001376299A JP2003179930A (en) | 2001-12-10 | 2001-12-10 | Moving object extraction method and extraction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001376299A JP2003179930A (en) | 2001-12-10 | 2001-12-10 | Moving object extraction method and extraction device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003179930A true JP2003179930A (en) | 2003-06-27 |
Family
ID=19184522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001376299A Pending JP2003179930A (en) | 2001-12-10 | 2001-12-10 | Moving object extraction method and extraction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003179930A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006319507A (en) * | 2005-05-11 | 2006-11-24 | Sharp Corp | Method and device for displaying content, program implementing the method, and recording medium |
JP2009027563A (en) * | 2007-07-20 | 2009-02-05 | Fujifilm Corp | Image processor, image processing method, and program |
US8027534B2 (en) | 2006-05-08 | 2011-09-27 | Sony Corporation | Image processing apparatus, image processing method, and program |
JP2013168739A (en) * | 2012-02-14 | 2013-08-29 | Hitachi Ltd | Image processing system and image processing method |
JP2022102515A (en) * | 2020-12-25 | 2022-07-07 | エヌ・ティ・ティ・コムウェア株式会社 | Object detector, object detection method, and program |
-
2001
- 2001-12-10 JP JP2001376299A patent/JP2003179930A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006319507A (en) * | 2005-05-11 | 2006-11-24 | Sharp Corp | Method and device for displaying content, program implementing the method, and recording medium |
JP4587871B2 (en) * | 2005-05-11 | 2010-11-24 | シャープ株式会社 | Content display method, content display device, program for executing the method, and recording medium |
US8027534B2 (en) | 2006-05-08 | 2011-09-27 | Sony Corporation | Image processing apparatus, image processing method, and program |
KR101342638B1 (en) | 2006-05-08 | 2013-12-20 | 소니 주식회사 | Image processing apparatus, image processing method, and program |
JP2009027563A (en) * | 2007-07-20 | 2009-02-05 | Fujifilm Corp | Image processor, image processing method, and program |
JP2013168739A (en) * | 2012-02-14 | 2013-08-29 | Hitachi Ltd | Image processing system and image processing method |
JP2022102515A (en) * | 2020-12-25 | 2022-07-07 | エヌ・ティ・ティ・コムウェア株式会社 | Object detector, object detection method, and program |
JP7138157B2 (en) | 2020-12-25 | 2022-09-15 | エヌ・ティ・ティ・コムウェア株式会社 | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD, AND PROGRAM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9646212B2 (en) | Methods, devices and systems for detecting objects in a video | |
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
KR101971866B1 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
US9396399B1 (en) | Unusual event detection in wide-angle video (based on moving object trajectories) | |
JP5102410B2 (en) | Moving body detection apparatus and moving body detection method | |
CN104685513B (en) | According to the high-resolution estimation of the feature based of the low-resolution image caught using array source | |
US8145007B2 (en) | Image processing of regions in a wide angle video camera | |
JP4373840B2 (en) | Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus | |
JP2002064812A (en) | Moving target tracking system | |
US10762372B2 (en) | Image processing apparatus and control method therefor | |
JP2022532792A (en) | Detection, 3D reproduction and tracking of rigid objects moving in close proximity to multiple objects | |
JP2020149641A (en) | Object tracking device and object tracking method | |
EP3629570A2 (en) | Image capturing apparatus and image recording method | |
US9031355B2 (en) | Method of system for image stabilization through image processing, and zoom camera including image stabilization function | |
JP3577875B2 (en) | Moving object extraction device | |
JP4913801B2 (en) | Shielding object image identification apparatus and method | |
CN101398896A (en) | Device and method for extracting color characteristic with strong discernment for image forming apparatus | |
Lin et al. | Large-area, multilayered, and high-resolution visual monitoring using a dual-camera system | |
Hayet et al. | A modular multi-camera framework for team sports tracking | |
KR100994722B1 (en) | Continuous Object Tracking on Multiple Cameras Using Camera Handoff | |
WO2003021967A2 (en) | Image fusion systems | |
JP2003179930A (en) | Moving object extraction method and extraction device | |
JP2002027449A (en) | Moving object identification method and moving object identification device | |
US12165277B2 (en) | Method for capturing and processing a digital panoramic image | |
JP2002027480A (en) | Moving image processing method and moving image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070612 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071030 |