JPH11252587A - Object tracking device - Google Patents
Object tracking deviceInfo
- Publication number
- JPH11252587A JPH11252587A JP10050785A JP5078598A JPH11252587A JP H11252587 A JPH11252587 A JP H11252587A JP 10050785 A JP10050785 A JP 10050785A JP 5078598 A JP5078598 A JP 5078598A JP H11252587 A JPH11252587 A JP H11252587A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- template
- distance
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
(57)【要約】
【課題】 画像中に撮像されている物体の追跡を、広範
囲にわたり精度良く高速に実現すること。
【解決手段】 距離計測部103でステレオ画像処理に
より撮像されている物体までの距離を計測し、物体検出
部106で距離情報を用いて物体を検出する。移動位置
算出部107では、距離情報により検出した物体の位置
から距離情報以外の例えば、濃淡画像や3値化エッジ画
像の情報をテンプレートとして抽出し、マッチングを行
って物体の追跡をする。距離情報により物体を検出する
のでテンプレートを正確に抽出でき、また、距離情報以
外の情報を用いて追跡するので広範囲の追跡が実現でき
る。
(57) [Summary] [PROBLEMS] To accurately and quickly track an object captured in an image over a wide range. SOLUTION: A distance measuring unit 103 measures a distance to an object imaged by stereo image processing, and an object detecting unit 106 detects the object using distance information. The movement position calculation unit 107 extracts information other than the distance information, for example, information of a grayscale image or a ternary edge image from the position of the object detected by the distance information as a template, performs matching, and tracks the object. Since the object is detected based on the distance information, the template can be accurately extracted. In addition, since the tracking is performed using information other than the distance information, a wide range of tracking can be realized.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、物体追跡装置に係
り、特に撮像した画像をステレオ画像処理することによ
って物体の追跡を行なう物体追跡装置に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an object tracking apparatus, and more particularly to an object tracking apparatus that tracks an object by performing stereo image processing on a captured image.
【0002】[0002]
【従来の技術】従来の物体追跡方法として、第17回画
像工学コンファレンス16―17(1986)記載の
「車両動態計測の試み」にあるような方法が一般的に用
いられる。この従来技術では、各画像毎に物体の候補を
抽出し、抽出された複数画像の物体の候補を対応づけて
いくことで物体の追跡を実現している。2. Description of the Related Art As a conventional object tracking method, a method described in "Trial of Vehicle Dynamics Measurement" described in the 17th Image Engineering Conference 16-17 (1986) is generally used. In this conventional technique, object tracking is realized by extracting object candidates for each image and associating the extracted object candidates of a plurality of images.
【0003】また、物体の候補の対応付け方法として、
特開平6−30417号に記載されたものがある。これ
は、予め記憶してある数種類の濃淡テンプレートを用い
て画像中の物体を抽出し、その後濃淡テンプレートマッ
チングにより物体を追跡していき、追跡の度にテンプレ
ートを更新していくものである。Further, as a method of associating object candidates,
There is one described in JP-A-6-30417. In this method, an object in an image is extracted using several types of grayscale templates stored in advance, and thereafter, the object is tracked by grayscale template matching, and the template is updated each time tracking is performed.
【0004】この従来技術は、テンプレートマッチング
により追跡を行ない、追跡の度にテンプレートを更新し
ていくので、明るさの変化の影響を受けにくく、精度の
良い物体の追跡が実現できる。In this prior art, tracking is performed by template matching, and the template is updated each time tracking is performed. Therefore, it is hardly affected by changes in brightness, and accurate tracking of an object can be realized.
【0005】その他の物体追跡方法として、物流計測装
置として特願平8―340254号や特願平8―340
255号に記載されたものがある。これは、複数の画像
からステレオ画像処理によって撮像空間の距離情報を獲
得し、前記距離情報を用いて複数の物体をそれぞれ個別
に検出し、前記各物体をそれぞれ時間的に追跡すること
によって例えば交通量等の物流を計測するものである。As another object tracking method, Japanese Patent Application No. 8-340254 or Japanese Patent Application No. 8-340 is used as a physical distribution measuring device.
No. 255. For example, by acquiring distance information of an imaging space from a plurality of images by stereo image processing, individually detecting a plurality of objects using the distance information, and tracking each of the objects temporally, for example, traffic It measures physical distribution such as quantity.
【0006】この従来技術は、距離情報を用いているた
めに、画像中に発生した影や照明の反射などの環境変動
に起因する輝度レベルの変動の影響を受けることがな
く、正確に物体を検出/追跡ができる。さらに、撮像さ
れた画像内で重なって見える複数の物体を前記距離情報
を用いて個別に分離して検出/追跡することができる。In this prior art, since distance information is used, an object can be accurately detected without being affected by a change in luminance level caused by an environmental change such as a shadow generated in an image or a reflection of illumination. Can be detected / tracked. Further, it is possible to separately detect and track a plurality of objects that appear to be overlapped in the captured image, using the distance information.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、特願平
8―340254号や特願平8―340255号に記載
の物体追跡方法では、ステレオ画像処理により計測した
距離情報を用いて物体を追跡しているが、ステレオ画像
処理による距離情報計測は撮像装置からの距離が遠くな
ればなるほど計測される距離精度は低下するため、広範
囲の物体の追跡を実現することが困難であるという問題
がある。However, in the object tracking method described in Japanese Patent Application Nos. 8-340254 and 8-340255, an object is tracked using distance information measured by stereo image processing. However, distance information measurement by stereo image processing has a problem that it is difficult to track a wide range of objects because the distance accuracy measured decreases as the distance from the imaging device increases.
【0008】そこで本発明は、広範囲にわたる物体の追
跡を実現できる物体追跡装置を提供することを第1の課
題とする。Accordingly, it is a first object of the present invention to provide an object tracking device capable of tracking an object over a wide range.
【0009】また、特願平8―340254号や特願平
8―340255号に記載の物体追跡方法においては、
ステレオ画像処理により計測した距離情報から物体の投
影像を作成して物体を検出しているが、空間内の特定領
域毎に物体の投影像を作成しているため、例えば、画像
中の車両を追跡する場合、隣接する2つの車線にまたが
って車両が走行すると、各々の車線でその車両が検出さ
れるという問題がある。In the object tracking methods described in Japanese Patent Application Nos. 8-340254 and 8-340255,
Although an object is detected by creating a projection image of the object from distance information measured by stereo image processing, since a projection image of the object is created for each specific region in space, for example, the vehicle in the image In the case of tracking, there is a problem that when a vehicle runs across two adjacent lanes, the vehicle is detected in each lane.
【0010】そこで本発明は、隣接する2つの特定領域
にまたがって存在する物体を正確に検出/追跡できるよ
うにすることを第2の課題とする。Accordingly, a second object of the present invention is to enable an object existing over two adjacent specific regions to be accurately detected / tracked.
【0011】また、従来技術特開平6−30417号に
記載の物体追跡方法においては、濃淡テンプレートマッ
チングにより物体の追跡を行なうが、テンプレートは近
距離範囲ではみかけの移動量が多いためにテンプレート
マッチングの演算領域を広くとる必要があり演算量が膨
大となるだけでなく、テンプレート自体が短時間の間に
大きく変化するためにマッチング精度がよくないという
問題がある。そこで、本発明は、近距離範囲でも高速か
つ精度良い物体の検出/追跡が実現できる物体追跡装置
を提供することを第3の課題とする。In the object tracking method described in Japanese Patent Application Laid-Open No. Hei 6-30417, an object is tracked by gray-scale template matching. There is a problem that not only does the computational area need to be widened and the amount of computation becomes enormous, but also that the matching accuracy is poor because the template itself changes greatly in a short time. Accordingly, a third object of the present invention is to provide an object tracking device capable of realizing high-speed and accurate object detection / tracking even in a short distance range.
【0012】また、従来技術特開平6−30417号に
記載の物体追跡方法においては、予め記憶してある数種
類の濃淡テンプレートを用いて画像中の物体を検出し、
テンプレートを抽出しているが、テンプレートサイズを
物体の大きさより大きく設定するためマッチング時の演
算量が大きくなるという問題がある。さらに、物体をテ
ンプレートの中心にして切り出せないことがあり、この
場合、物体の追跡ができなくなるという問題がある。In the object tracking method described in the prior art, Japanese Patent Application Laid-Open No. Hei 6-30417, an object in an image is detected by using several types of grayscale templates stored in advance.
Although the template is extracted, there is a problem that the amount of calculation at the time of matching becomes large because the template size is set larger than the size of the object. Further, there is a case where the object cannot be cut out with the center of the template, and in this case, there is a problem that the object cannot be tracked.
【0013】そこで、本発明は、追跡に必要なテンプレ
ートを正確に過不足なく抽出し、マッチング時の演算量
削減と精度の良い物体追跡が実現できる物体追跡装置を
提供することを第4の課題とする。Accordingly, it is a fourth object of the present invention to provide an object tracking apparatus capable of accurately extracting a template required for tracking without excess or deficiency, reducing the amount of calculation at the time of matching, and realizing accurate object tracking. And
【0014】また、一般的な従来技術の物体追跡方法に
おいては、画像上で複数の物体が重なり物体の一部が見
えなくなることがあり、このような場合は、物体を分離
することが難しく、物体の追跡を継続できなくなるとい
う問題がある。In a general conventional object tracking method, a plurality of objects may overlap on an image and a part of the objects may not be visible. In such a case, it is difficult to separate the objects. There is a problem that the tracking of the object cannot be continued.
【0015】そこで、本発明は、重なりが生じても物体
の追跡を継続できる物体追跡装置を提供することを第5
の課題とする。Therefore, the present invention provides a fifth object tracking apparatus which can continue to track an object even if an overlap occurs.
Subject.
【0016】また、従来技術特開平6−30417号に
記載の物体追跡方法においては、濃淡テンプレートマッ
チングを用いて画像中の物体を追跡しているが、濃淡テ
ンプレートはマッチングの演算量が大きいという問題が
ある。そこで、本発明は、マッチング時の演算量削減が
図れ、精度の良い物体の追跡が実現できる物体追跡装置
を提供することを第6の課題とする。Further, in the object tracking method described in Japanese Patent Application Laid-Open No. Hei 6-30417, an object in an image is tracked using density template matching. However, the density template requires a large amount of calculation for matching. There is. Therefore, a sixth object of the present invention is to provide an object tracking device capable of reducing the amount of calculation at the time of matching and realizing accurate tracking of an object.
【0017】さらに、従来技術特開平6−30417号
に記載の物体追跡方法においては、濃淡画像からテンプ
レートを切り出しているため、マッチング時の演算量が
多くなるという問題がある。そして、演算量削減のため
2値化エッジ画像からテンプレートを切り出す方法があ
るが、この場合マッチング精度が低下する。Further, in the object tracking method described in the prior art JP-A-6-30417, since a template is cut out from a grayscale image, there is a problem that the amount of calculation at the time of matching becomes large. Then, there is a method of cutting out the template from the binarized edge image in order to reduce the calculation amount, but in this case, the matching accuracy is reduced.
【0018】そこで、本発明は、マッチング精度を低下
させずに、マッチング時の演算量を削減できる物体追跡
装置を提供することを第7の課題とする。Therefore, it is a seventh object of the present invention to provide an object tracking device capable of reducing the amount of calculation at the time of matching without lowering the matching accuracy.
【0019】そして、一般的な従来技術の物体追跡方法
においては、二次元の画像面上での物体の占有率を撮像
空間中の物体の空間占有率として求めているが、基準平
面を俯瞰で撮影する場合は誤差が大きくなるという問題
がある。この問題の対策として、従来技術特願平8―3
40255号では、ステレオ画像処理により検出した物
体を物体の進行方向と観察平面の垂線方向とが成す平面
に投影し、投影像より空間占有率を算出している。しか
し、この方法では、近距離範囲では正確に算出できるが
遠距離範囲では精度が低下するという問題がある。In the general prior art object tracking method, the occupancy of the object on the two-dimensional image plane is obtained as the space occupancy of the object in the imaging space. When taking a picture, there is a problem that an error increases. As a countermeasure against this problem, Japanese Patent Application No. Hei 8-3
In Japanese Patent No. 40255, an object detected by stereo image processing is projected on a plane formed by the direction of travel of the object and the direction perpendicular to the observation plane, and the space occupancy is calculated from the projected image. However, this method has a problem that the accuracy can be accurately calculated in a short distance range, but the accuracy is reduced in a long distance range.
【0020】そこで、本発明は、俯瞰撮影する場合で
も、また、遠距離範囲を撮影する場合でも、正確に空間
占有率を算出できる物体追跡装置を提供することを第8
の課題とする。Therefore, the present invention provides an object tracking apparatus capable of accurately calculating the space occupancy ratio even when photographing a bird's-eye view or photographing a long distance range.
Subject.
【0021】[0021]
【課題を解決するための手段】上記第1の課題を解決す
るために、本発明の物体追跡装置は、以下のような構成
を備える。In order to solve the above-mentioned first problem, an object tracking apparatus according to the present invention has the following configuration.
【0022】即ち、撮像部は、所定の間隔で複数配置さ
れていて撮像空間を撮像する。距離計測部は、撮像され
た複数の画像からステレオ画像処理によって撮像空間の
距離情報を計測する。距離情報記憶部は、基準時刻にお
ける距離情報を記憶する。物体投影部は、距離計測部よ
り得られた距離情報と距離情報記憶部に記憶された基準
時刻における距離情報から物体の進行方向と観察平面の
垂線方向とが成す平面に空間内の特定領域毎に観察面上
の物体像の投影を行う。物体検出部は、物体投影部によ
り得られた物体投影像から複数の物体の領域を個別に検
出する。移動位置算出部は、物体検出部により検出され
た物体毎に距離情報以外の特徴量を用いてある時刻と次
の時刻でマッチングを行って物体の移動位置を算出す
る。物体情報算出部は、前記移動位置算出部で得られた
結果から所定の位置を通過する物体の数、物体の移動速
度、物体の大きさと物体の異常な動きを算出する。That is, a plurality of image pickup units are arranged at predetermined intervals to pick up an image of an image pickup space. The distance measuring unit measures distance information of an imaging space from a plurality of captured images by stereo image processing. The distance information storage unit stores distance information at a reference time. From the distance information obtained from the distance measurement unit and the distance information at the reference time stored in the distance information storage unit, the object projection unit is configured for each specific region in space on a plane formed by the direction of travel of the object and the direction perpendicular to the observation plane. Of the object image on the observation surface. The object detection unit individually detects a plurality of object regions from the object projection image obtained by the object projection unit. The movement position calculation unit calculates a movement position of the object by performing matching at a certain time and a next time using a feature amount other than the distance information for each object detected by the object detection unit. The object information calculating unit calculates the number of objects passing through a predetermined position, the moving speed of the objects, the size of the objects, and the abnormal movement of the objects from the result obtained by the moving position calculating unit.
【0023】また、第2の課題を解決するために、本発
明の物体追跡装置は、請求項1記載の物体検出部におい
て、横幅算出部が検出された各物体の横幅を個別に算出
する。同一物体判定部が横幅算出部により算出された物
体の横幅から隣接する2つの特定領域で検出した物体が
同一の物体か判定する。Further, in order to solve the second problem, in the object tracking device according to the present invention, in the object detection unit according to claim 1, the width calculation unit individually calculates the width of each detected object. The same object determination unit determines whether the objects detected in two adjacent specific regions are the same object based on the width of the object calculated by the width calculation unit.
【0024】また、第3の課題を解決するために、本発
明の物体追跡装置は、以下のような構成を備える。即
ち、請求項1記載の移動位置算出部において、距離判定
部が、物体検出部により検出された物体の位置が撮像部
から近距離か遠距離かを判定する。近距離範囲移動位置
算出部は、撮像部から近距離の範囲で距離情報を特徴量
として用いてある時刻と次の時刻でマッチングを行い物
体の移動位置を算出する。遠距離範囲移動位置算出部
は、撮像部から遠距離の範囲で距離情報以外の特徴量を
用いてある時刻と次の時刻でマッチングを行い物体の移
動位置を算出する。Further, in order to solve the third problem, the object tracking device of the present invention has the following configuration. That is, in the moving position calculation unit according to the first aspect, the distance determination unit determines whether the position of the object detected by the object detection unit is near or far from the imaging unit. The short-range moving position calculating unit calculates a moving position of the object by performing matching between a time at which the distance information is used as a feature amount and a next time within a range of a short distance from the imaging unit. The long-distance range movement position calculation unit calculates a movement position of the object by performing matching at a certain time and a next time using a feature amount other than the distance information in a range far from the imaging unit.
【0025】また、第4の課題を解決するために、本発
明の物体追跡装置は、以下のような構成を備える。即
ち、請求項1記載の移動位置算出部または請求項3記載
の遠距離範囲移動位置算出部において、物体特徴部分抽
出部は、物体投影部により作成された物体投影像から物
体の特徴的な部分を抽出する。特徴部分撮像位置算出部
は、物体特徴部分抽出部により抽出された物体特徴部分
が画像に撮像されている位置を算出する。テンプレート
抽出部は、特徴部分撮像位置算出部により算出された位
置から距離情報以外の情報をテンプレートとして抽出す
る。テンプレート記憶部は、テンプレート抽出部により
抽出されたテンプレートを記憶する。テンプレートマッ
チング部は、前記テンプレート記憶部に記憶されたテン
プレートを用いてある時刻と次の時刻でマッチングを行
い物体の移動位置を算出する。In order to solve the fourth problem, the object tracking device of the present invention has the following configuration. That is, in the moving position calculating section according to the first aspect or the long range moving position calculating section according to the third aspect, the object characteristic portion extracting section is configured to detect a characteristic portion of the object from the object projection image created by the object projecting section. Is extracted. The characteristic part imaging position calculation unit calculates a position where the object characteristic part extracted by the object characteristic part extraction unit is captured in an image. The template extracting unit extracts information other than the distance information as a template from the position calculated by the characteristic part imaging position calculating unit. The template storage unit stores the template extracted by the template extraction unit. The template matching unit performs matching at a certain time and the next time using the template stored in the template storage unit, and calculates a moving position of the object.
【0026】また、第5の課題を解決するために、本発
明の物体追跡装置は、以下のような構成を備える。即
ち、請求項4記載のテンプレートマッチング部におい
て、重なり判定部は、物体検出部により検出された複数
の物体の位置から画像上での物体の重なりを判定する。
テンプレート分割部は、前記重なり判定部で複数の物体
が重なっていると判定された場合にテンプレートを複数
の領域に分割する。領域マッチング部は、テンプレート
分割部により分割された領域毎にマッチングを行う。類
似度算出部は、領域マッチング部により得られた結果に
重み付けをしてテンプレート全体の類似度を算出する。
移動位置決定部は、類似度算出部により算出された結果
から物体の移動位置を決定する。Further, in order to solve the fifth problem, the object tracking device of the present invention has the following configuration. That is, in the template matching unit according to the fourth aspect, the overlap determination unit determines the overlap of the objects on the image from the positions of the plurality of objects detected by the object detection unit.
The template division unit divides the template into a plurality of regions when the overlap determination unit determines that a plurality of objects overlap. The region matching unit performs matching for each region divided by the template dividing unit. The similarity calculating unit calculates the similarity of the entire template by weighting the result obtained by the region matching unit.
The moving position determining unit determines a moving position of the object from the result calculated by the similarity calculating unit.
【0027】また、第6の課題を解決するために、本発
明の物体追跡装置は、以下のような構成を備える。即
ち、請求項1記載の移動位置算出部または請求項3記載
の遠距離範囲移動位置算出部において、物体撮像位置算
出部は、物体検出部により検出された物体の位置から物
体の画像上の位置を算出する。エッジヒストグラム作成
部は、物体撮像位置算出部により算出された撮像位置に
ついてエッジ画像を作成し物体の進行方向に対し垂直な
方向に走査してエッジヒストグラムを作成する。エッジ
ヒストグラム記憶部は、エッジヒストグラム作成部によ
り作成されたエッジヒストグラムを記憶する。エッジヒ
ストグラムマッチング部は、エッジヒストグラム記憶部
に記憶されたエッジヒストグラムを用いてある時刻と次
の時刻でマッチングを行い物体の移動位置を算出する。Further, in order to solve the sixth problem, the object tracking device of the present invention has the following configuration. That is, in the moving position calculating unit according to claim 1 or the moving distance calculating unit according to claim 3, the object imaging position calculating unit calculates a position of the object on the image from the position of the object detected by the object detecting unit. Is calculated. The edge histogram creating unit creates an edge image for the image capturing position calculated by the object image capturing position calculating unit, and creates an edge histogram by scanning in a direction perpendicular to the moving direction of the object. The edge histogram storage unit stores the edge histogram created by the edge histogram creation unit. The edge histogram matching unit performs matching at a certain time and a next time using the edge histogram stored in the edge histogram storage unit, and calculates a moving position of the object.
【0028】また、第7の課題を解決するために、本発
明の物体追跡装置は、以下のような構成を備える。即
ち、請求項1記載の距離計測部において、エッジ画像作
成部は、撮像部から撮像された画像から3値化エッジ画
像を作成する。対応付け部は、3値化エッジ画像作成部
により作成された複数の3値化エッジ画像を対応付けて
撮像空間の距離情報を計測する。請求項4記載のテンプ
レート抽出部または請求項6記載のエッジヒストグラム
作成部において、エッジ画像作成部で作成された3値化
エッジ画像を用いてテンプレートの抽出またはエッジヒ
ストグラムの作成を行う。Further, in order to solve the seventh problem, the object tracking device of the present invention has the following configuration. That is, in the distance measuring unit according to the first aspect, the edge image creating unit creates a ternary edge image from an image captured by the imaging unit. The associating unit measures distance information of the imaging space by associating a plurality of ternary edge images created by the ternary edge image creating unit. In the template extracting unit according to the fourth aspect or the edge histogram creating unit according to the sixth aspect, a template is extracted or an edge histogram is created using the ternary edge image created by the edge image creating unit.
【0029】また、第8の課題を解決するために、本発
明の物体追跡装置は、以下のような構成を備える。即
ち、請求項1記載の物体検出部において、物体長算出部
が物体投影部で作成された物体投影像から物体の長さを
算出し、物体長記憶部が物体長算出部により物体毎に算
出された物体長を個別に記憶する。さらに、請求項1記
載の物体情報算出部において、物体長記憶部に記憶され
た物体の長さ情報と、請求項1記載の移動位置算出部ま
たは請求項3記載の遠距離範囲移動位置算出部により算
出した物体の位置情報を用いて物体の空間占有率を算出
する。Further, in order to solve the eighth problem, the object tracking device of the present invention has the following configuration. That is, in the object detection unit according to claim 1, the object length calculation unit calculates the length of the object from the object projection image created by the object projection unit, and the object length storage unit calculates the object length by the object length calculation unit for each object. The stored object lengths are individually stored. Further, in the object information calculation unit according to claim 1, the length information of the object stored in the object length storage unit and the movement position calculation unit according to claim 1 or the long distance range movement position calculation unit according to claim 3. The space occupancy of the object is calculated using the position information of the object calculated by the above.
【0030】[0030]
【発明の実施の形態】本発明の請求項1に記載の発明
は、所定の間隔で配置された複数の撮像部と、前記撮像
部より撮像された複数の画像からステレオ画像処理によ
って撮像空間の距離情報を計測する距離計測部と、基準
時刻における距離情報を記憶する距離情報記憶部と、前
記距離計測部より得られた距離情報と前記距離情報記憶
部に記憶された基準時刻における距離情報から物体の進
行方向と観察平面の垂線方向とが成す平面に空間内の特
定領域毎に観察面上の物体像の投影を行う物体投影部
と、前記物体投影部により得られた物体投影像から複数
の物体の領域を個別に検出する物体検出部と、前記物体
検出部により検出された物体毎に距離情報以外の特徴量
を用いてある時刻と次の時刻でマッチングを行って物体
の移動位置を算出する移動位置算出部と、前記移動位置
算出部で選られた結果から所定の位置を通過する物体の
数、物体の移動速度、物体の大きさと物体の異常な動き
を算出する物体情報算出部とを備えたものであり、ステ
レオ画像処理により計測した距離情報を用いて物体を検
出し、かつ、距離情報以外の特徴量を用いて物体を追跡
するので、広範囲にわたって精度良く物体を検出/追跡
できるという作用を有する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention provides a plurality of image pickup units arranged at a predetermined interval, and a plurality of images picked up by the image pickup units in an image pickup space by stereo image processing. A distance measurement unit that measures distance information, a distance information storage unit that stores distance information at a reference time, and distance information obtained from the distance measurement unit and distance information at a reference time that is stored in the distance information storage unit. An object projection unit that projects an object image on an observation plane for each specific region in space on a plane defined by the direction of travel of the object and a direction perpendicular to the observation plane, and a plurality of object projection images obtained by the object projection unit. An object detection unit that individually detects the region of the object, and performing a matching at a certain time and the next time using a feature amount other than the distance information for each object detected by the object detection unit to determine a moving position of the object. calculate A moving position calculating unit, and an object information calculating unit that calculates the number of objects passing through a predetermined position from the result selected by the moving position calculating unit, the moving speed of the object, the size of the object, and the abnormal movement of the object. The object is detected using distance information measured by stereo image processing, and the object is tracked using a feature amount other than the distance information, so that the object can be detected / tracked with high accuracy over a wide range. Has an action.
【0031】本発明の請求項2に記載の発明は、請求項
1記載の物体追跡装置において、移動位置算出部が、検
出された各物体の横幅を個別に算出する横幅算出部と、
前記横幅算出部により算出された物体の横幅から隣接す
る2つの特定領域で検出した物体が同一の物体か判定す
る同一物体判定部とを兼ね備えたものであり、物体の横
幅から隣接する2つの特定領域で検出した物体が同一の
物体か判定するので、隣接する2つの特定領域にまたが
って存在する物体を正確に検出/追跡できるという作用
を有する。According to a second aspect of the present invention, in the object tracking device according to the first aspect, the moving position calculating section calculates a width of each detected object individually;
It also has the same object determination unit that determines whether the objects detected in two specific regions adjacent to each other from the width of the object calculated by the width calculation unit are the same object. Since it is determined whether the objects detected in the area are the same object, it has an effect that an object existing over two adjacent specific areas can be accurately detected / tracked.
【0032】本発明の請求項3に記載の発明は、請求項
1または2記載の物体追跡装置において、移動位置算出
部が、物体検出部により検出された物体の位置が撮像部
から近距離か遠距離かを判定する距離判定部と、撮像部
から近距離の範囲で距離情報を特徴量として用いてある
時刻と次の時刻でマッチングを行い物体の移動位置を算
出する近距離範囲移動位置算出部と、撮像部から遠距離
の範囲で距離情報以外の特徴量を用いてある時刻と次の
時刻でマッチングを行い物体の移動位置を算出する遠距
離範囲移動位置算出部とからなるものであり、近距離範
囲においてはステレオ画素処理によって計測した距離情
報を用いて物体の検出/追跡を行なうので、近距離範囲
でも高速かつ精度良く物体を検出/追跡できるという作
用を有する。According to a third aspect of the present invention, in the object tracking device according to the first or second aspect, the moving position calculating section determines whether the position of the object detected by the object detecting section is a short distance from the imaging section. A distance determination unit that determines whether the object is a long distance, and a short-range movement position calculation that calculates a movement position of the object by performing matching at a certain time and a next time using the distance information as a feature amount in a short distance range from the imaging unit. And a long-distance range movement position calculation unit that calculates a movement position of the object by performing matching at a certain time and a next time using a feature amount other than the distance information in a long distance range from the imaging unit. Since the object detection / tracking is performed using the distance information measured by the stereo pixel processing in the short distance range, there is an effect that the object can be detected / tracked with high speed and accuracy even in the short distance range.
【0033】本発明の請求項4に記載の発明は、請求項
1乃至3のいずれかに記載の物体追跡装置において、移
動位置算出部または遠距離範囲移動位置算出部が、物体
投影部により作成された物体投影像から物体の特徴的な
部分を抽出する物体特徴部分抽出部と、前記物体特徴部
分抽出部により抽出された物体特徴部分が画像に撮像さ
れている位置を算出する特徴部分撮像位置算出部と、前
記特徴部分撮像位置算出部により算出された位置から距
離情報以外の情報をテンプレートとして抽出するテンプ
レート抽出部と、前記テンプレート抽出部により抽出さ
れたテンプレートを記憶するテンプレート記憶部と、前
記テンプレート記憶部に記憶されたテンプレートを用い
てある時刻と次の時刻でマッチングを行い物体の移動位
置を算出するテンプレートマッチング部とからなるもの
であり、ステレオ画像処理により計測した距離情報によ
り物体を検出しテンプレートを抽出するので、テンプレ
ートを正確に過不足なく抽出し、マッチング時の演算量
を削減でき、精度良く物体を追跡できるという作用を有
する。According to a fourth aspect of the present invention, in the object tracking device according to any one of the first to third aspects, the moving position calculating section or the long distance moving position calculating section is created by the object projecting section. An object feature portion extraction unit for extracting a feature portion of the object from the extracted object projection image, and a feature portion imaging position for calculating a position where the object feature portion extracted by the object feature portion extraction unit is captured in an image A calculation unit, a template extraction unit that extracts information other than distance information as a template from the position calculated by the characteristic part imaging position calculation unit, a template storage unit that stores the template extracted by the template extraction unit, A template that calculates a moving position of an object by performing matching at a certain time and the next time using the template stored in the template storage unit. It consists of a rate matching unit, detects objects based on distance information measured by stereo image processing, and extracts templates.Therefore, templates can be accurately extracted without excess or deficiency, and the amount of calculation at the time of matching can be reduced, with high accuracy. It has the effect that an object can be tracked.
【0034】本発明の請求項5に記載の発明は、請求項
4記載の物体追跡装置において、テンプレートマッチン
グ部が、物体検出部により検出された複数の物体の位置
から画像上での物体の重なりを判定する重なり判定部
と、前記重なり判定部で複数の物体が重なっていると判
定された場合にテンプレートを複数の領域に分割するテ
ンプレート分割部と、前記テンプレート分割部により分
割された領域毎にマッチングを行う領域マッチング部
と、前記領域マッチング部により得られた結果に重み付
けをしてテンプレート全体の類似度を算出する類似度算
出部と、前記類似度算出部により算出された結果から物
体の移動位置を決定する移動位置決定部とからなるもの
であり、周辺に存在する他の物体の位置から追跡してい
る物体中で重なって見えなくなる部分を予測し、この部
分のテンプレートの類似度の重みを低くするので、重な
りが生じても継続して物体を追跡できるという作用を有
する。According to a fifth aspect of the present invention, in the object tracking device according to the fourth aspect, the template matching unit overlaps the objects on the image from the positions of the plurality of objects detected by the object detection unit. An overlap determination unit that determines whether a plurality of objects are overlapped by the overlap determination unit, and a template division unit that divides the template into a plurality of regions, and for each of the regions divided by the template division unit. A region matching unit for performing matching, a similarity calculating unit for calculating the similarity of the entire template by weighting the result obtained by the region matching unit, and moving an object based on the result calculated by the similarity calculating unit It consists of a moving position determining unit that determines the position. Predicting a portion to disappear, so to reduce the weight of the similarity of the template of this portion, such an action overlap can track an object be continued occurs.
【0035】請求項6に記載の発明は、請求項1乃至5
のいずれかに記載の物体追跡装置において、移動位置算
出部または遠距離範囲移動位置算出部が、物体検出部に
より検出された物体の位置から物体の画像上の位置を算
出する物体撮像位置算出部と、前記物体撮像位置算出部
により算出された撮像位置についてエッジ画像を作成し
物体の進行方向に対し垂直な方向に走査してエッジヒス
トグラムを作成するエッジヒストグラム作成部と、前記
エッジヒストグラム作成部により作成されたエッジヒス
トグラムを記憶するエッジヒストグラム記憶部と、前記
エッジヒストグラム記憶部に記憶されたエッジヒストグ
ラムを用いてある時刻と次の時刻でマッチングを行い物
体の移動位置を算出するエッジヒストグラムマッチング
部とからなるものであり、物体領域についてのエッジヒ
ストグラムを過不足なく正確に作成して追跡に用いるこ
とができるので、マッチング時の演算量の削減と精度の
良い物体追跡ができる。The invention according to claim 6 is the invention according to claims 1 to 5
In the object tracking device according to any one of the above, the moving position calculating unit or the long distance moving position calculating unit calculates an object imaging position calculating unit that calculates a position on the image of the object from the position of the object detected by the object detecting unit. And an edge histogram creating unit that creates an edge image for the imaging position calculated by the object imaging position calculation unit and creates an edge histogram by scanning in a direction perpendicular to the moving direction of the object; and the edge histogram creating unit An edge histogram storage unit that stores the created edge histogram, and an edge histogram matching unit that performs matching at a certain time and the next time using the edge histogram stored in the edge histogram storage unit to calculate a moving position of the object. And the edge histogram for the object area is correct. Since no can be used to track and create accurately, it can be reduced and accurate object tracking computation amount at the time of matching.
【0036】請求項7に記載の発明は、請求項1乃至6
のいずれかに記載の物体追跡装置において、距離情報計
測部が、撮像部から撮像された画像から3値化エッジ画
像を作成する3値化エッジ画像作成部と、3値化エッジ
画像作成部により作成された複数の3値化エッジ画像を
対応付けて撮像空間の距離情報を計測する対応付け部と
から成り、前記3値化エッジ画像作成部で作成された3
値化エッジ画像をテンプレート抽出部またはエッジヒス
トグラム作成部で用いるようにしたものであり、ステレ
オ画像処理によって距離情報を計測する時に作成した3
値化から抽出したテンプレートを用いてマッチングを行
なうので、マッチング時の演算量を削減できるという作
用を有する。The invention according to claim 7 is the invention according to claims 1 to 6
In the object tracking device according to any one of the above, the distance information measurement unit includes a ternary edge image creation unit that creates a ternary edge image from an image captured by the imaging unit, and a ternary edge image creation unit. And an associating unit that measures distance information of the imaging space by associating the plurality of created ternary edge images with each other.
The valued edge image is used by the template extracting unit or the edge histogram creating unit, and is created when the distance information is measured by stereo image processing.
Since the matching is performed using the template extracted from the binarization, an operation amount of the matching can be reduced.
【0037】請求項8に記載の発明は、請求項1乃至7
のいずれかに記載の物体追跡装置において、物体検出部
が、前記物体投影部で作成された物体投影像から物体の
長さを算出する物体長算出部と、前記物体長算出部によ
り物体毎に算出された物体長を個別に記憶する物体長記
憶部を併せ備え、物体情報算出部において、前記物体長
記憶部に記憶された物体の長さ情報と、移動位置算出部
または遠距離範囲移動位置算出部により算出した物体の
位置情報を用いて物体の空間占有率を算出するようにし
たものであり、ステレオ画像処理により計測した物体の
長さ情報を用いて空間占有率を算出するので、俯瞰撮影
する場合でも、また、遠方まで撮影する場合でも正確に
空間占有率を算出できるという作用を有する。[0037] The invention described in claim 8 is the first to seventh aspects.
In the object tracking device according to any one of, an object detection unit, an object length calculation unit that calculates the length of the object from the object projection image created by the object projection unit, for each object by the object length calculation unit An object length storage unit for individually storing the calculated object lengths, wherein in the object information calculation unit, the object length information stored in the object length storage unit and a movement position calculation unit or a long distance range movement position The space occupancy of the object is calculated by using the position information of the object calculated by the calculation unit. Since the space occupancy is calculated by using the length information of the object measured by stereo image processing, It has the effect that the space occupancy can be calculated accurately even when taking a picture or when taking a picture far away.
【0038】以下、本発明に係る物体追跡装置の実施の
形態について、図面を参照して説明する。なお、下記の
(第1の実施の形態)〜(第8の実施の形態)において
は、説明を分かり易くするために、具体的応用例として
交通流計測装置を想定して説明を行なう。An embodiment of an object tracking device according to the present invention will be described below with reference to the drawings. In the following (first embodiment) to (eighth embodiment), in order to make the description easy to understand, description will be made assuming a traffic flow measuring device as a specific application example.
【0039】(第1の実施の形態)図1は、本発明の第
1の実施の形態の物体追跡装置のブロック図を示したも
のである。図1において、101と102は所定の間隔
で配置された撮像部、103は撮像部101と102に
より入力された画像から撮像されている物体までの距離
を計測する距離計測部、104は基準時刻t0で得られ
る距離情報を記憶しておく距離情報記憶部、105は基
準時刻t0以降の時刻で得られる距離情報を、撮像面と
撮像面から車両までの距離を表す三次元座標系から道路
面と道路面からの車両の高さを表す三次元座標系に変換
し、物体を進行方向と観察平面の垂線方向とが成す平面
に投影する物体投影部、106は物体投影手段105に
より作成された投影像から物体の領域を検出する物体検
出部、107は物体検出部106により検出された物体
毎に距離情報以外の特徴量を用いてある時刻と次の時刻
でマッチングを行って物体の移動位置を算出する移動位
置算出部、108は移動位置算出部107で得られた結
果から所定の位置を通過する物体の数、物体の移動速
度、物体の大きさ、物体の空間占有率と物体の異常な動
きを算出する物体情報算出部である。(First Embodiment) FIG. 1 is a block diagram showing an object tracking apparatus according to a first embodiment of the present invention. In FIG. 1, 101 and 102 are imaging units arranged at a predetermined interval, 103 is a distance measuring unit that measures a distance from an image input by the imaging units 101 and 102 to an object being captured, and 104 is a reference time. A distance information storage unit 105 stores distance information obtained at t0, and stores distance information obtained at a time after the reference time t0 from an imaging plane and a three-dimensional coordinate system representing a distance from the imaging plane to a vehicle from a road surface. And an object projecting unit for projecting an object onto a plane defined by a traveling direction and a perpendicular direction of an observation plane, and an object projecting unit 106 is created by the object projecting means 105. An object detection unit 107 for detecting a region of the object from the projection image performs matching at one time and the next time using a feature amount other than the distance information for each object detected by the object detection unit 106, and A moving position calculating unit 108 for calculating a moving position is based on the result obtained by the moving position calculating unit 107, the number of objects passing through a predetermined position, the moving speed of the object, the size of the object, the space occupancy of the object and the object. Is an object information calculation unit that calculates an abnormal movement of the object.
【0040】次に上記実施の形態の動作について説明す
る。所定の間隔で配置された撮像部101と撮像部10
2によって撮像された画像は距離計測部103に送ら
れ、図2に示すように画像201を水平方向及び垂直方
向に複数に分割してなる矩形領域203毎に、撮像され
ている物体までの距離が計測される。ステレオ画像処理
による距離計測方法としては、実吉他著「三次元画像認
識技術を用いた運転支援システム」、自動車技術会学術
講演会前刷924、pp.169―172(1992―
10)や、特開平8−294143号記載のものなどが
知られている。距離計測部103では上述に紹介したよ
うな方法によって、矩形領域毎の距離情報K(X、Y)
[ただし、0<X≦M、0<Y≦N]が算出される。計
測基準時刻t0に撮像部101および102により撮像
された画像から計測した距離情報に対し、計測できた矩
形領域の情報を用いて最小二乗法などの方法で撮像され
た平面の位置を推定し、距離計測できなかった矩形領域
の距離を補完した後、距離情報記憶部104へ基準時刻
t0における距離情報として出力する。Next, the operation of the above embodiment will be described. The imaging unit 101 and the imaging unit 10 arranged at a predetermined interval
2 is sent to the distance measurement unit 103, and as shown in FIG. 2, the distance to the object being imaged is divided into a plurality of rectangular regions 203 obtained by dividing the image 201 in a horizontal direction and a vertical direction. Is measured. For a method of measuring distance by stereo image processing, see, for example, Michiyoshi et al. 169-172 (1992-
10) and those described in JP-A-8-294143 are known. In the distance measuring unit 103, the distance information K (X, Y) for each rectangular area is obtained by the method introduced above.
[However, 0 <X ≦ M, 0 <Y ≦ N] is calculated. For the distance information measured from the images captured by the imaging units 101 and 102 at the measurement reference time t0, the position of the plane captured by a method such as the least square method is estimated using information on the measured rectangular area, After complementing the distance of the rectangular area for which the distance could not be measured, the distance information is output to the distance information storage unit 104 as the distance information at the reference time t0.
【0041】計測基準時刻t0以降の計測時刻t(t>
t0)に撮像部101および102により撮像された画
像から計測された距離情報は、そのまま物体投影部10
5へ出力される。Measurement time t (t> t) after measurement reference time t0
The distance information measured from the images captured by the imaging units 101 and 102 at t0)
5 is output.
【0042】物体投影部105では、距離計測部103
により計測された距離情報と距離情報記憶部104に記
憶されている基準時刻t0における距離情報を用いて、
撮像面と撮像面から物体までの距離という三次元情報
を、道路面と道路面からの物体の高さという三次元情報
に変換する。In the object projection unit 105, the distance measurement unit 103
Using the distance information measured by the distance information and the distance information at the reference time t0 stored in the distance information storage unit 104,
The three-dimensional information of the imaging surface and the distance from the imaging surface to the object is converted into three-dimensional information of the road surface and the height of the object from the road surface.
【0043】座標変換の動作の一例を図3を用いて説明
する。図3は、撮像面301と撮像面301から車両ま
での距離を表す座標系(X、Y、K)と道路面302と
道路面302から車両の高さを表す座標系(U、V、
H)との位置関係を示したものである。An example of the coordinate conversion operation will be described with reference to FIG. FIG. 3 shows a coordinate system (X, Y, K) indicating the distance from the imaging surface 301 to the vehicle from the imaging surface 301, and a coordinate system (U, V, K) indicating the height of the vehicle from the road surface 302 and the road surface 302.
H).
【0044】矩形領域(X、Y)に撮像されている車両
の高さHの算出は、距離計測部103により計測された
矩形領域毎の距離をK(X,Y)、基準時刻t0におけ
る矩形領域毎の距離をK0(X,Y)とすると、式1に
より求めることができる。但し、Hc はカメラの設置高
を表す。To calculate the height H of the vehicle imaged in the rectangular area (X, Y), the distance of each rectangular area measured by the distance measuring unit 103 is K (X, Y), and the rectangle at the reference time t0 is calculated. Assuming that the distance for each area is K0 (X, Y), the distance can be obtained by Expression 1. Here, Hc represents the installation height of the camera.
【0045】[0045]
【数1】 …(式1)(Equation 1) ... (Equation 1)
【0046】また、この矩形領域に撮像されている車両
の進行方向の位置Vは、式2により求めることができ
る。但し、θはカメラの俯角を表す。Further, the position V in the traveling direction of the vehicle imaged in this rectangular area can be obtained by equation (2). Here, θ represents the depression angle of the camera.
【0047】[0047]
【数2】 …(式2)(Equation 2) … (Equation 2)
【0048】車両のU軸方向の位置は、U軸とX軸を平
行に設置すれば、式3により求めることができる。但
し、aおよびbは使用するカメラと設置する位置によっ
て決定される。 U=aX+b …(式3)The position of the vehicle in the U-axis direction can be obtained by Expression 3 when the U-axis and the X-axis are installed in parallel. However, a and b are determined by the camera to be used and the installation position. U = aX + b (Equation 3)
【0049】以上のように、(式1)〜(式3)を用い
ることにより、撮像面301と撮像面301から車両ま
での距離を表す座標系(X、Y、K)を、道路面302
と道路面302からの車両の高さを表す座標系(U、
V、H)に変換することができる。As described above, by using (Equation 1) to (Equation 3), the coordinate system (X, Y, K) representing the distance from the imaging surface 301 to the vehicle can be converted to the road surface 302.
And a coordinate system (U,
V, H).
【0050】さらに、物体投影部105では、図2に示
す画像201中の各矩形領域203に撮像されている車
両が空間内のどの特定領域(交通流計測装置において
は、車線)を走行しているかを判定し、座標変換により
算出された実空間座標系における車両情報を車両の進行
方向と道路面に対して垂直方向とがなす平面(V―H平
面)に車線毎に投影し、車両の投影像を作成する。この
ようにして作成された車両の投影像の例を図4に示す。Further, in the object projection unit 105, the vehicle imaged in each rectangular area 203 in the image 201 shown in FIG. 2 travels in any specific area (lane in the traffic flow measuring device) in the space. The vehicle information in the real space coordinate system calculated by the coordinate transformation is projected for each lane on a plane (VH plane) formed by the traveling direction of the vehicle and the direction perpendicular to the road surface, and Create a projection image. FIG. 4 shows an example of the projected image of the vehicle created in this way.
【0051】物体検出部106では、物体投影部105
から出力される車線毎の車両の投影像401から車両領
域402を決定する。車両領域402の決定方法の例と
しては、車両投影像がV軸方向に一定以上の大きさがあ
れば車両と判定し、この領域を車両領域とする方法があ
る。さらに、車両投影像401から車両の先頭位置また
は後端位置Vrを検出する。ここで、撮像部101、1
02が車両の前方から撮像している場合には先頭位置
を、後方から撮影している場合には後端位置を検出す
る。以降の実施の形態では車両の後端位置を検出する場
合について説明するが、先頭位置を検出する場合も同様
の方法により実現できる。In the object detection unit 106, the object projection unit 105
The vehicle region 402 is determined from the projected image 401 of the vehicle for each lane output from the vehicle. As an example of a method of determining the vehicle region 402, there is a method in which a vehicle is determined to be a vehicle if the vehicle projection image has a certain size or more in the V axis direction, and this region is set as a vehicle region. Further, the head position or the rear end position Vr of the vehicle is detected from the vehicle projection image 401. Here, the imaging units 101, 1
When 02 is photographed from the front of the vehicle, the head position is detected, and when photographed from behind, the rear end position is detected. In the following embodiments, the case where the rear end position of the vehicle is detected will be described. However, the case where the head position is detected can be realized by a similar method.
【0052】次に、移動位置算出部107では、物体検
出部106によって決定された車両領域402から、撮
像部101で撮像された画像上で車両が撮像されている
領域を決定し、車両領域全体または一部から距離情報以
外の特徴量を抽出する。Next, the moving position calculation unit 107 determines an area where the vehicle is imaged on the image captured by the imaging unit 101 from the vehicle area 402 determined by the object detection unit 106, and determines the entire vehicle area. Alternatively, a feature amount other than the distance information is extracted from a part.
【0053】車両領域402が画像上で撮像されている
領域を算出する方法の一例を図5を用いて説明する。図
5において、車両の後端部がV=Vrで検出できたとす
ると、撮像部101からV=Vrの位置での道路面50
1までの光軸方向の距離K=Krは、式4により算出で
きる。An example of a method for calculating a region where the vehicle region 402 is captured on an image will be described with reference to FIG. In FIG. 5, assuming that the rear end of the vehicle can be detected at V = Vr, the road surface 50 at the position of V = Vr from the imaging unit 101 is detected.
The distance K = Kr in the optical axis direction up to 1 can be calculated by Expression 4.
【0054】[0054]
【数3】 …(式4)(Equation 3) … (Equation 4)
【0055】そして、当該車両が走行している車線50
2が画像上で撮像されている範囲において、道路面まで
の光軸方向の距離がK=Krとなる画像上の領域Y=Y
rを算出する。光軸方向の距離Kと画像上のYとの関係
は、距離情報記憶部104に記憶されている基準時刻t
0における距離情報を参照して知ることができる。図3
において、X軸とU軸を平行にとれば、KとYの関係は
式5で表せる。ここで、A、B、Cはカメラパラメータ
により決定される定数である。The lane 50 in which the vehicle is traveling
In the range where 2 is captured on the image, an area Y = Y on the image where the distance in the optical axis direction to the road surface is K = Kr
Calculate r. The relationship between the distance K in the optical axis direction and Y on the image is based on the reference time t stored in the distance information storage unit 104.
It can be known by referring to the distance information at 0. FIG.
In the above, if the X axis and the U axis are parallel, the relationship between K and Y can be expressed by Expression 5. Here, A, B, and C are constants determined by camera parameters.
【0056】 K=A/(B+CY) …(式5) したがって、Krから式5を用いてYrを算出すること
ができる。K = A / (B + CY) (Equation 5) Therefore, Yr can be calculated from Kr using Equation 5.
【0057】さらに、画像中のY<Yrの範囲において
エッジ画像を作成し、当該車両が走行している車線50
2が撮像されている範囲内で、X軸503、Y軸505
上でエッジヒストグラム504、506を作成し、この
エッジヒストグラム504、506が予め定めたしきい
値THx、THyを超える範囲Xl<X<Xr、Ys<
Y<Yrを車両が撮像されている領域の一部と決定す
る。Further, an edge image is created in the range of Y <Yr in the image, and the lane 50 in which the vehicle is traveling is displayed.
In the range where the image No. 2 is imaged, the X axis 503 and the Y axis 505
The edge histograms 504 and 506 are created above, and the edge histograms 504 and 506 exceed the predetermined thresholds THx and THy in a range Xl <X <Xr, Ys <
It is determined that Y <Yr is a part of the area where the vehicle is imaged.
【0058】そして、この領域から追跡に使用する距離
情報以外の特徴量をテンプレートを抽出する。なお、テ
ンプレートとして抽出する特徴量は、画像の輝度情報、
あるいは、微分情報、あるいは、色情報、あるいはそれ
らを組み合わせて使用しても良い。Then, a template is extracted from this area as a feature amount other than the distance information used for tracking. Note that the feature amount extracted as a template includes image luminance information,
Alternatively, differential information, color information, or a combination thereof may be used.
【0059】このようにして抽出したテンプレートを用
いてマッチングを行って物体の移動位置を算出する。テ
ンプレートマッチングは、ある時刻tの画像から抽出し
たテンプレートと、次の時刻t+Δtの画像上の近傍の
領域との類似度を計算し、類似度が最も大きい領域に物
体のテンプレートに対応する部分が移動したとするもの
である。類似度の算出方法は、例えば、テンプレートと
して画像の輝度情報を用いた場合、差分和Sとして式6
のように求めることができる。ただし、時刻t+Δtの
画像の輝度情報をG、テンプレートの輝度情報をGT、
テンプレートのサイズをm×nとする。Using the template extracted in this way, matching is performed to calculate the moving position of the object. The template matching calculates a similarity between a template extracted from an image at a certain time t and a nearby area on the image at the next time t + Δt, and a portion corresponding to the template of the object moves to an area having the highest similarity. It is assumed that you have done. For example, when the luminance information of an image is used as a template, the difference sum S
Can be sought. Here, the luminance information of the image at time t + Δt is G, the luminance information of the template is GT,
Let the template size be m × n.
【0060】[0060]
【数4】 …(式6)(Equation 4) … (Equation 6)
【0061】差分和Sが最も小さい領域で類似度が最も
大きいと判定できる。また、テンプレートは2次元の画
像情報であり、時々刻々変化するため、テンプレートマ
ッチング終了後、テンプレートマッチングで最終的に決
定された最も一致する領域でのテンプレートと過去のテ
ンプレートを入れ替えるとよい。It can be determined that the similarity is the largest in the area where the difference sum S is the smallest. In addition, since the template is two-dimensional image information and changes every moment, after the template matching is completed, it is preferable to replace the template in the most matching area finally determined by the template matching with the past template.
【0062】最後に、物体情報算出部108では、移動
位置算出部107により得られた結果から所定の位置を
通過する物体の数を算出し、物体の移動量と移動時間か
ら移動速度を算出し、物体の投影像から物体の大きさを
算出し、物体の移動方向や移動量から物体の異常な動き
を検出する。Finally, the object information calculating section 108 calculates the number of objects passing through a predetermined position from the result obtained by the moving position calculating section 107, and calculates the moving speed from the moving amount of the object and the moving time. Then, the size of the object is calculated from the projected image of the object, and abnormal movement of the object is detected from the moving direction and the moving amount of the object.
【0063】以上のように本発明の第1の実施の形態に
よれば、従来技術のように比較的近距離範囲のみだけで
なく遠距離範囲においても物体の追跡が精度良く実現可
能となる。As described above, according to the first embodiment of the present invention, it is possible to accurately track an object not only in a relatively short range but also in a long range as in the related art.
【0064】(第2の実施の形態)本発明の第2の実施
の形態は、図6に示す構成をしたものである。図6にお
いて、101〜108は第1の実施の形態および第2の
実施の形態で説明したものと同じである。また、601
は物体検出部106により検出された各々の物体の移動
位置において個別に物体の横幅を算出する横幅算出部、
602は物体検出部106により算出された各々の物体
の移動位置と横幅算出部601により算出された各々の
物体の横幅から隣接する2つの車線に存在する物体が同
一の物体であるかを判定する同一物体判定部である。(Second Embodiment) A second embodiment of the present invention has the configuration shown in FIG. 6, 101 to 108 are the same as those described in the first embodiment and the second embodiment. 601
Is a width calculation unit that individually calculates the width of the object at the moving position of each object detected by the object detection unit 106;
602 determines whether the objects existing in two adjacent lanes are the same object based on the movement position of each object calculated by the object detection unit 106 and the width of each object calculated by the width calculation unit 601. The same object determination unit.
【0065】次に上記実施の形態の動作について説明す
る。101〜106は第1の実施の形態で説明したもの
と同様の動作を行う。横幅算出部601では、物体検出
部106で検出した物体の横幅を算出する。横幅算出部
601の動作について図7を用いて説明する。Next, the operation of the above embodiment will be described. 101 to 106 perform operations similar to those described in the first embodiment. The width calculator 601 calculates the width of the object detected by the object detector 106. The operation of the width calculator 601 will be described with reference to FIG.
【0066】ある時刻で車両が隣接する2つの車線70
1、702にまたがって走行しているとする。このと
き、物体検出部106において、車線701、702上
でそれぞれY=Yrの位置に車両が検出される。そし
て、第1の実施の形態の移動位置算出部107で説明し
たものと同じ動作でX軸703上にエッジヒストグラム
704を作成し、画像上での車幅を算出する。図7で
は、車線701上で検出した車両の画像上での車幅は
(X2−X1)、車線702上で検出した車両の車幅は
(X3−X2)となる。ここで、Y=Yrに対応する道
路面の光軸方向の距離をK=Krとし、画像上での車幅
をXW、画像上でのX軸方向の撮像範囲の幅をXNとす
ると、実際の車幅Wは式7により算出できる。ただし、
Cはカメラパラメータにより決定される定数である。At a certain time, two lanes 70 adjacent to a vehicle
It is assumed that the vehicle is traveling over the vehicles 1 and 702. At this time, the object detection unit 106 detects the vehicle at the position of Y = Yr on the lanes 701 and 702, respectively. Then, an edge histogram 704 is created on the X axis 703 by the same operation as that described in the movement position calculation unit 107 of the first embodiment, and the vehicle width on the image is calculated. In FIG. 7, the vehicle width on the image of the vehicle detected on the lane 701 is (X2-X1), and the vehicle width detected on the lane 702 is (X3-X2). Here, assuming that the distance in the optical axis direction of the road surface corresponding to Y = Yr is K = Kr, the vehicle width on the image is XW, and the width of the imaging range in the X-axis direction on the image is XN. Of vehicle width W can be calculated by equation (7). However,
C is a constant determined by the camera parameters.
【0067】[0067]
【数5】 …(式7)(Equation 5) … (Equation 7)
【0068】物体検出部106により検出された複数の
車両の実際の車幅を式7を用いて個別に算出しておく。
さらに、同一物体判定部602では、横幅算出部601
で算出した実際の車幅から、隣接する2つの車線で検出
された車両が同一のものかを判定する。隣接する2つの
車線の同じY座標位置または近くのY座標位置で車両が
検出された場合、2車線で検出された車両の実際の車幅
の合計を算出する。一般的な車両の車幅は2m程度であ
るから、2車線で検出された車両の車幅の合計が2m程
度であればそれらの車両は同一の車両であると判定で
き、4m程度であれば2台の別々の車両が併走している
ものと判定できる。The actual vehicle widths of a plurality of vehicles detected by the object detection unit 106 are individually calculated using equation (7).
Further, in the same object determination unit 602, the width calculation unit 601
From the actual vehicle width calculated in the above, it is determined whether the vehicles detected in two adjacent lanes are the same. When a vehicle is detected at the same Y coordinate position of two adjacent lanes or at a nearby Y coordinate position, the total of the actual vehicle widths of the vehicles detected in the two lanes is calculated. Since the vehicle width of a general vehicle is about 2 m, if the sum of the vehicle widths detected in two lanes is about 2 m, the vehicles can be determined to be the same vehicle. It can be determined that two separate vehicles are running in parallel.
【0069】隣接する2つの車線で検出された車両が同
一のものであると判定された場合、移動位置算出部10
7では、どちらかの一方の車線で検出された車両の移動
位置を算出し、もう一方の車線で検出された車両は検出
されなかったものとして扱う。If it is determined that the vehicles detected in the two adjacent lanes are the same, the moving position calculating unit 10
In step 7, the moving position of the vehicle detected in one of the lanes is calculated, and the vehicle detected in the other lane is treated as not being detected.
【0070】以上のように本発明の第2の実施の形態に
よれば、物体の横幅から隣接する2つの車線で検出した
物体が同一の車両か判定するので、2つの車線にまたが
って走行する車両を正確に検出/追跡できる。As described above, according to the second embodiment of the present invention, an object detected in two adjacent lanes is determined to be the same vehicle based on the width of the object, so that the vehicle travels over the two lanes. Vehicles can be accurately detected and tracked.
【0071】(第3の実施の形態)図8は、本発明の第
2の実施の形態の物体追跡装置を用いた交通流計測のブ
ロック図を示したものである。図8において、101〜
106、108は第1の実施の形態で説明したものと同
じである。801は物体検出部106で検出された物体
が撮像部から近い範囲にあるか遠い範囲にあるかを判定
する距離判定部、802は物体が撮像部に近い範囲にあ
る場合に物体の移動位置を判定する近距離範囲移動位置
算出部、803は物体が撮像部から遠い範囲にある場合
に物体の移動位置を判定する遠距離範囲移動位置算出部
である。(Third Embodiment) FIG. 8 is a block diagram of a traffic flow measurement using an object tracking device according to a third embodiment of the present invention. 8, 101 to 101
106 and 108 are the same as those described in the first embodiment. Reference numeral 801 denotes a distance determination unit that determines whether the object detected by the object detection unit 106 is in a range close to or far from the imaging unit, and 802 indicates a movement position of the object when the object is in a range close to the imaging unit. A short distance range movement position calculation unit 803 to be determined is a long distance range movement position calculation unit that determines the movement position of the object when the object is far from the imaging unit.
【0072】次に上記実施の形態の動作について説明す
る。101〜106は第1の実施の形態で説明したもの
と同じ動作を行う。距離判定部801において、車両が
図9における撮像範囲901内の近距離範囲902に存
在するか遠距離範囲903に存在するかを判定し、近距
離範囲902に存在する場合は近距離範囲移動位置算出
部802の動作を行い、遠距離範囲903に存在する場
合は近距離範囲移動位置算出部803の動作を行う。Next, the operation of the above embodiment will be described. 101 to 106 perform the same operations as those described in the first embodiment. The distance determination unit 801 determines whether the vehicle exists in the short distance range 902 or the long distance range 903 in the imaging range 901 in FIG. The operation of the calculation unit 802 is performed, and if it is in the long distance range 903, the operation of the short distance range movement position calculation unit 803 is performed.
【0073】図10を参照しながら近距離範囲移動位置
算出部802の動作を説明する。ある時刻に作成された
車両の投影像1001をH0(V)、車両後端位置10
02をV0とし、次の時刻で作成された車両の投影像1
003をH1(V)、車両後端位置1004をV1とす
る。The operation of the short range movement position calculation unit 802 will be described with reference to FIG. The projected image 1001 of the vehicle created at a certain time is represented by H0 (V) and the vehicle rear end position 10
02 is V0, and the projected image 1 of the vehicle created at the next time
003 is H1 (V), and the vehicle rear end position 1004 is V1.
【0074】ある時刻の投影像H0(V)からV=V0
近傍の投影像Hp(V)を部分投影像1005として切
り出し、次の時刻の車両の投影像1003のV=V1の
近傍の投影像と比較し、相関を計算する。From the projected image H0 (V) at a certain time, V = V0
The nearby projected image Hp (V) is cut out as a partial projected image 1005, and the projected image 1003 of the vehicle at the next time is compared with the projected image near V = V1 to calculate the correlation.
【0075】相関の演算方法の一例として差分和を用い
る方法を説明する。ただし、本発明は以下に説明する演
算方法に限定されるものではない。まず、部分投影像1
005中の後端位置1006の位置と次の時刻の投影像
1003の後端位置1004を合わせて、差分和S
(V)を算出する。差分和S(V)は式8により算出で
きる。ただし、Vsは部分投影像のV軸方向の大きさで
ある。A method using a difference sum will be described as an example of a correlation calculation method. However, the present invention is not limited to the calculation method described below. First, the partial projection image 1
005, and the rear end position 1004 of the projected image 1003 at the next time are summed up.
(V) is calculated. The difference sum S (V) can be calculated by Expression 8. Here, Vs is the size of the partial projection image in the V-axis direction.
【0076】[0076]
【数6】 …(式8)(Equation 6) … (Equation 8)
【0077】次に、部分投影像1005中の後端位置1
006の位置をV<V1の方向に△Vずつずらしながら
差分和S(V)を順次算出していく。この操作は、後端
位置のずれ量が予め定められた量Veを超えるまで行わ
れる。さらに、V>V1の方向へも同様の動作が行われ
る。そして、求めた差分和S(V)が最も小さくなる位
置を相関が最も高い位置として、この位置を真の車両の
移動位置として決定する。Next, the rear end position 1 in the partial projection image 1005
The difference sum S (V) is sequentially calculated while shifting the position of 006 by ΔV in the direction of V <V1. This operation is performed until the amount of deviation of the rear end position exceeds a predetermined amount Ve. Further, the same operation is performed in the direction of V> V1. Then, the position where the obtained difference sum S (V) becomes the smallest is determined as the position having the highest correlation, and this position is determined as the true vehicle movement position.
【0078】以上のような動作により車両を追跡してい
き、車両が近距離範囲902から遠距離範囲903に移
動した場合、近距離範囲移動位置算出部802の動作は
終了し遠距離範囲移動位置算出部803の動作を始め
る。803の動作は第1の実施の形態で説明したものと
同じである。The vehicle is tracked by the above-described operation, and when the vehicle moves from the short-distance range 902 to the long-distance range 903, the operation of the short-distance range movement position calculation unit 802 ends and the long-distance range movement position is calculated. The operation of the calculation unit 803 starts. The operation of 803 is the same as that described in the first embodiment.
【0079】以上のように本発明の第3の実施の形態に
よれば、近距離範囲においてステレオ画像処理により計
測した距離情報を用いて物体の追跡を行うので、追跡時
の特徴量マッチングのための演算量が削減でき、広範囲
にわたる物体の追跡を高速かつ精度良く実現できる。As described above, according to the third embodiment of the present invention, the object is tracked using the distance information measured by the stereo image processing in the short distance range, so that the feature matching at the time of tracking is performed. Can be reduced, and tracking of an object over a wide range can be realized at high speed and with high accuracy.
【0080】(第4の実施の形態)本発明の第4の実施
の形態は、第1の実施の形態で説明した移動位置算出部
107または第3の実施の形態で説明した遠距離範囲移
動位置算出部803が、図11に示す構成をしたもので
ある。図11において、1101は物体検出部106に
より検出された物体領域の情報をもとに物体の特徴的な
部分を判定する物体特徴部分抽出部、1102は物体特
徴部分抽出部1101により判定された特徴部分が撮像
部101により得られた画像中のどの位置に撮像されて
いるかを算出する特徴部分撮像位置算出部、1103は
特徴部分撮像位置算出部1102により算出された位置
に基づいてテンプレートを抽出するテンプレート抽出
部、1104はテンプレート抽出部1103により抽出
されたテンプレートを記憶するテンプレート記憶部、1
105はテンプレート記憶部1104に記憶されたテン
プレートを用いてテンプレートマッチングを行うテンプ
レートマッチング部である。(Fourth Embodiment) In a fourth embodiment of the present invention, the movement position calculation unit 107 described in the first embodiment or the long distance range movement described in the third embodiment is used. The position calculation unit 803 has the configuration shown in FIG. In FIG. 11, reference numeral 1101 denotes an object characteristic portion extraction unit that determines a characteristic portion of an object based on information of the object region detected by the object detection unit 106, and reference numeral 1102 denotes a characteristic determined by the object characteristic portion extraction unit 1101. A characteristic part imaging position calculation unit 1103 that calculates a position in the image obtained by the imaging unit 101 at which the part is imaged, extracts a template based on the position calculated by the characteristic part imaging position calculation unit 1102. A template extracting unit 1104 stores a template extracted by the template extracting unit 1103.
A template matching unit 105 performs template matching using the template stored in the template storage unit 1104.
【0081】次に上記実施の形態の動作について説明す
る。まず、物体特徴部分抽出部1101では、物体検出
部106により決定された車両領域402中の車両投影
像401から抽出した物体の特徴的な部分を判定する。
物体が車両の場合、例えば、ナンバプレートやテールラ
ンプなどがある車両背面部が特徴的な部分であると判定
することができるので、図12において車両背面部を車
両特徴部1201として車両背面部の高さHrとV軸方
向の位置Vrを算出する。Next, the operation of the above embodiment will be described. First, the object characteristic part extraction unit 1101 determines a characteristic part of the object extracted from the vehicle projection image 401 in the vehicle area 402 determined by the object detection unit 106.
When the object is a vehicle, for example, it can be determined that the vehicle rear portion having a number plate, a tail lamp, and the like is a characteristic portion. Therefore, in FIG. Then, Hr and the position Vr in the V-axis direction are calculated.
【0082】次に、特徴部分撮像位置算出部1102で
は、撮像部101により撮像された画像内で車両特徴部
1201が撮像されている位置を算出する。図13にお
いて、車両特徴部1201は道路面1301のVr<V
<Vtの範囲に対応する画面上の位置に撮像される。こ
のとき、Vtは式9により算出できる。Next, the characteristic portion imaging position calculation unit 1102 calculates the position where the vehicle characteristic unit 1201 is imaged in the image captured by the imaging unit 101. In FIG. 13, the vehicle feature 1201 has Vr <V of the road surface 1301.
The image is captured at a position on the screen corresponding to the range of <Vt. At this time, Vt can be calculated by Expression 9.
【0083】[0083]
【数7】 …(式9)(Equation 7) … (Equation 9)
【0084】ここで、道路面1301のVr<V<Vt
の範囲の撮像部101から光軸方向の距離の範囲Kb<
K<Ktは、第1の実施の形態で説明した式4により算
出できる。また、式5により車両特徴部1001が画像
上で撮像されているY軸方向の範囲Yt<Y<Ybを算
出できる。Here, Vr <V <Vt of the road surface 1301
Range Kb <in the optical axis direction from the imaging unit 101 in the range
K <Kt can be calculated by Expression 4 described in the first embodiment. Further, the range Yt <Y <Yb in the Y-axis direction in which the vehicle characteristic portion 1001 is captured on the image can be calculated by Expression 5.
【0085】そして、画像中のYt<Y<Ybの範囲に
おいてエッジ画像を作成し、当該車両が走行している車
線1302が撮像されている範囲内で、X軸1303上
でエッジヒストグラムを作成し、車両特徴部1201が
撮像されている範囲Xl<X<Xrを決定する。テンプ
レート抽出部1103では、特徴部分撮像位置算出部1
102により算出された車両特徴部1201の位置(X
l<X<Xr、Yt<Y<Yb)から追跡に使用するテ
ンプレートを抽出し、テンプレート記憶部1104に出
力する。Then, an edge image is created in the range of Yt <Y <Yb in the image, and an edge histogram is created on the X-axis 1303 within the range where the lane 1302 where the vehicle is traveling is imaged. Then, the range Xl <X <Xr in which the vehicle feature section 1201 is imaged is determined. In the template extraction unit 1103, the characteristic part imaging position calculation unit 1
The position (X
A template used for tracking is extracted from 1 <X <Xr, Yt <Y <Yb) and output to the template storage unit 1104.
【0086】最後に、テンプレートマッチング部110
5では、テンプレートを抽出した時刻以降の時刻で、テ
ンプレート記憶部1104に記憶されているテンプレー
トを用いてマッチングを行い物体の移動位置を算出す
る。Finally, the template matching unit 110
In step 5, matching is performed using the template stored in the template storage unit 1104 at a time after the time when the template is extracted, and the moving position of the object is calculated.
【0087】以上のように本発明の第4の実施の形態に
よれば、追跡に必要なテンプレートを可不足なく正確に
抽出できるので、マッチング時の演算量の削減と精度の
良い物体追跡が実現できる。As described above, according to the fourth embodiment of the present invention, a template necessary for tracking can be accurately extracted without fail, so that the amount of calculation at the time of matching and the object tracking with high accuracy are realized. it can.
【0088】(第5の実施の形態)本発明の第5の実施
の形態は、第4の実施の形態で説明したテンプレートマ
ッチング部1105が、図14に示す構成をしたもので
ある。図14において、1401は物体検出部106に
より検出された複数の物体の位置から画像上での物体の
重なりを判定する重なり判定部、1402は重なり判定
部1401で複数の物体が重なっていると判定された場
合にテンプレートを複数の領域に分割するテンプレート
分割部、1403はテンプレート分割部1402により
分割された領域毎にマッチングを行う領域マッチング
部、1404は領域マッチング部1403により得られ
た結果に重み付けをしてテンプレート全体の類似度を算
出する類似度算出部、1405は類似度算出部1404
により算出された結果から物体の移動位置を決定する移
動位置決定部である。(Fifth Embodiment) In the fifth embodiment of the present invention, the template matching unit 1105 described in the fourth embodiment has the configuration shown in FIG. In FIG. 14, reference numeral 1401 denotes an overlap determination unit that determines overlapping of objects on an image from positions of the plurality of objects detected by the object detection unit 106, and 1402 determines that a plurality of objects overlap with each other by the overlap determination unit 1401. In this case, a template dividing unit 1403 that divides the template into a plurality of regions when performing the matching is a region matching unit that performs matching for each region divided by the template dividing unit 1402, and 1404 weights the result obtained by the region matching unit 1403. The similarity calculating unit 1405 calculates the similarity of the entire template, and 1405 denotes a similarity calculating unit 1404.
Is a moving position determining unit that determines the moving position of the object from the result calculated by
【0089】次に上記実施の形態の動作について説明す
る。まず、重なり判定部1401では、1つの車線に車
両が複数台走行している場合に、追跡中の車両のテンプ
レートに対応する部分の一部が、後ろを走行する車両に
隠されて画像上では見えなくなるかを判定する。図15
において、ある時刻tに、ある車線を2台の車両150
1、1502が走行しており、車両1501の後端位置
がV1、車高がH1、車両1502の後端位置がV2、
車高がH2、車両長がL2であったとする。このとき、
式10を満たす時、車両1501の車両特徴部1201
が隠れて見えなくなる。Next, the operation of the above embodiment will be described. First, in a case where a plurality of vehicles are traveling in one lane, a part of a portion corresponding to a template of a vehicle being tracked is hidden by a vehicle traveling behind, and the overlap determination unit 1401 hides a part of the image on the image. Determine if it becomes invisible. FIG.
At a certain time t, a certain lane is moved to two vehicles 150.
1, 1502 are traveling, the rear end position of the vehicle 1501 is V1, the vehicle height is H1, the rear end position of the vehicle 1502 is V2,
Assume that the vehicle height is H2 and the vehicle length is L2. At this time,
When Equation 10 is satisfied, the vehicle feature 1201 of the vehicle 1501
Hides and disappears.
【0090】[0090]
【数8】 …(式10)(Equation 8) ... (Equation 10)
【0091】また、隠れる領域1503の高さH1B
は、式11より算出することができる。The height H1B of the hidden area 1503
Can be calculated from Expression 11.
【0092】[0092]
【数9】 …(式11)(Equation 9) ... (Equation 11)
【0093】さらに、第3の実施の形態に記載した方法
と同様にして、画像上で見える領域1504と隠れる領
域1503の境界部が撮像されている位置のY座標を算
出することができる。Further, similarly to the method described in the third embodiment, it is possible to calculate the Y coordinate of the position where the boundary between the region 1504 visible and the region 1503 hidden on the image is captured.
【0094】次の時刻t+Δtの画像上で類似する領域
を探索する時には、図16のように時刻tで抽出したテ
ンプレート1601を画像上で隠れる領域1503と見
える領域1504の2つに分割し、分割領域毎に探索す
る周辺領域との類似度を算出する。そして、画像上で見
える領域1504での類似度をS1、画像上で隠れる領
域1503の類似度をS2として、S1とS2に対して
重み付けをして、式12のようにテンプレート全体の類
似度を算出する。 S=α1×S1+α2×S2 …(式12) 画像上で隠れる領域1503部分のテンプレートには追
跡中の物体とは異なる物体が撮像されているため、テン
プレートマッチングに用いるのは適当でない。従って、
α2=0または0に近い値にする。When searching for a similar area on the image at the next time t + Δt, the template 1601 extracted at the time t is divided into two areas 1504 that are hidden and visible in the image as shown in FIG. The degree of similarity with the surrounding area searched for for each area is calculated. Then, assuming that the similarity in the region 1504 visible on the image is S1 and the similarity of the region 1503 hidden on the image is S2, S1 and S2 are weighted, and the similarity of the entire template is calculated as in Expression 12. calculate. S = α1 × S1 + α2 × S2 (Equation 12) Since an object different from the object being tracked is captured in the template in the area 1503 hidden on the image, it is not appropriate to use it for template matching. Therefore,
α2 = 0 or a value close to 0.
【0095】なお、本実施の形態では、テンプレートを
2つの領域に分割する方法について説明したが、3つ以
上の領域に分割してもよい。その場合、テンプレートの
上部にある領域の重みを大きくし、下部にある領域の重
みを小さく設定するとよい。Although the method of dividing the template into two regions has been described in the present embodiment, the template may be divided into three or more regions. In that case, the weight of the region above the template may be increased, and the weight of the region below the template may be reduced.
【0096】以上のように、本発明の第5の実施の形態
によれば、テンプレートの隠れた部分から得られる類似
度の重みを小さくするので、画像上で複数の物体が重な
り物体の一部が見えなくなっても、継続して精度良く物
体が追跡が行える。As described above, according to the fifth embodiment of the present invention, the weight of the similarity obtained from the hidden part of the template is reduced, so that a plurality of objects overlap on the image, Even if is not visible, the object can be tracked with high accuracy continuously.
【0097】(第6の実施の形態)本発明の第6の実施
の形態は、第1の実施の形態で説明した移動位置算出部
107または第3の実施の形態で説明した遠距離範囲移
動位置算出部803が、図17に示す構成をしたもので
ある。図17において、1701は物体検出部106に
より検出された物体の領域が画像上で撮像されている位
置を算出する物体撮像位置算出部、1702は物体撮像
位置算出部1701により算出された撮像位置について
エッジ画像を作成し物体の進行方向に対し垂直な方向に
走査してエッジヒストグラムを作成するエッジヒストグ
ラム作成部、1703はエッジヒストグラム作成部17
02により作成されたエッジヒストグラムを記憶するエ
ッジヒストグラム記憶部、1704はエッジヒストグラ
ム記憶部1703に記憶されたエッジヒストグラムを用
いてある時刻と次の時刻でマッチングを行い物体の移動
位置を算出するエッジヒストグラムマッチング部であ
る。(Sixth Embodiment) The sixth embodiment of the present invention relates to the movement position calculation unit 107 described in the first embodiment or the long distance movement described in the third embodiment. The position calculation unit 803 has the configuration shown in FIG. In FIG. 17, reference numeral 1701 denotes an object imaging position calculation unit that calculates a position where an area of an object detected by the object detection unit 106 is imaged on an image, and 1702 denotes an imaging position calculated by the object imaging position calculation unit 1701. An edge histogram creating unit for creating an edge image and creating an edge histogram by scanning in a direction perpendicular to the moving direction of the object.
An edge histogram storage unit 1704 for storing the edge histogram created by the step S02, an edge histogram 1704 for performing matching at a certain time and the next time using the edge histogram stored in the edge histogram storage unit 1703 and calculating a moving position of the object. It is a matching unit.
【0098】次に上記実施の形態の動作について説明す
る。まず、物体撮像位置算出部1701では、第1の実
施の形態で説明した方法で、車両の後端位置が画像上で
撮像されているY軸方向の位置Yrを算出する。さら
に、エッジヒストグラム作成部1702では、Y<Yr
でエッジ画像を作成しX軸方向に走査して図5のY軸上
505のエッジヒストグラム506を作成する。そし
て、エッジヒストグラム記憶部1703ではエッジヒス
トグラム作成部1702で作成したエッジヒストグラム
506を記憶する。Next, the operation of the above embodiment will be described. First, the object imaging position calculation unit 1701 calculates the position Yr in the Y-axis direction where the rear end position of the vehicle is imaged on the image by the method described in the first embodiment. Further, in the edge histogram creation unit 1702, Y <Yr
Then, an edge image is created and scanned in the X-axis direction to create an edge histogram 506 on the Y-axis 505 in FIG. Then, the edge histogram storage unit 1703 stores the edge histogram 506 created by the edge histogram creation unit 1702.
【0099】次に、エッジヒストグラムマッチング部1
704において、エッジヒストグラム記憶部1703に
記憶されたエッジヒストグラムを用いてマッチングを行
い車両の移動位置を算出する。マッチング方法は、第3
の実施の形態で説明した近距離範囲移動位置算出部80
2の動作における投影像から移動位置を算出する方法と
同様の方法で実現できる。ただし、エッジヒストグラム
のマッチングでは、投影像のV軸がY軸になり、投影像
の高さHがエッジ画素数になる。Next, the edge histogram matching unit 1
In 704, matching is performed using the edge histogram stored in the edge histogram storage unit 1703 to calculate the moving position of the vehicle. Matching method is 3rd
Short-range movement position calculation unit 80 described in the embodiment
It can be realized by a method similar to the method of calculating the movement position from the projection image in the operation 2. However, in edge histogram matching, the V axis of the projected image is the Y axis, and the height H of the projected image is the number of edge pixels.
【0100】以上のように、本発明の第6の実施の形態
によれば、距離情報により検出した物体領域からエッジ
ヒストグラムを作成して物体の追跡を行うので、物体領
域のみのエッジヒストグラムを正確に作成でき、マッチ
ング時の演算量削減と精度の良い物体の追跡が実現でき
る。As described above, according to the sixth embodiment of the present invention, an object is tracked by creating an edge histogram from an object area detected based on distance information. Thus, it is possible to reduce the amount of calculation at the time of matching and to accurately track an object.
【0101】(第7の実施の形態)本発明の第7の実施
の形態は、図18に示す構成をしたものである。図18
において、101、102、104〜108は第1の実
施の形態で説明したものと同じであり、1101〜11
05は、第4の実施の形態で説明したものと同じであ
る。また、1801は撮像部から撮像された画像から3
値化エッジ画像を作成する3値化エッジ画像作成部、1
802は3値化エッジ画像作成部により作成された複数
の3値化エッジ画像を対応付けて撮像空間の距離情報を
計測する対応付け部である。(Seventh Embodiment) A seventh embodiment of the present invention has the configuration shown in FIG. FIG.
, 101, 102, 104 to 108 are the same as those described in the first embodiment,
05 is the same as that described in the fourth embodiment. 1801 is 3 from the image captured by the imaging unit.
A ternary edge image creation unit for creating a value edge image, 1
An associating unit 802 measures the distance information of the imaging space by associating a plurality of ternary edge images created by the ternary edge image creating unit.
【0102】次に上記の実施の形態の動作について説明
する。まず、撮像部101、102により撮像された画
像から3値化エッジ画像作成部1801でエッジ画像を
作成する。対応付け部1802では3値化エッジ画像作
成部1801で作成されたエッジ画像を対応付けること
により距離情報を計測する。3値化エッジ画像を対応付
けて距離情報を計測する方法の一例としては、特開平8
−294143に記載されたものがある。本技術では、
撮像された画像を複数の周波数成分画像に展開するとと
もに各周波数成分画像に対して2次微分処理を施し、こ
の2次微分処理を施された各画像それぞれに画素毎に3
値化処理をすることによって3値化画像を作成する。そ
して、基準とする一方の3値化周波数成分画像上にサイ
ズNの1次元ウィンドウを設定し、前記一次元ウィンド
ウ内N画素の3値パターンと類似する領域をもう一方の
画像の3値化周波数成分画像中より探索し、対応領域を
決定する。さらに、画像全体をM×N画素の大きさのブ
ロックに分割し、各ブロックに含まれる1次元ウィンド
ウの対応領域を参照して、ブロックの対応領域を決定し
ている。Next, the operation of the above embodiment will be described. First, an edge image is created by the ternary edge image creation unit 1801 from the images captured by the imaging units 101 and 102. The associating unit 1802 measures the distance information by associating the edge images created by the ternary edge image creating unit 1801 with each other. An example of a method for measuring distance information in association with a ternary edge image is disclosed in
-294143. In this technology,
The captured image is developed into a plurality of frequency component images, and second derivative processing is performed on each of the frequency component images.
A ternary image is created by performing a binarization process. Then, a one-dimensional window of size N is set on one ternary frequency component image serving as a reference, and a region similar to the ternary pattern of N pixels in the one-dimensional window is set to the ternary frequency of the other image. A search is performed from the component image to determine a corresponding area. Further, the entire image is divided into blocks each having a size of M × N pixels, and the corresponding region of the block is determined with reference to the corresponding region of the one-dimensional window included in each block.
【0103】距離情報記憶部104、物体投影部10
5、物体検出部106、物体特徴部分検出部1101
は、第1の実施の形態または第4の実施の形態で説明し
たものと同様の動作を行う。 特徴部分撮像位置検出部
1102では車両の特徴部が画像上で撮像されている領
域を算出し、テンプレート1103では3値化エッジ画
像作成部1801で作成したエッジ画像上の車両特徴部
が撮像されている領域をテンプレートとして抽出する。
その後、テンプレート記憶部1104、テンプレートマ
ッチング部1105、物体情報算出部108は第1の実
施の形態および第4の実施の形態で説明したものと同様
の動作を行う。なお、本実施の形態では、3値化エッジ
画像作成部で作成された3値化エッジ画像を請求項4記
載のテンプレート抽出部で用いる場合について説明した
が、請求項6記載のエッジヒストグラム作成部で用いる
場合も同様の動作で実現できる。Distance information storage unit 104, object projection unit 10
5. Object detection unit 106, object characteristic part detection unit 1101
Performs the same operation as that described in the first embodiment or the fourth embodiment. The characteristic part imaging position detection unit 1102 calculates an area where the characteristic part of the vehicle is imaged on the image, and the template 1103 images the vehicle characteristic part on the edge image created by the ternary edge image creation unit 1801. The extracted area is extracted as a template.
After that, the template storage unit 1104, the template matching unit 1105, and the object information calculation unit 108 perform operations similar to those described in the first embodiment and the fourth embodiment. In the present embodiment, the case has been described where the ternary edge image created by the ternary edge image creating unit is used by the template extracting unit according to claim 4. Can be realized by the same operation.
【0104】以上のように、本発明の第7の実施の形態
によれば、ステレオ画像処理によって距離情報を計測す
る時に作成した3値化エッジ画像から抽出したテンプレ
ートを用いてマッチングを行なうので、マッチング時の
演算量の削減とマッチング精度の向上が実現できる。As described above, according to the seventh embodiment of the present invention, matching is performed using a template extracted from a ternary edge image created when measuring distance information by stereo image processing. It is possible to reduce the amount of calculation at the time of matching and improve the matching accuracy.
【0105】(第8の実施の形態)本発明の第8の実施
の形態は、図19に示す構成をしたものである。図19
において、101〜108は第1の実施の形態で説明し
たものと同じであり、1901は物体検出部106によ
り検出された物体の領域の長さを算出する物体長算出
部、1902は物体長算出部1901により検出された
物体長を記憶する物体長記憶部である。(Eighth Embodiment) An eighth embodiment of the present invention has the configuration shown in FIG. FIG.
In the figure, 101 to 108 are the same as those described in the first embodiment, 1901 is an object length calculation unit for calculating the length of the area of the object detected by the object detection unit 106, and 1902 is the object length calculation An object length storage unit that stores the object length detected by the unit 1901.
【0106】次に上記実施の形態の動作について説明す
る。まず、101〜106は第1の実施の形態で説明し
たものと同様の動作を行い、物体の存在する領域を検出
する。物体長算出部1901では、検出された物体の投
影像から物体の長さを算出する。ここで、物体の長さは
物体投影像のV軸方向の長さとして算出できる。物体長
記憶部1902では、検出した各車両について個別に物
体長を記憶しておく。そして、移動位置算出部107で
は、検出した各車両を個別に追跡し移動位置を算出す
る。Next, the operation of the above embodiment will be described. First, 101 to 106 perform the same operation as that described in the first embodiment to detect an area where an object exists. The object length calculation unit 1901 calculates the length of the object from the detected projected image of the object. Here, the length of the object can be calculated as the length of the object projection image in the V-axis direction. The object length storage unit 1902 stores the object length individually for each detected vehicle. Then, the movement position calculation unit 107 individually tracks the detected vehicles and calculates the movement position.
【0107】次に、物体情報算出部108の動作につい
て、図20を参照しながら説明する。ある時刻に、移動
位置算出部107において3台の車両(車両A200
1、車両B2002、車両C2003)の移動位置が算
出できたとする。そして、車両A、B、Cの位置がそれ
ぞれV=V1、V2、V3で検出でき、物体長記憶部1
902に記憶されている車両A、B、Cの車両長がそれ
ぞれL=L1、L2、L3とする。Next, the operation of the object information calculation unit 108 will be described with reference to FIG. At a certain time, three vehicles (vehicle A200)
1. It is assumed that the movement positions of the vehicle B2002 and the vehicle C2003) have been calculated. Then, the positions of the vehicles A, B, and C can be detected at V = V1, V2, and V3, respectively.
It is assumed that the vehicle lengths of the vehicles A, B, and C stored in 902 are L = L1, L2, and L3, respectively.
【0108】画像に撮像されている範囲のうち、Vs>
V>Veの範囲を空間占有率の計測範囲2004とす
る。ここで、計測範囲2004は撮像範囲全域でもよい
し、撮像範囲の一部でもよい。このとき、Vs>V1、
V2、V3>Veであれば、空間占有率は式13により
算出できる。 空間占有率=(L1+L2+L3)/(Vs−Ve) …(式13)In the range of the image, Vs>
The range of V> Ve is set as the measurement range 2004 of the space occupancy. Here, the measurement range 2004 may be the entire imaging range or a part of the imaging range. At this time, Vs> V1,
If V2, V3> Ve, the space occupancy can be calculated by Expression 13. Space occupancy = (L1 + L2 + L3) / (Vs-Ve) (Equation 13)
【0109】また、Vs>V>Veの範囲内に車両がN
台存在する場合、同様にして、空間占有率は(数14)
で算出できる。 空間占有率=(L1+L2+・・・+LN)/(Vs−Ve) …(式14)Further, when the vehicle is within the range of Vs>V> Ve, N
If there are multiple vehicles, the space occupancy is calculated as
Can be calculated. Space occupancy = (L1 + L2 +... + LN) / (Vs-Ve) (Equation 14)
【0110】なお、本実施の形態では、物体情報算出部
において、物体長記憶部に記憶された物体の長さ情報
と、請求項1記載の移動位置算出部により算出した物体
の位置情報を用いて物体の空間占有率を算出したが、請
求項3記載の遠距離範囲移動位置算出部により算出した
物体の位置情報を用いて空間占有率を算出する場合も同
様の動作で実現できる。In the present embodiment, the object information calculation unit uses the length information of the object stored in the object length storage unit and the position information of the object calculated by the movement position calculation unit according to claim 1. The space occupancy of the object is calculated by using the position information of the object calculated by the long-distance range movement position calculation unit according to the third aspect.
【0111】以上のように、本発明の第8の実施の形態
によれば、ステレオ画像処理により計測した物体の長さ
情報を用いて空間占有率を算出するので、俯瞰撮影する
場合でも、また、遠方まで撮影する場合でも精度良く空
間占有率を算出できる。As described above, according to the eighth embodiment of the present invention, the space occupancy is calculated by using the length information of the object measured by the stereo image processing. In addition, the space occupancy can be calculated with high accuracy even when shooting far away.
【0112】[0112]
【発明の効果】以上説明したように本発明に係る物体追
跡装置によれば、以下の効果を有する。ステレオ画像処
理により計測した距離情報を用いて物体を検出し、距離
情報以外の特徴量を用いて物体を追跡することで、広範
囲にわたる物体の追跡を精度良く実現できる。As described above, the object tracking device according to the present invention has the following effects. By detecting an object using the distance information measured by the stereo image processing and tracking the object using a feature amount other than the distance information, it is possible to accurately track the object over a wide range.
【0113】物体の実際の横幅を算出して隣接する2つ
の特定領域で検出した物体が同一の車両か判定すること
で、2つの特定領域にまたがって存在している物体を正
確に検出/追跡できる。By calculating the actual width of the object and judging whether the objects detected in two adjacent specific areas are the same vehicle, an object existing over the two specific areas can be accurately detected / tracked. it can.
【0114】近距離範囲においてはステレオ画像処理に
よって計測した距離情報を用いて物体の追跡を行い、遠
距離範囲においては距離情報以外の特徴量を用いて物体
を追跡することで、広範囲にわたる物体の追跡を高速か
つ精度良く実現できる。In the short distance range, the object is tracked by using the distance information measured by the stereo image processing. In the long distance range, the object is tracked by using a feature amount other than the distance information. Tracking can be realized with high speed and high accuracy.
【0115】物体投影像から物体の特徴的な部分を判定
し、画像上で特徴的な部分が撮像されている領域を算出
して、テンプレートを抽出することで、追跡に必要なテ
ンプレートを過不足なく正確にでき、テンプレートマッ
チング時の演算量削減と精度の良い物体追跡が実現でき
る。The characteristic part of the object is determined from the projected image of the object, the area where the characteristic part is imaged on the image is calculated, and the template is extracted. It is possible to reduce the amount of calculation at the time of template matching and achieve accurate object tracking.
【0116】追跡中の物体の周辺に存在する他の物体の
位置から追跡している物体のテンプレート上で重なって
見えなくなる部分を予測し、テンプレートマッチング時
にこの部分のテンプレートの類似度の重みを低くするこ
とで、重なりが生じても物体の追跡を継続できる。From the position of another object existing around the object being tracked, a portion of the tracked object that is not visible due to overlapping on the template is predicted, and the template similarity weight of this portion is reduced during template matching. By doing so, the tracking of the object can be continued even if the overlap occurs.
【0117】ステレオ画像処理により検出した物体の領
域からエッジヒストグラムを作成して物体追跡を行うの
で、追跡に必要なエッジヒストグラムを正確に過不足な
く作成でき、エッジヒストグラムマッチング時の演算量
削減と精度の良い物体の追跡が実現できる。Object tracking is performed by creating an edge histogram from the region of the object detected by stereo image processing, so that an edge histogram required for tracking can be created accurately and without excess or deficiency. Good tracking of the object can be realized.
【0118】ステレオ画像処理により距離情報を計測す
る時に作成した3値化エッジ画像から抽出したテンプレ
ートまたはエッジヒストグラムを用いてマッチングを行
うので、新たなエッジ画像を作成する必要がなく追跡時
の演算量が削減でき、さらに、3値化エッジ画像からテ
ンプレートを抽出するので精度良く追跡できる。Since matching is performed using a template or an edge histogram extracted from a ternary edge image created when measuring distance information by stereo image processing, it is not necessary to create a new edge image, and the amount of calculation at the time of tracking is performed. Can be reduced, and the template can be extracted from the ternary edge image, so that tracking can be performed with high accuracy.
【0119】ステレオ画像処理により計測した物体の長
さ情報を用いて空間占有率を算出することで、俯瞰撮影
する場合でも、遠距離範囲を撮影する場合でも、精度良
く空間占有率を算出できる。By calculating the space occupancy using the length information of the object measured by the stereo image processing, the space occupancy can be calculated with high accuracy both in the case of bird's eye view shooting and in the case of shooting a long distance range.
【図1】本発明の第1の実施の形態における物体追跡装
置の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of an object tracking device according to a first embodiment of the present invention.
【図2】本発明の第1の実施の形態における画像中の矩
形領域と画素の関係を表す模式図FIG. 2 is a schematic diagram illustrating a relationship between a rectangular area in an image and pixels according to the first embodiment of the present invention.
【図3】本発明の第1の実施の形態における(X、Y、
K)座標系と(U、V、H)座標系の関係を示す模式図FIG. 3 shows (X, Y,
K) Schematic diagram showing the relationship between the coordinate system and the (U, V, H) coordinate system
【図4】本発明の第1の実施の形態における車両投影像
と車両領域を示す模式図FIG. 4 is a schematic diagram showing a vehicle projection image and a vehicle area according to the first embodiment of the present invention.
【図5】本発明の第1の実施の形態における物体撮像位
置の算出方法を示す説明図FIG. 5 is an explanatory diagram showing a method of calculating an object imaging position according to the first embodiment of the present invention.
【図6】本発明の第2の実施の形態における物体追跡装
置の構成を示すブロック図FIG. 6 is a block diagram illustrating a configuration of an object tracking device according to a second embodiment of the present invention.
【図7】本発明の第2の実施の形態における2つの車線
をまたがって走行する車両を説明する模式図FIG. 7 is a schematic diagram illustrating a vehicle traveling across two lanes according to a second embodiment of the present invention.
【図8】本発明の第3の実施の形態における物体追跡装
置の構成を示すブロック図FIG. 8 is a block diagram illustrating a configuration of an object tracking device according to a third embodiment of the present invention.
【図9】本発明の第3の実施の形態における近距離範囲
と遠距離範囲の関係を示す模式図FIG. 9 is a schematic diagram showing a relationship between a short distance range and a long distance range according to the third embodiment of the present invention.
【図10】本発明の第3の実施の形態における投影像の
追跡装置の説明図FIG. 10 is an explanatory diagram of a projection image tracking device according to a third embodiment of the present invention.
【図11】本発明の第4の実施の形態における物体追跡
装置の構成を示すブロック図FIG. 11 is a block diagram illustrating a configuration of an object tracking device according to a fourth embodiment of the present invention.
【図12】本発明の第4の実施の形態における車両投影
像と車両特徴部の関係を示す模式図FIG. 12 is a schematic diagram showing a relationship between a vehicle projection image and a vehicle feature according to a fourth embodiment of the present invention.
【図13】本発明の第4の実施の形態における物体特徴
部の撮像位置算出方法の説明図FIG. 13 is an explanatory diagram of a method of calculating an imaging position of an object feature unit according to a fourth embodiment of the present invention.
【図14】本発明の第5の実施の形態における物体追跡
装置の構成を示すブロック図FIG. 14 is a block diagram illustrating a configuration of an object tracking device according to a fifth embodiment of the present invention.
【図15】本発明の第5の実施の形態における車両の重
なりを説明する模式図FIG. 15 is a schematic diagram illustrating overlapping of vehicles according to a fifth embodiment of the present invention.
【図16】本発明の第5の実施の形態におけるテンプレ
ートの分割を説明する模式図FIG. 16 is a schematic diagram illustrating division of a template according to the fifth embodiment of the present invention.
【図17】本発明の第6の実施の形態における物体追跡
装置の構成を示すブロック図FIG. 17 is a block diagram illustrating a configuration of an object tracking device according to a sixth embodiment of the present invention.
【図18】本発明の第7の実施の形態における物体追跡
装置の構成を示すブロック図FIG. 18 is a block diagram illustrating a configuration of an object tracking device according to a seventh embodiment of the present invention.
【図19】本発明の第8の実施の形態における物体追跡
装置の構成を示すブロック図FIG. 19 is a block diagram showing a configuration of an object tracking device according to an eighth embodiment of the present invention.
【図20】本発明の第8の実施の形態における車両の空
間占有率の算出方法の説明図FIG. 20 is an explanatory diagram of a method of calculating a space occupancy of a vehicle according to an eighth embodiment of the present invention.
101,102 撮像部 103 距離計測部 104 距離情報記憶部 105 物体投影部 106 物体検出部 107 移動位置算出部 108 物体情報算出部 201 左画像 202 画素 203 矩形領域 301 撮像面 302 道路面 401 投影像 402 車両領域 501 道路面 502 車線 503 X軸 504,506 エッジヒストグラム 505 Y軸 601 横幅算出部 602 同一物体判定部 701,702 車線 703 X軸 704 エッジヒストグラム 801 距離判定部 802 近距離範囲移動位置算出部 803 遠距離範囲移動位置算出部 901 撮像範囲 902 近距離範囲 903 遠距離範囲 1001 投影像 1002 後端位置 1003 次の時刻の投影像 1004 次の時刻の後端位置 1005 部分投影像 1006 部分投影像の後端位置 1101 物体特徴部分抽出部 1202 特徴部分撮像位置算出部 1203 テンプレート抽出部 1204 テンプレート記憶部 1205 テンプレートマッチング部 1201 車両特徴部 1301 道路面 1302 車線 1303 X軸 1304 エッジヒストグラム 1401 重なり判定部 1402 テンプレートマッチング部 1403 領域マッチング部 1404 類似度算出部 1405 移動位置決定部 1501,1502 車両 1503 隠れる領域 1504 見える領域 1601 テンプレート 1701 物体撮像位置算出部 1702 エッジヒストグラム作成部 1703 エッジヒストグラム記憶部 1704 エッジヒストグラムマッチング部 1801 3値化エッジ画像作成部 1802 対応付け部 1901 物体長算出部 1902 物体長記憶部 2001 車両A 2002 車両B 2003 車両C 2004 計測範囲 101, 102 imaging unit 103 distance measurement unit 104 distance information storage unit 105 object projection unit 106 object detection unit 107 moving position calculation unit 108 object information calculation unit 201 left image 202 pixel 203 rectangular area 301 imaging surface 302 road surface 401 projected image 402 Vehicle area 501 Road surface 502 Lane 503 X axis 504, 506 Edge histogram 505 Y axis 601 Width calculation unit 602 Same object determination unit 701, 702 Lane 703 X axis 704 Edge histogram 801 Distance determination unit 802 Short distance range movement position calculation unit 803 Long-distance range movement position calculation unit 901 Imaging range 902 Short-distance range 903 Long-distance range 1001 Projection image 1002 Rear end position 1003 Projection image at next time 1004 Rear end position at next time 1005 Partial projection image 1006 After partial projection image Position 1101 Object feature part extraction unit 1202 Feature part imaging position calculation unit 1203 Template extraction unit 1204 Template storage unit 1205 Template matching unit 1201 Vehicle feature unit 1301 Road surface 1302 Lane 1303 X axis 1304 Edge histogram 1401 Overlap determination unit 1402 Template matching unit 1403 Area matching section 1404 Similarity calculation section 1405 Moving position determination section 1501, 1502 Vehicle 1503 Hidden area 1504 Visible area 1601 Template 1701 Object imaging position calculation section 1702 Edge histogram creation section 1703 Edge histogram storage section 1704 Edge histogram matching section 1801 ternarization Edge image creation unit 1802 Correlation unit 1901 Object length calculation unit 1902 Object Long storage unit 2001 Vehicle A 2002 Vehicle B 2003 Vehicle C 2004 Measurement range
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G01P 3/36 G01P 3/36 C G01S 3/786 G01S 3/786 G06T 7/00 H04N 5/232 C 7/20 G06F 15/62 415 H04N 5/232 15/70 410 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification symbol FI G01P 3/36 G01P 3/36 C G01S 3/786 G01S 3/786 G06T 7/00 H04N 5/232 C 7/20 G06F 15 / 62 415 H04N 5/232 15/70 410
Claims (8)
と、前記撮像部で撮像された複数の画像からステレオ画
像処理によって撮像空間の距離情報を計測する距離計測
部と、基準時刻における距離情報を記憶する距離情報記
憶部と、前記距離計測部より得られた距離情報と前記距
離情報記憶部に記憶された基準時刻における距離情報か
ら物体の進行方向と観察平面の垂線方向とが成す平面に
空間内の特定領域毎に観察面上の物体像の投影を行う物
体投影部と、前記物体投影部により得られた物体投影像
から複数の物体の領域を個別に検出する物体検出部と、
前記物体検出部により検出された物体毎に距離情報以外
の特徴量を用いてある時刻と次の時刻でマッチングを行
って物体の移動位置を算出する移動位置算出部と、前記
移動位置算出部で得られた結果から所定の位置を通過す
る物体の数、物体の移動速度、物体の大きさと物体の異
常な動きを算出する物体情報算出部とを備えた物体追跡
装置。1. A plurality of image pickup units arranged at predetermined intervals, a distance measurement unit for measuring distance information of an image pickup space from a plurality of images picked up by the image pickup unit by stereo image processing, and a distance at a reference time. A distance information storage unit for storing information, and a plane formed by the traveling direction of the object and the perpendicular direction of the observation plane based on the distance information obtained from the distance measurement unit and the distance information at the reference time stored in the distance information storage unit. An object projection unit that projects an object image on an observation plane for each specific region in space, and an object detection unit that individually detects regions of a plurality of objects from an object projection image obtained by the object projection unit.
A moving position calculating unit that calculates a moving position of the object by performing matching at a certain time and a next time using a feature amount other than the distance information for each object detected by the object detecting unit, and the moving position calculating unit. An object tracking device, comprising: an object information calculation unit configured to calculate the number of objects passing through a predetermined position, a moving speed of the object, a size of the object, and an abnormal movement of the object based on an obtained result.
れた複数の物体の横幅を個別に算出する横幅算出部と、
前記横幅算出部により算出された物体の横幅から隣接す
る2つの特定領域で検出した物体が同一の物体か判定す
る同一物体判定部とを備えた請求項1記載の物体追跡装
置。2. A width calculation unit, wherein the object detection unit individually calculates the width of a plurality of objects detected by the object detection unit;
The object tracking device according to claim 1, further comprising: an identical object determination unit that determines whether objects detected in two adjacent specific regions are the same object based on the width of the object calculated by the width calculation unit.
出された物体の位置が撮像部から近距離か遠距離かを判
定する距離判定部と、撮像部から近距離の範囲で距離情
報を特徴量として用いてある時刻と次の時刻でマッチン
グを行い物体の移動位置を算出する近距離範囲移動位置
算出部と、撮像部から遠距離の範囲で距離情報以外の特
徴量を用いてある時刻と次の時刻でマッチングを行い物
体の移動位置を算出する遠距離範囲移動位置算出部とか
らなる請求項1または請求項2記載の物体追跡装置。3. A moving position calculating section for determining whether a position of an object detected by an object detecting section is a short distance or a long distance from an imaging section, and determining distance information in a short distance range from the imaging section. A short-range moving position calculating unit that calculates a moving position of an object by performing matching at a time used as a feature amount and a next time, and a time using a feature amount other than distance information in a range far from the imaging unit. 3. The object tracking device according to claim 1, further comprising: a long-distance range movement position calculation unit that performs matching at a next time and calculates a movement position of the object.
位置算出部が、物体投影部により作成された物体投影像
から物体の特徴的な部分を抽出する物体特徴部分抽出部
と、前記物体特徴部分抽出部により抽出された物体特徴
部分が画像に撮像されている位置を算出する特徴部分撮
像位置算出部と、前記特徴部分撮像位置算出部により算
出された位置から距離情報以外の情報をテンプレートと
して抽出するテンプレート抽出部と、前記テンプレート
抽出部により抽出されたテンプレートを記憶するテンプ
レート記憶部と、前記テンプレート記憶部に記憶された
テンプレートを用いてある時刻と次の時刻でマッチング
を行い物体の移動位置を算出するテンプレートマッチン
グ部とからなる請求項1、請求項2または請求項3のい
ずれかに記載の物体追跡装置。4. An object feature portion extraction unit, wherein the movement position calculation unit or the long distance range movement position calculation unit extracts a characteristic portion of the object from the object projection image created by the object projection unit, and the object feature A characteristic part imaging position calculation unit that calculates a position where the object characteristic part extracted by the part extraction unit is captured in the image; and information other than distance information from the position calculated by the characteristic part imaging position calculation unit as a template. A template extraction unit to be extracted; a template storage unit that stores the template extracted by the template extraction unit; and a moving position of the object by performing matching at one time and the next time using the template stored in the template storage unit. 4. The object according to claim 1, further comprising a template matching unit for calculating Tracking device.
部により検出された複数の物体の位置から画像上での物
体の重なりを判定する重なり判定部と、前記重なり判定
部で複数の物体が重なっていると判定された場合にテン
プレートを複数の領域に分割するテンプレート分割部
と、前記テンプレート分割部により分割された領域毎に
マッチングを行う領域マッチング部と、前記領域マッチ
ング部により得られた結果に重み付けをしてテンプレー
ト全体の類似度を算出する類似度算出部と、前記類似度
算出部により算出された結果から物体の移動位置を決定
する移動位置決定部とからなる請求項4記載の物体追跡
装置。5. An overlap judging unit, wherein a template matching unit judges an overlap of objects on an image from positions of the plurality of objects detected by the object detection unit, and the plurality of objects overlap by the overlap judgment unit. A template dividing unit that divides the template into a plurality of regions when it is determined that the region is divided by the template dividing unit; a region matching unit that performs matching for each region divided by the template dividing unit; 5. The object tracking device according to claim 4, further comprising: a similarity calculating unit that calculates the similarity of the entire template; and a moving position determining unit that determines a moving position of the object based on a result calculated by the similarity calculating unit.
置算出部が、物体検出部により検出された物体の位置か
ら物体の画像上の位置を算出する物体撮像位置算出部
と、前記物体撮像位置算出部により算出された撮像位置
についてエッジ画像を作成し物体の進行方向に対し垂直
な方向に走査してエッジヒストグラムを作成するエッジ
ヒストグラム作成部と、前記エッジヒストグラム作成部
により作成されたエッジヒストグラムを記憶するエッジ
ヒストグラム記憶部と、前記エッジヒストグラム記憶部
に記憶されたエッジヒストグラムを用いてある時刻と次
の時刻でマッチングを行い物体の移動位置を算出するエ
ッジヒストグラムマッチング部とからなる請求項1、請
求項2または請求項3のいずれかに記載の物体追跡装
置。6. An object imaging position calculation unit, wherein a movement position calculation unit or a long-distance range movement position calculation unit calculates a position on an image of an object from a position of the object detected by the object detection unit; An edge histogram creating unit that creates an edge image for the imaging position calculated by the calculating unit and scans in a direction perpendicular to the moving direction of the object to create an edge histogram, and an edge histogram created by the edge histogram creating unit. 2. An edge histogram storage unit for storing, and an edge histogram matching unit for performing matching at a certain time and a next time using the edge histogram stored in the edge histogram storage unit to calculate a moving position of the object. The object tracking device according to claim 2.
た画像から3値化エッジ画像を作成する3値化エッジ画
像作成部と、3値化エッジ画像作成部により作成された
複数の3値化エッジ画像を対応付けて撮像空間の距離情
報を計測する対応付け部とからなり、前記3値化エッジ
画像作成部で作成された3値化エッジ画像をテンプレー
ト抽出部またはエッジヒストグラム作成部で用いる請求
項1、請求項2、請求項3、請求項4、請求項5または
請求項6のいずれかに記載の物体追跡装置。7. A ternary edge image creating section for creating a ternary edge image from an image captured by the image capturing section, and a plurality of 3D edge images created by the ternary edge image creating section. A ternary edge image created by the ternary edge image creating unit by a template extracting unit or an edge histogram creating unit. The object tracking device according to any one of claims 1, 2, 3, 4, 5, and 6 used.
物体投影像から物体の長さを算出する物体長算出部と、
前記物体長算出部により物体毎に算出された物体長を個
別に記憶する物体長記憶部を併せ備え、物体情報算出部
において、前記物体長記憶部に記憶された物体の長さ情
報と、移動位置算出部または遠距離範囲移動位置算出部
により算出した物体の位置情報を用いて物体の空間占有
率を算出する請求項1、請求項2、請求項3、請求項
4、請求項5、請求項6または請求項7のいずれかに記
載の物体追跡装置。8. An object length calculation unit for calculating an object length from an object projection image created by the object projection unit,
An object length storage unit that individually stores the object length calculated for each object by the object length calculation unit, wherein the object information calculation unit includes information on the length of the object stored in the object length storage unit, The space occupancy of an object is calculated using the position information of the object calculated by the position calculation unit or the long-distance range movement position calculation unit, according to claim 1, claim 2, claim 3, claim 4, claim 5, or claim 5. The object tracking device according to claim 6 or 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10050785A JPH11252587A (en) | 1998-03-03 | 1998-03-03 | Object tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10050785A JPH11252587A (en) | 1998-03-03 | 1998-03-03 | Object tracking device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11252587A true JPH11252587A (en) | 1999-09-17 |
Family
ID=12868483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10050785A Pending JPH11252587A (en) | 1998-03-03 | 1998-03-03 | Object tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11252587A (en) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143075A (en) * | 1999-11-10 | 2001-05-25 | Yaskawa Electric Corp | Template-matching method |
ES2209655A1 (en) * | 2002-12-12 | 2004-06-16 | Universidad De Malaga | SYSTEM FOR MEASURING DISTANCES AND SPEEDS BY NON-RADIANT ELECTROOPTIC PROCEDURES. |
JP2005339152A (en) * | 2004-05-26 | 2005-12-08 | Clarion Co Ltd | Moving body detector |
KR100544677B1 (en) * | 2003-12-26 | 2006-01-23 | 한국전자통신연구원 | 3D object tracking device and method using multiview image and depth information |
WO2006016663A1 (en) * | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Object detector |
JP2006318064A (en) * | 2005-05-10 | 2006-11-24 | Secom Co Ltd | Image sensor |
JP2008028890A (en) * | 2006-07-25 | 2008-02-07 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and imaging program |
JP2008092459A (en) * | 2006-10-04 | 2008-04-17 | Toyota Motor Corp | Perimeter monitoring device |
JP2008113071A (en) * | 2006-10-27 | 2008-05-15 | Matsushita Electric Works Ltd | Automatic tracking device |
JP2008151659A (en) * | 2006-12-18 | 2008-07-03 | Fuji Heavy Ind Ltd | Object detection device |
WO2008114769A1 (en) * | 2007-03-22 | 2008-09-25 | Nec Corporation | Mobile detector and mobile detection program and mobile detection method |
JP2009245045A (en) * | 2008-03-31 | 2009-10-22 | Hitachi Ltd | Traffic volume measuring device |
JP2009245042A (en) * | 2008-03-31 | 2009-10-22 | Hitachi Ltd | Traffic flow measurement device and program |
JP2011210030A (en) * | 2010-03-30 | 2011-10-20 | Panasonic Corp | Face recognition device and face recognition method |
JP2012021883A (en) * | 2010-07-14 | 2012-02-02 | Toshiba Corp | System, method and program for detecting distance between vehicles |
JP2012034069A (en) * | 2010-07-29 | 2012-02-16 | Nikon Corp | Image processor and image processing program |
JP2012042720A (en) * | 2010-08-19 | 2012-03-01 | Sony Corp | Device, method, and program for processing image |
US8154594B2 (en) | 2004-08-11 | 2012-04-10 | Tokyo Institute Of Technology | Mobile peripheral monitor |
US8180100B2 (en) | 2004-08-11 | 2012-05-15 | Honda Motor Co., Ltd. | Plane detector and detecting method |
US8194134B2 (en) | 2006-10-27 | 2012-06-05 | Panasonic Corporation | Target moving object tracking device |
WO2019092874A1 (en) * | 2017-11-13 | 2019-05-16 | 三菱電機株式会社 | Object recognition device and object recognition method |
JP2019126091A (en) * | 2019-04-04 | 2019-07-25 | キヤノン株式会社 | Subject tracking device and control method thereof, image processing apparatus and control method thereof, imaging device and control method thereof, and program |
CN111145580A (en) * | 2018-11-06 | 2020-05-12 | 松下知识产权经营株式会社 | Mobile body, management device and system, control method, and computer-readable medium |
JP2021103598A (en) * | 2016-03-31 | 2021-07-15 | 日本電気株式会社 | Image processor, method for processing information, and program |
JPWO2021177236A1 (en) * | 2020-03-05 | 2021-09-10 | ||
JP2021173632A (en) * | 2020-04-24 | 2021-11-01 | 株式会社島津製作所 | Strain distribution measuring device and strain distribution measuring method |
-
1998
- 1998-03-03 JP JP10050785A patent/JPH11252587A/en active Pending
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143075A (en) * | 1999-11-10 | 2001-05-25 | Yaskawa Electric Corp | Template-matching method |
ES2209655A1 (en) * | 2002-12-12 | 2004-06-16 | Universidad De Malaga | SYSTEM FOR MEASURING DISTANCES AND SPEEDS BY NON-RADIANT ELECTROOPTIC PROCEDURES. |
KR100544677B1 (en) * | 2003-12-26 | 2006-01-23 | 한국전자통신연구원 | 3D object tracking device and method using multiview image and depth information |
JP2005339152A (en) * | 2004-05-26 | 2005-12-08 | Clarion Co Ltd | Moving body detector |
US8331653B2 (en) | 2004-08-11 | 2012-12-11 | Tokyo Institute Of Technology | Object detector |
WO2006016663A1 (en) * | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Object detector |
US8154594B2 (en) | 2004-08-11 | 2012-04-10 | Tokyo Institute Of Technology | Mobile peripheral monitor |
US8180100B2 (en) | 2004-08-11 | 2012-05-15 | Honda Motor Co., Ltd. | Plane detector and detecting method |
JP2006318064A (en) * | 2005-05-10 | 2006-11-24 | Secom Co Ltd | Image sensor |
JP2008028890A (en) * | 2006-07-25 | 2008-02-07 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and imaging program |
JP2008092459A (en) * | 2006-10-04 | 2008-04-17 | Toyota Motor Corp | Perimeter monitoring device |
US8194134B2 (en) | 2006-10-27 | 2012-06-05 | Panasonic Corporation | Target moving object tracking device |
JP2008113071A (en) * | 2006-10-27 | 2008-05-15 | Matsushita Electric Works Ltd | Automatic tracking device |
JP2008151659A (en) * | 2006-12-18 | 2008-07-03 | Fuji Heavy Ind Ltd | Object detection device |
WO2008114769A1 (en) * | 2007-03-22 | 2008-09-25 | Nec Corporation | Mobile detector and mobile detection program and mobile detection method |
JP5146446B2 (en) * | 2007-03-22 | 2013-02-20 | 日本電気株式会社 | MOBILE BODY DETECTION DEVICE, MOBILE BODY DETECTING PROGRAM, AND MOBILE BODY DETECTING METHOD |
US8509480B2 (en) | 2007-03-22 | 2013-08-13 | Nec Corporation | Mobile detector, mobile detecting program, and mobile detecting method |
JP2009245042A (en) * | 2008-03-31 | 2009-10-22 | Hitachi Ltd | Traffic flow measurement device and program |
JP2009245045A (en) * | 2008-03-31 | 2009-10-22 | Hitachi Ltd | Traffic volume measuring device |
JP2011210030A (en) * | 2010-03-30 | 2011-10-20 | Panasonic Corp | Face recognition device and face recognition method |
US9621779B2 (en) | 2010-03-30 | 2017-04-11 | Panasonic Intellectual Property Management Co., Ltd. | Face recognition device and method that update feature amounts at different frequencies based on estimated distance |
JP2012021883A (en) * | 2010-07-14 | 2012-02-02 | Toshiba Corp | System, method and program for detecting distance between vehicles |
JP2012034069A (en) * | 2010-07-29 | 2012-02-16 | Nikon Corp | Image processor and image processing program |
JP2012042720A (en) * | 2010-08-19 | 2012-03-01 | Sony Corp | Device, method, and program for processing image |
JP2021103598A (en) * | 2016-03-31 | 2021-07-15 | 日本電気株式会社 | Image processor, method for processing information, and program |
WO2019092874A1 (en) * | 2017-11-13 | 2019-05-16 | 三菱電機株式会社 | Object recognition device and object recognition method |
JPWO2019092874A1 (en) * | 2017-11-13 | 2020-07-30 | 三菱電機株式会社 | Object recognition device and object recognition method |
CN111145580A (en) * | 2018-11-06 | 2020-05-12 | 松下知识产权经营株式会社 | Mobile body, management device and system, control method, and computer-readable medium |
JP2019126091A (en) * | 2019-04-04 | 2019-07-25 | キヤノン株式会社 | Subject tracking device and control method thereof, image processing apparatus and control method thereof, imaging device and control method thereof, and program |
JPWO2021177236A1 (en) * | 2020-03-05 | 2021-09-10 | ||
WO2021177236A1 (en) * | 2020-03-05 | 2021-09-10 | ファナック株式会社 | Three-dimensional measuring device, and three-dimensional measuring method |
US12326329B2 (en) | 2020-03-05 | 2025-06-10 | Fanuc Corporation | Three-dimensional measuring device, and three- dimensional measuringmethod |
JP2021173632A (en) * | 2020-04-24 | 2021-11-01 | 株式会社島津製作所 | Strain distribution measuring device and strain distribution measuring method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH11252587A (en) | Object tracking device | |
US7612800B2 (en) | Image processing apparatus and method | |
CN100452093C (en) | Device for detecting road traveling lane | |
JP3367170B2 (en) | Obstacle detection device | |
EP0747870B1 (en) | An object observing method and device with two or more cameras | |
US7046822B1 (en) | Method of detecting objects within a wide range of a road vehicle | |
US8406472B2 (en) | Method and system for processing image data | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
US6205242B1 (en) | Image monitor apparatus and a method | |
US20100322476A1 (en) | Vision based real time traffic monitoring | |
JP2000357233A (en) | Object recognition device | |
JP2003067752A (en) | Vehicle periphery monitoring device | |
JP3727400B2 (en) | Crossing detection device | |
JPH06107096A (en) | Forward monitoring method for vehicles | |
JP2005329779A (en) | Method and device for recognizing obstacle | |
JP7675339B2 (en) | Object Tracking Device | |
JP3879874B2 (en) | Logistics measuring device | |
Kanhere et al. | Real-time detection and tracking of vehicle base fronts for measuring traffic counts and speeds on highways | |
JP3629935B2 (en) | Speed measurement method for moving body and speed measurement device using the method | |
JP3254464B2 (en) | Vehicle recognition device and moving object recognition method | |
JP2002008019A (en) | Track recognition device and railway vehicle using the track recognition device | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JPH0991439A (en) | Object monitoring device | |
JP2002002485A (en) | Track recognition device and railway vehicle using the track recognition device | |
JP2001108434A (en) | Distance measuring method and distance measuring device |