[go: up one dir, main page]

JP2010256040A - Vehicle detection device - Google Patents

Vehicle detection device Download PDF

Info

Publication number
JP2010256040A
JP2010256040A JP2009103111A JP2009103111A JP2010256040A JP 2010256040 A JP2010256040 A JP 2010256040A JP 2009103111 A JP2009103111 A JP 2009103111A JP 2009103111 A JP2009103111 A JP 2009103111A JP 2010256040 A JP2010256040 A JP 2010256040A
Authority
JP
Japan
Prior art keywords
vehicle
spt
feature
point
ecu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009103111A
Other languages
Japanese (ja)
Inventor
Terumoto Komori
照元 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009103111A priority Critical patent/JP2010256040A/en
Publication of JP2010256040A publication Critical patent/JP2010256040A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、画像から車両の情報を高精度に検出する車両検出装置を提供することを課題とする。
【解決手段】撮像手段4で撮像した画像から車両の情報を検出する車両検出装置1であって、車両の面の候補を推定する面候補推定手段11と、車両を撮像した画像から所定の特徴量を有する複数の特徴点を抽出する特徴点抽出手段12と、抽出した特徴点の3次元位置を推定する3次元位置推定手段13と、異なる時刻で撮像した各画像からそれぞれ推定された面候補の組み合わせ毎に、面候補間で複数の特徴点について特徴量の差が小さくなる特徴点の対応関係を探索し、当該探索された対応関係の複数の特徴点間において3次元位置を並進移動及び回転変換した上で位置誤差を求め、当該位置誤差が最少となる組み合わせの面候補を抽出し、当該抽出した組み合わせの面候補に基づいて車両の面を検出する車両情報検出手段14とを備えることを特徴とする。
【選択図】図1
An object of the present invention is to provide a vehicle detection device that detects vehicle information from an image with high accuracy.
A vehicle detection apparatus 1 for detecting vehicle information from an image captured by an imaging unit 4, a surface candidate estimation unit 11 for estimating a vehicle surface candidate, and a predetermined feature from the image of the vehicle. Feature point extracting means 12 for extracting a plurality of feature points having a quantity, three-dimensional position estimating means 13 for estimating the three-dimensional position of the extracted feature points, and surface candidates estimated from images taken at different times, respectively. For each of the combinations, a search is made for a feature point correspondence between the feature points that reduces the difference in feature quantity, and a three-dimensional position is translated between the feature points of the searched correspondence. Vehicle information detection means 14 is provided for obtaining a position error after rotational conversion, extracting a candidate surface of the combination that minimizes the position error, and detecting a surface of the vehicle based on the extracted candidate surface of the combination. And wherein the Rukoto.
[Selection] Figure 1

Description

本発明は、車両検出装置に関する。   The present invention relates to a vehicle detection device.

近年、衝突防止装置、車間制御装置などの運転支援装置が開発されている。これら運転支援装置では、自車両の前方を走行する車両を検出することが重要となる。このような検出装置には、自車両に搭載したカメラで撮像した画像に基づいて車両の情報を検出するものがある。特許文献1に記載の装置では、画像から縦エッジを検出し、縦エッジの数に基づいて車両の側面と後面を判別する。   In recent years, driving support devices such as collision prevention devices and inter-vehicle control devices have been developed. In these driving assistance devices, it is important to detect a vehicle traveling in front of the host vehicle. Some of such detection devices detect vehicle information based on an image captured by a camera mounted on the host vehicle. In the apparatus described in Patent Document 1, a vertical edge is detected from an image, and a side surface and a rear surface of the vehicle are determined based on the number of vertical edges.

特開2005−50089号公報Japanese Patent Laying-Open No. 2005-50089

隣接車線から自車線に車両が車線変更しているときなど、自車両に対して検出対象の車両が斜め方向を向いている場合、その車両の側方と後面が同時にカメラで撮像される。この場合、上記の装置では、側面と後面とを判別することしかできないので、2面が撮像されている画像に対して対応できず、車両の情報(2面の境界を示す車両端点、2面を含む車両の面など)を検出できない。   When the vehicle to be detected is directed obliquely with respect to the own vehicle, such as when the vehicle is changing from the adjacent lane to the own lane, the side and rear surfaces of the vehicle are simultaneously imaged by the camera. In this case, since only the side surface and the rear surface can be discriminated in the above-described apparatus, it is not possible to cope with an image in which two surfaces are captured, and vehicle information (vehicle end point indicating the boundary between the two surfaces, two surfaces) Cannot be detected).

そこで、本発明は、画像から車両の情報を高精度に検出する車両検出装置を提供することを課題とする。   Accordingly, an object of the present invention is to provide a vehicle detection device that detects vehicle information from an image with high accuracy.

本発明に係る車両検出装置は、撮像手段で撮像した画像から車両の情報を検出する車両検出装置であって、車両の面の候補を推定する面候補推定手段と、撮像手段で車両を撮像した画像から所定の特徴量を有する複数の特徴点を抽出する特徴点抽出手段と、特徴点抽出手段で抽出した特徴点の3次元位置を推定する3次元位置推定手段と、撮像手段で異なる時刻で撮像した各画像からそれぞれ推定された面候補の組み合わせ毎に、面候補間で複数の特徴点について特徴量の差が小さくなる特徴点の対応関係を探索し、当該探索された対応関係の複数の特徴点間において3次元位置を並進移動及び回転変換した上で位置誤差を求め、当該位置誤差が最少となる組み合わせの面候補を抽出し、当該抽出した組み合わせの面候補に基づいて車両の面を検出する車両情報検出手段とを備えることを特徴とする。   A vehicle detection apparatus according to the present invention is a vehicle detection apparatus that detects vehicle information from an image captured by an imaging unit, and that captures a vehicle using a surface candidate estimation unit that estimates a candidate for a surface of the vehicle, and an imaging unit. Feature point extraction means for extracting a plurality of feature points having a predetermined feature amount from an image, three-dimensional position estimation means for estimating the three-dimensional position of the feature points extracted by the feature point extraction means, and imaging means at different times For each combination of surface candidates estimated from each captured image, a search is made for a correspondence relationship between feature points that reduces the difference in feature amount between a plurality of feature points, and a plurality of the corresponding correspondence relationships searched for. A position error is obtained after translational and rotational conversion of a three-dimensional position between feature points, a combination surface candidate that minimizes the position error is extracted, and a vehicle surface is determined based on the extracted combination surface candidate. Characterized in that it comprises a vehicle information detecting means for detecting.

この車両検出装置では、面候補推定手段により車両の面の候補を推定する。また、車両検出装置では、撮像手段で撮像する毎に、特徴点抽出手段により画像から所定の特徴量(例えば、エッジ、ウェーブレット、SIFT)を有する特徴点を複数抽出し、3次元位置推定手段によりその各特徴点の3次元位置をそれぞれ推定する。そして、車両検出装置では、車両情報検出手段により、異なる時刻で撮像した各画像からそれぞれ推定された面候補の組み合わせ毎に、異なる時刻での面候補間において面候補内の複数の特徴点について特徴量の差が小さくなる各特徴点の対応関係をそれぞれ探索し、その対応関係の複数の特徴点間において3次元位置を並進移動及び回転変換して位置誤差を求める。複数の特徴点の3次元位置の並進移動及び回転変換によって車両の挙動の変化を考慮しているので、面候補のうち車両の面を正しく推定している面候補の場合には異なる時刻での面候補間での対応する複数の特徴点の位置誤差は小さくなる。そこで、車両検出装置では、車両情報検出手段により、各組み合わせの面候補間の位置誤差を比較し、位置誤差が最少となる組み合わせの面候補を抽出し、その位置誤差が最少となる組み合わせの面候補に基づいて車両の面を検出する。このように、車両検出装置では、異なる時刻での面候補間の複数の特徴点の位置誤差を利用することにより、車両の情報(車両の面)を高精度に検出することができる。   In this vehicle detection apparatus, a candidate for a surface of the vehicle is estimated by a surface candidate estimation unit. In the vehicle detection device, each time an image is picked up by the image pickup means, a plurality of feature points having a predetermined feature amount (for example, edge, wavelet, SIFT) are extracted from the image by the feature point extraction means, and the three-dimensional position estimation means is used. The three-dimensional position of each feature point is estimated. In the vehicle detection device, the vehicle information detection unit is characterized by a plurality of feature points in the surface candidates between the surface candidates at different times for each combination of surface candidates estimated from the images captured at different times. Corresponding relationships between feature points with a small amount difference are searched, and a position error is obtained by translating and rotating a three-dimensional position between a plurality of feature points of the corresponding relationship. Since changes in the behavior of the vehicle are taken into account by translation and rotation transformation of the three-dimensional positions of a plurality of feature points, in the case of a surface candidate that correctly estimates the surface of the vehicle among the surface candidates, at different times The position errors of the corresponding feature points between the surface candidates are reduced. Therefore, in the vehicle detection device, the vehicle information detection means compares the position error between the surface candidates of each combination, extracts the surface candidate of the combination that minimizes the position error, and the surface of the combination that minimizes the position error. A vehicle surface is detected based on the candidates. Thus, in the vehicle detection device, vehicle information (vehicle surface) can be detected with high accuracy by using position errors of a plurality of feature points between surface candidates at different times.

なお、車両の面(面の候補)は、画像に写っている車両全体の面であり、車両の一面(前面、後面、側面)だけの場合もあれば、車両の複数の面(例えば、前面+側面、後面+側面)を含む場合もある。3次元位置の並進移動及び回転変換は、3次元位置を並進移動変換及び回転変換させる場合以外にも、並進移動変換だけをさせる場合、回転変換だけをさせる場合も含むものとする。   The surface of the vehicle (surface candidate) is a surface of the entire vehicle shown in the image, and may be only one surface (front surface, rear surface, side surface) of the vehicle, or may be a plurality of surfaces of the vehicle (for example, the front surface). + Side surface, rear surface + side surface). The translation and rotation conversion of the three-dimensional position includes not only the case of converting the three-dimensional position and the rotation conversion, but also the case of performing only the translation conversion and the case of performing only the rotation conversion.

本発明の上記車両検出装置では、車両情報検出手段は、検出した面に基づいて車両の端点を検出する構成としてもよい。   In the vehicle detection device of the present invention, the vehicle information detection means may be configured to detect an end point of the vehicle based on the detected surface.

検出した面が車両の2つの面を含んでいる場合、その検出した面内の2つの面の交差点から車両の端点(2つの面の境界位置)を抽出できる。したがって、この車両検出装置では、高精度に検出された面に基づいて、車両の端点を高精度に検出することができる。   When the detected surface includes two surfaces of the vehicle, the end point of the vehicle (boundary position of the two surfaces) can be extracted from the intersection of the two surfaces in the detected surface. Therefore, in this vehicle detection device, the end point of the vehicle can be detected with high accuracy based on the surface detected with high accuracy.

本発明の上記車両検出装置では、車両情報検出手段は、抽出した組み合わせの面候補間において対応する特徴点間の3次元位置の位置誤差が閾値以内の特徴点が存在する領域に基づいて車両の面の幅を検出する構成としてもよい。   In the vehicle detection device of the present invention, the vehicle information detection means is configured to detect the vehicle based on a region where there is a feature point whose position error of the three-dimensional position between corresponding feature points is within a threshold value between the extracted combination surface candidates. It is good also as a structure which detects the width | variety of a surface.

抽出された組み合わせの各面候補(検出された車両の面)内の複数の特徴点の中には、車両以外の特徴点も含まれている場合がある。異なる時刻間の対応する特徴点が車両の特徴点の場合、異なる時刻間でも各特徴点の3次元位置は近い位置関係にある。しかし、異なる時刻間の対応する特徴点が車両以外の物体の特徴点の場合、異なる時刻間での各特徴点の3次元位置は遠い位置関係にある。したがって、抽出した組み合わせの面候補間において対応する特徴点の3次元位置の位置誤差が大きい場合には車両以外の物体の特徴点とみなすことができ、位置誤差が小さい場合には車両の特徴点とみなすことがでる。そこで、この車両検出装置では、抽出した組み合わせの面候補間(すなわち、異なる時刻間)において対応する特徴点の3次元位置の位置誤差が閾値以内の特徴点が存在する領域に基づいて、車両の面の幅を高精度に検出することができる。   Among the plurality of feature points in each surface candidate (the detected vehicle surface) of the extracted combination, there may be a case where feature points other than the vehicle are included. When the corresponding feature points between different times are vehicle feature points, the three-dimensional positions of the feature points are close to each other even between different times. However, when corresponding feature points between different times are feature points of an object other than a vehicle, the three-dimensional positions of the feature points between different times are in a distant positional relationship. Therefore, when the position error of the corresponding feature point between the extracted combination surface candidates is large, it can be regarded as a feature point of an object other than the vehicle, and when the position error is small, the feature point of the vehicle Can be considered. Therefore, in this vehicle detection device, based on the region where there is a feature point whose position error of the three-dimensional position of the corresponding feature point is within a threshold value between the extracted candidate surfaces of the combination (that is, between different times), The width of the surface can be detected with high accuracy.

本発明によれば、異なる時刻での面候補間の複数の特徴点の位置誤差を利用することにより、車両の情報(車両の面)を高精度に検出することができる。   According to the present invention, vehicle information (vehicle surface) can be detected with high accuracy by using position errors of a plurality of feature points between surface candidates at different times.

第1の実施の形態に係る車両検出装置の構成図である。1 is a configuration diagram of a vehicle detection device according to a first embodiment. レーザレーダによる反射点の一例である。It is an example of the reflective point by a laser radar. 反射点群の分割位置の一例である。It is an example of the division | segmentation position of a reflective point group. 形状モデルの一例であり、(a)がモデル1であり、(b)がモデル2である。It is an example of a shape model, (a) is model 1, and (b) is model 2. sobelフィルタであり、(a)が横エッジ検出用であり、(b)が縦エッジ検出用である。A sobel filter, (a) is for detecting a horizontal edge, and (b) is for detecting a vertical edge. カメラによる画像に対するエッジ画像の一例である。It is an example of the edge image with respect to the image by a camera. 特徴点の画像上位置と3次元位置との関係を示す図であり、(a)が車両を斜視した場合であり、(b)が上面視した場合である。It is a figure which shows the relationship between the position on the image of a feature point, and a three-dimensional position, (a) is a case where a vehicle is perspectively viewed, (b) is a case where it is a top view. 特徴点の時刻間対応付けの説明図であり、(a)が時刻間の比較例であり、(b)が位置誤差が大きい比較例1であり、(c)が位置誤差が小さい比較例2である。It is explanatory drawing of the time point correlation of a feature point, (a) is a comparative example between time, (b) is the comparative example 1 with a large positional error, (c) is the comparative example 2 with a small positional error. It is. 車両位置・面候補推定部におけるメイン処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the main process in a vehicle position and surface candidate estimation part. 車両位置・面候補推定部におけるメイン処理の中のグルーピング処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the grouping process in the main process in a vehicle position and surface candidate estimation part. 車両位置・面候補推定部におけるメイン処理の中の形状モデル推定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the shape model estimation process in the main process in a vehicle position and surface candidate estimation part. 車両位置・面候補推定部におけるメイン処理の中の画像上範囲推定処理(前面・後面)の流れを示すフローチャートである。It is a flowchart which shows the flow of the on-image range estimation process (front surface / rear surface) in the main process in a vehicle position and surface candidate estimation part. 車両位置・面候補推定部におけるメイン処理の中の画像上範囲推定処理(側面)の流れを示すフローチャートである。It is a flowchart which shows the flow of the on-image range estimation process (side surface) in the main process in a vehicle position and surface candidate estimation part. 特徴点3次元位置候補推定部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in a feature point three-dimensional position candidate estimation part. 車両端点抽出部における処理の流れを示すフローチャート(前半部)である。It is a flowchart (first half part) which shows the flow of the process in a vehicle end point extraction part. 車両端点抽出部における処理の流れを示すフローチャート(後半部)である。It is a flowchart (latter half part) which shows the flow of the process in a vehicle end point extraction part. 第2の実施の形態に係る車両検出装置の構成図である。It is a block diagram of the vehicle detection apparatus which concerns on 2nd Embodiment. 2時刻間での特徴点の位置誤差の一例であり、(a)が前時刻t1での特徴点の画像上位置と3次元位置との関係を示す図であり、(b)が現時刻t2での特徴点の画像上位置と3次元位置との関係を示す図であり、(c)が前時刻t1と現時刻t2間における特徴点の3次元位置の位置誤差を示す図である。It is an example of the position error of the feature point between 2 time, (a) is a figure which shows the relationship between the image position of the feature point at the previous time t1, and a three-dimensional position, (b) is the present time t2. It is a figure which shows the relationship between the position on the image of the feature point in FIG., And a three-dimensional position, (c) is a figure which shows the position error of the three-dimensional position of the feature point between the previous time t1 and the present time t2. 車両幅推定部における処理の説明図である。It is explanatory drawing of the process in a vehicle width estimation part. 車両幅推定部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in a vehicle width estimation part.

以下、図面を参照して、本発明に係る車両検出装置の実施の形態を説明する。   Hereinafter, an embodiment of a vehicle detection device according to the present invention will be described with reference to the drawings.

本実施の形態では、本発明に係る車両検出装置を、車両に搭載される車両検出装置に適用する。本実施の形態に係る車両検出装置は、自車両の前方に存在する車両を検出し、検出した車両の情報を車間距離制御装置や衝突防止装置などの運転支援装置に提供する。本実施の形態には、2つの形態があり、第1の実施の形態が車両情報として車両の端部(車両の面)を検出する形態であり、第2の実施の形態が車両情報として車両の端部の他に車両の幅も検出する形態である。   In the present embodiment, the vehicle detection device according to the present invention is applied to a vehicle detection device mounted on a vehicle. The vehicle detection device according to the present embodiment detects a vehicle existing in front of the host vehicle, and provides the detected vehicle information to a driving support device such as an inter-vehicle distance control device or a collision prevention device. In this embodiment, there are two forms. The first embodiment is a form in which an end portion (vehicle surface) of the vehicle is detected as vehicle information, and the second embodiment is a vehicle in which vehicle information is used. It is a form which detects the width | variety of a vehicle other than the edge part of this.

図1〜図8を参照して、第1の実施の形態に係る車両検出装置1について説明する。図1は、第1の実施の形態に係る車両検出装置の構成図である。図2は、レーザレーダによる反射点の一例である。図3は、反射点群の分割位置の一例である。図4は、形状モデルの一例であり、(a)がモデル1であり、(b)がモデル2である。図5は、sobelフィルタであり、(a)が横エッジ検出用であり、(b)が縦エッジ検出用である。図6は、カメラによる画像に対するエッジ画像の一例である。図7は、特徴点の画像上位置と3次元位置との関係を示す図であり、(a)が車両を斜視した場合であり、(b)が上面視した場合である。図8は、特徴点の時刻間対応付けの説明図であり、(a)が時刻間の比較例であり、(b)が位置誤差が大きい比較例1であり、(c)が位置誤差が小さい比較例2である。   With reference to FIGS. 1-8, the vehicle detection apparatus 1 which concerns on 1st Embodiment is demonstrated. FIG. 1 is a configuration diagram of the vehicle detection device according to the first embodiment. FIG. 2 is an example of a reflection point by a laser radar. FIG. 3 is an example of the division position of the reflection point group. FIG. 4 shows an example of a shape model, where (a) is model 1 and (b) is model 2. FIG. 5 shows a sobel filter, in which (a) is for detecting a horizontal edge and (b) is for detecting a vertical edge. FIG. 6 is an example of an edge image with respect to an image by a camera. FIG. 7 is a diagram illustrating a relationship between the position of the feature point on the image and the three-dimensional position, in which (a) is a perspective view of the vehicle and (b) is a top view. FIG. 8 is an explanatory diagram of the time point correspondence of feature points, (a) is a comparative example between times, (b) is a comparative example 1 with a large positional error, and (c) is a positional error. It is a small comparative example 2.

車両検出装置1は、レーダセンサによるレーダ情報を用いて車両の各面が存在する画像上の範囲を推定し、カメラによる画像情報を用いてその推定した画像上の範囲内のエッジの情報に基づいて車両の端点(2つの面の境界位置)を検出する。特に、車両検出装置1は、連続する2時刻間の各画像からそれぞれ推定された面候補の組み合わせ毎に、面候補間で複数の特徴点について特徴量の差が小さくなる特徴点の対応関係を探索し、その対応関係の複数の特徴点間において3次元位置を並進移動及び回転変換した上で最少の位置誤差を求め、全ての組み合わせの面候補の中で位置誤差が最少となる組み合わせの面候補を抽出し、その抽出した組み合わせの面候補に基づいて車両の面を検出し、その面から車両の端点を抽出する。そのために、車両検出装置1は、レーザレーダ3、カメラ4、ECU[Electronic Control Unit]10を備えており、ECU10に車両位置・面候補推定部11、特徴点抽出部12、特徴点3次元位置候補推定部13、車両端点抽出部14が構成される。   The vehicle detection device 1 estimates a range on an image where each surface of the vehicle exists using radar information from a radar sensor, and based on edge information in the estimated range on the image using image information from a camera. The end point of the vehicle (the boundary position between the two surfaces) is detected. In particular, the vehicle detection device 1 provides a correspondence relationship between feature points that reduces the difference in feature amount between a plurality of feature points for each combination of surface candidates estimated from each image between two consecutive times. Search, find the minimum position error after translating and rotating the three-dimensional position between the multiple feature points of the correspondence, and the combination surface that minimizes the position error among all combination surface candidates Candidates are extracted, a surface of the vehicle is detected based on the extracted surface candidates for the combination, and an end point of the vehicle is extracted from the surface. For this purpose, the vehicle detection apparatus 1 includes a laser radar 3, a camera 4, and an ECU [Electronic Control Unit] 10. The ECU 10 includes a vehicle position / surface candidate estimation unit 11, a feature point extraction unit 12, a feature point three-dimensional position. A candidate estimation unit 13 and a vehicle end point extraction unit 14 are configured.

なお、第1の実施の形態では、車両位置・面候補推定部11が特許請求の範囲に記載する面候補推定手段に相当し、特徴点抽出部12が特許請求の範囲に記載する特徴点抽出手段に相当し、特徴点3次元位置候補推定部13が特許請求の範囲に記載する3次元位置推定手段に相当し、車両端点抽出部14が特許請求の範囲に記載する車両情報検出手段に相当する。   In the first embodiment, the vehicle position / surface candidate estimation unit 11 corresponds to the surface candidate estimation means described in the claims, and the feature point extraction unit 12 extracts the feature points described in the claims. The feature point 3D position candidate estimation unit 13 corresponds to the 3D position estimation unit described in the claims, and the vehicle end point extraction unit 14 corresponds to the vehicle information detection unit described in the claims. To do.

レーザレーダ3は、レーザ光を利用して物体を検出する走査型のレーダである。レーザレーダ3は、自車両の前端部の中央に取り付けられる。また、レーザレーダ3は、検出対象の車両を十分に検出可能な高さ位置かつ路面に対して略平行に取り付けられる。レーザレーダ3では、所定時間毎に、レーザ光を所定角度毎に水平方向にスキャンしながら自車両から前方に向けて出射し、反射してきたレーザ光を受光する。そして、レーザレーダ3では、所定時間毎に、受光できた各反射点(検出点)についてのデータ(水平方向の走査方位角、出射時刻、受光時刻、受光強度(反射強度)など)からなるレーダ信号をECU10に送信する。   The laser radar 3 is a scanning radar that detects an object using laser light. The laser radar 3 is attached to the center of the front end of the host vehicle. The laser radar 3 is mounted at a height that can sufficiently detect the vehicle to be detected and substantially parallel to the road surface. In the laser radar 3, the laser beam is emitted from the own vehicle forward while scanning in the horizontal direction at predetermined angles every predetermined time, and the reflected laser beam is received. In the laser radar 3, a radar composed of data (horizontal scanning azimuth angle, emission time, light reception time, light reception intensity (reflection intensity), etc.) about each reflection point (detection point) that can be received at predetermined time intervals. A signal is transmitted to ECU10.

カメラ4は、CCD[Charge Coupled Device]やレンズなどで構成され、自車両の前方を撮像するカメラである。カメラ4は、自車両の前方の中央の所定の位置に取り付けられ、自車両前方に延びる中心軸とカメラの光軸との向きが一致する方向に向けて配置される。カメラ4では、所定時間毎に(例えば、100m秒毎に)、自車両の前方を撮像し、その撮像画像のデータを画像信号としてECU10に送信する。なお、カメラ4は、対象物についての少なくとも光学点な濃淡情報を取得できればよいので、白黒のカメラでもよいし、カラーのカメラでもよい。   The camera 4 is composed of a CCD [Charge Coupled Device], a lens, and the like, and is a camera that images the front of the host vehicle. The camera 4 is attached to a predetermined position in the center of the front of the host vehicle, and is arranged in a direction in which the direction of the center axis extending in front of the host vehicle and the optical axis of the camera coincide. The camera 4 captures an image of the front of the host vehicle every predetermined time (for example, every 100 milliseconds), and transmits data of the captured image to the ECU 10 as an image signal. The camera 4 may be a black and white camera or a color camera, as long as it can acquire at least optical point density information about the object.

レーザレーダ3とカメラ4との取り付け位置関係は、事前に計測され、レーザレーダ3の座標系とカメラ4の座標系との間での座標変換を行うために必要な各種パラメータが取得されている。   The mounting position relationship between the laser radar 3 and the camera 4 is measured in advance, and various parameters necessary for coordinate conversion between the coordinate system of the laser radar 3 and the coordinate system of the camera 4 are acquired. .

ECU10は、CPU[CentralProcessing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などからなる電子制御ユニットであり、車両検出装置1を統括制御する。ECU10では、ROMに格納されているアプリケーションプログラムをRAM上にロードし、CPUで実行することによって車両位置・面候補推定部11、特徴点抽出部12、特徴点3次元位置候補推定部13、車両端点抽出部14を構成する。ECU10では、所定時間毎に、レーザレーダ3からレーダ信号、カメラ4から画像信号を受信する。そして、ECU10では、この各信号を用いて各部11,12,13,14の処理を行い、車両を検出できた場合にはその車両の情報を車両情報信号として運転支援装置に送信する。   The ECU 10 is an electronic control unit including a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like, and comprehensively controls the vehicle detection device 1. In the ECU 10, an application program stored in the ROM is loaded onto the RAM and executed by the CPU, whereby the vehicle position / surface candidate estimation unit 11, the feature point extraction unit 12, the feature point three-dimensional position candidate estimation unit 13, the vehicle The end point extraction unit 14 is configured. The ECU 10 receives a radar signal from the laser radar 3 and an image signal from the camera 4 at predetermined time intervals. Then, the ECU 10 performs processing of each of the units 11, 12, 13, and 14 using these signals, and when a vehicle can be detected, transmits the vehicle information as a vehicle information signal to the driving support device.

車両位置・面候補推定部11について説明する。車両位置・面候補推定部11では、レーザレーダ3で検出された多数の反射点に対して、グルーピングを行い、グループ毎にそのグループの反射点群に車両の形状モデルを当てはめ、車両の形状モデルが当てはまるグループがある場合にはその反射点群から車両の面の候補(画像上での範囲)を推定する。   The vehicle position / surface candidate estimation unit 11 will be described. The vehicle position / surface candidate estimation unit 11 performs grouping on a large number of reflection points detected by the laser radar 3, applies the vehicle shape model to the reflection point group of the group for each group, and forms the vehicle shape model. If there is a group to which is applied, a vehicle surface candidate (range on the image) is estimated from the reflection point group.

図2には、レーザレーダ3で検出された反射点pt1,pt2,・・・,pt19の一例を示している。車両の走行環境では、自車両の前方の車両とその周囲のガードレールなどの他の物体とはある程度以上距離が離れている。そのため、同一の物体で反射した反射点間は近いが、異なる物体で反射した反射点間は遠い。図2に示す例の場合、車両での反射点群pt12〜pt17では隣接する反射点間距離は小さくなり、その他の物体での反射点群pt1〜pt11、反射点群pt18〜pt19でも隣接する反射点間距離がそれぞれ小さくなるが、車両での反射点群pt12と隣接する反射点pt11間距離は大きくなり、車両での反射点群pt17と隣接する反射点pt18間距離は大きくなる。   FIG. 2 shows an example of the reflection points pt1, pt2,..., Pt19 detected by the laser radar 3. In the traveling environment of the vehicle, the vehicle ahead of the host vehicle and other objects such as guardrails around the vehicle are separated by a certain distance. Therefore, the reflection points reflected by the same object are close, but the reflection points reflected by different objects are far. In the case of the example shown in FIG. 2, the distance between adjacent reflection points is small in the reflection point groups pt12 to pt17 in the vehicle, and the reflections adjacent to each other in the reflection point groups pt1 to pt11 and the reflection point groups pt18 to pt19 in the other objects. Although the distance between the points decreases, the distance between the reflection point group pt12 and the adjacent reflection point pt11 in the vehicle increases, and the distance between the reflection point group pt17 and the adjacent reflection point pt18 increases in the vehicle.

グルーピング処理について具体的に説明する。車両位置・面候補推定部11では、レーザレーダ3で検出された反射点pt毎に、式(1)により、その反射点ptと隣接する反射点pt−1間の距離LNpt,pt−1を計算する。式(1)において、rpxは3次元のレーザレーダ座標系における反射点ptのx座標であり、rpyは3次元のレーザレーダ座標系における反射点ptのy座標であり、rpzは3次元のレーザレーダ座標系における反射点ptのz座標である。

Figure 2010256040
The grouping process will be specifically described. In the vehicle position / surface candidate estimation unit 11, for each reflection point pt detected by the laser radar 3, the distance LN pt, pt−1 between the reflection point pt and the adjacent reflection point pt−1 is calculated according to the equation (1). Calculate In equation (1), rpx is the x coordinate of the reflection point pt in the three-dimensional laser radar coordinate system, rpy is the y coordinate of the reflection point pt in the three-dimensional laser radar coordinate system, and rpz is the three-dimensional laser. This is the z coordinate of the reflection point pt in the radar coordinate system.
Figure 2010256040

そして、車両位置・面候補推定部11では、反射点間距離LNpt,pt−1が閾値THR_PTL未満か否かを判定する。閾値THR_PTLは、隣接する反射点間の距離に基づいてその隣接する2つの反射点が同一物体で反射した反射点であるか否かを判定するための閾値である。閾値THR_PTLとしては、例えば、車両と路側端の物体との分離の観点で、(車線幅−車両幅)/2とする。 Then, the vehicle position / surface candidate estimation unit 11 determines whether or not the distance LN pt, pt-1 between the reflection points is less than the threshold value THR_PTL. The threshold value THR_PTL is a threshold value for determining whether or not two adjacent reflection points are reflection points reflected by the same object based on the distance between the adjacent reflection points. The threshold value THR_PTL is, for example, (lane width−vehicle width) / 2 from the viewpoint of separation of the vehicle and the roadside object.

車両位置・面候補推定部11では、反射点間距離LNpt,pt−1が閾値THR_PTL未満の場合にはその2つの反射点pt,pt−1を同じグループに分類し、反射点間距離LNpt,pt−1が閾値THR_PTL以上の場合にはその2つの反射点pt,pt−1を異なるグループに分類する。車両位置・面候補推定部11では、この反射点間距離判定をレーザレーダ3で検出された全ての反射点に行い、全ての反射点をグループ分けする。 The vehicle position / surface candidate estimation unit 11 classifies the two reflection points pt and pt-1 into the same group when the distance LN pt, pt-1 between the reflection points is less than the threshold value THR_PTL, and the distance LN between the reflection points LN. When pt and pt-1 are equal to or greater than the threshold value THR_PTL, the two reflection points pt and pt-1 are classified into different groups. In the vehicle position / surface candidate estimation unit 11, this reflection point distance determination is performed on all reflection points detected by the laser radar 3, and all reflection points are grouped.

形状モデル推定処理について具体的に説明する。車両位置・面候補推定部11では、グルーピングされたグループgn毎に、グループgnに含まれる反射点群に対して、分割位置sptを順次設定する。そして、車両位置・面候補推定部11では、その分割位置sptを境界として、グループgnに含まれる反射点群を2つの反射点群RPT1={rptgn,1,・・・,rptgn,spt}、RPT2={rptgn,spt,・・・,rptgn,Ngn}に分割する。分割位置sptは、隣接する2つ反射点の間の中間位置又はグループでの両端の反射点の外側の位置に設定される。したがって、反射点の数がn個の場合、n+1個の分割位置が設定される。図3には、あるグループの反射点群rptgn,1,・・・,rptgn,6を示しており、分割位置sptとして隣接する反射点rptgn,3と反射点rptgn,4との間に設定され、2つの反射点群RPT1={rptgn,1,rptgn,2,rptgn,3}、RPT2={rptgn,4,rptgn,5,rptgn,6}に分割される。 The shape model estimation process will be specifically described. The vehicle position / surface candidate estimation unit 11 sequentially sets the division position spt for the group of reflected points included in the group gn for each grouped group gn. Then, in the vehicle position / surface candidate estimation unit 11, the reflection point group included in the group gn is divided into two reflection point groups RPT1 = {rpt gn, 1 ,..., Rpt gn, spt with the division position spt as a boundary. }, RPT2 = {rpt gn, spt ,..., Rpt gn, Ngn }. The division position spt is set to an intermediate position between two adjacent reflection points or a position outside the reflection points at both ends in the group. Therefore, when the number of reflection points is n, n + 1 division positions are set. FIG. 3 shows a group of reflection points rpt gn, 1 ,..., Rpt gn, 6 , and the reflection points rpt gn, 3 and rpt gn, 4 adjacent to each other as division positions spt. Is set in between and is divided into two reflection point groups RPT1 = {rpt gn, 1 , rpt gn, 2 , rpt gn, 3 }, RPT2 = {rpt gn, 4 , rpt gn, 5 , rpt gn, 6 } The

分割位置sptを設定する毎に、車両位置・面候補推定部11では、事前に用意されている車両の形状モデルmodel毎に、2つの反射点群RPT1={rptgn,1,・・・,rptgn,spt}、RPT2={rptgn,spt,・・・,rptgn,Ngn}と車両の形状モデルmodelとの一致度SMmodel,sptを計算する。一致度SMとしては、例えば、形状モデルと各反射点との誤差の総和として計算する。 Each time the division position spt is set, the vehicle position / surface candidate estimation unit 11 uses two reflection point groups RPT1 = {rpt gn, 1 ,..., For each vehicle shape model model prepared in advance. rpt gn, spt }, RPT2 = {rpt gn, spt ..., rpt gn, Ngn } and the degree of coincidence SM model, spt of the vehicle shape model model are calculated. The coincidence degree SM is calculated as, for example, the sum of errors between the shape model and each reflection point.

車両の形状モデルは、前面・後面用モデルと側面用モデルからなる車両の2面のモデル、前面、後面、側面の中の車両の1面のモデルがある。各面のモデルは、車両を水平面で切った場合の各面の外形状を示す線からなるモデルあり、例えば、前面・後面用モデルとして1次関数や2次関数で示される線であり、側面用モデルとしては1次関数で示される線である。図4には、車両の形状モデルの一例を示しており、(a)に示す形状モデルmodel1は直線状の側面用モデルsmと曲線状の前面・後面用モデルfmからなり、(b)に示す形状モデルmodel2は曲線状の前面・後面用モデルfmと直線状の側面用モデルsmからなる。ちなみに、分割位置sptが隣接する反射点間の間に設定されている場合には2面のモデルとの処理を行い、分割位置sptが反射点群の外側に設定されている場合には1面のモデルとの処理を行う。   The vehicle shape model includes a two-surface model of a vehicle including a front / rear model and a side model, and a one-surface model of the vehicle in the front, rear, and side surfaces. The model of each surface is a model composed of lines indicating the outer shape of each surface when the vehicle is cut in a horizontal plane, for example, a line represented by a linear function or a quadratic function as a front / rear model, The model for use is a line represented by a linear function. FIG. 4 shows an example of a vehicle shape model. The shape model model 1 shown in FIG. 4A is composed of a straight side model sm and a curved front / rear model fm, and is shown in FIG. The shape model model2 is composed of a curved front / rear model fm and a straight side model sm. Incidentally, when the division position spt is set between adjacent reflection points, a process with a two-surface model is performed, and when the division position spt is set outside the reflection point group, one surface is processed. Process with the model.

図4には、図3に示す分割位置sptで分割した2つの反射点群RPT1={rptgn,1,rptgn,2,rptgn,3}、RPT2={rptgn,4,rptgn,5,rptgn,6}を、図4(a)に示すmodel1を当てはめた場合と図4(b)に示すmodel2を当てはめた場合を示しており、図4(a)に示す形状モデルmodel1は当てはまっているが、図4(b)に示す形状モデルmodel2は当てはまっていない。 FIG. 4 shows two reflection point groups RPT1 = {rpt gn, 1 , rpt gn, 2 , rpt gn, 3 }, RPT2 = {rpt gn, 4 , rpt gn, divided at the division position spt shown in FIG. 5 , rpt gn, 6 } shows a case where model 1 shown in FIG. 4A is applied and a case where model 2 shown in FIG. 4B is applied. The shape model model 1 shown in FIG. Although applied, the shape model model2 shown in FIG. 4B is not applied.

一致度SMmodel,sptを計算する毎に、車両位置・面候補推定部11では、一致度SMmodel,sptが閾値THR_SM未満か否かを判定する。閾値THR_SMは、一致度に基づいてグループの反射点群が車両の形状モデルに当てはまるか否かを判定するための閾値である。 Each time the degree of coincidence SM model, spt is calculated, the vehicle position / surface candidate estimation unit 11 determines whether the degree of coincidence SM model, spt is less than the threshold value THR_SM. The threshold value THR_SM is a threshold value for determining whether the reflection point group of the group is applicable to the vehicle shape model based on the degree of coincidence.

車両位置・面候補推定部11では、一致度SMmodel,sptが閾値THR_SM未満の場合、2つの反射点群RPT1={rptgn,1,・・・,rptgn,spt}、RPT2={rptgn,spt,・・・,rptgn,Ngn}について両端の反射点間の長さ(横方向の長さ)をそれぞれ計算し、その2つの長さのうちの長い方を最長部の長さLWmodel,sptとする。そして、車両位置・面候補推定部11では、最長部の長さLWmodel,sptが所定範囲(THR_LW_LOW〜THR_LW_HIGH)内か否かを判定する。所定範囲(THR_LW_LOW〜THR_LW_HIGH)は、最長部の長さLWmodel,sptに基づいてその各グループの反射点群の横方向の長さが車両の面に対応する範囲内の長さか否か(つまり、車両でない物体を排除)を判定するための閾値である。 In the vehicle position / surface candidate estimation unit 11, when the degree of coincidence SM model, spt is less than the threshold value THR_SM, two reflection point groups RPT1 = {rpt gn, 1 ,..., Rpt gn, spt }, RPT2 = {rpt gn, spt ,..., rpt gn, Ngn }, the length between the reflection points at both ends (the length in the lateral direction) is calculated, and the longer of the two lengths is the length of the longest part. Let LW model, spt . Then, the vehicle position / surface candidate estimation unit 11 determines whether or not the length LW model, spt of the longest part is within a predetermined range (THR_LW_LOW to THR_LW_HIGH). The predetermined range (THR_LW_LOW to THR_LW_HIGH) is based on the length LW model, spt of the longest portion, and whether or not the horizontal length of the reflection point group of each group is within the range corresponding to the surface of the vehicle (that is, , (Excludes objects that are not vehicles).

車両位置・面候補推定部11では、最長部の長さLWmodel,sptが所定範囲(THR_LW_LOW〜THR_LW_HIGH)内の場合、形状一致度SMmodel,sptが、それまでに設定されている分割位置の最少誤差MIN_SMspt未満か否かを判定する。最少誤差MIN_SMsptは、最少の形状一致度SMmodel,sptを探索するためのパラメータであり、初期値としては∞が設定される。 In the vehicle position / plane candidate estimation unit 11, when the length LW model, spt of the longest part is within a predetermined range (THR_LW_LOW to THR_LW_HIGH), the shape matching degree SM model, spt is the segment position set so far. It is determined whether the minimum error is less than MIN_SM spt . The minimum error MIN_SM spt is a parameter for searching for the minimum shape matching degree SM model, spt , and ∞ is set as an initial value.

車両位置・面候補推定部11では、形状一致度SMmodel,sptが最少誤差MIN_SMspt未満の場合、最少誤差MIN_SMsptとして形状一致度SMmodel,sptを設定するとともに、そのときの車両の形状モデルのモデルパラメータMPmodel,sptを記憶する。モデルパラメータMPmodel,sptは、車両の形状モデルを示すパラメータである。例えば、モデルパラメータMPmodel,spt=(a1,a2,a3,a4,a5,a6)は、RANSAC[RANdom Sample Consensus]法を用いて計算する。ただし、正面x’=a1y’+a2y’+a3、側面y=a4x+a5、a6=cosφ、x’=cosφx−sinφy、y’=sinφx+cosφyである。 In the vehicle position and face candidate estimation unit 11, when the shape matching degree SM model, spt is less than minimum error MIN_SM spt, shape matching degree SM model as minimal error MIN_SM spt, it sets a spt, geometric model of the vehicle at that time Model parameters MP model, spt are stored. The model parameters MP model and spt are parameters indicating a vehicle shape model. For example, the model parameter MP model, spt = (a1, a2, a3, a4, a5, a6) is calculated using the RANSAC [RANdom Sample Consensus] method. However, the front surface x ′ = a1y ′ 2 + a2y ′ + a3, the side surface y = a4x + a5, a6 = cosφ, x ′ = cosφx−sinφy, and y ′ = sinφx + cosφy.

そして、車両位置・面候補推定部11では、各グループgnについて用意されている全ての形状モデルmodelに対して上記の処理を行い、最終的にモデルパラメータMPmodel,sptが記憶されている場合(つまり、そのグループgnの反射点群に対して、一致度SMmodel,sptが閾値THR_SM未満かつ最長部の長さLWmodel,sptが所定範囲(THR_LW_LOW〜THR_LW_HIGH)内かつ一致度SMmodel,sptが最少となる形状モデルがある場合)、そのグループgnの反射点群の分割位置sptにおいて車両の形状モデルが1つ当てはまったと判断し、そのモデルパラメータMPmodel,sptで示される形状モデルをグループgnの反射点群における分割位置sptに対する車両の形状モデルとして確定する。このように形状モデルに当てはまるグループgn(反射点群)がある場合、車両を検出したことになる。 Then, the vehicle position / surface candidate estimation unit 11 performs the above process on all the shape models model prepared for each group gn, and finally stores the model parameters MP model, spt ( That is, the matching point SM model, spt is less than the threshold value THR_SM, the longest length LW model, spt is within a predetermined range (THR_LW_LOW to THR_LW_HIGH), and the matching degree SM model, spt is When there is a minimum shape model), it is determined that one vehicle shape model has been applied at the division point spt of the reflection point group of the group gn, and the shape model indicated by the model parameter MP model, spt is determined as the group gn Paired with the split position spt in the reflection point group To establish as a vehicle of the shape model that. Thus, when there is a group gn (reflection point group) that applies to the shape model, the vehicle is detected.

車両位置・面候補推定部11では、モデルパラメータMPmodel,sptにデータが記憶された場合(そのグループgnの反射点群の分割位置sptにおいて当てはまる車両の形状モデルがある場合)、式(2)により、モデルパラメータMPmodel,sptに記憶されたデータを用いて、車両の方位φspt(分割位置sptでの車両の方位の候補に相当)を計算する。

Figure 2010256040
In the vehicle position / surface candidate estimation unit 11, when data is stored in the model parameters MP model, spt (when there is a vehicle shape model that applies at the division position spt of the reflection point group of the group gn), the equation (2) Thus, using the data stored in the model parameters MP model, spt , the vehicle orientation φ spt (corresponding to a vehicle orientation candidate at the divided position spt) is calculated.
Figure 2010256040

画像上範囲推定処理について具体的に説明する。画像上の車両の形状モデルが当てはまったグループgnがある場合、そのグループgnの反射点群を用いて画像上の車両が存在する範囲を推定するが、車両の前面・後面の画像上の範囲と側面の画像上の範囲に分けて推定を行う。このように、前面・後面と側面とに分けて画像上範囲を推定するのは、特徴点3次元位置候補推定部13において各特徴点の3次元位置を推定する際に平面フィッティングを行うので、その平面フィッティングでの精度を向上させるためである。   The on-image range estimation process will be specifically described. When there is a group gn to which the shape model of the vehicle on the image is applied, the range of the vehicle on the image is estimated using the reflection point group of the group gn. The estimation is performed by dividing the range into the side image. Thus, the reason for estimating the range on the image separately for the front surface / rear surface and the side surface is to perform plane fitting when estimating the three-dimensional position of each feature point in the feature point three-dimensional position candidate estimation unit 13. This is to improve the accuracy in the plane fitting.

まず、前面・後面の範囲推定について説明する。車両位置・面候補推定部11では、そのグループgn内の前面・後面に属する反射点rpgn,fr,i毎に、式(3)により、その反射点rpgn,fr,i=3次元位置(xgn,fr,i,ygn,fr,i,zgn,fr,i,1)から画像上の位置Pimggn,fr,i=2次元位置(ugn,fr,i,vgn,fr,i,1)を計算する。式(3)にけるPは、レーザレーダ座標系から画像座標系へ変換するための3行4列の変換行列であり、カメラ4の焦点距離などの内部パラメータ、レーザレーダ3とカメラ4との相対位置や向きなどから求められる。また、式(3)におけるsは、3次元座標系から2次元座標系に投影する際に奥行き方向がなくなることを考慮した奥行きパラメータである。

Figure 2010256040
First, front and rear range estimation will be described. In the vehicle position / surface candidate estimation unit 11, for each reflection point rp gn, fr, i belonging to the front surface / rear surface in the group gn, the reflection point rp gn, fr, i = three-dimensional position according to the equation (3). (X gn, fr, i , y gn, fr, i , z gn, fr, i , 1) The position Pimg gn, fr, i on the image from T = two-dimensional position (u gn, fr, i , v gn , Fr, i 1) T is calculated. P in Equation (3) is a 3 × 4 conversion matrix for converting from the laser radar coordinate system to the image coordinate system. Internal parameters such as the focal length of the camera 4, and the relationship between the laser radar 3 and the camera 4 It is calculated from the relative position and orientation. Further, s in Expression (3) is a depth parameter considering that there is no depth direction when projecting from a three-dimensional coordinate system to a two-dimensional coordinate system.
Figure 2010256040

位置Pimggn,fr,iを計算する毎に、車両位置・面候補推定部11では、横位置ugn,fr,iが前面・後面用の左端点位置FRLPtgnより小さいか否かを判定する。車両位置・面候補推定部11では、横位置ugn,fr,iが左端点位置FRLPtgnより小さいと判定した場合、横位置ugn,fr,iを左端点位置FRLPtgnとして設定する。また、車両位置・面候補推定部11では、横位置ugn,fr,iが前面・後面用の右端点位置FRRPtgnより大きいか否かを判定する。車両位置・面候補推定部11では、横位置ugn,fr,iが右端点位置FRRPtgnより大きいと判定した場合、横位置ugn,fr,iを右端点位置FRRPtgnとして設定する。左端点位置FRLPtgnは、車両の形状モデルが当てはまったグループgnの前面・後面に属する反射点群の画像上の左端点を探索するためのパラメータであり、初期値として画像の横幅IMG_WIDTHが設定される。右端点位置FRRPtgnは、車両の形状モデルが当てはまったグループgnの前面・後面に属する反射点群の画像上の右端点を探索するためのパラメータであり、初期値として0が設定される。ちなみに、画像座標系では、画像上の左端の横方向位置uが0であり、右方ほど横方向位置uが大きくなる。また、画像座標系では、画像上の上端の縦方向位置vが0であり、下方ほど縦方向位置vが大きくなる。 Each time the position Pimg gn, fr, i is calculated, the vehicle position / plane candidate estimation unit 11 determines whether the lateral position u gn, fr, i is smaller than the left end point position FRLPt gn for the front and rear surfaces. . When the vehicle position / plane candidate estimation unit 11 determines that the lateral position u gn, fr, i is smaller than the left end point position FRLPt gn , the lateral position u gn, fr, i is set as the left end point position FRLPt gn . Further, the vehicle position / surface candidate estimation unit 11 determines whether or not the lateral position ugn , fr, i is larger than the front end / rear surface right end point position FRRPt gn . When the vehicle position / plane candidate estimation unit 11 determines that the lateral position u gn, fr, i is greater than the right end point position FRRPt gn , the lateral position u gn, fr, i is set as the right end point position FRRPt gn . The left end point position FRLPt gn is a parameter for searching the left end point on the image of the reflection point group belonging to the front and rear surfaces of the group gn to which the vehicle shape model is applied, and the horizontal width IMG_WIDTH of the image is set as an initial value. The The right end point position FRRPt gn is a parameter for searching the right end point on the image of the reflection point group belonging to the front surface / rear surface of the group gn to which the vehicle shape model is applied, and 0 is set as an initial value. Incidentally, in the image coordinate system, the horizontal position u at the left end on the image is 0, and the horizontal position u increases toward the right. In the image coordinate system, the vertical position v at the upper end of the image is 0, and the vertical position v increases as it goes downward.

車両位置・面候補推定部11では、車両の形状モデルが当てはまったグループgn内の前面・後面に属する全ての反射点に対して上記の処理を行う。最終的に設定されている左端点位置FRLPtgnがグループgnの画像上の車両の前面・後面の左端点に相当し、右端点位置FRRPtgnがグループgnの画像上の車両の前面・後面の右端点に相当する。 The vehicle position / surface candidate estimation unit 11 performs the above processing on all the reflection points belonging to the front surface / rear surface in the group gn to which the vehicle shape model is applied. The final left end point position FRLPt gn corresponds to the left end point of the front and rear surfaces of the vehicle on the group gn image, and the right end point position FRRPt gn corresponds to the right end of the front and rear surfaces of the vehicle on the group gn image. It corresponds to a point.

次に、車両位置・面候補推定部11では、そのグループgn内の前面・後面に属する全ての反射点rpgn,fr,iの3次元位置を用いて、その平均位置rpmeangn,fr=(xmgn,fr,ymgn,fr,zmgn,fr,1)を計算する。そして、車両位置・面候補推定部11では、その平均位置rpmeangn,frを用いて、式(4)により、グループgnの画像上の車両の前面・後面用の下端点FRVlowgnを計算する。また、車両位置・面候補推定部11では、その平均位置rpmeangn,frを用いて、式(5)により、グループgnの画像上の車両の前面・後面用の上端点FRVhighgnを計算する。式(4)、式(5)におけるHvfrは車両のボンネットの高さ(例えば、0.8m)に相当する画像上の量である。式(4)、式(5)におけるpijは上記した3行4列の変換行列Pのi行j列目の要素である。

Figure 2010256040
Next, the vehicle position / surface candidate estimation unit 11 uses the three-dimensional positions of all the reflection points rp gn, fr, i belonging to the front surface / rear surface in the group gn, and calculates the average position rpmean gn, fr = ( xm gn, fr , ym gn, fr , zm gn, fr , 1) T is calculated. Then, the vehicle position / surface candidate estimation unit 11 uses the average position rpmean gn, fr to calculate the vehicle front / rear lower end point FRVlow gn on the image of the group gn according to the equation (4). Further, the vehicle position / surface candidate estimation unit 11 uses the average position rpmean gn, fr to calculate the vehicle front / rear upper end points FRVhigh gn on the group gn image according to the equation (5). Hv fr in the expressions (4) and (5) is an amount on the image corresponding to the height of the hood of the vehicle (for example, 0.8 m). In the equations (4) and (5), p ij is an element in the i-th row and j-th column of the above-mentioned 3-by-4 conversion matrix P.
Figure 2010256040

そして、車両位置・面候補推定部11では、左端点位置FRLPtgn(=上記の処理で最終的に設定されたFRLPtgn−dw)〜右端点位置FRRPtgn(=上記の処理で最終的に設定されたFRRPtgn+dw)を、グループgnの前面・後面に属する反射点群の画像上の横方向の範囲として記憶する。また、車両位置・面候補推定部11では、上記の処理で計算された下端点位置FRVlowgn〜上端点位置FRVhighgnを、グループgnの前面・後面に属する反射点群の画像上の縦方向の範囲として記憶する。なお、dwは、レーザレーダ3の誤差や点列が反射しなかったケースに対応するためのパラメータであり、レーザレーダ3の横分解能程度の量が設定される。 The vehicle position / surface candidate estimation unit 11 then sets the left end point position FRLPt gn (= FRLPt gn −dw finally set by the above processing) to the right end point position FRRPt gn (= finally set by the above processing). FRRPt gn + dw) is stored as a horizontal range on the image of the reflection point group belonging to the front surface / rear surface of the group gn. Further, the vehicle position and face candidate estimation unit 11, the calculated lower end point position FRVlow gn ~ upper end point position FRVhigh gn in the above process, the reflection points belonging to the front and rear surfaces of the group gn image on longitudinal Store as a range. Note that dw is a parameter for dealing with a case where an error of the laser radar 3 or a point sequence is not reflected, and an amount about the lateral resolution of the laser radar 3 is set.

次に、側面の範囲推定について説明する。車両位置・面候補推定部11では、そのグループgn内の側面に属する反射点rpgn,sd,i毎に、式(6)により、その反射点rpgn,sd,i=3次元位置(xgn,sd,i,ygn,sd,i,zgn,sd,i,1)から画像上の位置Pimggn,sd,i=2次元位置(ugn,sd,i,vgn,sd,i,1)を計算する。式(6)にけるPは、式(3)のPと同じ行列である。また、式(6)におけるsは、式(3)のsと同じパラメータである。

Figure 2010256040
Next, side surface range estimation will be described. In the vehicle position / surface candidate estimation unit 11, for each reflection point rp gn, sd, i belonging to the side surface in the group gn, the reflection point rp gn, sd, i = three-dimensional position (x gn, sd, i , y gn, sd, i , z gn, sd, i , 1) The position Pimg gn, sd, i on the image from T = two-dimensional position (ugn , sd, i , v gn, sd , I 1) T is calculated. P in Equation (6) is the same matrix as P in Equation (3). Further, s in equation (6) is the same parameter as s in equation (3).
Figure 2010256040

位置Pimggn,sd,iを計算する毎に、車両位置・面候補推定部11では、横位置ugn,sd,iが側面用の左端点位置SDLPtgnより小さいか否かを判定する。車両位置・面候補推定部11では、横位置ugn,sd,iが左端点位置SDLPtgnより小さいと判定した場合、横位置ugn,sd,iを左端点位置SDLPtgnとして設定する。また、車両位置・面候補推定部11では、横位置ugn,sd,iが側面用の右端点位置SDRPtgnより大きいか否かを判定する。車両位置・面候補推定部11では、横位置ugn,sd,iが右端点位置SDRPtgnより大きいと判定した場合、横位置ugn,sd,iを右端点位置SDRPtgnとして設定する。左端点位置SDLPtgnは、車両の形状モデルが当てはまったグループgnの側面に属する反射点群の画像上の左端点を探索するためのパラメータであり、初期値として画像の横幅IMG_WIDTHが設定される。右端点位置SDRPtgnは、車両の形状モデルが当てはまったグループgnの側面に属する反射点群の画像上の右端点を探索するためのパラメータであり、初期値として0が設定される。 Each time the position Pimg gn, sd, i is calculated, the vehicle position / surface candidate estimation unit 11 determines whether or not the lateral position u gn, sd, i is smaller than the left end point position SDLPt gn for the side surface. If the vehicle position / plane candidate estimation unit 11 determines that the lateral position u gn, sd, i is smaller than the left end point position SDLPt gn , the lateral position u gn, sd, i is set as the left end point position SDLPt gn . Further, the vehicle position / surface candidate estimation unit 11 determines whether or not the lateral position u gn, sd, i is larger than the right end point position SDRPt gn for the side surface. If the vehicle position / plane candidate estimation unit 11 determines that the lateral position u gn, sd, i is larger than the right end point position SDRPt gn , the lateral position u gn, sd, i is set as the right end point position SDRPt gn . The left end point position SDLPt gn is a parameter for searching the left end point on the image of the reflection point group belonging to the side surface of the group gn to which the vehicle shape model is applied, and the horizontal width IMG_WIDTH of the image is set as an initial value. The right end point position SDRPt gn is a parameter for searching the right end point on the image of the reflection point group belonging to the side surface of the group gn to which the vehicle shape model is applied, and 0 is set as an initial value.

車両位置・面候補推定部11では、車両の形状モデルが当てはまったグループgn内の側面に属する全ての反射点に対して上記の処理を行う。最終的に設定されている左端点位置SDLPtgnがグループgnの画像上の車両の側面の左端点に相当し、右端点位置SDRPtgnがグループgnの画像上の車両の側面の右端点に相当する。 The vehicle position / surface candidate estimation unit 11 performs the above processing on all reflection points belonging to the side surface in the group gn to which the vehicle shape model is applied. The finally set left end point position SDLPt gn corresponds to the left end point of the side surface of the vehicle on the group gn image, and the right end point position SDRPt gn corresponds to the right end point of the side surface of the vehicle on the group gn image. .

次に、車両位置・面候補推定部11では、そのグループgn内の側面に属する全ての反射点rpgn,sd,iの3次元位置を用いて、その平均位置rpmeangn,sd=(xmgn,sd,ymgn,sd,zmgn,sd,1)を計算する。そして、車両位置・面候補推定部11では、その平均位置rpmeangn,sdを用いて、式(7)により、グループgnの画像上の車両の側面用の下端点SDVlowgnを計算する。また、車両位置・面候補推定部11では、その平均位置rpmeangn,sdを用いて、式(8)により、グループgnの画像上の車両の側面用の上端点SDVhighgnを計算する。式(7)、式(8)におけるHvsdは車両の高さ(例えば、2.0m)に相当する画像上の量である。式(7)、式(8)におけるpijは上記した3行4列の変換行列Pのi行j列目の要素である。

Figure 2010256040
Next, the vehicle position / surface candidate estimation unit 11 uses the three-dimensional positions of all the reflection points rp gn, sd, i belonging to the side surfaces in the group gn, and calculates the average position rpmean gn, sd = (xm gn , Sd , ym gn, sd , zm gn, sd , 1) Calculate T. Then, the vehicle position / surface candidate estimation unit 11 calculates the lower end point SDVlow gn for the side surface of the vehicle on the image of the group gn by using the average position rpmean gn, sd using the equation (7). Further, the vehicle position / surface candidate estimation unit 11 calculates the upper end point SDVhigh gn for the side surface of the vehicle on the image of the group gn by using the average position rpmean gn, sd using the average position rpmean gn, sd . Hv sd in Expression (7) and Expression (8) is an amount on the image corresponding to the height of the vehicle (for example, 2.0 m). In formula (7) and formula (8), p ij is an element in the i-th row and j-th column of the above-mentioned 3-by-4 conversion matrix P.
Figure 2010256040

そして、車両位置・面候補推定部11では、左端点位置SDLPtgn(=上記の処理で最終的に設定されたSDLPtgn−dw)〜右端点位置SDRPtgn(=上記の処理で最終的に設定されたSDRPtgn+dw)を、グループgnの側面に属する反射点群の画像上の横方向の範囲として記憶する。また、車両位置・面候補推定部11では、上記の処理で計算された下端点位置SDVlowgn〜上端点位置SDVhighgnを、グループgnの側面に属する反射点群の画像上の縦方向の範囲として記憶する。この横方向の範囲と縦方向の範囲が、検出した車両の側面の画像上の範囲である。 The vehicle position / surface candidate estimation unit 11 then sets the left end point position SDLPt gn (= SDLPt gn −dw finally set by the above processing) to the right end point position SDRPt gn (= finally set by the above processing). SDRPt gn + dw) is stored as a horizontal range on the image of the reflection point group belonging to the side surface of the group gn. Further, the vehicle position and face candidate estimation unit 11, the calculated lower end point position SDVlow gn ~ upper end point position SDVhigh gn above process, as the vertical direction in the range on the image of the reflection points belonging to the side of the group gn Remember. The range in the horizontal direction and the range in the vertical direction are ranges on the image of the detected side surface of the vehicle.

前面・後面の画像上範囲及び側面の画像上範囲を推定すると、車両位置・面候補推定部11では、同じグループgnの前面・後面の画像上範囲と側面の画像上範囲からなる面候補を設定する。   When the front and rear image upper ranges and the side image upper ranges are estimated, the vehicle position / surface candidate estimation unit 11 sets surface candidates including the front and rear image upper ranges and the side image upper ranges of the same group gn. To do.

特徴点抽出部12について説明する。車両位置・面候補推定部11で車両を検出し、その車両の画像上の前面・後面の範囲と側面の範囲が推定されている場合、特徴点抽出部12では、その画像上の各範囲内でカメラ4で撮像した画像からエッジ(特徴点)を抽出する。このエッジの抽出方法としては、画像から局所領域を抜き出し、sobelフィルタなどを利用してその領域の特徴量を計算する。局所領域の抜き出し方としては、一定間隔の抜き出し、Harrisオペレータなどのコーナ検出などを使用してもよい。sobelフィルタは、図5(a)に示す横エッジ検出用フィルタと図5(b)に示す縦エッジ検出用フィルタを用いて、画像に畳み込み積分する。具体的には、特徴点抽出部12では、車両位置・面候補推定部11で推定した画像上の範囲内において、その範囲内の画素(u,v)毎に、各画素の値(例えば、輝度値)Iu,vを用いて、式(9)により横方向のエッジ強度ΔIhu,vを計算するとともに式(10)により縦方向のエッジ強度ΔIvu,vを計算する。さらに、特徴点抽出部12では、その各エッジ強度ΔIhu,v,ΔIvu,vを用いて、式(11)によりエッジ強度ΔIu,vを計算するとともに式(12)によりエッジ方向θu,vを計算する。なお、このエッジの抽出処理は、カメラ4で撮像した画像全体に行ってもよい。

Figure 2010256040
The feature point extraction unit 12 will be described. When the vehicle position / surface candidate estimation unit 11 detects a vehicle and the front / rear surface range and the side surface range on the vehicle image are estimated, the feature point extraction unit 12 Then, an edge (feature point) is extracted from the image captured by the camera 4. As an edge extraction method, a local region is extracted from an image, and a feature amount of the region is calculated using a sobel filter or the like. As a method of extracting the local region, extraction at a constant interval, corner detection such as a Harris operator, or the like may be used. The sobel filter convolves and integrates an image using a horizontal edge detection filter shown in FIG. 5A and a vertical edge detection filter shown in FIG. Specifically, in the feature point extraction unit 12, for each pixel (u, v) in the range estimated by the vehicle position / surface candidate estimation unit 11, the value of each pixel (for example, luminance value) I u, with v, calculates the vertical edge intensity? Iv u, v by the equation (10) as well as calculating the lateral edge strength ΔIh u, v by the formula (9). Further, the feature point extraction unit 12 calculates the edge strength ΔI u, v by the equation (11) using the edge strengths ΔIh u, v , ΔIv u, v and the edge direction θ u by the equation (12). , V is calculated. Note that this edge extraction processing may be performed on the entire image captured by the camera 4.
Figure 2010256040

図6には、カメラ4で撮像したある画像に対して画素毎にエッジ処理を行い、その各画素位置にエッジ強度を設定したエッジ画像(輪郭画像)の一例(車両が写っている部分)を示しており、この画像には前面と左側面が写っている車両が存在する。   FIG. 6 shows an example of an edge image (contour image) in which edge processing is performed for each pixel on an image captured by the camera 4 and edge strength is set at each pixel position (portion where a vehicle is shown). In this image, there is a vehicle in which the front and left sides are shown.

特徴点3次元位置候補推定部13について説明する。特徴点3次元位置候補推定部13では、特徴点抽出部12で抽出した特徴点毎に、車両位置・面候補推定部11で推定した面候補の前面・後面あるいは側面上での3次元位置を計算する。ここでは、画像上の位置から各特徴点が存在する方向ベクトルが判るので、その方向ベクトルと推定した面候補の前面・後面又は側面との交点を計算することによって3次元位置を推定する。   The feature point three-dimensional position candidate estimation unit 13 will be described. In the feature point three-dimensional position candidate estimation unit 13, for each feature point extracted by the feature point extraction unit 12, a three-dimensional position on the front surface / rear surface or side surface of the surface candidate estimated by the vehicle position / surface candidate estimation unit 11 is calculated. calculate. Here, since the direction vector in which each feature point exists is known from the position on the image, the three-dimensional position is estimated by calculating the intersection of the direction vector and the front / back surface or side surface of the estimated surface candidate.

図7には、特徴点の画像上の位置とその位置から求めた3次元位置候補及び実際の3次元位置の関係を示しており、図(a)には車両を斜視した場合を示しており、図(b)には車両を上面視した場合を示している。画像IP上の特徴点CPの位置が判ると、カメラ4とレーザレーダ3の関係を示すパラメータから、カメラ4から特徴点CPのある方向nが判る。車両位置・面候補推定部11で推定した面候補に対する車両の形状モデルが推定できているので、その形状モデルの前面位置MPと特徴点CPの方向nとの交点によって特徴点CPの3次元位置候補3P’を推定できる。なお、3次元位置候補3P’は、形状モデルの誤差により実際の特徴点の3次元位置3Pに対して誤差が生じるが、形状モデルを正しく推定できている場合にはその誤差は車両のサイズに比べて小さく、影響は少ない。 FIG. 7 shows the relationship between the position of the feature point on the image, the three-dimensional position candidate obtained from the position, and the actual three-dimensional position, and FIG. FIG. 4B shows a case where the vehicle is viewed from above. When the position of the feature point CP on the image IP is known, the direction n f where the feature point CP is located can be found from the camera 4 from the parameters indicating the relationship between the camera 4 and the laser radar 3. Since the vehicle shape model for the surface candidate estimated by the vehicle position / surface candidate estimation unit 11 can be estimated, the three-dimensional feature point CP is determined by the intersection of the front position MP of the shape model and the direction n f of the feature point CP. The position candidate 3P ′ can be estimated. The three-dimensional position candidate 3P ′ has an error with respect to the actual feature point three-dimensional position 3P due to an error of the shape model. However, if the shape model can be correctly estimated, the error is dependent on the size of the vehicle. Smaller and less affected.

具体的には、特徴点の存在する方向n=(nx,f,ny,f,nz,f,1)は、式(13)により、特徴点fの画像上の位置(u,v,1)を用いて計算することができる。式(13)におけるsは、式(3)等における奥行きパラメータsである。式(13)における3行4列の行列は、式(3)等における3行4列の変換行列Pである。

Figure 2010256040
Specifically, the direction n f = ( nx, f , ny, f , nz, f , 1) where the feature point exists T is the position of the feature point f on the image (13) according to equation (13). u f , v f , 1) can be calculated using T. S in equation (13) is the depth parameter s in equation (3) and the like. The matrix of 3 rows and 4 columns in Equation (13) is the 3 × 4 transformation matrix P in Equation (3) and the like.
Figure 2010256040

ここで、奥行きパラメータsはどのような値であってもよいので、s=1とすると式(13)は式(14)になる。さらに、式(14)は、式(15)に変形できる。

Figure 2010256040
Here, since the depth parameter s may be any value, when s = 1, Expression (13) becomes Expression (14). Furthermore, equation (14) can be transformed into equation (15).
Figure 2010256040

そこで、特徴点3次元位置候補推定部13では、車両位置・面候補推定部11で推定した面候補spt毎に、式(15)により、面候補sptの画像上範囲内に含まれる各特徴点fについて、特徴点fの画像上の位置(u,v,1)を用いて特徴点CPの存在する方向n=(nx,f,ny,f,nz,fをそれぞれ計算する。さらに、特徴点3次元位置候補推定部13では、その方向n=(nx,f,ny,f,nz,fを用いて、車両位置・面候補推定部11で推定した面候補sptの前面・後面モデルの面又は側面モデルの面と交差する位置として特徴点fの3次元位置候補(xf,spt,yf,spt,zf,spt)を計算する。例えば、形状モデルの面がy=ax+yであり、カメラ4の光学中心位置(C,C,C)を通り、方向n=(nx,f,ny,f,nz,fの特徴点fの3次元位置(xf,spt,yf,spt,zf,spt)は、式(16)によって計算できる。

Figure 2010256040
Therefore, in the feature point three-dimensional position candidate estimation unit 13, for each surface candidate spt estimated by the vehicle position / surface candidate estimation unit 11, each feature point included in the on-image range of the surface candidate spt is obtained by Expression (15). For f, using the position (u f , v f , 1) T of the feature point f on the image, the direction n f = ( nx, f , ny, f , nz, f ) where the feature point CP exists Calculate T respectively. Further, the feature point three-dimensional position candidate estimation unit 13 uses the direction n f = ( nx, f , ny, f , n z, f ) T to estimate by the vehicle position / plane candidate estimation unit 11. Three-dimensional position candidates (x f, spt , y f, spt , z f, spt ) of the feature point f are calculated as positions where the surface candidate spt intersects with the front surface model surface or the side model surface. For example, the surface of the shape model is y = ax + y, passes through the optical center position (C x , C y , C z ) of the camera 4, and the direction n f = ( nx, f , ny, f , nz, three-dimensional position of the feature point f of f) T (x f, spt , y f, spt, z f, spt) can be calculated by equation (16).
Figure 2010256040

なお、形状モデルと交差しないケースがある場合、その特徴点を破棄する。また、複数の解がありうる場合、最も距離が近いものを3次元位置(xf,spt,yf,spt,zf,spt)とする。 If there is a case that does not intersect the shape model, the feature point is discarded. In addition, when there can be a plurality of solutions, the one with the shortest distance is defined as a three-dimensional position ( xf , spt , yf, spt, zf, spt ).

車両端点抽出部14について説明する。車両端点抽出部14では、連続する2時刻t1,t2でそれぞれ撮像された各画像からそれぞれ推定された面候補間に対して処理を行う。車両端点抽出部14では、時刻t1での面候補と時刻t2での面候補との組み合わせ毎に、面候補間で各特徴点の3次元位置の対応関係をそれぞれ求め、その対応関係の特徴点間での位置誤差が最少になるように一方の面候補の特徴点を並進移動変換及び回転変換で補正した上で位置誤差を計算する。全ての面候補の組み合わせについて特徴点間の位置誤差を求めると、車両端点抽出部14では、位置誤差が最少となる組み合わせの面候補を抽出し、その面候補における分割位置に基づいて車両の端点(2つの面の境界位置)を抽出する。なお、時刻t2は現時刻であり、時刻t1はカメラ4の撮像間隔での1時刻前である。   The vehicle end point extraction unit 14 will be described. The vehicle end point extraction unit 14 performs processing between the surface candidates estimated from the respective images captured at two consecutive times t1 and t2. In the vehicle end point extraction unit 14, for each combination of the surface candidate at time t1 and the surface candidate at time t2, the corresponding relationship of the three-dimensional position of each feature point is obtained between the surface candidates, and the feature points of the corresponding relationship The position error is calculated after correcting the feature point of one surface candidate by translational movement conversion and rotation conversion so that the position error between them is minimized. When the position error between the feature points is obtained for all the surface candidate combinations, the vehicle end point extraction unit 14 extracts the surface candidates of the combination that minimizes the position error, and the vehicle end points based on the division positions in the surface candidates. (Boundary position between two surfaces) is extracted. Note that time t2 is the current time, and time t1 is one hour before the imaging interval of the camera 4.

図8に示す例では、図(a)に前時刻t1における複数の面候補sptt1(特徴点が丸で描かれている)と現時刻t2における複数の面候補sptt2(特徴点が矩形で描かれている)とを示しており、複数の面候補sptt1と複数の面候補sptt2との各組み合わせについて処理(比較)している。この各比較では、前時刻t1の面候補sptt1と現時刻t2の面候補sptt2間において、前時刻t1の特徴点と現時刻t2の特徴点との対応関係がとられた後に一方の時刻の面候補の各特徴点の位置を変換するための並進移動量と回転量がそれぞれ推定され、その並進移動量と回転量で回転させた上で対応する特徴点間の位置誤差が計算される。図(b)に示す比較例1の場合、対応する前時刻t1の特徴点の位置と現時刻t2の特徴点の位置とが離れており、位置誤差が大きい。一方、図(c)に示す比較例2の場合、対応する前時刻t1の特徴点の位置と現時刻t2の特徴点の位置とが略重なっており、位置誤差が小さい。 In the example shown in FIG. 8, a plurality of surface candidates spt t1 (characteristic points are drawn in circles) at the previous time t1 and a plurality of surface candidates spt t2 (characteristic points are rectangular at the current time t2) in FIG. In other words, each combination of a plurality of surface candidates spt t1 and a plurality of surface candidates spt t2 is processed (compared). In each comparison, between surface candidate spt t2 surface candidate spt t1 and the current time t2 before time t1, one time after the correspondence is taken between the feature points of the feature point and the current time t2 before time t1 The translation amount and rotation amount for converting the position of each feature point of the surface candidate are estimated, and the position error between corresponding feature points is calculated after rotating with the translation amount and rotation amount. . In the case of the comparative example 1 shown in FIG. 2B, the position of the corresponding feature point at the previous time t1 is far from the position of the feature point at the current time t2, and the position error is large. On the other hand, in the case of the comparative example 2 shown in FIG. 4C, the position of the corresponding feature point at the previous time t1 and the position of the feature point at the current time t2 substantially overlap, and the position error is small.

位置誤差が大きくなる理由としては、推定された形状モデルが一致しないために特徴点の3次元位置間の誤差が大きくなるという理由と、誤った形状モデルから特徴点の3次元位置を推定しているために特徴点の3次元位置間の誤差が大きくなるという理由がある。   The reason why the position error becomes large is that the estimated shape model does not match and the error between the three-dimensional positions of the feature points increases, and the three-dimensional position of the feature points is estimated from the wrong shape model. Therefore, there is a reason that the error between the three-dimensional positions of the feature points becomes large.

具体的には、車両端点抽出部14では、前時刻t1での面候補sptt1と現時刻t2での面候補sptt2との組み合わせ毎に、面候補sptt1に含まれるNft1個の特徴点ft1と面候補sptt2に含まれるNft2個の特徴点ft2間で対応する特徴点を探索する。この探索方法としては、式(17)により、面候補sptt2の特徴点ft2毎に、面候補sptt1に含まれるNft1個の各特徴点ft1との特徴量の差ΔF’をそれぞれ計算し、特徴量の差ΔF’が最も小さくなる特徴点ft1を特徴点ft2に対応する特徴点ft2’として記憶していく。式(17)においてΔIhft1は特徴点ft1の横方向のエッジ強度であり、ΔIvft1は特徴点ft1の縦方向のエッジ強度であり、ΔIhft2は特徴点ft2の横方向のエッジ強度であり、ΔIvft2は特徴点ft2の縦方向のエッジ強度である。

Figure 2010256040
Specifically, in the vehicle end point extracting section 14, prior to each combination of the surface candidate spt t2 in terms candidate spt t1 and the current time t2 at time t1, N ft1 feature points contained in the plane candidate spt t1 Corresponding feature points are searched for between N ft2 feature points f t2 included in f t1 and surface candidate spt t2 . As a search method, the equation (17), for each feature point f t2 surface candidate spt t2, N ft1 pieces included in the face candidate spt t1 of the difference [Delta] F 'of the feature quantity of each feature point f t1 respectively calculated, will be stored as 'feature point f t2 corresponding feature point f t1 which is the smallest in the feature point f t2' difference ΔF of the feature. In Expression (17), ΔIh ft1 is the edge strength in the horizontal direction of the feature point f t1 , ΔIv ft1 is the edge strength in the vertical direction of the feature point f t1 , and ΔIh ft2 is the edge strength in the horizontal direction of the feature point f t2. in and,? Iv ft @ 2 is a vertical edge strength of the feature point f t2.
Figure 2010256040

特徴点の対応関係を探索すると、車両端点抽出部14では、前時刻t1での面候補sptt1と現時刻t2での面候補sptt2との組み合わせ毎に、対応する特徴点間で位置誤差が最少になるような並進移動量(dxspt,dyspt,dzspt)と回転量ψsptを求め、一方の面候補spt(ここでは、面候補sptt1)の各特徴点fを並進移動量(dxspt,dyspt,dzspt)と回転量ψsptで変換した上で対応する特徴点間の位置誤差E(すなわち、面候補sptt1,sptt2間の位置誤差E)を計算する。位置誤差Eは、式(18)によって計算することができる。式(18)のXは、式(19)によって計算することができる。位置誤差が最少となるように並進移動量(dxspt,dyspt,dzspt)と回転量ψsptを求める方法としては、例えば、RANSAC法を利用する。

Figure 2010256040
When searching for a correspondence between the feature points, the vehicle end point extracting section 14, to each combination of surface candidate spt t1 at the previous time t1 and face candidate spt t2 at the current time t2, the position error between the corresponding feature points translation amount such that the minimum seek (dx spt, dy spt, dz spt) and the rotation amount [psi spt, (in this case, the surface candidate spt t1) one surface candidate spt translational movement amounts of each feature point f of ( The position error E between the corresponding feature points (that is, the position error E between the surface candidates spt t1 and spt t2 ) is calculated after conversion by dxspt , dyspt , dzspt ) and the rotation amount ψspt . The position error E can be calculated by equation (18). X in equation (18) can be calculated by equation (19). Translation amount such that the position error is minimized (dx spt, dy spt, dz spt) as a method of determining the the amount of rotation [psi spt, for example, utilizes a RANSAC method.
Figure 2010256040

全ての組み合わせ面候補間の位置誤差Eを計算すると、車両端点抽出部14では、全ての組み合わせ面候補間の位置誤差Eを比較し、最少の位置誤差Eとなる面候補の組み合わせSTP1,SPT2を抽出する。そして、車両端点抽出部14では、その抽出した前時刻t1の面候補SPT1に対応するグループgnの反射点群の中から分割位置の近傍の2つの反射点rptgn,SPT1とrptgn,SPT1+1を抽出し、その2つの反射点の平均値を前時刻t1での車両の端点(2つの面の境界位置)とする。また、車両端点抽出部14では、その抽出した現時刻t2の面候補SPT2に対応するグループgnの反射点群の中から分割位置の近傍の2つの反射点rptgn,SPT2とrptgn,SPT2+1を抽出し、その2つの反射点の平均値を現時刻t2での車両の端点とする。さらに、車両端点抽出部14では、その車両の端点(3次元位置)を用いて、画像上の車両の端点(2次元位置)を計算する。 When the position error E between all the combination surface candidates is calculated, the vehicle end point extraction unit 14 compares the position error E between all the combination surface candidates, and determines the combination STP1 and SPT2 of the surface candidates that give the minimum position error E. Extract. Then, the vehicle end point extraction unit 14 selects two reflection points rpt gn and SPT1 and rpt gn and SPT1 + 1 in the vicinity of the division position from the reflection point group of the group gn corresponding to the extracted surface candidate SPT1 at the previous time t1. The average value of the two reflection points is extracted as the end point of the vehicle (boundary position between the two surfaces) at the previous time t1. Further, the vehicle end point extraction unit 14 calculates two reflection points rpt gn, SPT2 and rpt gn, SPT2 + 1 in the vicinity of the division position from the reflection point group of the group gn corresponding to the extracted surface candidate SPT2 at the current time t2. The average value of the two reflection points is extracted as the end point of the vehicle at the current time t2. Further, the vehicle end point extraction unit 14 calculates the end point (two-dimensional position) of the vehicle on the image using the end point (three-dimensional position) of the vehicle.

車両検出装置1の動作について説明する。特に、ECU10における車両位置・面候補推定部11の処理については図9〜13のフローチャートに沿って説明し、特徴点3次元位置候補推定部13の処理については図14のフローチャートに沿って説明し、車両端点抽出部14の処理については図15、図16のフローチャートに沿って説明する。図9は、車両位置・面候補推定部におけるメイン処理の流れを示すフローチャートである。図10は、車両位置・面候補推定部におけるメイン処理の中のグルーピング処理の流れを示すフローチャートである。図11は、車両位置・面候補推定部におけるメイン処理の中の形状モデル推定処理の流れを示すフローチャートである。図12は、車両位置・面候補推定部におけるメイン処理の中の画像上範囲推定処理(前面・後面)の流れを示すフローチャートである。図13は、車両位置・面候補推定部におけるメイン処理の中の画像上範囲推定処理(側面)の流れを示すフローチャートである。図14は、特徴点3次元位置候補推定部における処理の流れを示すフローチャートである。図15は、車両端点抽出部における処理の流れを示すフローチャート(前半部)である。図16は、車両端点抽出部における処理の流れを示すフローチャート(後半部)である。   The operation of the vehicle detection device 1 will be described. In particular, the processing of the vehicle position / surface candidate estimation unit 11 in the ECU 10 will be described with reference to the flowcharts of FIGS. 9 to 13, and the processing of the feature point three-dimensional position candidate estimation unit 13 will be described with reference to the flowchart of FIG. The processing of the vehicle end point extraction unit 14 will be described with reference to the flowcharts of FIGS. 15 and 16. FIG. 9 is a flowchart showing a flow of main processing in the vehicle position / surface candidate estimation unit. FIG. 10 is a flowchart showing the flow of the grouping process in the main process in the vehicle position / surface candidate estimation unit. FIG. 11 is a flowchart showing the flow of the shape model estimation process in the main process in the vehicle position / surface candidate estimation unit. FIG. 12 is a flowchart showing the flow of the on-image range estimation process (front / rear) in the main process in the vehicle position / plane candidate estimation unit. FIG. 13 is a flowchart showing the flow of the on-image range estimation process (side surface) in the main process in the vehicle position / surface candidate estimation unit. FIG. 14 is a flowchart showing a flow of processing in the feature point three-dimensional position candidate estimation unit. FIG. 15 is a flowchart (first half) showing a flow of processing in the vehicle end point extraction unit. FIG. 16 is a flowchart (second half) showing the flow of processing in the vehicle end point extraction unit.

レーザレーダ3では、所定時間毎に、水平方向にスキャンしながらレーザ光を出射するとともにその反射光を受光し、受光できた各反射点についての情報をレーダ信号としてECU10に送信している。また、カメラ4では、所定時間毎に、自車両の前方を撮像し、画像信号をECU10に送信している。   The laser radar 3 emits laser light while scanning in the horizontal direction at predetermined intervals, receives the reflected light, and transmits information about each reflected point received to the ECU 10 as a radar signal. The camera 4 captures the front of the host vehicle and transmits an image signal to the ECU 10 every predetermined time.

一定時間毎に、ECU10では、以下の処理を行う。まず、車両位置・面候補推定部11での処理として、ECU10では、レーザレーダ3からの各反射点についての情報を用いて、反射点のグルーピング処理を行う(S1)。   The ECU 10 performs the following processing at regular intervals. First, as processing in the vehicle position / surface candidate estimation unit 11, the ECU 10 performs reflection point grouping processing using information about each reflection point from the laser radar 3 (S1).

グルーピング処理(S1)に移行すると、レーザレーダ3で検出できた全ての反射点に対して処理を行うために、ECU10では、まず、反射点ptを0で初期化する(S10)。また、ECU10では、反射点pt=0のグループIDであるGIDを0で初期化する(S11)。 When the process proceeds to the grouping process (S1), the ECU 10 first initializes the reflection point pt to 0 in order to perform the process on all the reflection points detected by the laser radar 3 (S10). Further, the ECU 10 initializes GID 0 , which is the group ID of the reflection point pt = 0, with 0 (S11).

反射点ptが更新される毎に、ECU10では、式(1)により、今回の反射点ptとそれに隣接する前回の反射点pt−1間の距離LNpt,pt−1を計算する(S12)。そして、ECU10では、距離LNpt,pt−1が閾値THR_PTL未満か否かを判定する(S13)。S13にて距離LNpt,pt−1が閾値THR_PTL未満と判定した場合、ECU10では、今回の反射点ptを前回の反射点pt−1と同じグループとするために、反射点ptのグループIDのGIDptにGIDpt−1を設定する(S14)。一方、S13にて距離LNpt,pt−1が閾値THR_PTL以上と判定した場合、ECU10では、今回の反射点ptを前回の反射点pt−1と異なるグループとするために、反射点ptのグループIDのGIDptにGIDpt−1+1を設定する(S15)。 Every time the reflection point pt is updated, the ECU 10 calculates the distances LN pt, pt-1 between the current reflection point pt and the previous reflection point pt-1 adjacent thereto by the equation (1) (S12). . Then, the ECU 10 determines whether or not the distance LN pt, pt-1 is less than the threshold value THR_PTL (S13). When it is determined in S13 that the distance LN pt, pt-1 is less than the threshold value THR_PTL, the ECU 10 sets the group ID of the reflection point pt to make the current reflection point pt the same group as the previous reflection point pt-1. GID pt -1 is set to GID pt (S14). On the other hand, when it is determined in S13 that the distance LN pt, pt-1 is equal to or greater than the threshold value THR_PTL, the ECU 10 uses the reflection point pt group in order to make the current reflection point pt different from the previous reflection point pt-1. GID pt-1 +1 is set to GID pt of ID (S15).

次に、ECU10では、反射点ptを更新するために、ptに1を加算する(S16)。そして、ECU10では、更新したptがレーザレーダ3で検出できた反射点の数Nrp以上か否かを判定する(S17)。S17にてptがNrp以上と判定した場合、今回のグルーピング処理を終了する。一方、S17にてptがNrp未満と判定した場合、ECU10では、S12に戻って、更新した反射点ptに対する処理を行う。   Next, the ECU 10 adds 1 to pt in order to update the reflection point pt (S16). Then, the ECU 10 determines whether or not the updated pt is equal to or greater than the number Nrp of reflection points that can be detected by the laser radar 3 (S17). If it is determined in S17 that pt is equal to or greater than Nrp, the current grouping process is terminated. On the other hand, if it is determined in S17 that pt is less than Nrp, the ECU 10 returns to S12 and performs processing for the updated reflection point pt.

グルーピング処理を終了すると、グルーピングした全てのグループに対して処理を行うために、ECU10では、まず、グループgnを0で初期化する(S2)。   When the grouping process is completed, the ECU 10 first initializes the group gn with 0 in order to perform the process on all the grouped groups (S2).

グループgnが更新される毎に、ECU10では、そのグループgnに対して形状モデル推定処理を行う(S3)。   Every time the group gn is updated, the ECU 10 performs a shape model estimation process on the group gn (S3).

形状モデル推定処理(S3)に移行すると、ECU10では、まず、分割位置sptを0で初期化する(S20)。   When the process proceeds to the shape model estimation process (S3), the ECU 10 first initializes the division position spt with 0 (S20).

分割位置sptを更新する毎に、ECU10では、まず、最少誤差MIN_SMsptを∞で初期化する(S21)。また、ECU10では、分割位置spt番目の位置でグループgnの反射点群を2つの反射点群RPT1={rptgn,1,・・・,rptgn,spt}、RPT2={rptgn,spt,・・・,rptgn,Ngn}に分割する(S22)。また、事前に用意されている全ての車両の形状モデルに対して処理を行うために、ECU10では、まず、形状モデルmodelを0で初期化する(S23)。 Every time the division position spt is updated, the ECU 10 first initializes the minimum error MIN_SM spt with ∞ (S21). In the ECU 10, the reflection point group of the group gn is divided into two reflection point groups RPT1 = {rpt gn, 1 ,..., Rpt gn, spt }, RPT2 = {rpt gn, spt , .., Rpt gn, Ngn } are divided (S22). Further, in order to perform processing on all the vehicle shape models prepared in advance, the ECU 10 first initializes the shape model model with 0 (S23).

形状モデルmodelを更新する毎に、ECU10では、その形状モデルの2面を、分割した反射点群RPT1と反射点群RPT2に当てはめ、形状一致度SMmodel,sptを計算する(S24)。そして、ECU10では、その形状一致度SMmodel,sptが閾値THR_SM未満か否かを判定する(S25)。S25にて形状一致度SMmodel,sptが閾値THR_SM以上と判定した場合、ECU10では、S31の処理に移行し、形状モデルmodelを更新するために、modelに1を加算する(S31)。 Each time the shape model model is updated, the ECU 10 applies the two surfaces of the shape model to the divided reflection point group RPT1 and reflection point group RPT2, and calculates the shape matching degree SM model, spt (S24). Then, the ECU 10 determines whether or not the shape matching degree SM model, spt is less than the threshold value THR_SM (S25). If the shape matching degree SM model, spt is determined to be greater than or equal to the threshold value THR_SM in S25, the ECU 10 proceeds to the process of S31 and adds 1 to model in order to update the shape model model (S31).

S25にて形状一致度SMmodel,sptが閾値THR_SM未満と判定した場合、ECU10では、分割した反射点群RPT1と反射点群RPT2の中で最長部の長さLWmodel,sptを計算する(S26)。そして、ECU10では、その最長部の長さLWmodel,sptが所定範囲(THR_LW_LOW〜THR_LW_HIGH)内か否かを判定する(S27)。最長部の長さLWmodel,sptが所定範囲外と判定した場合、ECU10では、S31の処理に移行し、形状モデルmodelを更新するために、modelに1を加算する(S31)。 When it is determined in S25 that the shape matching degree SM model, spt is less than the threshold value THR_SM, the ECU 10 calculates the length LW model, spt of the longest part among the divided reflection point group RPT1 and reflection point group RPT2 (S26). ). Then, the ECU 10 determines whether or not the length LW model, spt of the longest part is within a predetermined range (THR_LW_LOW to THR_LW_HIGH) (S27). When it is determined that the length LW model, spt of the longest part is outside the predetermined range, the ECU 10 proceeds to the process of S31 and adds 1 to the model in order to update the shape model model (S31).

最長部の長さLWmodel,sptが所定範囲内と判定した場合、ECU10では、形状一致度SMmodel,sptが最少誤差MIN_SMspt未満か否かを判定する(S28)。S28にて形状一致度SMmodel,sptが最少誤差MIN_SMspt以上と判定した場合、ECU10では、S31の処理に移行し、形状モデルmodelを更新するために、modelに1を加算する(S31)。 When it is determined that the length LW model, spt of the longest part is within the predetermined range, the ECU 10 determines whether or not the shape matching degree SM model, spt is less than the minimum error MIN_SM spt (S28). If it is determined in S28 that the shape matching degree SM model, spt is equal to or greater than the minimum error MIN_SM spt , the ECU 10 proceeds to the process of S31 and adds 1 to model in order to update the shape model model (S31).

S28にて形状一致度SMmodel,sptが最少誤差MIN_SMspt未満と判定した場合、ECU10では、最少誤差MIN_SMsptを形状一致度SMmodel,sptで更新する(S29)。また、ECU10では、今回の形状モデルmodelに対応するモデルパラメータMPmodel,sptを記憶する(S30)。そして、ECU10では、形状モデルmodelを更新するために、modelに1を加算する(S31)。 If it is determined in S28 that the shape matching degree SM model, spt is less than the minimum error MIN_SM spt , the ECU 10 updates the minimum error MIN_SM spt with the shape matching degree SM model, spt (S29). Further, the ECU 10 stores model parameters MP model, spt corresponding to the current shape model model (S30). Then, the ECU 10 adds 1 to the model in order to update the shape model model (S31).

S31でmodelを更新すると、ECU10では、形状モデルmodelが事前に用意されている形状モデルの数Nm以上か否かを判定する(S32)。S32にてmodelがNm未満と判定した場合、ECU10では、S24に戻って、更新した形状モデルmodelに対する処理を行う。   When the model is updated in S31, the ECU 10 determines whether or not the shape model model is equal to or more than the number Nm of shape models prepared in advance (S32). If it is determined in S32 that the model is less than Nm, the ECU 10 returns to S24 and performs the process for the updated shape model model.

S32にてmodelがNm以上と判定した場合、ECU10では、そのときの分割位置sptで当てはまる形状モデルがある場合だけ、式(2)により、車両方位φspt(方位候補に相当)を計算する(S33)。そして、ECU10では、分割位置sptを更新するために、sptに1を加算する(S34)。そして、ECU10では、sptがグループgnの反射点数Ngnを超えたか否かを判定する(S35)。S35にてsptがNgn以下と判定した場合、ECU10では、S21に戻って、更新した分割位置sptに対する処理を行う。一方、S35にてsptがNgn超えたと判定した場合、ECU10では、グループgnに対する形状モデル推定処理を終了する。ここで、最終的に、各分割位置sptのモデルパラメータMPmodel,sptにパラメータ値が記憶されている場合、今回のグループgnの分割位置sptにおいて当てはまる車両の形状モデルmodelがあったことを示しており、そのパラメータ値によって形状モデルを特定できる。 If it is determined in S32 that the model is Nm or more, the ECU 10 calculates the vehicle orientation φ spt (corresponding to the orientation candidate) according to the equation (2) only when there is a shape model applicable at the division position spt at that time ( S33). Then, the ECU 10 adds 1 to spt in order to update the division position spt (S34). Then, the ECU 10 determines whether or not spt exceeds the number of reflection points Ngn of the group gn (S35). When it is determined in S35 that spt is equal to or less than Ngn, the ECU 10 returns to S21 and performs processing for the updated division position spt. On the other hand, when it is determined in S35 that spt has exceeded Ngn, the ECU 10 ends the shape model estimation process for the group gn. Here, finally, when the parameter values are stored in the model parameters MP model, spt at each division position spt, it is indicated that there is a vehicle shape model model applicable at the division position spt of the current group gn. The shape model can be specified by the parameter value.

グループgnに対する形状モデル推定処理が終了すると、ECU10では、今回のグループgnに当てはまる車両形状モデルがあったか否か(すなわち、車両を検出できたか否か)を判定する(S4)。S4にて今回のグループgnに当てはまる車両形状モデルがなかったと判定した場合、ECU10では、S6の処理に移行し、グループgnを更新するために、gnに1を加算する(S6)。   When the shape model estimation process for the group gn ends, the ECU 10 determines whether or not there is a vehicle shape model applicable to the current group gn (that is, whether or not a vehicle has been detected) (S4). If it is determined in S4 that there is no vehicle shape model applicable to the current group gn, the ECU 10 proceeds to S6 and adds 1 to gn to update the group gn (S6).

S4にて今回のグループgnのある分割位置sptにおいて当てはまる車両形状モデルがあったと判定した場合、ECU10では、今回のグループgnの反射点群に対する画像上範囲推定処理を行う(S5)。   When it is determined in S4 that there is a vehicle shape model that is applicable at a certain division position spt of the current group gn, the ECU 10 performs an on-image range estimation process for the reflection point group of the current group gn (S5).

画像上範囲推定処理に移行すると、まず、そのグループgnの前面・後面に対する処理を行う。ECU10では、まず、前面・後面の左端点位置FRLPtgnを画像横幅IMG_WIDTHで初期化し、前面・後面の右端点位置FRRPtgnを0で初期化する(S40)。また、ECU10では、グループgnの前面・後面に属する反射点群内の反射点を更新していくための変数iを0で初期化する(S41)。 When the process shifts to the on-image range estimation processing, first, processing is performed on the front and rear surfaces of the group gn. First, the ECU 10 initializes the front and rear left end point positions FRLPt gn with the image width IMG_WIDTH and initializes the front and rear right end point positions FRRPt gn with 0 (S40). Further, the ECU 10 initializes the variable i for updating the reflection points in the reflection point group belonging to the front surface / rear surface of the group gn with 0 (S41).

変数i(反射点)を更新する毎に、ECU10では、式(3)により、反射点rpgn,fr,iの3次元位置から画像上の2次元位置Pimggn,fr,iを計算する(S42)。そして、ECU10では、その画像上の位置Pimggn,fr,iの中の横位置ugn,fr,iが左端点位置FRLPtgnより小さいか否かを判定する(S43)。S43にて横位置ugn,fr,iが左端点位置FRLPtgnより小さいと判定した場合、ECU10では、左端点位置FRLPtgnを横位置ugn,fr,iで更新する(S44)。また、ECU10では、その画像上の位置Pimggn,sd,iの中の横位置ugn,fr,iが右端点位置FRRPtgnより大きいか否かを判定する(S45)。S45にて横位置ugn,fr,iが右端点位置FRRPtgnより大きいと判定した場合、ECU10では、右端点位置FRRPtgnを横位置ugn,fr,iで更新する(S46)。ECU10では、反射点を更新するために、iに1を加算する(S47)。そして、ECU10では、iがグループgnの前面・後面に属する反射点の数Ngnfr以上か否かを判定する(S48)。S48にてiがグループgnの反射点の数Ngnfr未満と判定した場合、ECU10では、S42の処理に戻って、更新した反射点に対する処理を行う。 Each time the variable i (reflection point) is updated, the ECU 10 calculates the two-dimensional position Pimg gn, fr, i on the image from the three-dimensional position of the reflection point rp gn, fr, i by the expression (3) ( S42). Then, the ECU 10, the position Pimg gn on the image, determines fr, lateral position u gn in the i, fr, i is whether the left end point position FRLPt gn smaller (S43). When it is determined in S43 that the lateral position u gn, fr, i is smaller than the left end point position FRLPt gn , the ECU 10 updates the left end point position FRLPt gn with the lateral position u gn, fr, i (S44). Further, the ECU 10 determines whether or not the lateral position ugn , fr, i in the position Pimg gn, sd, i on the image is larger than the right end point position FRRPt gn (S45). When it is determined in S45 that the lateral position u gn, fr, i is larger than the right end point position FRRPt gn , the ECU 10 updates the right end point position FRRPt gn with the lateral position u gn, fr, i (S46). The ECU 10 adds 1 to i in order to update the reflection point (S47). Then, the ECU 10 determines whether i is equal to or greater than the number Ngn fr of reflection points belonging to the front and rear surfaces of the group gn (S48). When it is determined in S48 that i is less than the number of reflection points Ngn fr of the group gn, the ECU 10 returns to the process of S42 and performs the process for the updated reflection point.

S48にてiがグループgnの前面・後面に属する反射点の数Ngnfr以上と判定した場合、ECU10では、グループgnの前面・後面の反射点群の全ての反射点についての3次元位置を用いて、その平均位置rpmeangn,frを計算する(S49)。さらに、ECU10では、式(4)、式(5)により、その平均位置rpmeangn,frを用いて、グループgnの前面・後面の画像上の下端点位置FRVlowgnと上端点位置FRVhighgnを計算する(S50)。 When it is determined in S48 that i is equal to or greater than the number Ngn fr of the reflection points belonging to the front and rear surfaces of the group gn, the ECU 10 uses the three-dimensional positions of all the reflection points of the front and rear reflection points of the group gn. Then, the average position rpmean gn, fr is calculated (S49). Further, the ECU 10, the formula (4), the equation (5), the average position Rpmean gn, using fr, calculates the lower end point position on the image of the front and rear surfaces of the group gn FRVlow gn and the upper end point position FRVhigh gn (S50).

そして、ECU10では、車両の形状モデルが当てはまったグループgnの前面・後面の画像上での範囲として、左端点位置FRLPtgn=FRLPtgn−dw、右端点位置FRRPtgn=FRRPtgn+dw、下端点位置FRVlowgn,上端点位置FRVhighgnを記憶する(S51)。 Then, in the ECU 10, the left end point position FRLPt gn = FRLPt gn −dw, the right end point position FRRPt gn = FRRPt gn + dw, and the lower end point position as ranges on the front and rear images of the group gn to which the vehicle shape model is applied. FRVlow gn and upper end point position FRVhigh gn are stored (S51).

次に、グループgnの側面に対する処理を行う。ECU10では、まず、側面の左端点位置SDLPtgnを画像横幅IMG_WIDTHで初期化し、側面の右端点位置SDRPtgnを0で初期化する(S60)。また、ECU10では、グループgnの側面に属する反射点群内の反射点を更新していくための変数iを0で初期化する(S61)。 Next, processing is performed on the side surface of the group gn. First, the ECU 10 initializes the left end point position SDLPt gn of the side surface with the image width IMG_WIDTH, and initializes the right end point position SDRPt gn of the side surface with 0 (S60). Further, the ECU 10 initializes a variable i for updating the reflection points in the reflection point group belonging to the side surface of the group gn with 0 (S61).

変数i(反射点)を更新する毎に、ECU10では、式(6)により、反射点rpgn,sd,iの3次元位置から画像上の2次元位置Pimggn,sd,iを計算する(S62)。そして、ECU10では、その画像上の位置Pimggn,sd,iの中の横位置ugn,sd,iが左端点位置SDLPtgnより小さいか否かを判定する(S63)。S63にて横位置ugn,sd,iが左端点位置SDLPtgnより小さいと判定した場合、ECU10では、左端点位置SDLPtgnを横位置ugn,sd,iで更新する(S64)。また、ECU10では、その画像上の位置Pimggn,sd,iの中の横位置ugn,sd,iが右端点位置SDRPtgnより大きいか否かを判定する(S65)。S65にて横位置ugn,sd,iが右端点位置SDRPtgnより大きいと判定した場合、ECU10では、右端点位置SDRPtgnを横位置ugn,sd,iで更新する(S66)。ECU10では、反射点を更新するために、iに1を加算する(S67)。そして、ECU10では、iがグループgnの側面に属する反射点の数Ngnsd以上か否かを判定する(S68)。S68にてiがグループgnの反射点の数Ngnsd未満と判定した場合、ECU10では、S62の処理に戻って、更新した反射点に対する処理を行う。 Every time the variable i (reflection point) is updated, the ECU 10 calculates the two-dimensional position Pimg gn, sd, i on the image from the three-dimensional position of the reflection point rp gn, sd, i by the equation (6) ( S62). Then, the ECU 10 determines whether or not the lateral position u gn, sd, i in the position Pimg gn, sd, i on the image is smaller than the left end point position SDLPt gn (S63). When it is determined in S63 that the lateral position u gn, sd, i is smaller than the left end point position SDLPt gn , the ECU 10 updates the left end point position SDLPt gn with the lateral position u gn, sd, i (S64). Further, the ECU 10, determines the position Pimg gn on that image, sd, lateral position u gn in the i, sd, i is whether greater than the rightmost point position SDRPt gn (S65). When it is determined in S65 that the lateral position u gn, sd, i is larger than the right end point position SDRPt gn , the ECU 10 updates the right end point position SDRPt gn with the lateral position u gn, sd, i (S66). In the ECU 10, 1 is added to i in order to update the reflection point (S67). Then, the ECU 10 determines whether i is equal to or greater than the number Ngn sd of reflection points belonging to the side surface of the group gn (S68). When it is determined in S68 that i is less than the number of reflection points Ngn sd of the group gn, the ECU 10 returns to the process of S62 and performs the process for the updated reflection point.

S68にてiがグループgnの側面に属する反射点の数Ngnsd以上と判定した場合、ECU10では、グループgnの側面の反射点群の全ての反射点についての3次元位置を用いて、その平均位置rpmeangn,sdを計算する(S69)。さらに、ECU10では、式(7)、式(8)により、その平均位置rpmeangn,sdを用いて、グループgnの側面の画像上の下端点位置SDVlowgnと上端点位置SDVhighgnを計算する(S70)。 When it is determined in S68 that i is equal to or more than the number Ngn sd of the reflection points belonging to the side surface of the group gn, the ECU 10 uses the three-dimensional positions of all the reflection points of the reflection point group on the side surface of the group gn, The position rpmean gn, sd is calculated (S69). Further, the ECU 10, the formula (7), the equation (8), the average position Rpmean gn, with sd, calculates the lower end point position SDVlow gn and the upper end point position SDVhigh gn on the image side of the group gn ( S70).

そして、ECU10では、車両の形状モデルが当てはまったグループgnの側面の画像上での範囲として、左端点位置SDLPtgn=SDLPtgn−dw、右端点位置SDRPtgn=SDRPtgn+dw、下端点位置SDVlowgn,上端点位置SDVhighgnを記憶する(S71)。 Then, in the ECU 10, the left end point position SDLPt gn = SDLPt gn −dw, the right end point position SDRPt gn = SDRPt gn + dw, and the lower end point position SDVlow gn are the ranges on the side image of the group gn to which the vehicle shape model is applied. , The upper end point position SDVhigh gn is stored (S71).

前面・後面の画像上範囲と側面の画像上の範囲を推定すると、ECU10では、グループgnの前面・後面の画像上範囲と側面の画像上範囲からなる面候補を設定する。   When the front and rear image upper ranges and the side image ranges are estimated, the ECU 10 sets surface candidates including the front and rear image upper ranges and the side image upper ranges of the group gn.

画像上判定推定処理が終了すると、ECU10では、グループgnを更新するために、gnに1を加算する(S6)。そして、ECU10では、gnがグルーピングされたグループの数GN以上か否かを判定する(S7)。S7にてgnがグループの数GN未満と判定した場合、ECU10では、S3の処理に戻って、更新したグループgnに対する処理を行う。一方、S7にてgnがグループの数GN以上と判定した場合、ECU10では、車両位置・面候補推定部11での処理を終了する。   When the on-image determination estimation process ends, the ECU 10 adds 1 to gn in order to update the group gn (S6). Then, the ECU 10 determines whether or not gn is equal to or greater than the number of grouped groups GN (S7). When it is determined in S7 that gn is less than the number GN of groups, the ECU 10 returns to the process of S3 and performs the process for the updated group gn. On the other hand, when it is determined in S7 that gn is equal to or greater than the number of groups GN, the ECU 10 ends the processing in the vehicle position / surface candidate estimation unit 11.

車両の形状モデルに当てはまるグループgnがある場合、特徴点抽出部12での処理として、ECU10では、カメラ4で撮像した画像を用いて、推定した画像上範囲内で画素(u,v)毎に、各画素の値Iu,vを用いて式(9)により横方向のエッジ強度ΔIhu,vを計算するとともに式(10)により縦方向のエッジ強度ΔIvu,vを計算し、その各エッジ強度ΔIhu,v,ΔIvu,vを用いて式(11)によりエッジ強度ΔIu,vを計算するとともに式(12)によりエッジ方向θu,vを計算する。これによって、エッジ画像を生成することにより、エッジによる特徴量を有する特徴点を抽出する。 When there is a group gn that applies to the shape model of the vehicle, the ECU 10 uses the image captured by the camera 4 as a process in the feature point extraction unit 12 for each pixel (u, v) within the estimated range on the image. , the vertical edge intensity? Iv u, a v calculated lateral edge strength DerutaIh u, with calculating the v by the equation (10) by equation (9) using the values I u, v of each pixel, each Using the edge strengths ΔIh u, v and ΔIv u, v , the edge strength ΔI u, v is calculated by the equation (11) and the edge direction θ u, v is calculated by the equation (12). Thus, by generating an edge image, feature points having feature quantities due to edges are extracted.

特徴点を抽出すると、特徴点3次元位置候補推定部13の処理として、ECU10では、まず、面候補sptを0で初期化する(S80)。   When feature points are extracted, as a process of the feature point three-dimensional position candidate estimation unit 13, the ECU 10 first initializes the surface candidate spt with 0 (S80).

面候補sptを更新する毎に、ECU10では、面候補sptに含まれる特徴点fを0で初期化する(S81)。   Every time the surface candidate spt is updated, the ECU 10 initializes the feature point f included in the surface candidate spt with 0 (S81).

特徴点fを更新する毎に、ECU10では、式(15)により、特徴点fの画像上の位置を用いて特徴点の存在する方向nを計算する(S82)。さらに、ECU10では、その方向nと前面・後面モデルの面又は側面モデルの面との交点を計算し、その交点を特徴点fの3次元位置(xf,spt,yf,spt,zf,spt)とする(S83)。ECU10では、特徴点fを更新するために、fに1を加算する(S84)。そして、ECU10では、fが面候補sptに含まれる特徴点の数以上か否かを判定する(S85)。S85にfが特徴点の数未満と判定した場合、ECU10では、S82の処理に戻って、更新した特徴点fに対する処理を行う。 Every time the feature point f is updated, the ECU 10 calculates the direction n f in which the feature point exists using the position of the feature point f on the image by using the equation (15) (S82). Further, the ECU 10 calculates the intersection point between the direction n f and the surface of the front / rear model or the surface of the side model, and determines the intersection point as the three-dimensional position (x f, spt , y f, spt , z) of the feature point f. f, spt ) (S83). The ECU 10 adds 1 to f in order to update the feature point f (S84). Then, the ECU 10 determines whether f is equal to or greater than the number of feature points included in the surface candidate spt (S85). If it is determined in S85 that f is less than the number of feature points, the ECU 10 returns to the process of S82 and performs the process for the updated feature point f.

S85にてfが特徴点の数以上と判定した場合、ECU10では、面候補sptを更新するために、sptに1を加算する(S86)。そして、ECU10では、sptが面候補の数以上か否かを判定する(S87)。S87にsptが面候補の数未満と判定した場合、ECU10では、S81の処理に戻って、更新した面候補sptに対する処理を行う。   When it is determined in S85 that f is equal to or greater than the number of feature points, the ECU 10 adds 1 to spt in order to update the surface candidate spt (S86). Then, the ECU 10 determines whether or not spt is equal to or greater than the number of face candidates (S87). When it is determined in S87 that spt is less than the number of face candidates, the ECU 10 returns to the process of S81 and performs the process for the updated face candidate spt.

S87にsptが面候補の数以上と判定した場合、ECU10では、特徴点3次元位置候補推定部13での処理を終了する。   If it is determined in S87 that spt is equal to or greater than the number of surface candidates, the ECU 10 ends the process in the feature point three-dimensional position candidate estimation unit 13.

特徴点の3次元位置を推定すると、車両端点抽出部14での処理として、ECU10では、まず、最少位置誤差Esptt1,sptt2をTHR_ERROR(例えば、∞)で初期化するとともに、最少誤差の面候補STP1,STP2を0で初期化する(S90)。また、ECU10では、現時刻t2の面候補sptt2を0で初期化する(S91)。 When the three-dimensional position of the feature point is estimated, the ECU 10 first initializes the minimum position errors E sptt1 and sptt2 with THR_ERROR (for example, ∞) as a process in the vehicle end point extraction unit 14, and the surface candidate with the minimum error. STP1 and STP2 are initialized with 0 (S90). Further, the ECU 10 initializes the surface candidate spt t2 at the current time t2 with 0 (S91).

現時刻t2の面候補sptt2を更新する毎に、ECU10では、前時刻t1の面候補sptt1を0で初期化する(S92)。 Every time the surface candidate spt t2 at the current time t2 is updated, the ECU 10 initializes the surface candidate spt t1 at the previous time t1 with 0 (S92).

前時刻t1の面候補sptt1を更新する毎に、ECU10では、現時刻t2の特徴点ft2を0で初期化する(S93)。 Every time the surface candidate spt t1 at the previous time t1 is updated, the ECU 10 initializes the feature point f t2 at the current time t2 with 0 (S93).

現時刻t2の特徴点ft2を更新する毎に、ECU10では、特徴点ft2に対応する前時刻t1の特徴点ft2’を0で初期化するとともに、最少特徴量差ΔFt1,t2をTHR_FEATURE(例えば、∞)で初期化する(S94)。また、ECU10では、前時刻t1の特徴点ft1を0で初期化する(S95)。 Each time updating the feature point f t2 the current time t2, the ECU 10, is initialized with 0 feature points f t2 'before the time t1 corresponding to the feature point f t2, the minimum feature amount difference [Delta] F t1, t2 Initialization is performed with THR_FEATURE (for example, ∞) (S94). Further, the ECU 10 initializes the feature point f t1 at the previous time t1 with 0 (S95).

前時刻t1の特徴点ft1を更新する毎に、ECU10では、式(17)により、特徴点ft1と特徴点ft2との特徴量の差ΔF’を計算する(S96)。そして、ECU10では、特徴量の差ΔF’が最少特徴量差ΔFt1,t2より小さいか否かを判定する(S97)。S97にて特徴量の差ΔF’が最少特徴量差ΔFt1,t2以上と判定した場合、ECU10では、S100の処理に移行し、前時刻t1の特徴点ft1を更新するために、ft1に1を加算する(S100)。 Every time the feature point f t1 at the previous time t1 is updated, the ECU 10 calculates the difference ΔF ′ in the feature amount between the feature point f t1 and the feature point f t2 according to the equation (17) (S96). Then, the ECU 10 determines whether or not the feature amount difference ΔF ′ is smaller than the minimum feature amount difference ΔF t1, t2 (S97). When it is determined in S97 that the feature amount difference ΔF ′ is equal to or larger than the minimum feature amount difference ΔF t1, t2 , the ECU 10 proceeds to the processing of S100 and updates the feature point f t1 at the previous time t1 to update the feature point f t1. 1 is added to (S100).

S97にて特徴量の差ΔF’が最少特徴量差ΔFt1,t2より小さいと判定した場合、ECU10では、最少特徴量差ΔFt1,t2として今回の特徴量の差ΔF’を設定し(S98)、特徴点ft2に対応する前時刻t1の特徴点ft2’として今回の特徴点ft1を設定する(S99)。そして、ECU10では、前時刻t1の特徴点ft1を更新するために、ft1に1を加算する(S100)。さらに、ECU10では、特徴点ft1が時刻t1での特徴点の数Nft1以上か否かを判定する(S101)。S101にてft1が時刻t1での特徴点の数Nft1未満と判定した場合、ECU10では、S96の処理に戻って、更新した特徴点ft1に対する処理を行う。 When it is determined in S97 that the feature amount difference ΔF ′ is smaller than the minimum feature amount difference ΔF t1, t2 , the ECU 10 sets the current feature amount difference ΔF ′ as the minimum feature amount difference ΔF t1, t2 (S98). ), set the current feature point f t1 as feature points f t2 'before the time t1 corresponding to the feature point f t2 (S99). Then, the ECU 10 adds 1 to f t1 in order to update the feature point f t1 at the previous time t1 (S100). Further, the ECU 10, determines whether the number N ft1 or more feature points in the feature point f t1 the time t1 (S101). If S101 at f t1 is determined as the number N less than ft1 feature points at time t1, the ECU 10, returns to the processing of S96, performs processing for the feature point f t1 the updated.

S101にてft1が時刻t1での特徴点の数Nft1以上と判定した場合、ft2’に記憶されている特徴点が今回の特徴点ft2に対応する前時刻t1での特徴点である。そして、ECU10では、現時刻t2の特徴点ft2を更新するために、ft2に1を加算する(S102)。さらに、ECU10では、特徴点ft2が時刻t2での特徴点の数Nft2以上か否かを判定する(S103)。S103にてft2が時刻t2での特徴点の数Nft2未満と判定した場合、ECU10では、S94の処理に戻って、更新した特徴点ft2に対する処理を行う。 When it is determined in S101 that f t1 is equal to or greater than the number N ft1 of feature points at time t1, the feature point stored in f t2 ′ is the feature point at the previous time t1 corresponding to the current feature point f t2. is there. Then, the ECU 10, to update the feature point f t2 the current time t2, and adds 1 to f t2 (S102). Further, the ECU 10, determines whether the number N ft @ 2 or more feature points in the feature point f t2 the time t2 (S103). If S103 at f t2 is determined as the number N less than ft2 feature points at time t2, the ECU 10, returns to the processing of S94, performs processing for the feature point f t2 the updated.

S103にてft2が時刻t2での特徴点の数Nft2以上と判定した場合、特徴点ft1と特徴点ft2との全ての組み合わせについての処理が終了したことになるので、現時刻t2の全ての特徴点ft2について対応する前時刻t1での特徴点ft2’(=ft1)が確定したことになる。 If S103 at f t2 is determined as the number N ft @ 2 or more feature points at time t2, since the processing for all the combinations of the feature point f t1 and the feature point f t2 is the finished, current time t2 The feature point f t2 ′ (= f t1 ) at the previous time t1 corresponding to all the feature points f t2 is determined.

次に、ECU10では、RANSAC法により、現時刻t2と前時刻t1で対応する特徴点間で位置誤差が最少になるような並進移動量(dxspt,dyspt,dzspt)と回転量ψsptを推定する(S104)。さらに、ECU10では、前時刻t1の面候補sptt1の各特徴点ft1を並進移動量(dxspt,dyspt,dzspt)と回転量ψsptで変換した上で、対応する特徴点間の位置誤差Eを計算する(S105)。そして、ECU10では、位置誤差Eが最少位置誤差Esptt1,sptt2より小さいか否かを判定する(S106)。S106にて位置誤差Eが最少位置誤差Esptt1,sptt2以上と判定した場合、ECU10では、S109の処理に移行し、前時刻t1の面候補sptf1を更新するために、sptt1に1を加算する(S109)。 Then, the ECU 10, the RANSAC method, translation amount as the position error is minimized between feature points corresponding in the previous time t1 and the current time t2 (dx spt, dy spt, dz spt) and the rotation amount [psi spt Is estimated (S104). Further, the ECU 10, the translational movement amount of each feature point f t1 face candidate spt t1 before time t1 (dx spt, dy spt, dz spt) on converted in the rotation amount [psi spt, between the corresponding feature points The position error E is calculated (S105). Then, the ECU 10 determines whether or not the position error E is smaller than the minimum position errors E sptt1 and sptt2 (S106). If the position error E is determined to be equal to or greater than the minimum position error E sptt1, sptt2 in S106, the ECU 10 proceeds to the processing of S109 and adds 1 to spt t1 in order to update the surface candidate spt f1 at the previous time t1. (S109).

S106にて位置誤差Eが最少位置誤差Esptt1,sptt2より小さいと判定した場合、ECU10では、最少位置誤差Esptt1,sptt2に今回の位置誤差Eを設定するとともに(S107)、面候補STP1に今回の面候補stpt1を設定し、面候補STP2に今回の面候補stpt2を設定する(S108)。そして、ECU10では、前時刻t1の面候補sptt1を更新するために、sptt1に1を加算する(S109)。さらに、ECU10では、面候補sptt1が時刻t1での面候補の数Nsptt1以上か否かを判定する(S110)。S110にて面候補sptt1が時刻t1での面候補の数Nsptt1未満と判定した場合、ECU10では、S93の処理に戻って、更新した面候補sptt1に対する処理を行う。 When it is determined in S106 that the position error E is smaller than the minimum position errors E sptt1 and sptt2 , the ECU 10 sets the current position error E as the minimum position errors E sptt1 and sptt2 (S107), and sets the current position candidate STP1 as the current position error STP1. The surface candidate stp t1 is set, and the current surface candidate stp t2 is set as the surface candidate STP2 (S108). Then, the ECU 10 adds 1 to spt t1 in order to update the surface candidate spt t1 at the previous time t1 (S109). Further, the ECU 10 determines whether or not the surface candidate spt t1 is equal to or greater than the number N of surface candidates at time t1 (S110). If it is determined in S110 that the surface candidate spt t1 is less than the number of surface candidates N sptt1 at time t1, the ECU 10 returns to the process of S93 and performs the process for the updated surface candidate spt t1 .

S110にて面候補sptt1が時刻t1での面候補の数Nsptt1以上と判定した場合、ECU10では、現時刻t2の面候補sptt2を更新するために、sptt2に1を加算する(S111)。さらに、ECU10では、面候補sptt2が時刻t2での面候補の数Nsptt2以上か否かを判定する(S112)。S112にて面候補sptt2が時刻t2での面候補の数Nsptt2未満と判定した場合、ECU10では、S92の処理に戻って、更新した面候補sptt2に対する処理を行う。 When it is determined in S110 that the surface candidate spt t1 is equal to or larger than the number of surface candidates N sptt1 at time t1, the ECU 10 adds 1 to spt t2 in order to update the surface candidate spt t2 at the current time t2 (S111). ). Further, the ECU 10 determines whether or not the surface candidate spt t2 is equal to or greater than the number N of surface candidates at time t2 (S112). When it is determined in S112 that the surface candidate spt t2 is less than the number of surface candidates N sptt2 at time t2, the ECU 10 returns to the process of S92 and performs the process for the updated surface candidate spt t2 .

S112にて面候補sptt2が時刻t2での面候補の数Nsptt2以上と判定した場合、面候補sptt2と面候補sptt1の全ての組み合わせに対する処理が終了したので、STP1に記憶されている面候補が前時刻t1での車両の面に確定したことになり、STP2に記憶されている面候補が現時刻t2での車両の面に確定したことになる。そこで、ECU10では、前時刻t1の面候補SPT1に対応するグループgnの反射点群の中から分割位置の近傍の2つの反射点rptgn,SPT1とrptgn,SPT1+1を抽出し、その2つの反射点の平均値を時刻t1での車両の端点(2つの面の境界位置)とする(S113)。また、ECU10では、現時刻t2の面候補SPT2に対応するグループgnの反射点群の中から分割位置の近傍の2つの反射点rptgn,SPT2とrptgn,SPT2+1を抽出し、その2つの反射点の平均値を時刻t2での車両の端点とする(S113)。そして、ECU10では、車両端点の情報を少なくとも含む車両情報を車両情報信号として運転支援装置に送信する。ここでは、例えば、現時刻t2の車両の端点だけを出力してもよいし、前時刻t1と現時刻t2の車両の端点を出力してもよい。 If it is determined in S112 that the surface candidate spt t2 is equal to or greater than the number of surface candidates N sptt2 at time t2, the processing for all combinations of the surface candidate spt t2 and the surface candidate spt t1 is completed, and is stored in STP1. The surface candidate is determined to be the surface of the vehicle at the previous time t1, and the surface candidate stored in the STP2 is determined to be the surface of the vehicle at the current time t2. Therefore, the ECU 10 extracts two reflection points rpt gn, SPT1 and rpt gn, SPT1 + 1 in the vicinity of the division position from the reflection point group of the group gn corresponding to the surface candidate SPT1 at the previous time t1, and the two reflections. The average value of the points is set as the end point (boundary position between the two surfaces) of the vehicle at time t1 (S113). Further, the ECU 10 extracts two reflection points rpt gn, SPT2 and rpt gn, SPT2 + 1 near the division position from the reflection point group of the group gn corresponding to the surface candidate SPT2 at the current time t2, and the two reflections. The average value of the points is set as the end point of the vehicle at time t2 (S113). Then, the ECU 10 transmits vehicle information including at least vehicle end point information as a vehicle information signal to the driving support device. Here, for example, only the end point of the vehicle at the current time t2 may be output, or the end points of the vehicle at the previous time t1 and the current time t2 may be output.

この車両検出装置1によれば、連続する2時刻間の面候補の組み合わせ毎に対応する特徴点間において3次元位置を並進移動及び回転変換した上で最少の位置誤差を求め、全ての組み合わせの面候補の中で位置誤差が最少となる組み合わせの面候補を抽出することにより、車両の面を高精度に検出できる。さらに、この車両の面に基づいて、車両の端部を高精度に検出することができる。   According to the vehicle detection device 1, the minimum position error is obtained by translating and rotating the three-dimensional position between feature points corresponding to each combination of surface candidates between two consecutive times, and all combinations are obtained. By extracting a combination of surface candidates that minimizes the position error from the surface candidates, the surface of the vehicle can be detected with high accuracy. Furthermore, the end of the vehicle can be detected with high accuracy based on the surface of the vehicle.

図17〜図19を参照して、第2の実施の形態に係る車両検出装置2について説明する。図17は、第2の実施の形態に係る車両検出装置の構成図である。図18は、2時刻間での特徴点の位置誤差の一例であり、(a)が前時刻t1での特徴点の画像上位置と3次元位置との関係を示す図であり、(b)が現時刻t2での特徴点の画像上位置と3次元位置との関係を示す図であり、(c)が前時刻t1と現時刻t2間における特徴点の3次元位置の位置誤差を示す図である。図19は、車両幅推定部における処理の説明図である。   With reference to FIGS. 17-19, the vehicle detection apparatus 2 which concerns on 2nd Embodiment is demonstrated. FIG. 17 is a configuration diagram of a vehicle detection device according to the second embodiment. FIG. 18 is an example of the position error of the feature point between two times, (a) is a diagram showing the relationship between the position of the feature point on the image and the three-dimensional position at the previous time t1, (b) FIG. 6 is a diagram showing the relationship between the position of the feature point on the image and the three-dimensional position at the current time t2, and (c) is a diagram showing the position error of the three-dimensional position of the feature point between the previous time t1 and the current time t2. It is. FIG. 19 is an explanatory diagram of processing in the vehicle width estimation unit.

車両検出装置2は、第1の実施の形態に係る車両検出装置1と比較すると、車両の両端の端点を推定し、この各端点と車両端点抽出部14で抽出した車両の端点を用いて車両の幅を推定する構成を追加した点だけが異なる。そのために、車両検出装置2は、レーザレーダ3、カメラ4、ECU20を備えており、ECU20に車両位置・面候補推定部11、特徴点抽出部12、特徴点3次元位置候補推定部13、車両端点抽出部14、車両幅推定部25が構成される。なお、第2の実施の形態では、車両端点抽出部14及び車両幅推定部25が特許請求の範囲に記載する車両情報検出手段に相当する。   Compared with the vehicle detection device 1 according to the first embodiment, the vehicle detection device 2 estimates the end points of both ends of the vehicle, and uses the end points of the vehicle extracted by the respective end points and the vehicle end point extraction unit 14. The only difference is the addition of a configuration for estimating the width of. For this purpose, the vehicle detection device 2 includes a laser radar 3, a camera 4, and an ECU 20. The ECU 20 includes a vehicle position / surface candidate estimation unit 11, a feature point extraction unit 12, a feature point three-dimensional position candidate estimation unit 13, and a vehicle. An end point extraction unit 14 and a vehicle width estimation unit 25 are configured. In the second embodiment, the vehicle end point extraction unit 14 and the vehicle width estimation unit 25 correspond to vehicle information detection means described in the claims.

ECU20は、CPU、ROM、RAMなどからなる電子制御ユニットであり、車両検出装置2を統括制御する。ECU20では、ROMに格納されているアプリケーションプログラムをRAM上にロードし、CPUで実行することによって車両位置・面候補推定部11、特徴点抽出部12、特徴点3次元位置候補推定部13、車両端点抽出部14、車両幅推定部25を構成する。ECU20では、所定時間毎に、レーザレーダ3からレーダ信号、カメラ4から画像信号を受信する。そして、ECU20では、この各信号を用いて各部11,12,13,14,25の処理を行い、車両を検出できた場合にはその車両の情報を車両報信号として運転支援装置に送信する。ここでは、車両幅推定部25での処理についてのみ詳細に説明する。   The ECU 20 is an electronic control unit including a CPU, a ROM, a RAM, and the like, and comprehensively controls the vehicle detection device 2. In the ECU 20, an application program stored in the ROM is loaded onto the RAM and executed by the CPU, whereby the vehicle position / surface candidate estimation unit 11, the feature point extraction unit 12, the feature point three-dimensional position candidate estimation unit 13, the vehicle The end point extraction unit 14 and the vehicle width estimation unit 25 are configured. The ECU 20 receives a radar signal from the laser radar 3 and an image signal from the camera 4 at predetermined time intervals. Then, the ECU 20 performs processing of each of the units 11, 12, 13, 14, 25 using these signals, and when the vehicle can be detected, transmits the vehicle information as a vehicle information signal to the driving support device. Here, only the process in the vehicle width estimation unit 25 will be described in detail.

車両幅推定部25について説明する。車両端点抽出部14で車両の端点(2つの面の境界位置)を抽出すると、車両幅推定部25では、車両端点抽出部14で推定した車両の各面STP1,STP2での対応する特徴点間の位置誤差をそれぞれ求め、位置誤差が小さい特徴点の中で車両端点抽出部14で抽出した車両の端点(2面の境界位置)から最も離れている特徴点の位置の各面の他方側の端点として抽出し、車両の端点の各面の他方側の端点に基づいて車両の幅を推定する。   The vehicle width estimation unit 25 will be described. When the vehicle end point extraction unit 14 extracts the end point of the vehicle (the boundary position between the two surfaces), the vehicle width estimation unit 25 calculates the distance between corresponding feature points on the respective planes STP1 and STP2 of the vehicle estimated by the vehicle end point extraction unit 14. The position error of each of the surfaces of the feature points farthest from the vehicle end point (boundary position of the two surfaces) extracted by the vehicle end point extraction unit 14 among the feature points having a small position error is obtained. It is extracted as an end point, and the width of the vehicle is estimated based on the end point on the other side of each surface of the end point of the vehicle.

図18には、前時刻t1と現時刻t2間において車両前面での特徴点での位置誤差と車両以外の物体での特徴点での位置誤差の一例を示している。図(a)は前時刻t1の場合であり、標識Bの特徴点としてCP1t1が画像IP上の特徴点であり、3P1t1’が特徴点CP1t1の車両端点抽出部14で推定した車両の面STP1上での3次元位置候補であり、3P1t1が特徴点CP1t1の実際の3次元位置であり、車両Vの前面の特徴点としてCP2t1が画像IP上の特徴点であり、3P2t1’が特徴点CP2t1の車両の面STP1上で3次元位置候補であり、3P2t1が特徴点CP2t1の実際の3次元位置である。図(b)は現時刻t2の場合であり、標識Bの特徴点としてCP1t2が画像IP上の特徴点であり、3P1t2’が特徴点CP1t2の車両端点抽出部14で推定した車両の面STP2上での3次元位置候補であり、3P1t2が特徴点CP1t2の実際の3次元位置であり、車両Vの前面の特徴点としてCP2t2が画像IP上の特徴点であり、3P2t2’が特徴点CP2t2の車両の面STP2上での3次元位置候補であり、3P2t2が特徴点CP2t2の実際の3次元位置である。さらに、図(c)には前時刻t1と現時刻t2間における3次元位置候補の位置誤差を示しており、標識Bの特徴点についての3次元位置候補3P1t1’,3P1t2’間の位置誤差L1と、車両Vの特徴点についての3次元位置候補3P2t1’,3P2t2’間の位置誤差L2を示している。この例からも判るように、車両の特徴点の場合、2時刻t1,t2間の画像上の特徴点についての車両の面STP1,STP2上での各3次元位置候補の位置の差は小さく、2時刻t1,t2間で特徴点の対応がつく。しかし、車両V以外の物体(標識B)の場合、2時刻t1,t2間の画像上の特徴点についての車両の面STP1,STP2上での各3次元位置候補の位置の差は大きく、2時刻t1,t2間で特徴点の対応がつかない。したがって、特徴点群の中から、この2時刻t1,t2間の位置誤差が大きくなる特徴点を排除することにより、車両の特徴点のみが残ることになる。 FIG. 18 shows an example of a position error at a feature point on the front surface of the vehicle and a position error at a feature point on an object other than the vehicle between the previous time t1 and the current time t2. FIG. 6A shows the case of the previous time t1, CP1 t1 as a feature point of the sign B is a feature point on the image IP, and 3P1 t1 ′ is a vehicle point estimated by the vehicle end point extraction unit 14 of the feature point CP1 t1 . It is a three-dimensional position candidate on the plane STP1, 3P1 t1 is an actual three-dimensional position of the feature point CP1 t1 , CP2 t1 is a feature point on the image IP as a feature point on the front surface of the vehicle V, and 3P2 t1 'Is a three-dimensional position candidate on the vehicle surface STP1 of the feature point CP2 t1 , and 3P2 t1 is an actual three-dimensional position of the feature point CP2 t1 . FIG. 6B shows the case of the current time t2, CP1 t2 is a feature point on the image IP as a feature point of the sign B, and 3P1 t2 ′ is a vehicle point estimated by the vehicle end point extraction unit 14 of the feature point CP1 t2 . It is a three-dimensional position candidate on the plane STP2, 3P1 t2 is an actual three-dimensional position of the feature point CP1 t2 , CP2 t2 is a feature point on the image IP as a feature point on the front surface of the vehicle V, and 3P2 t2 'Is a three-dimensional position candidate of the feature point CP2 t2 on the vehicle surface STP2, and 3P2 t2 is an actual three-dimensional position of the feature point CP2 t2 . Further, FIG. 3C shows the position error of the three-dimensional position candidate between the previous time t1 and the current time t2, and the position between the three-dimensional position candidates 3P1 t1 ′ and 3P1 t2 ′ for the feature point of the marker B An error L1 and a position error L2 between the three-dimensional position candidates 3P2 t1 ′ and 3P2 t2 ′ for the feature points of the vehicle V are shown. As can be seen from this example, in the case of the feature point of the vehicle, the difference in the position of each three-dimensional position candidate on the plane STP1, STP2 of the feature point on the image between two times t1, t2 is small. Correspondence of feature points is established between two times t1 and t2. However, in the case of an object other than the vehicle V (sign B), the difference in position of each three-dimensional position candidate on the vehicle planes STP1 and STP2 with respect to the feature points on the image between two times t1 and t2 is large. There is no correspondence between feature points between times t1 and t2. Therefore, by removing the feature points that increase the positional error between the two times t1 and t2 from the feature point group, only the feature points of the vehicle remain.

図19には、車両幅推定部25での処理(車両の前面に対するもの)の概要を示している。現時刻t2の画像Iから抽出された特徴点(3次元位置候補)3P1t2’,3P2t2’,・・・,3P12t2’,・・・の一例を示しており、この例の場合、特徴点3P1t2’,3P9t2’,3P12t2’が車両以外の物体の特徴点である。この各特徴点について、前時刻t1と現時刻t2間で対応する特徴点の3次元位置候補の位置誤差Eをそれぞれ計算し、その各位置誤差Eを画像上の横位置uを横軸としたグラフG1に示している。このグラグG1から判るように、車両以外の物体の特徴点3P1t2’,3P9t2’,3P12t2’についての各位置誤差は所定の閾値THR_ERROR_FPより大きくなるので、この特徴点を排除する。そして、残った特徴点についてのみ、特徴点の数を横位置u毎(1画素単位毎ではなく、数画素単位毎)にカウントし、そのカウント値(頻度EHist)を横位置u(数画素単位)を横軸としたグラフG2に示している。このグラフG2から判るように、車両端点抽出部14で抽出した車両の端部Uedgeでは頻度EHistが所定の閾値THR_ERROR_FPCNTを超えており、それ以外で頻度EHistが閾値THR_ERROR_FPCNTを超える横位置uのうち車両の端部Uedgeから最も離れている横位置uを車両の前面の他方側の端部とする。 In FIG. 19, the outline | summary of the process (thing with respect to the front surface of a vehicle) in the vehicle width estimation part 25 is shown. Feature points extracted from the image I of the current time t2 (3-dimensional position candidates) 3P1 t2 ', 3P2 t2' , ···, 3P12 t2 ', shows an example of ..., in this example, feature Points 3P1 t2 ′, 3P9 t2 ′, and 3P12 t2 ′ are feature points of an object other than the vehicle. For each feature point, the position error E of the three-dimensional position candidate of the corresponding feature point between the previous time t1 and the current time t2 is calculated, and the position error E is set to the horizontal position u on the image as the horizontal axis. This is shown in the graph G1. The As can be seen from the Gulag G1, feature points of an object other than a vehicle 3P1 t2 ', 3P9 t2', since the position error is greater than a predetermined threshold value THR_ERROR_FP for 3P12 t2 ', to eliminate this feature point. For only the remaining feature points, the number of feature points is counted for each horizontal position u (in units of several pixels, not in units of one pixel), and the count value (frequency EHist u ) is counted in the horizontal position u (several pixels). A graph G2 is shown with the unit) as the horizontal axis. As can be seen from this graph G2, in the vehicle end U edge extracted by the vehicle end point extraction unit 14, the frequency EHist u exceeds the predetermined threshold value THR_ERROR_FPCNT, and otherwise, the lateral position u where the frequency EHist u exceeds the threshold value THR_ERROR_FPCNT. the lateral position u L farthest from the end U edge of the vehicle and the end of the other side of the front of the vehicle of.

具体的には、車両幅推定部25では、前時刻t1での面STP1と現時刻t2での面候補STP2において対応する特徴点ft2’,ft2毎に、特徴点ft2’,ft2間で位置誤差が最少になるような並進移動量(dxspt,dyspt,dzspt)と回転量ψsptを用いて、特徴点ft2’(=ft1)を並進移動量(dxspt,dyspt,dzspt)と回転量ψsptで変換した上で、対応する特徴点ft2’,ft2間の位置誤差Eft2を計算する。位置誤差Eft2は、式(20)によって計算することができる。式(20)のXは、式(21)によって計算することができる。なお、式(21)における対応する特徴点ft2’,ft2間についての並進移動量(dxspt,dyspt,dzspt)と回転量ψsptについては、車両端点抽出部14で既に求められている。

Figure 2010256040
Specifically, in the vehicle width estimation unit 25, for each feature point f t2 ′, f t2 corresponding to the surface candidate STP2 at the previous time t1 and the surface candidate STP2 at the current time t2, the feature points f t2 ′, f t2 translation amount as the position error is minimized between (dx spt, dy spt, dz spt) and using a rotation amount [psi spt, feature points f t2 'translation amount (= f t1) (dx spt , dy spt, on converted by dz spt) and the rotation amount [psi spt, corresponding feature points f t2 ', calculates the position error E ft @ 2 between f t2. The position error E ft2 can be calculated by the equation (20). X in equation (20) can be calculated by equation (21). Note that the translation amount (dx spt , dy spt , dz spt ) and the rotation amount ψ spt between the corresponding feature points f t2 ′ and f t2 in Expression (21) have already been obtained by the vehicle end point extraction unit 14. ing.
Figure 2010256040

位置誤差Eft2を計算する毎に、車両幅推定部25では、特徴点のft2’,ft2間の位置誤差Eft2が閾値THR_ERROR_FPより小さいか否かを判定する。閾値THR_ERROR_FPは、特徴点間の位置誤差Eft2に基づいて、車両の特徴点かあるいは車両以外の特徴点かを判別するための閾値である。位置誤差Eft2が閾値THR_ERROR_FPより小さい場合、車両幅推定部25では、その特徴点の横位置u(数画素毎の横位置)の頻度EHistをカウントアップする。 Determining for each to calculate the position error E ft @ 2, in the vehicle width estimator 25, f t2 'of the feature point, position error E ft @ 2 between f t2 is whether the threshold THR_ERROR_FP smaller. The threshold value THR_ERROR_FP is a threshold value for determining whether the feature point is a feature point of the vehicle or a feature point other than the vehicle based on the positional error E ft2 between the feature points. When the position error E ft2 is smaller than the threshold value THR_ERROR_FP, the vehicle width estimation unit 25 counts up the frequency EHist u of the lateral position u (lateral position every several pixels) of the feature point.

対応する全ての特徴点ft2’,ft2間に対する処理が終了すると、車両幅推定部25では、各横位置uでの頻度EHistの中から閾値THR_ERROR_FPCNTを超えるか否かを判定する。閾値THR_ERROR_FPCNTは、頻度EHistに基づいて、車両の端点として所定数以上の特徴点があるか否か判定するための閾値である。 When the processing between all corresponding feature points f t2 ′ and f t2 is completed, the vehicle width estimation unit 25 determines whether or not the threshold value THR_ERROR_FPCNT is exceeded from the frequency EHist u at each lateral position u. Threshold THR_ERROR_FPCNT is based on the frequency EHist u, is a threshold for determining whether there is a predetermined number or more of characteristic points as end points of the vehicle.

車両幅推定部25では、頻度EHistが閾値THR_ERROR_FPCNTを超える横位置uの中から、車両端点抽出部14で抽出した車両の端点(2面の境界位置)から最も離れている横位置uを抽出し、その横位置uを車両の面の他方側の端点とする。 The vehicle width estimation unit 25 extracts a lateral position u farthest from the vehicle end point (boundary position of the two surfaces) extracted by the vehicle end point extraction unit 14 from the lateral positions u whose frequency EHist u exceeds the threshold value THR_ERROR_FPCNT. The lateral position u is defined as the end point on the other side of the vehicle surface.

車両幅推定部25では、車両端点抽出部14で抽出した車両の面STP1,STP2における前面・後面と側面とに分けて上記処理を行い、前面・後面の他方側の端点と側面の他方側の端点をそれぞれ推定する。そして、車両幅推定部25では、推定した前面・後面の他方側の端点と側面の他方側の端点及び車両端点抽出部14で抽出した車両の端点を用いて、端点間距離により車両の幅を計算する。前面・後面の他方側の端点と側面の他方側の端点間距離の場合、画像に写っている車両全体の幅である。前面・後面の他方側の端点と車両端点抽出部14で抽出した車両の端点間距離の場合、画像に写っている車両の前面の幅である。側面の他方側の端点と車両端点抽出部14で抽出した車両の端点間距離の場合、画像に写っている車両の側面の長さである。   In the vehicle width estimation unit 25, the above processing is performed separately for the front surface / rear surface and the side surface of the vehicle surfaces STP1 and STP2 extracted by the vehicle end point extraction unit 14. Each end point is estimated. The vehicle width estimation unit 25 calculates the vehicle width based on the distance between the endpoints using the estimated endpoints on the other side of the front and rear surfaces, the endpoints on the other side of the side surface, and the vehicle endpoints extracted by the vehicle endpoint extraction unit 14. calculate. In the case of the distance between the end point on the other side of the front and rear surfaces and the end point on the other side of the side surface, it is the width of the entire vehicle shown in the image. In the case of the distance between the end points on the other side of the front surface / rear surface and the end points of the vehicle extracted by the vehicle end point extraction unit 14, this is the width of the front surface of the vehicle shown in the image. In the case of the distance between the end point on the other side of the side surface and the end point of the vehicle extracted by the vehicle end point extracting unit 14, it is the length of the side surface of the vehicle shown in the image.

車両検出装置2の動作について説明する。車両検出装置2の動作では、第1の実施の形態に係る車両検出装置1の動作と比較すると、車両端点抽出部14が終了した後に車両幅推定部25での処理を行うことだけが異なるので、ECU20における車両幅推定部25での処理についてのみ説明する。ECU20における車両幅推定部25の処理については図20のフローチャートに沿って説明する。図20は、車両幅推定部における処理の流れを示すフローチャートである。   The operation of the vehicle detection device 2 will be described. Since the operation of the vehicle detection device 2 is different from the operation of the vehicle detection device 1 according to the first embodiment, only the processing in the vehicle width estimation unit 25 is performed after the vehicle end point extraction unit 14 ends. Only the process in the vehicle width estimation unit 25 in the ECU 20 will be described. The processing of the vehicle width estimation unit 25 in the ECU 20 will be described along the flowchart of FIG. FIG. 20 is a flowchart showing the flow of processing in the vehicle width estimation unit.

車両幅推定部25での処理として、ECU20では、まず、現時刻t2の特徴点ft2を0で初期化し(S120)、各横位置での頻度EHistを0で初期化する。 As the processing of the vehicle-width estimating section 25, the ECU 20, first, the feature points f t2 the current time t2 initialized to 0 (S120), is initialized to zero frequency EHist u at each lateral position.

特徴点ft2を更新する毎に、ECU20では、現時刻t2での面候補STP2における特徴点ft2に対応する前時刻t1での面候補SPT1における特徴点ft2’について、並進移動量(dxspt,dyspt,dzspt)と回転量ψsptdyspt,dzspt)で変換した上で特徴点ft2,ft2’間の位置誤差Eft2を計算する(S121)。そして、ECU20では、位置誤差Eft2が閾値THR_ERROR_FPより小さいか否かを判定する(S122)。S122にて位置誤差Eft2が閾値THR_ERROR_FPより小さいと判定した場合、ECU20では、特徴点ft2の画像上での横位置uに対する頻度EHistを1カウントアップする(S123)。 Every time the feature point f t2 is updated, the ECU 20 translates the translation amount (dx) for the feature point f t2 ′ in the surface candidate SPT1 at the previous time t1 corresponding to the feature point f t2 in the surface candidate STP2 at the current time t2. The position error E ft2 between the feature points f t2 and f t2 ′ is calculated after conversion using spt , dy spt , dz spt ) and the rotation amount ψ spt dy spt , dz spt ) (S121). Then, the ECU 20 determines whether or not the position error E ft2 is smaller than the threshold value THR_ERROR_FP (S122). Position if the error E ft @ 2 determines the threshold THR_ERROR_FP smaller at S122, the ECU 20, the frequency EHist u with respect to the lateral position u on the image feature points f t2 counted up by 1 (S123).

ECU20では、現時刻t2の特徴点ft2を更新するために、ft2に1を加算する(S124)。さらに、ECU20では、特徴点ft2が時刻t2での特徴点の数Nft2以上か否かを判定する(S125)。S125にてft2が時刻t2での特徴点の数Nft2未満と判定した場合、ECU20では、S121の処理に戻って、更新した特徴点ft2に対する処理を行う。 In ECU 20, to update the feature point f t2 the current time t2, and adds 1 to f t2 (S124). Further determines the ECU 20, whether the number N ft @ 2 or more feature points in the feature point f t2 the time t2 (S125). If S125 at f t2 is determined as the number N less than ft2 feature points at time t2, the ECU 20, the process returns to the S121, performs processing for the feature point f t2 the updated.

S125にてft2が時刻t2での特徴点の数Nft2以上と判定した場合、全ての対応する特徴点ft2,ft2’間についての処理が終了したことになる。そこで、ECU20では、頻度EHistが閾値THR_ERROR_FPCNTを超える横位置u中で、車両の端点(2面の境界位置)から最も離れている横位置uを車両の面の他方側の端点とする(S126)。そして、ECU20では、その車両の面の他方側の端点と車両の端点(2面の境界位置)の差により車両の幅を推定する(S127)。 If S125 at f t2 is determined as the number N ft @ 2 or more feature points at time t2, so that the processing for all of the corresponding feature point f t2, f t2 'between the ends. Therefore, the ECU 20 sets the lateral position u farthest from the vehicle end point (boundary position of the two surfaces) in the lateral position u where the frequency EHist u exceeds the threshold value THR_ERROR_FPCNT as the end point on the other side of the vehicle surface (S126). ). Then, the ECU 20 estimates the width of the vehicle based on the difference between the end point on the other side of the surface of the vehicle and the end point (boundary position of the two surfaces) of the vehicle (S127).

ECU20では、前面・後面と側面とに分けて上記処理を行い、前面・後面の他方側の端点と側面の他方側の端点をそれぞれ推定し、車両の幅を推定する。そして、ECU20では、車両の面、車両の各端点及び車両の幅の情報を少なくとも含む車両情報を車両情報信号として運転支援装置に送信する。   The ECU 20 performs the above processing separately for the front / rear and side surfaces, estimates the other end point of the front / rear surface and the other end point of the side surface, and estimates the width of the vehicle. Then, the ECU 20 transmits vehicle information including at least information on the surface of the vehicle, each end point of the vehicle, and the width of the vehicle as a vehicle information signal to the driving support device.

この車両検出装置2によれば、第1の実施の形態に係る車両検出装置1と同様の効果を有する上に、下記の効果も有する。車両検出装置2によれば、時刻t1,t2間での対応する特徴点間の位置誤差を利用することにより、車両の各面の他方側の残端点を高精度に推定でき、その残端点と車両の端点から車両の幅を高精度に推定することができる。   According to this vehicle detection device 2, in addition to the same effects as the vehicle detection device 1 according to the first embodiment, the following effects are also obtained. According to the vehicle detection device 2, the remaining end point on the other side of each surface of the vehicle can be estimated with high accuracy by using the position error between corresponding feature points between times t1 and t2. The width of the vehicle can be estimated with high accuracy from the end point of the vehicle.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では車両に搭載される車両検出装置に適用したが、衝突防止装置、車間制御装置などの運転支援装置や周辺監視装置などの他の装置にも適用可能である。   For example, in the present embodiment, the present invention is applied to a vehicle detection device mounted on a vehicle, but the present invention can also be applied to other devices such as a driving support device such as a collision prevention device and an inter-vehicle distance control device, and a periphery monitoring device.

また、本実施の形態では自車両の前方の車両を検出する場合に適用したが、後方などの他の方向での車両の検出にも適用可能である。   In the present embodiment, the present invention is applied to the case of detecting a vehicle in front of the host vehicle.

また、本実施の形態では車両を検出し、車両の面候補や車両の画像上の範囲を推定するためにレーザレーダのレーダ情報を用いる構成としたが、ミリ波レーダなどの他のレーダのレーダ情報を用いてもよい、あるいは、カメラによる画像を用いてパターン認識などによる他の方法で推定してもよい。   In the present embodiment, the radar information of the laser radar is used to detect the vehicle and estimate the surface candidate of the vehicle and the range on the image of the vehicle. However, the radar of another radar such as a millimeter wave radar is used. Information may be used, or estimation may be performed by other methods such as pattern recognition using an image from a camera.

また、本実施の形態では所定の特徴量(特徴点)としてエッジを適用したが、ウェーブレット、SIFTなどの他の特徴量でもよい。   In this embodiment, an edge is applied as a predetermined feature amount (feature point). However, other feature amounts such as a wavelet and SIFT may be used.

また、本実施の形態では推定した車両の面に基づいて車両の端点までの求める構成としたが、車両の面の推定だけを行う構成としてもよい。   In the present embodiment, the configuration is such that the vehicle end point is obtained based on the estimated vehicle surface, but only the vehicle surface may be estimated.

また、本実施の形態では連続する2時刻間について処理を行ったが、3時刻間や4時刻間でもよいし、時刻間の周期が短い場合には連続する時刻間でなくてもよい。   Further, in the present embodiment, processing is performed for two consecutive times, but it may be performed for three or four times, or may not be performed between consecutive times when the period between the times is short.

1,2…車両検出装置、3…レーザレーダ、4…カメラ、10,20…ECU、11…車両位置・面候補推定部、12…特徴点抽出部、13…特徴点3次元位置候補推定部、14…車両端点抽出部、25…車両幅推定部   DESCRIPTION OF SYMBOLS 1, 2 ... Vehicle detection apparatus, 3 ... Laser radar, 4 ... Camera, 10, 20 ... ECU, 11 ... Vehicle position and surface candidate estimation part, 12 ... Feature point extraction part, 13 ... Feature point three-dimensional position candidate estimation part , 14 ... Vehicle end point extraction unit, 25 ... Vehicle width estimation unit

Claims (3)

撮像手段で撮像した画像から車両の情報を検出する車両検出装置であって、
車両の面の候補を推定する面候補推定手段と、
前記撮像手段で車両を撮像した画像から所定の特徴量を有する複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段で抽出した特徴点の3次元位置を推定する3次元位置推定手段と、
前記撮像手段で異なる時刻で撮像した各画像からそれぞれ推定された面候補の組み合わせ毎に、面候補間で複数の特徴点について特徴量の差が小さくなる特徴点の対応関係を探索し、当該探索された対応関係の複数の特徴点間において3次元位置を並進移動及び回転変換した上で位置誤差を求め、当該位置誤差が最少となる組み合わせの面候補を抽出し、当該抽出した組み合わせの面候補に基づいて車両の面を検出する車両情報検出手段と
を備えることを特徴とする車両検出装置。
A vehicle detection device that detects vehicle information from an image captured by an imaging means,
A surface candidate estimation means for estimating a vehicle surface candidate;
Feature point extraction means for extracting a plurality of feature points having a predetermined feature amount from an image of the vehicle imaged by the imaging means;
3D position estimation means for estimating a 3D position of the feature points extracted by the feature point extraction means;
For each combination of surface candidates estimated from images captured at different times by the imaging means, search for a correspondence relationship between feature points for which a feature amount difference between the plurality of feature points is small, and the search A translational and rotational transformation of a three-dimensional position between a plurality of feature points of the corresponding correspondence, a position error is obtained, a surface candidate of a combination that minimizes the position error is extracted, and a surface candidate of the extracted combination Vehicle information detecting means for detecting the surface of the vehicle based on the vehicle detection device.
前記車両情報検出手段は、検出した面に基づいて車両の端点を検出することを特徴とする請求項1に記載する車両検出装置。   The vehicle detection device according to claim 1, wherein the vehicle information detection unit detects an end point of the vehicle based on the detected surface. 前記車両情報検出手段は、抽出した組み合わせの面候補間において対応する特徴点間の3次元位置の位置誤差が閾値以内の特徴点が存在する領域に基づいて車両の面の幅を検出することを特徴とする請求項1又は請求項2に記載する車両検出装置。   The vehicle information detection means detects the width of the surface of the vehicle based on a region where a feature point having a positional error of a three-dimensional position between corresponding feature points within a threshold is present among the extracted combination surface candidates. The vehicle detection device according to claim 1, wherein the vehicle detection device is characterized by the following.
JP2009103111A 2009-04-21 2009-04-21 Vehicle detection device Pending JP2010256040A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009103111A JP2010256040A (en) 2009-04-21 2009-04-21 Vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009103111A JP2010256040A (en) 2009-04-21 2009-04-21 Vehicle detection device

Publications (1)

Publication Number Publication Date
JP2010256040A true JP2010256040A (en) 2010-11-11

Family

ID=43317145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009103111A Pending JP2010256040A (en) 2009-04-21 2009-04-21 Vehicle detection device

Country Status (1)

Country Link
JP (1) JP2010256040A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118666A (en) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd Three-dimensional map automatic generation device
WO2013018708A1 (en) * 2011-08-03 2013-02-07 株式会社 東芝 Vehicle detection device and vehicle detection method
JP2014228879A (en) * 2013-05-17 2014-12-08 国立大学法人 東京大学 Three-dimensional information acquisition method and three-dimensional information acquisition apparatus
CN105702090A (en) * 2016-01-29 2016-06-22 深圳市美好幸福生活安全系统有限公司 Prompt device and method for backing car
WO2017047282A1 (en) * 2015-09-15 2017-03-23 株式会社リコー Image processing device, object recognition device, device control system, image processing method, and program
JP2019211402A (en) * 2018-06-07 2019-12-12 Jrcモビリティ株式会社 Vehicle measurement device and vehicle measurement program
JP2022089449A (en) * 2020-12-04 2022-06-16 日産自動車株式会社 Object detection method and object detection device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118666A (en) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd Three-dimensional map automatic generation device
WO2013018708A1 (en) * 2011-08-03 2013-02-07 株式会社 東芝 Vehicle detection device and vehicle detection method
US9196160B2 (en) 2011-08-03 2015-11-24 Kabushiki Kaisha Toshiba Vehicle detection apparatus and vehicle detection method
JP2014228879A (en) * 2013-05-17 2014-12-08 国立大学法人 東京大学 Three-dimensional information acquisition method and three-dimensional information acquisition apparatus
JPWO2017047282A1 (en) * 2015-09-15 2018-04-26 株式会社リコー Image processing apparatus, object recognition apparatus, device control system, image processing method and program
WO2017047282A1 (en) * 2015-09-15 2017-03-23 株式会社リコー Image processing device, object recognition device, device control system, image processing method, and program
US10672141B2 (en) 2015-09-15 2020-06-02 Ricoh Company, Ltd. Device, method, system and computer-readable medium for determining collision target object rejection
CN105702090A (en) * 2016-01-29 2016-06-22 深圳市美好幸福生活安全系统有限公司 Prompt device and method for backing car
CN105702090B (en) * 2016-01-29 2018-08-21 深圳市美好幸福生活安全系统有限公司 A kind of reversing alarm set and method
JP2019211402A (en) * 2018-06-07 2019-12-12 Jrcモビリティ株式会社 Vehicle measurement device and vehicle measurement program
JP7064389B2 (en) 2018-06-07 2022-05-10 Jrcモビリティ株式会社 Vehicle measuring device and vehicle measuring program
JP2022089449A (en) * 2020-12-04 2022-06-16 日産自動車株式会社 Object detection method and object detection device
JP7474689B2 (en) 2020-12-04 2024-04-25 日産自動車株式会社 Object detection method and object detection device

Similar Documents

Publication Publication Date Title
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
EP3293669B1 (en) Enhanced camera object detection for automated vehicles
WO2022188663A1 (en) Target detection method and apparatus
US8867790B2 (en) Object detection device, object detection method, and program
JP3367170B2 (en) Obstacle detection device
JP4687563B2 (en) Lane mark recognition device for vehicles
CN112464812B (en) A vehicle-based sunken obstacle detection method
JP2010256040A (en) Vehicle detection device
JP2000357233A (en) Object recognition device
JP2002352225A (en) Obstacle detection apparatus and method
EP3324359B1 (en) Image processing device and image processing method
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
KR20090098167A (en) Lane Recognition Method and System Using Distance Sensor
JP2000266539A (en) Inter-vehicle distance measuring apparatus
JP4074577B2 (en) Vehicle detection method and vehicle detection device
JP2006048435A (en) Image processor for vehicles
CN112286178B (en) Identification system, vehicle control system, identification method, and storage medium
EP4024330B1 (en) Object recognition method and object recognition device
JP2010250651A (en) Vehicle detection device
JP2005156199A (en) Vehicle detection method and vehicle detection device
JP2010249768A (en) Vehicle detection device
CN115115978B (en) Object recognition method, device, storage medium and processor
JP4151631B2 (en) Object detection device
RU2779522C1 (en) Object recognition method and object recognition device
JP2004030453A (en) Stereo matching method, stereo matching program, and computer readable recording medium with stereo matching program recorded thereon