JP2002303671A - Object-classification discrimination apparatus - Google Patents
Object-classification discrimination apparatusInfo
- Publication number
- JP2002303671A JP2002303671A JP2001104597A JP2001104597A JP2002303671A JP 2002303671 A JP2002303671 A JP 2002303671A JP 2001104597 A JP2001104597 A JP 2001104597A JP 2001104597 A JP2001104597 A JP 2001104597A JP 2002303671 A JP2002303671 A JP 2002303671A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- detection
- vehicle
- detection points
- detection point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 245
- 239000013598 vector Substances 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 28
- 239000000284 extract Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 19
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、車両に搭載されて
車両前方に存在する物体の種別を判別する物体種別判別
装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object type discriminating apparatus for discriminating the type of an object mounted on a vehicle and existing in front of the vehicle.
【0002】[0002]
【従来の技術】従来、自車両前方を先行して走行する先
行車両との車間距離を計測し、この車間距離を一定に保
ちながら先行車両に追従するように、自車両の走行を自
動制御する車両走行自動制御装置が提案されている。こ
のような車両走行自動制御装置を用いて自車両の走行制
御を適切に行うためには、自車両前方の状況を的確に判
断して、自車両が走行する車線における先行車両の位置
を正確に把握することが重要である。2. Description of the Related Art Conventionally, an inter-vehicle distance between a host vehicle and a preceding vehicle traveling ahead of the host vehicle is measured, and the running of the host vehicle is automatically controlled so as to follow the preceding vehicle while keeping the inter-vehicle distance constant. 2. Description of the Related Art A vehicle traveling automatic control device has been proposed. In order to appropriately control the running of the own vehicle using such a vehicle running automatic control device, it is necessary to accurately determine the situation in front of the own vehicle and accurately determine the position of the preceding vehicle in the lane in which the own vehicle runs. It is important to understand.
【0003】この種の車両走行自動制御装置では、レー
ザレーダを用いて先行車両の位置を計測するようにした
ものが一般的である。すなわち、この種の車両走行自動
制御装置では、通常、自車両前方に向けてパルス状のレ
ーザ光を出射して、先行車両の後部に取り付けられたリ
フレクタにて反射された反射レーザ光を検出し、レーザ
光出射時から反射レーザ光検出時までの遅延時間に基づ
いて、自車両に対する先行車両の位置を計測するように
している。[0003] In general, this type of vehicle traveling automatic control device measures the position of a preceding vehicle using a laser radar. That is, this type of vehicle traveling automatic control device normally emits a pulsed laser beam toward the front of the host vehicle and detects the reflected laser beam reflected by a reflector attached to the rear of the preceding vehicle. The position of the preceding vehicle with respect to the host vehicle is measured based on the delay time from when the laser light is emitted to when the reflected laser light is detected.
【0004】ところで、車両が走行する道路上及びその
周囲には、通常、先行車両以外にも、例えば道路脇の反
射体であるデリニエータ等の様々な物体が存在する。そ
して、例えば自車両が走行する車線がカーブしている場
合には、これら様々な物体からの反射レーザ光が検出さ
れることになる。このとき、様々な物体にて反射された
反射レーザ光の中から、自車両が走行する車線における
先行車両のリフレクタにて反射された反射レーザ光を識
別できないと、自車両前方の先行車両の存在及びその位
置を正確に把握できず、適切な走行制御を行うことがで
きない。[0004] By the way, on a road on which a vehicle travels and around the road, there are usually various objects such as a delineator which is a reflector beside the road besides the preceding vehicle. Then, for example, when the lane in which the vehicle travels is curved, reflected laser beams from these various objects are detected. At this time, if the reflected laser light reflected by the reflector of the preceding vehicle in the lane in which the own vehicle travels cannot be identified from the reflected laser light reflected by various objects, the presence of the preceding vehicle in front of the own vehicle is determined. In addition, it is impossible to accurately grasp the position of the vehicle, and it is impossible to perform appropriate traveling control.
【0005】このような問題に対処するものとして、例
えば、特開平6−195600号公報においては、スキ
ャニングレーザレーダを用いて道路上及びその周囲を比
較的広範囲に亘ってスキャニングし、その検出結果をも
とに先行車両の存在及びその位置を把握するようにした
手法が提案されている。To cope with such a problem, for example, in Japanese Patent Application Laid-Open No. 6-195600, a scanning laser radar is used to scan a relatively wide area on and around a road, and the detection result is obtained. A technique has been proposed based on which the existence and position of a preceding vehicle are grasped.
【0006】この手法では、スキャニングレーザレーダ
により道路上及びその周囲に存在するデリニエータを含
む物体を検出し、これらの物体の動きや反射強度の分布
をもとにデリニエータを判別している。そして、判別さ
れたデリニエータを基準にして自車両が走行する車線を
推測し、その推測された車線の前方に位置する移動物体
を先行車両として認識して、その位置を把握するように
している。In this method, an object including a delineator existing on and around a road is detected by a scanning laser radar, and the delineator is determined based on the movement of these objects and the distribution of reflection intensity. Then, based on the determined delineator, the lane in which the host vehicle travels is estimated, and a moving object located ahead of the estimated lane is recognized as a preceding vehicle, and the position is grasped.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、特開平
6−195600号公報にて開示される手法では、スキ
ャニングレーザレーダを用いて検出された物体の動きや
反射強度の分布だけからデリニエータを判別し、これを
もとにして自車両が走行する車線やその車線を走行する
先行車両を判断するようにしているので、スキャニング
レーザレーダの検出範囲にデリニエータや先行車両以外
の物体、例えば、隣接車線を走行する車両や看板等が多
数存在する場合には、これらの物体の中からデリニエー
タを正確に区別することが困難となる。そして、このよ
うな場合には、先行車両の存在及びその位置を適切に把
握することができず、車両の走行制御を適切に行えない
といった問題がある。However, in the method disclosed in Japanese Patent Application Laid-Open No. HEI 6-195600, a delineator is determined only from the distribution of the motion and reflection intensity of an object detected using a scanning laser radar. Based on this, the lane in which the host vehicle travels and the preceding vehicle traveling in that lane are determined, so that objects other than the delineator and the preceding vehicle, such as adjacent lanes, travel in the detection range of the scanning laser radar. When there are a large number of vehicles, signboards, and the like, it is difficult to accurately distinguish a delineator from these objects. In such a case, there is a problem that the existence and position of the preceding vehicle cannot be properly grasped, and the traveling control of the vehicle cannot be properly performed.
【0008】本発明は、以上のような問題を解決すべく
創案されたものであって、車両前方に存在する物体の種
別を的確に判別し、車両走行制御をより適切に行うこと
を可能とする物体種別判別装置を提供することを目的と
している。The present invention has been made in order to solve the above-described problems, and it is possible to accurately determine the type of an object existing in front of a vehicle and to more appropriately perform vehicle traveling control. It is an object of the present invention to provide an object type discriminating device that performs
【0009】[0009]
【課題を解決するための手段】請求項1に記載の発明
は、車両に搭載されて車両前方に存在する物体の種別を
判別する物体種別判別装置であって、前記車両前方に電
磁波を出射して、前記車両前方に存在する物体からの反
射電磁波を検出することで、前記物体の存在及びその位
置を検知点として認識する物体認識手段と、前記車両前
方の画像を撮像する撮像手段と、前記撮像手段により撮
像された画像を画像処理して、前記車両前方の車線を検
出する車線検出手段と、前記物体認識手段により認識さ
れた検知点の前記車線検出手段により検出された車線に
対する位置関係をもとにして、前記検知点で示される物
体の種別を判別する判別手段とを備えることを特徴とす
るものである。According to a first aspect of the present invention, there is provided an object type discriminating apparatus for discriminating a type of an object mounted on a vehicle and existing in front of the vehicle. Detecting an electromagnetic wave reflected from an object present in front of the vehicle, an object recognizing means for recognizing the presence and the position of the object as a detection point, an imaging means for imaging an image in front of the vehicle, Image processing is performed on an image captured by the image capturing unit, and a lane detecting unit that detects a lane ahead of the vehicle, and a positional relationship of a detection point recognized by the object recognizing unit with respect to the lane detected by the lane detecting unit. It is characterized by comprising a determining means for determining the type of the object indicated by the detection point.
【0010】この請求項1に係る物体種別判別装置で
は、物体認識手段により車両前方の物体の存在及びその
位置が検知点として認識され、その情報が判別手段に供
給される。また、撮像手段により車両前方の画像が撮像
され、その画像が車線検出手段により画像処理されて車
両前方の車線が検出され、その情報が判別手段に供給さ
れる。そして、判別手段により、検出された車線に対す
る各検知点の位置関係をもとにして、これら検知点で示
される物体の種別が判別される。In the object type discriminating apparatus according to the first aspect, the presence and the position of the object ahead of the vehicle are recognized as the detection points by the object recognizing means, and the information is supplied to the discriminating means. Further, an image in front of the vehicle is captured by the imaging unit, and the image is subjected to image processing by the lane detection unit to detect a lane in front of the vehicle, and the information is supplied to the determination unit. Then, the type of the object indicated by these detection points is determined by the determination means based on the positional relationship of each detection point with respect to the detected lane.
【0011】請求項2に記載の発明は、請求項1に記載
の物体種別判別装置において、前記判別手段が、前記物
体認識手段により認識された全ての検知点の中から、道
路脇に設置された道路脇反射体を示す検知点を抽出する
ことを特徴とするものである。According to a second aspect of the present invention, in the object type determining apparatus according to the first aspect, the determining means is provided at a side of a road from all the detection points recognized by the object recognizing means. A detection point indicating a roadside reflector is extracted.
【0012】この請求項2に係る物体種別判別装置で
は、判別手段により、全ての検知点の車線に対する位置
関係が把握され、これをもとに全ての検知点の中から道
路脇反射体を示す検知点が抽出される。In the object type discriminating apparatus according to the second aspect, the discriminating means grasps the positional relationship of all the detection points with respect to the lane, and indicates the roadside reflector from all the detection points based on this. Detection points are extracted.
【0013】請求項3に記載の発明は、請求項2に記載
の物体種別判別装置において、前記判別手段が、前記車
線検出手段により検出された車線の近傍に位置する複数
の検知点を抽出し、これら抽出された複数の検知点を結
ぶ線が前記車線に沿う場合に、これらの各検知点で示さ
れる物体をそれぞれ道路脇反射体として認識することを
特徴とするものである。According to a third aspect of the present invention, in the object type determining apparatus according to the second aspect, the determining means extracts a plurality of detection points located near the lane detected by the lane detecting means. When a line connecting the plurality of detected points is along the lane, the object indicated by each of the detected points is recognized as a roadside reflector.
【0014】この請求項3に係る物体種別判別装置で
は、判別手段により、車線の近傍に位置する複数の検知
点が抽出される。そして、これらの検知点を結ぶ線が車
線検出手段により検出された車線に沿う場合に、これら
車線の近傍に位置する複数の検知点で示される物体が道
路脇反射体として認識される。In the object type discriminating apparatus according to the third aspect, a plurality of detection points located near the lane are extracted by the discriminating means. Then, when the line connecting these detection points is along the lane detected by the lane detecting means, the object indicated by the plurality of detection points located near these lanes is recognized as the roadside reflector.
【0015】請求項4に記載の発明は、請求項2に記載
の物体種別判別装置において、前記物体認識手段が所定
の時間間隔で連続的に前記検知点を認識し、前記判別手
段が、時間変化に応じて位置が変化した同一の物体を示
す検知点を結ぶ動きベクトルが前記車線検出手段により
検出された車線に沿う場合に、これらの検知点で示され
る物体を道路脇反射体として認識することを特徴とする
ものである。According to a fourth aspect of the present invention, in the object type discriminating apparatus according to the second aspect, the object recognizing means continuously recognizes the detection points at predetermined time intervals, and the discriminating means sets the time. When the motion vector connecting the detection points indicating the same object whose position has changed according to the change is along the lane detected by the lane detection means, the object indicated by these detection points is recognized as a roadside reflector. It is characterized by the following.
【0016】この請求項4に係る物体種別判別装置で
は、物体認識手段により車両前方の物体を示す検知点が
所定の時間間隔で連続的に認識され、その情報が判別手
段に供給される。そして、判別手段により、時間変化に
応じて位置が変化した同一の物体を示す検知点を結ぶ動
きベクトル、すなわち、同一物体の前回の位置を示す検
知点と今回の位置を示す検知点とを結ぶベクトルが求め
られる。そして、この動きベクトルが車線検出手段によ
り認識された車線に沿う場合に、これらの検知点で示さ
れる物体が道路脇反射体として認識される。In the object type discriminating apparatus according to the fourth aspect, the detection points indicating the object in front of the vehicle are continuously recognized at predetermined time intervals by the object recognizing means, and the information is supplied to the discriminating means. Then, the motion vector connecting the detection points indicating the same object whose position has changed in accordance with the time change, that is, the detection point indicating the previous position of the same object and the detection point indicating the current position are determined by the determination unit. A vector is required. Then, when this motion vector is along the lane recognized by the lane detecting means, the object indicated by these detection points is recognized as a roadside reflector.
【0017】請求項5に記載の発明は、請求項2に記載
の物体種別判別装置において、前記物体認識手段が所定
の時間間隔で連続的に前記検知点を認識し、前記判別手
段が、時間変化に応じて位置が変化した同一の物体であ
る可能性のある各検知点を結ぶ複数のベクトルを複数の
検出範囲毎にそれぞれ検出し、これら複数の検出範囲間
において、互いに方向が略平行で前記車線検出手段によ
り検出された車線に沿い、且つ長さが略等しくなるベク
トルの組み合わせを求めて、これらのベクトルで結ばれ
る検知点をそれぞれ同一の物体を示すものと判断し、こ
れらの物体をそれぞれ道路脇反射体として認識すること
を特徴とするものである。According to a fifth aspect of the present invention, in the object type discriminating apparatus according to the second aspect, the object recognizing means continuously recognizes the detection point at predetermined time intervals, A plurality of vectors connecting the respective detection points that may be the same object whose position has changed according to the change are respectively detected for each of a plurality of detection ranges, and the directions are substantially parallel to each other between the plurality of detection ranges. A combination of vectors along the lane detected by the lane detecting means and having substantially the same length is determined, and the detection points connected by these vectors are determined to indicate the same object, and these objects are determined. Each is characterized by being recognized as a roadside reflector.
【0018】この請求項5に係る物体種別判別装置で
は、物体認識手段により車両前方の物体を示す検知点が
所定の時間間隔で連続的に認識され、その情報が判別手
段に供給される。そして、判別手段により、時間変化に
応じて位置が変化した同一の物体である可能性のある各
検知点を結ぶ複数のベクトルが複数の検出範囲毎にそれ
ぞれ検出される。すなわち、判別手段により複数の検出
範囲が設定され、これら複数の検出範囲の中で時間変化
に応じて位置が変化した同一の物体である可能性のある
各検知点を結ぶ複数のベクトルがそれぞれ検出される。
そして、複数の検出範囲毎に検出された複数のベクトル
の中で、各検出範囲間において、互いに方向が略平行で
車線に沿い、長さが略等しいベクトルの組み合わせが求
められ、これらのベクトルで結ばれる検知点がそれぞれ
同一の物体を示すものと判断され、これらの検知点で示
される物体がそれぞれ道路脇反射体として認識される。In the object type discriminating apparatus according to the fifth aspect, the detection points indicating the object ahead of the vehicle are continuously recognized by the object recognizing means at predetermined time intervals, and the information is supplied to the discriminating means. Then, the plurality of vectors connecting the respective detection points that may be the same object whose position has changed in accordance with the time change are detected by the determination means for each of the plurality of detection ranges. That is, a plurality of detection ranges are set by the discriminating means, and a plurality of vectors connecting the respective detection points which may be the same object whose position has changed in accordance with time change in the plurality of detection ranges are respectively detected. Is done.
Then, among a plurality of vectors detected for each of the plurality of detection ranges, a combination of vectors having directions substantially parallel to each other, along a lane, and substantially equal in length is obtained between the detection ranges. It is determined that the connected detection points indicate the same object, and the objects indicated by these detection points are respectively recognized as roadside reflectors.
【0019】請求項6に記載の発明は、請求項2乃至5
の何れかに記載の物体種別判別装置において、前記判別
手段が、前記車線検出手段により検出された車線を基準
に前記道路脇反射体が存在するであろう領域を設定し、
この領域内に位置する検知点の中から前記道路脇反射体
を示す検知点を抽出することを特徴とするものである。The invention described in claim 6 is the invention according to claims 2 to 5
In the object type determination device according to any one of the above, the determination unit sets an area where the roadside reflector will be present based on the lane detected by the lane detection unit,
A detection point indicating the roadside reflector is extracted from the detection points located in this area.
【0020】この請求項6に係る物体種別判別装置で
は、車線検出手段により検出された車線を基準として、
道路脇反射体が存在するであろう領域が判別手段により
設定される。そして、この道路脇反射体が存在するであ
ろう領域内に位置する検知点の中から、道路脇反射体を
示す検知点が抽出される。In the object type discriminating apparatus according to the sixth aspect, the lane detected by the lane detecting means is used as a reference.
The area where the roadside reflector will be located is set by the determining means. Then, a detection point indicating the roadside reflector is extracted from the detection points located in the region where the roadside reflector will be located.
【0021】請求項7に記載の発明は、請求項2乃至6
の何れかに記載の物体種別判別装置において、前記判別
手段が、前記物体認識手段により認識された全ての検知
点の中から前記道路脇反射体を示す検知点を除いた検知
点をグルーピングして、その結果をもとに前記道路脇反
射体を示す検知点以外の検知点で示される物体の種別を
判別することを特徴とするものである。The invention according to claim 7 is the invention according to claims 2 to 6
In the object type determination device according to any one of the above, the determination unit groups detection points excluding the detection point indicating the roadside reflector from all the detection points recognized by the object recognition unit. Based on the result, the type of the object indicated by a detection point other than the detection point indicating the roadside reflector is determined.
【0022】この請求項7に係る物体種別判別装置で
は、判別手段により、全ての検知点の車線に対する位置
関係が把握され、これをもとに全ての検知点の中から道
路脇反射体を示す検知点が抽出される。そして、この道
路脇反射体を示す検知点を除いた複数の残りの検知点が
グルーピングされ、その結果をもとにして、道路脇反射
体を示す検知点以外の検知点で示される物体の種別がそ
れぞれ判別される。In the object type discriminating device according to the seventh aspect, the discriminating means grasps the positional relationship of all the detection points with respect to the lane, and indicates the roadside reflector from all the detection points based on this. Detection points are extracted. Then, a plurality of remaining detection points excluding the detection point indicating the roadside reflector are grouped, and based on the result, the type of the object indicated by the detection point other than the detection point indicating the roadside reflector is determined. Are respectively determined.
【0023】請求項8に記載の発明は、請求項7に記載
の物体種別判別装置において、前記判別手段が、前記物
体認識手段により検出された物体からの反射電磁波の強
度分布を参酌して、前記道路脇反射体を示す検知点以外
の検知点で示される物体の種別を判別することを特徴と
するものである。According to an eighth aspect of the present invention, in the object type discriminating apparatus according to the seventh aspect, the discriminating means considers an intensity distribution of reflected electromagnetic waves from the object detected by the object recognizing means, The type of an object indicated by a detection point other than the detection point indicating the roadside reflector is determined.
【0024】この請求項8に係る物体種別判別装置で
は、物体認識手段により車両前方の物体からの反射電磁
波の強度分布が検出され、その情報が判別手段に供給さ
れる。そして、この物体からの反射電磁波の強度分布が
参酌された上で、判別手段により道路脇反射体を示す検
知点以外の検知点で示される物体の種別が判別される。In the object type discriminating apparatus according to the eighth aspect, the intensity distribution of the reflected electromagnetic wave from the object in front of the vehicle is detected by the object recognizing means, and the information is supplied to the discriminating means. The type of the object indicated by the detection point other than the detection point indicating the roadside reflector is determined by the determination unit after considering the intensity distribution of the electromagnetic wave reflected from the object.
【0025】請求項9に記載の発明は、請求項7又は8
に記載の物体種別判別装置において、前記判別手段が、
前記物体認識手段により前記道路脇反射体以外の特定の
物体からの反射電磁波が検出できなくなったときに、そ
の物体との距離からその物体の高さ位置を検出し、この
高さ位置を参酌してその物体の種別を判別することを特
徴とするものである。The ninth aspect of the present invention is the invention according to the seventh or eighth aspect.
In the object type determination device according to the above, the determination means,
When the object recognizing means cannot detect reflected electromagnetic waves from a specific object other than the roadside reflector, the height position of the object is detected from the distance to the object, and this height position is taken into consideration. And determining the type of the object.
【0026】この請求項9に係る物体種別判別装置で
は、物体認識手段により道路脇反射体以外の特定の物体
からの反射電磁波が検出できなくなると、判別手段によ
り、そのときの物体の位置をもとにその物体までの距離
が算出され、これをもとしてにその物体の高さ位置が検
出される。そして、この物体の高さ位置が参酌された上
で、この物体の種別が判別される。In the object type discriminating apparatus according to the ninth aspect, when the object recognizing means cannot detect reflected electromagnetic waves from a specific object other than the roadside reflector, the discriminating means also determines the position of the object at that time. Then, the distance to the object is calculated, and the height position of the object is detected based on the calculated distance. Then, the type of the object is determined based on the height position of the object.
【0027】請求項10に記載の発明は、請求項2乃至
9の何れかに記載の物体種別判別装置において、前記判
別手段が、抽出した道路脇反射体を示す検知点の位置に
基づいて、前記車線検出手段により検出された車線の位
置を補正することを特徴とするものである。According to a tenth aspect of the present invention, in the object type determining apparatus according to any one of the second to ninth aspects, the determining means determines the position of the detected roadside reflector based on the position of the detected roadside reflector. The lane position detected by the lane detecting means is corrected.
【0028】この請求項10に係る物体種別判別装置で
は、判別手段により、全ての検知点の車線に対する位置
関係が把握され、これをもとに全ての検知点の中から道
路脇反射体を示す検知点が抽出される。そして、この道
路脇反射体を示す検知点の位置に基づいて、車線検出手
段により検出された車線の位置が補正される。In the object type discriminating apparatus according to the tenth aspect, the discriminating means grasps the positional relationship of all the detected points with respect to the lane, and indicates the roadside reflector from all the detected points based on this. Detection points are extracted. Then, the position of the lane detected by the lane detecting means is corrected based on the position of the detection point indicating the roadside reflector.
【0029】[0029]
【発明の効果】請求項1に係る物体種別判別装置によれ
ば、車両前方の画像をもとに車両前方の車線が検出さ
れ、この検出された車線に対する各検知点の位置関係を
もとにしてこれらの検知点で示される物体の種別が判別
されるので、例えば車線の変化等に伴って車両前方の状
況が大きく変化した場合でも、車両前方に存在する物体
の種別を的確に判別することができる。According to the object type discriminating apparatus according to the first aspect, the lane ahead of the vehicle is detected based on the image ahead of the vehicle, and the lane ahead of the vehicle is detected based on the positional relationship of each detection point with respect to the detected lane. Since the type of the object indicated by these detection points is determined, it is necessary to accurately determine the type of the object existing in front of the vehicle even when the situation in front of the vehicle greatly changes due to a change in the lane, for example. Can be.
【0030】請求項2に係る物体種別判別装置によれ
ば、車両前方の画像をもとに検出された車線との位置関
係から道路脇反射体を示す検知点が抽出されるので、車
両前方に存在する物体を示す全ての検知点の中から道路
脇反射体を示す検知点を極めて精度良く抽出することが
できる。According to the object type discriminating apparatus of the second aspect, the detection point indicating the roadside reflector is extracted from the positional relationship with the lane detected based on the image in front of the vehicle. A detection point indicating a roadside reflector can be extracted very accurately from all the detection points indicating an existing object.
【0031】請求項3に係る物体種別判別装置によれ
ば、車線の近傍に位置する複数の検知点を結ぶ線が車線
に沿うことをもって、これらの検知点で示される物体が
道路脇反射体として認識されるので、車両の停止時、す
なわち道路脇反射体に動きがない状態においても、車両
前方に存在する全ての物体の中から道路脇反射体を極め
て精度良く抽出することができる。According to the object type discriminating apparatus according to the third aspect, when a line connecting a plurality of detection points located near the lane is along the lane, the object indicated by these detection points is used as a roadside reflector. As a result, even when the vehicle is stopped, that is, in a state where the roadside reflector does not move, the roadside reflector can be extracted very accurately from all the objects existing in front of the vehicle.
【0032】請求項4に係る物体種別判別装置によれ
ば、時間変化に応じて位置が変化した同一の物体を示す
検知点を結ぶ動きベクトルが車線に沿うことをもって、
この物体が道路脇反射体として認識されるので、車両の
走行時において、特に、隣接する道路脇反射体間の間隔
が比較的広い場合に、車両前方に存在する全ての物体の
中から道路脇反射体を極めて精度良く抽出することがで
きる。According to the object type discriminating apparatus according to the fourth aspect, the motion vector connecting the detection points indicating the same object whose position has changed with time changes along the lane.
Since this object is recognized as a roadside reflector, when the vehicle is traveling, especially when the distance between adjacent roadside reflectors is relatively wide, the roadside reflector is selected from all objects existing in front of the vehicle. The reflector can be extracted very accurately.
【0033】請求項5に係る物体種別判別装置によれ
ば、時間変化に応じて位置が変化した同一の物体である
可能性のある各検知点を結ぶ複数のベクトルが複数の検
出範囲毎にそれぞれ検出され、複数の検出範囲毎に検出
された複数のベクトルの中で、各検出範囲間において、
互いに方向が略平行で車線に沿い、長さが略等しいベク
トルの組み合わせが求められ、これらのベクトルで結ば
れる検知点が同一の物体を示す検知点と判断され、これ
らの検知点で示される物体がそれぞれ道路脇反射体とし
て認識されるので、車両の走行時において、特に、隣接
する道路脇反射体間の間隔が比較的狭く、各検出範囲毎
に道路脇反射体を特定することが困難な場合であって
も、車両前方に存在する全ての物体の中から道路脇反射
体を極めて精度良く抽出することができる。According to the object type discriminating apparatus according to the fifth aspect, a plurality of vectors connecting each detection point which may be the same object whose position has changed with time change are respectively provided for each of a plurality of detection ranges. Among the plurality of vectors detected for each of the plurality of detection ranges, between the respective detection ranges,
A combination of vectors whose directions are substantially parallel to each other along the lane and whose lengths are substantially equal is determined, and the detection points connected by these vectors are determined as detection points indicating the same object, and the objects indicated by these detection points are determined. Are recognized as roadside reflectors, respectively, so that the distance between adjacent roadside reflectors is relatively small during traveling of the vehicle, and it is difficult to specify the roadside reflectors for each detection range. Even in this case, the roadside reflector can be extracted with extremely high accuracy from all the objects existing in front of the vehicle.
【0034】請求項6に係る物体種別判別装置によれ
ば、車両前方の画像をもとに検出された車線を基準に道
路脇反射体が存在するであろう領域が設定され、この領
域内に位置する検知点の中から道路脇反射体を示す検知
点が抽出されるので、道路脇反射体を示す検知点の抽出
を極めて効率良く行うことができる。According to the object type discriminating apparatus of the sixth aspect, an area where a roadside reflector is likely to be set based on a lane detected based on an image in front of the vehicle, is set in this area. Since the detection point indicating the roadside reflector is extracted from the detection points located, the detection point indicating the roadside reflector can be extracted very efficiently.
【0035】請求項7に係る物体種別判別装置によれ
ば、全ての検知点の中から道路脇反射体を示す検知点が
除外され、残った検知点がグルーピングされて、その結
果をもとにしてこれらの検知点で示される物体の種別が
判別されるので、グルーピングを行う際に道路脇反射体
を示す検知点が存在することで適切なグルーピングを行
えないといった不都合が有効に回避され、道路脇反射体
以外の物体の種別を精度良く判別することが可能とな
る。According to the object type discriminating apparatus of the present invention, the detection points indicating the roadside reflector are excluded from all the detection points, and the remaining detection points are grouped, and based on the result, Since the type of the object indicated by these detection points is determined, the inconvenience of not being able to perform appropriate grouping due to the presence of a detection point indicating a roadside reflector when performing grouping is effectively avoided. The type of the object other than the side reflector can be accurately determined.
【0036】請求項8に係る物体種別判別装置によれ
ば、物体からの反射電磁波の強度分布も参酌されて道路
脇反射体以外の物体の種別が判別されるので、これらの
物体の種別をより精度良く判別することが可能となる。According to the object type discriminating apparatus according to the eighth aspect, the types of objects other than the roadside reflectors are determined in consideration of the intensity distribution of the electromagnetic waves reflected from the objects. It is possible to determine with high accuracy.
【0037】請求項9に係る物体種別判別装置によれ
ば、物体の高さ位置も参酌されて道路脇反射体以外の物
体の種別が判別されるので、これらの物体の種別をより
精度良く判別することが可能となる。According to the object type discriminating apparatus of the ninth aspect, the types of the objects other than the roadside reflectors are determined in consideration of the height position of the objects, so that the types of these objects can be more accurately determined. It is possible to do.
【0038】請求項10に係る物体種別判別装置によれ
ば、車両前方の画像をもとに検出された車線の位置が、
抽出された道路脇反射体の位置に基づいて補正されるの
で、車両前方の画像からだけでは正確に検出することが
困難な遠方の車線の位置についても正確に検出すること
ができ、その結果、車両前方に存在する物体の種別を更
に精度良く判別することが可能となる。According to the object type discriminating apparatus according to the tenth aspect, the position of the lane detected based on the image in front of the vehicle is determined by:
Since the correction is performed based on the position of the extracted roadside reflector, it is possible to accurately detect the position of a distant lane that is difficult to accurately detect only from the image in front of the vehicle, and as a result, It is possible to more accurately determine the type of the object existing in front of the vehicle.
【0039】[0039]
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0040】本発明を適用した物体種別判別装置の概略
構成を図1に示す。この図1に示す物体種別判別装置1
は、車両(以下、自車両という。)に搭載されて、自車
両前方に存在する物体の種別を判別するものであり、ス
キャニングレーザレーダ2、カメラ3、画像処理部4及
び判別部5を備えて構成される。FIG. 1 shows a schematic configuration of an object type discriminating apparatus to which the present invention is applied. The object type discriminating apparatus 1 shown in FIG.
Is mounted on a vehicle (hereinafter referred to as a host vehicle) and determines a type of an object existing in front of the host vehicle. The scanning laser radar 2, the camera 3, the image processing unit 4, and the determination unit 5 are provided. It is composed.
【0041】スキャニングレーザレーダ2は、レーザ光
を出射して自車両前方を路面に水平な方向に二次元的に
スキャニングし、反射レーザ光を受光することによっ
て、自車両前方における物体の有無及びその位置を検知
点として認識するものである。このスキャニングレーザ
レーダ2は、所定の時間間隔ΔTで連続的に自車両前方
における物体の有無及びその位置を認識するようになっ
ている。このときの時間間隔ΔTは、判別部5における
データ処理能力や、物体種別判別装置1に要求される精
度等に応じて適宜設定される。The scanning laser radar 2 emits laser light, two-dimensionally scans the front of the host vehicle in a direction parallel to the road surface, and receives the reflected laser light. The position is recognized as a detection point. The scanning laser radar 2 continuously recognizes the presence or absence and the position of an object in front of the host vehicle at a predetermined time interval ΔT. The time interval ΔT at this time is appropriately set according to the data processing capability of the determination unit 5, the accuracy required for the object type determination device 1, and the like.
【0042】このスキャニングレーザレーダ2は、図2
(A)及び図2(B)に示すように、スキャニング中心
軸が自車両100の走行方向に沿い、且つ、スキャニン
グ原点が自車両100の幅方向における中心に位置する
ように、自車両100に取り付けられる。以下、このス
キャニングレーザレーダ2のスキャニング原点を原点と
し、Z軸(自車両100前方の物体までの距離を示
す。)をスキャニングレーザレーダ2のスキャニング中
心軸方向、X軸(自車両100前方の物体の横方向にお
ける位置を示す。)をスキャニングレーザレーダ2のス
キャニング中心軸と直交し且つスキャニング面に平行な
方向、Y軸(自車両100前方の物体の高さ位置を示
す。)をスキャニングレーザレーダ2のスキャニング面
に垂直な方向とした座標系を基準座標系として説明す
る。The scanning laser radar 2 has the configuration shown in FIG.
As shown in FIG. 2A and FIG. 2B, the host vehicle 100 is controlled so that the scanning center axis is along the traveling direction of the host vehicle 100 and the scanning origin is located at the center of the host vehicle 100 in the width direction. It is attached. Hereinafter, the scanning origin of the scanning laser radar 2 is set as the origin, the Z axis (indicating the distance to the object in front of the host vehicle 100) is set in the scanning center axis direction of the scanning laser radar 2, and the X axis (the object in front of the host vehicle 100). Is shown in the horizontal direction of the scanning laser radar 2, a direction perpendicular to the scanning center axis of the scanning laser radar 2 and parallel to the scanning plane, and a Y axis (showing the height position of an object in front of the host vehicle 100) is shown. A coordinate system that is a direction perpendicular to the scanning plane 2 will be described as a reference coordinate system.
【0043】カメラ3は、自車両前方の画像を撮像する
ものである。このカメラ3は、図2(A)及び図2
(B)に示したように、その光軸がスキャニングレーザ
レーダ2のスキャニング中心軸と同様に自車両100の
進行方向に沿い、且つ、その原点がスキャニングレーザ
レーダ2のスキャニング原点と同様に自車両100の幅
方向における中心に位置し、路面に垂直な方向において
スキャニングレーザレーダ2と異なる位置となるよう
に、自車両100に取り付けられる。The camera 3 captures an image in front of the host vehicle. This camera 3 is shown in FIGS.
As shown in (B), the optical axis is along the traveling direction of the host vehicle 100 similarly to the scanning center axis of the scanning laser radar 2, and its origin is the same as the scanning origin of the scanning laser radar 2. The scanning laser radar 2 is attached to the vehicle 100 so as to be located at the center in the width direction of the scanning laser 100 and different from the scanning laser radar 2 in a direction perpendicular to the road surface.
【0044】なお、以上はスキャニングレーザレーダ2
及びカメラ3の自車両100に対する取り付け方として
理想的な例を説明したが、スキャニングレーザレーダ2
のスキャニング中心軸やカメラ3の光軸が自車両100
の走行方向に沿わない場合や、スキャニングレーザレー
ダ2のスキャニング原点やカメラ3の原点が自車両10
0の幅方向のにおける中心にない場合であっても、これ
らスキャニングレーザレーダ2やカメラ3の自車両10
0に対する取り付け角度や取り付け位置を幾何学計算時
に考慮するようにすれば、スキャニングレーザレーダ2
やカメラ3が理想的に取り付けられた場合と同様に取り
扱うことができる。The above is the scanning laser radar 2
And an ideal example of how to attach the camera 3 to the own vehicle 100 has been described.
The scanning center axis of the camera and the optical axis of the camera 3 are
Or the scanning origin of the scanning laser radar 2 or the origin of the camera 3
Even if the scanning laser radar 2 and the camera 3 are not at the center in the width direction of the
If the mounting angle and the mounting position with respect to 0 are taken into account during the geometric calculation, the scanning laser radar 2
And the camera 3 can be handled in the same manner as when the camera 3 is ideally mounted.
【0045】画像処理部4は、カメラ3により撮像され
た自車両前方の画像を画像処理して、自車両前方の車線
を検出するものである。The image processing section 4 performs image processing on an image ahead of the host vehicle captured by the camera 3 to detect a lane ahead of the host vehicle.
【0046】カメラ3により撮像された自車両前方の画
像は、例えば図3に示すように、自車両の走行方向に垂
直なX軸及びY軸を座標軸とした二次元画像である。画
像処理部4は、このカメラ3により撮像された二次元画
像から、まず、車線を区切る白線の画像の特徴点を複数
点抽出する。そして、これら特徴点の位置座標を、図4
に示すように、Z軸及びX軸を座標軸とした二次元の座
標、すなわち、スキャニングレーザレーダ2のスキャニ
ング面に平行な二次元の座標上における位置座標に変換
する。The image in front of the host vehicle captured by the camera 3 is, for example, a two-dimensional image in which the X axis and the Y axis perpendicular to the running direction of the host vehicle are coordinate axes, as shown in FIG. The image processing unit 4 first extracts a plurality of feature points of a white line image that separates lanes from the two-dimensional image captured by the camera 3. Then, the position coordinates of these feature points are shown in FIG.
As shown in (2), the coordinates are converted into two-dimensional coordinates using the Z axis and the X axis as coordinate axes, that is, position coordinates on two-dimensional coordinates parallel to the scanning surface of the scanning laser radar 2.
【0047】次に、画像処理部4は、スキャニングレー
ザレーダ2のスキャニング面に平行な二次元の座標上の
点に変換された複数の特徴点を、最小二乗誤差等の手法
を用いて、これら複数の特徴点の分布に最もマッチング
した関数によりフィッティングして白線の形状を求める
ことで、自車両前方の車線を検出する。Next, the image processing unit 4 converts the plurality of feature points converted into points on two-dimensional coordinates parallel to the scanning plane of the scanning laser radar 2 using a method such as a least square error. The shape of the white line is determined by fitting with the function that most closely matches the distribution of the plurality of feature points, thereby detecting the lane ahead of the host vehicle.
【0048】具体的には、例えば、白線の形状が円弧近
似であると仮定すると、図5に示すように、二次元の座
標上の点に変換された複数の特徴点の分布に最も適合し
た曲率半径を有する円弧の関数と、車線に対する自車両
100の位置や姿勢、すなわち、図5中におけるR(円
弧の曲率半径)、Xc(自車両から白線までの横方向の
距離)、θ(車線に対する自車両のYAW角)の値をそ
れぞれ特徴点を抽出する度に更新しながら、自車両10
0前方の車線を検出する。Specifically, for example, assuming that the shape of the white line is a circular arc approximation, as shown in FIG. 5, the distribution best fits the distribution of a plurality of feature points converted into points on two-dimensional coordinates. A function of an arc having a radius of curvature, and the position and orientation of the vehicle 100 with respect to the lane, that is, R (radius of curvature of the arc), Xc (horizontal distance from the vehicle to the white line), θ (lane in FIG. 5) The value of the YAW angle of the own vehicle with respect to the vehicle 10 is updated each time a feature point is extracted.
The lane ahead of 0 is detected.
【0049】なお、車両に搭載されたカメラにより撮像
された画像から車線を検出する手法の詳細は、特開平1
0−11580号公報にて開示されている。The method of detecting a lane from an image captured by a camera mounted on a vehicle is described in detail in
No. 0-11580.
【0050】判別部5には、スキャニングレーザレーダ
2により認識された自車両前方における物体の位置を示
す情報が供給されると共に、画像処理部4により検出さ
れた車線の情報が供給されるようになっている。スキャ
ニングレーザレーダ2により認識された自車両前方の物
体の位置は、判別部5において、図6に示すように、ス
キャニングレーザレーダ2のスキャニング面に平行な二
次元の座標上における複数の検知点として認識される。
また、画像処理部4により検出された車線も同一の座標
上における一対の白線の画像として認識される。The information indicating the position of the object ahead of the host vehicle recognized by the scanning laser radar 2 and the information of the lane detected by the image processing unit 4 are supplied to the discriminating unit 5. Has become. The position of the object ahead of the host vehicle recognized by the scanning laser radar 2 is determined by the determination unit 5 as a plurality of detection points on two-dimensional coordinates parallel to the scanning surface of the scanning laser radar 2 as shown in FIG. Be recognized.
The lane detected by the image processing unit 4 is also recognized as a pair of white line images on the same coordinates.
【0051】そして、判別部5は、これら二次元の座標
上に示される複数の検知点と一対の白線の画像とに基づ
いて、自車両前方に存在する物体の車線に対する位置関
係を求め、これをもとにして自車両前方に存在する物体
の種別を判別するようにしている。なお、この判別部5
における処理は、スキャニングレーザレーダ2による処
理時間間隔と等しい時間間隔(ΔT)を存して、連続的
に行われるようになっている。The discriminating unit 5 obtains the positional relationship of the object existing ahead of the host vehicle with respect to the lane based on the plurality of detection points indicated on the two-dimensional coordinates and the image of the pair of white lines. Is used to determine the type of the object existing in front of the host vehicle. Note that this discriminating unit 5
Is continuously performed with a time interval (ΔT) equal to the processing time interval by the scanning laser radar 2.
【0052】以下、この判別部5における処理につい
て、具体的に説明する。Hereinafter, the processing in the determination section 5 will be specifically described.
【0053】判別部5は、自車両前方における物体を示
す検知点と車線の情報とが供給されると、まず、各検知
点の車線に対する位置関係をもとに、これら検知点の中
からデリニエータを示す検知点を識別する処理を行う。
デリニエータは、車線の様子を夜間でも適切に判断でき
るように、道路脇に設置された反射面を有する棒状の反
射体であり、通常は、車線に沿って所定間隔を存して連
続的に設置されているものである。When the detection unit 5 is supplied with the detection points indicating the object in front of the host vehicle and the lane information, first, based on the positional relationship of each detection point with respect to the lane, the discriminator 5 selects a delineator from these detection points. Is performed to identify a detection point indicating “1”.
The delineator is a rod-shaped reflector with a reflective surface installed on the side of the road so that the state of the lane can be properly judged even at night, and is usually installed continuously at predetermined intervals along the lane. Is what is being done.
【0054】自車両前方の物体を示す複数の検知点の中
からデリニエータを示す検知点を識別する方法として
は、隣接する検知点のつながりからデリニエータを示す
検知点を識別する方法が考えられる。As a method of identifying a detection point indicating a delineator from a plurality of detection points indicating an object ahead of the host vehicle, a method of identifying a detection point indicating a delineator based on a connection between adjacent detection points can be considered.
【0055】この例(以下、第1の例という。)では、
まず、自車両前方の物体を示す複数の検知点の中から、
図7に示すように、車線の近傍に位置する検知点をそれ
ぞれ抽出する。このとき、検知点の大きさについても判
断し、デリニエータに対応した大きさと思われる検知点
のみを抽出するようにする。そして、これらの検知点を
結ぶ線が車線に沿ったものとなるかどうかを判断し、こ
れらの検知点を結ぶ線が車線に沿ったものである場合
に、これらの検知点をそれぞれデリニエータとして認識
する。In this example (hereinafter, referred to as a first example),
First, from among a plurality of detection points indicating an object in front of the vehicle,
As shown in FIG. 7, each detection point located near the lane is extracted. At this time, the size of the detection point is also determined, and only the detection point that is considered to have a size corresponding to the delineator is extracted. Then, it is determined whether the line connecting these detection points is along the lane.If the line connecting these detection points is along the lane, each of these detection points is recognized as a delineator. I do.
【0056】この第1の例では、検知点の時間経過に伴
う動きを考慮することなくデリニエータを示す検知点を
識別するようにしているので、簡素な処理でデリニエー
タを示す検知点を適切に識別することができる。この第
1の例は、例えば、自車両が停止している場合で、検知
点に動きがない状態において非常に有効である。In the first example, since the detection point indicating the delineator is identified without considering the movement of the detection point over time, the detection point indicating the delineator is appropriately identified by a simple process. can do. This first example is very effective when, for example, the own vehicle is stopped and the detection point does not move.
【0057】また、自車両前方の物体を示す複数の検知
点の中からデリニエータを示す検知点を識別する方法と
しては、検知点の時間経過に伴う動きを求め、この検知
点の動きをもとにデリニエータを示す検知点を識別する
方法も考えられる。As a method for identifying a detection point indicating a delineator from a plurality of detection points indicating an object in front of the host vehicle, a movement of the detection point over time is obtained, and the movement of the detection point is determined based on the movement of the detection point. A method of identifying a detection point indicating a delineator is also conceivable.
【0058】この例(以下、第2の例という。)では、
まず、今回(時刻Tとする。)の処理データと前回(時
刻T−ΔT)の処理データとを重ね合わせて、図8に示
すように、時間変化に応じて位置が変化した同一の物体
が異なる検知点として示されるようにする。そして、複
数の検知点の中から車線の近傍に位置する検知点をそれ
ぞれ抽出する。このとき、自車両100の走行速度と処
理時間間隔ΔTとから、処理時間間隔ΔTの間に物体の
位置が変化しうる範囲(検出範囲)を設定し、この検出
範囲内において今回(時刻T)の検知点と前回(時刻T
−ΔT)の検知点との組み合わせを認識する。In this example (hereinafter referred to as a second example),
First, the processing data of this time (time T) is superimposed on the processing data of the previous time (time T-ΔT), and as shown in FIG. It is shown as a different detection point. Then, a detection point located near the lane is extracted from the plurality of detection points. At this time, a range (detection range) in which the position of the object can be changed during the processing time interval ΔT is set based on the traveling speed of the host vehicle 100 and the processing time interval ΔT. And the previous point (time T
-ΔT) is recognized.
【0059】そして、各検出範囲毎に、今回(時刻T)
の検知点と前回(時刻T−ΔT)の検知点とを結ぶベク
トル(動きベクトル)を求め、この動きベクトルをもと
にして、抽出された検知点がデリニエータを示す検知点
かどうかを判断する。すなわち、デリニエータは車線に
沿って設置された停止物であるので、自車両から見たデ
リニエータの相対的な動きは、自車両の動きベクトルと
反対向きで同じ長さの動きベクトルで示され、且つ、そ
の動きベクトルの向きが車線に沿ったものとなる。した
がって、今回(時刻T)の検知点と前回(時刻T−Δ
T)の検知点とを結ぶ動きベクトルが自車両の動きベク
トルと反対向きで同じ長さであることを確認すること
で、これらの検知点で示される物体が停止物であること
を判断することができ、また、その動きベクトルが車線
に沿ったものであることを確認することによって、これ
らの検知点で示される物体がデリニエータであることを
判断することができる。なお、このとき、上述した第1
の例と同様に、検知点の大きさについての判断も同時に
行うようにすれば、デリニエータの識別を更に精度良く
且つ効率的に行うことができる。Then, for each detection range, this time (time T)
A vector (motion vector) connecting the detection point of (1) and the detection point of the previous time (time T-ΔT) is obtained, and based on this motion vector, it is determined whether or not the extracted detection point is a detection point indicating a delineator. . That is, since the delineator is a stationary object installed along the lane, the relative motion of the delineator viewed from the own vehicle is indicated by a motion vector of the same length in the opposite direction to the motion vector of the own vehicle, and , The direction of the motion vector is along the lane. Therefore, the current (time T) detection point and the previous (time T−Δ
By confirming that the motion vector connecting the detection points of T) is of the same length in the opposite direction to the motion vector of the own vehicle, it is determined that the objects indicated by these detection points are stationary objects. By confirming that the motion vector is along the lane, it is possible to determine that the object indicated by these detection points is a delineator. At this time, the first
As in the above example, if the determination of the size of the detection point is also performed at the same time, the identification of the delineator can be performed more accurately and efficiently.
【0060】この第2の例は、検知点の時間経過に伴う
動きをもとにデリニエータを示す検知点を識別するよう
にしているので、自車両の走行時にデリニエータを精度
良く識別する方法として非常に有効である。なお、この
第2の例と上述した第1の例とを組み合わせて、検知点
の時間経過に伴う動きと隣接する検知点のつながりとの
双方に基づいてデリニエータを示す検知点を識別するよ
うにすれば、更に精度の良い識別を行うことができる。In the second example, since the detection point indicating the delineator is identified based on the movement of the detection point with the passage of time, an extremely accurate method for identifying the delineator when the host vehicle is running is very important. It is effective for It should be noted that the second example is combined with the first example described above so that the detection point indicating the delineator is identified based on both the movement of the detection point over time and the connection between adjacent detection points. Then, more accurate identification can be performed.
【0061】ところで、上述した第2の例において、隣
接するデリニエータ間の間隔が狭い場合には、図9
(A)に示すように、デリニエータを示す各検知点毎に
それぞれ設定された検出範囲内に、隣接するデリニエー
タを示す前回(時刻T−ΔT)の検知点が入り込んでし
まい、デリニエータの動きベクトルを一意に求めること
が困難な場合がある。By the way, in the second example described above, when the distance between adjacent delineators is narrow, FIG.
As shown in (A), the previous (time T-ΔT) detection point indicating the adjacent delineator enters the detection range set for each detection point indicating the delineator, and the motion vector of the delineator is reduced. It may be difficult to determine uniquely.
【0062】このような場合には、まず、隣接するデリ
ニエータ間の間隔が、各デリニエータの動きベクトルを
一意に求めることができる所定の値以上となっているか
どうかを判断し、隣接するデリニエータ間の間隔が所定
の値よりも狭い場合には、以下に示すような方法でデリ
ニエータの動きベクトルを求める。In such a case, first, it is determined whether or not the interval between adjacent delineators is equal to or larger than a predetermined value for uniquely obtaining a motion vector of each delineator. If the interval is smaller than a predetermined value, the motion vector of the delineator is obtained by the following method.
【0063】すなわち、まず、図9(B)に示すよう
に、各検出範囲内に位置する今回(時刻T)の検知点と
前回(時刻T−ΔT)の各検知点とをそれぞれ結んで、
デリニエータの動きベクトルである可能性のある複数の
ベクトルを各検出範囲毎にそれぞれ求める。次に、各検
出範囲毎に求められた複数のベクトルを各検出範囲間に
おいて比較して、互いに方向が略平行で車線に沿い、長
さが略等しいベクトルの組み合わせを求める。具体的に
は、各検出範囲毎に複数のベクトルをそれぞれ評価し
て、これら複数のベクトルの中から車線に沿うと思われ
るベクトルをそれぞれ抽出する。そして、各検出範囲毎
に抽出されたベクトルが互いに略平行であり、且つ長さ
が略等しい場合には、これらのベクトルをそれぞれデリ
ニエータの動きベクトルと判断する。That is, first, as shown in FIG. 9B, the current (time T) detection point located in each detection range and the previous (time T-ΔT) detection point are connected, respectively.
A plurality of vectors that may be motion vectors of the delineator are obtained for each detection range. Next, a plurality of vectors obtained for each detection range are compared between the detection ranges, and a combination of vectors having directions substantially parallel to each other, along a lane, and substantially equal in length is obtained. More specifically, a plurality of vectors are evaluated for each detection range, and vectors that are considered to be along the lane are extracted from the plurality of vectors. If the vectors extracted for each detection range are substantially parallel to each other and have substantially the same length, these vectors are determined as motion vectors of the delineator.
【0064】このような方法でデリニエータの動きベク
トルを求めるようにすれば、隣接するデリニエータ間の
間隔が、各デリニエータの動きベクトルを一意に求める
ことができる所定の値よりも狭い場合であっても、適切
にデリニエータの動きベクトルを求めることができる。
そして、このデリニエータの動きベクトルをもとに、上
述した第2の例と同様な処理を行えば、検出範囲内の検
知点で示される物体がデリニエータであるかどうかを適
切に判断することができる。If the motion vector of the delineator is determined by such a method, even if the interval between adjacent delineators is narrower than a predetermined value for uniquely determining the motion vector of each delineator. , The motion vector of the delineator can be determined appropriately.
Then, if the same processing as in the above-described second example is performed based on the motion vector of the delineator, it is possible to appropriately determine whether the object indicated by the detection point within the detection range is the delineator. .
【0065】ところで、デリニエータは、上述したよう
に道路脇に設置されているものであるので、車線の位置
が分かれば、それを基準にデリニエータが存在するであ
ろう領域を認識することができる。したがって、スキャ
ニングレーザレーダ2により認識された自車両前方の物
体を示す複数の検知点の中からデリニエータを示す検知
点を識別する際には、予め、図10(A)に示すよう
に、画像処理部4により検出された車線を基準にデリニ
エータが存在するであろう領域を設定し、この領域内に
位置する検知点の中からデリニエータを示す検知点を抽
出することが望ましい。このようにデリニエータが存在
するであろう領域を予め設定して、この領域内において
デリニエータを示す検知点を抽出するようにすれば、効
率的な処理が可能となる。Since the delineator is installed on the side of the road as described above, if the position of the lane is known, it is possible to recognize the area where the delineator will exist based on the lane. Therefore, when a detection point indicating a delineator is identified from a plurality of detection points indicating an object ahead of the host vehicle recognized by the scanning laser radar 2, image processing is performed in advance as shown in FIG. It is desirable to set an area where the delineator will be located based on the lane detected by the unit 4, and to extract a detection point indicating the delineator from the detection points located in this area. If a region where a delineator will be present is set in advance and a detection point indicating a delineator is extracted in this region, efficient processing can be performed.
【0066】但し、デリニエータが存在するであろう領
域を設定する際に基準とする車線は、画像処理部4にお
いて関数フィッティングにより検出されたものであるの
で、必ずしも実際の車線を忠実に再現したものとはなっ
ていない。したがって、デリニエータが存在するであろ
う領域を設定する際には、この領域に、車線の検出精
度、すなわち画像処理部4におけるフィッティング精度
に応じてある程度の幅をもたせておくようにする必要が
ある。However, since the lane used as a reference when setting the area where the delineator will be located is the one detected by the function fitting in the image processing section 4, it is not necessarily a faithful reproduction of the actual lane. It is not. Therefore, when setting the area where the delineator will be located, it is necessary to allow this area to have a certain width in accordance with the lane detection accuracy, that is, the fitting accuracy in the image processing unit 4. .
【0067】また、道路に複数の車線がある場合は、デ
リニエータは最も左端の車線の左側の白線近傍に、その
白線に沿って存在することになる。したがって、自車両
100が左端の車線を走行している際は、図10(A)
に示したように、画像処理部4により検出された左側の
白線近傍にデリニエータが存在するであろう領域を設定
すればよいが、自車両100が右側の車線を走行してい
る際には、図10(B)に示すように、画像処理部4に
より検出された左側の白線を基準にして、この白線近傍
から左端の車線までの車線数に応じて、相当する車線幅
分平行移動した位置にデリニエータが存在するであろう
領域を設定する必要がある。When there are a plurality of lanes on the road, the delineator is located near and along the left white line of the leftmost lane. Therefore, when the host vehicle 100 is traveling in the leftmost lane, FIG.
As shown in, an area where the delineator will be located near the left white line detected by the image processing unit 4 may be set, but when the own vehicle 100 is traveling in the right lane, As shown in FIG. 10 (B), a position translated by a corresponding lane width based on the number of lanes from the vicinity of the white line to the leftmost lane based on the left white line detected by the image processing unit 4. It is necessary to set the area where the delineator will be located in the.
【0068】以上のような処理を行って、スキャニング
レーザレーダ2により認識された自車両前方の物体を示
す複数の検知点の中から、デリニエータを示す検知点を
識別したら、判別部5は、次に、デリニエータを示す検
知点を除いた残りの検知点に対してグルーピング処理を
行って、自車両前方の物体の種別を判別する。After performing the processing described above and identifying the detection point indicating the delineator from the plurality of detection points indicating the object ahead of the host vehicle recognized by the scanning laser radar 2, the determination unit 5 determines Then, a grouping process is performed on the remaining detection points excluding the detection point indicating the delineator to determine the type of the object in front of the host vehicle.
【0069】通常、自車両の前方の車両では、車両後部
に取り付けられた左右のリフレクタからの反射レーザ光
がそれぞれ検知点群として検出されるので、自車両前方
の車両は、相対距離が変化せず、同じ動きをする一対の
検知点群の組み合わせとして認識される。また、車両前
方に設置された看板は、比較的大きな面積を有する面か
らの反射レーザ光が検知点群として検出されるので、比
較的大きな範囲での検知点の集合として認識される。Normally, in a vehicle ahead of the host vehicle, reflected laser beams from left and right reflectors attached to the rear of the vehicle are detected as detection point groups, respectively. Instead, the combination is recognized as a combination of a pair of detection point groups that make the same movement. In addition, the signboard installed in front of the vehicle is recognized as a set of detection points in a relatively large range because reflected laser light from a surface having a relatively large area is detected as a group of detection points.
【0070】そこで、判別部5は、以上のような検知点
群の形状やそれらの時間的な動き等、物体識別の指標と
なる様々な情報を勘案して、同一の物体と考えられる検
知点群をグルーピングし、このグルーピング結果から自
車両前方に存在する物体の位置を車線に対する位置関係
を基準にして求め、更に、グルーピングされた検知点群
の大きさや中心位置、動き等も求めて、自車両前方の物
体の種別を判別する。このとき、各検知点の強度、すな
わち、スキャニングレーザレーダ2により検出された反
射レーザ光の強度分布も参酌するようにすれば、自車両
前方の物体の種別を更に精度よく判別することが可能と
なる。In view of this, the discriminating unit 5 takes into account various information serving as indices for object identification, such as the shapes of the above-described groups of detected points and their temporal movements, and detects the detected points that are considered to be the same object. The groups are grouped, and the position of the object existing in front of the own vehicle is determined based on the positional relationship with respect to the lane from the grouping result, and the size, center position, movement, etc. of the grouped detection points are also determined. The type of the object ahead of the vehicle is determined. At this time, if the intensity of each detection point, that is, the intensity distribution of the reflected laser light detected by the scanning laser radar 2 is also taken into consideration, the type of the object ahead of the host vehicle can be determined with higher accuracy. Become.
【0071】また、自車両前方の物体が自車両の走行の
妨げになる物体であるかどうかを確認するために、判別
部5は、この物体が自車両の走行する車線上、すなわ
ち、画像処理部4によって検出された車線上の物体であ
るのか、或いは、他の車線や車線外の物体、頭上の看板
等であるのかといった判断を行う。In order to confirm whether or not the object ahead of the host vehicle is an object that hinders the running of the host vehicle, the discriminating unit 5 determines whether the object is on the lane in which the host vehicle runs, that is, the image processing. A determination is made as to whether the object is on the lane detected by the unit 4, or is an object on another lane or outside the lane, a signboard overhead, or the like.
【0072】ここで、自車両前方に存在する物体の種別
を判別する手法としては、従来、デリニエータを示す検
知点を含めた全ての検知点を対象にグルーピング処理を
行い、グルーピングされた検知点群の動きや反射強度の
分布等をもとにして、これらの中からデリニエータを示
す検知点を判断し、デリニエータを示すものとして判断
された検知点から車線を推測して、推測された車線との
位置関係をもとに、他の検知点群で示される物体の種別
を判別するようにしたものが一般的であった。Here, as a method of discriminating the type of an object existing in front of the host vehicle, conventionally, a grouping process is performed on all detection points including a detection point indicating a delineator, and a group of detected points is grouped. Based on the distribution of the movement and reflection intensity, etc., the detection point indicating the delineator is determined from these, and the lane is estimated from the detection point determined as indicating the delineator, and In general, the type of an object represented by another detection point group is determined based on the positional relationship.
【0073】しかしながら、このような手法では、図1
1(A)及び図11(B)に示すように、交通量が多
く、自車両100前方の車両によってデリニエータが隠
されてしまうような場合には、車線を適切に推測できな
くなる可能性が高い。そして、誤って推測された車線と
の位置関係をもとに検知点群で示される物体の種別を判
別しても、正しい判別ができないことになる。また、自
車両100前方の車両が重なって左右のリフレクタの片
方しか検出されない場合には、この検知点をリフレクタ
であると判断することができず、特に、図12に示すよ
うに、この片方のリフレクタを示す検知点がデリニエー
タを示す検知点の近傍に位置するときは、この片方のリ
フレクタを示す検知点をデリニエータを示す検知点とし
て誤認識してしまったり、片方のリフレクタを示す検知
点とデリニエータを示す検知点とをグルーピングしてこ
れらを自車両100前方の車両の左右のリフレクタとし
て誤認識してしまうといった不都合が生じる。さらに、
以上のように車線の推測が適切に行えずに誤ったグルー
ピング処理が行われる場合には、車線から離れた位置に
ある看板等の物体の悪影響も受けやすくなる。However, in such a method, FIG.
As shown in FIG. 1 (A) and FIG. 11 (B), when the traffic is heavy and the vehicle in front of the host vehicle 100 hides the delineator, there is a high possibility that the lane cannot be properly estimated. . Then, even if the type of the object indicated by the detection point group is determined based on the positional relationship with the lane that was guessed incorrectly, correct determination cannot be made. If the vehicle in front of the host vehicle 100 overlaps and only one of the left and right reflectors is detected, the detection point cannot be determined to be a reflector, and in particular, as shown in FIG. When the detection point indicating the reflector is located in the vicinity of the detection point indicating the delineator, the detection point indicating the one reflector is erroneously recognized as the detection point indicating the delineator, or the detection point indicating the one reflector and the detection point indicating the delineator are different. Are inconveniently grouped, and these are erroneously recognized as left and right reflectors of the vehicle in front of the host vehicle 100. further,
As described above, when an incorrect grouping process is performed without properly estimating a lane, an object such as a signboard located at a position distant from the lane is likely to be adversely affected.
【0074】これに対して、本発明を適用した物体種別
判別装置1においては、カメラ3により撮像された自車
両前方の画像を画像処理部4により画像処理することで
自車両前方の車線が認識され、判別部5において、この
画像処理により認識された車線に対する各検知点の位置
関係をもとにして、各検知点で示される物体の種別を判
別するようにしているので、以上のような問題を有効に
回避して、自車両前方の物体の種別を適切に判別するこ
とができる。On the other hand, in the object type discriminating apparatus 1 to which the present invention is applied, the image in front of the own vehicle taken by the camera 3 is image-processed by the image processing unit 4 so that the lane ahead of the own vehicle is recognized. The determination unit 5 determines the type of the object indicated by each detection point based on the positional relationship of each detection point with respect to the lane recognized by this image processing. By effectively avoiding the problem, it is possible to appropriately determine the type of the object ahead of the host vehicle.
【0075】すなわち、本発明を適用した物体種別判別
装置1では、図13に示すように、まず、判別部5が、
画像処理により認識された車線を基準にして全ての検知
点の中からデリニエータを示す検知点を抽出するように
しているので、例えば、デリニエータの一部が他の物体
の陰に隠れてしまうような場合であっても、デリニエー
タを示す検知点を適切に抽出することができる。そし
て、全ての検知点の中からデリニエータを示す検知点を
除いた残りの検知点をグルーピングして、デリニエータ
を示す検知点以外の検知点で示される物体の種別を判別
するようにしているので、デリニエータを示す検知点を
他の物体を示すものとして誤認識してしまう不都合が未
然に防止され、デリニエータ以外の物体についても、そ
の種別を極めて精度良く判別することができる。That is, in the object type discriminating apparatus 1 to which the present invention is applied, first, as shown in FIG.
Since the detection point indicating the delineator is extracted from all the detection points based on the lane recognized by the image processing, for example, a part of the delineator is hidden behind another object. Even in this case, the detection point indicating the delineator can be appropriately extracted. Then, since the remaining detection points excluding the detection point indicating the delineator are grouped from all the detection points, the type of the object indicated by the detection point other than the detection point indicating the delineator is determined, The inconvenience of erroneously recognizing the detection point indicating the delineator as indicating another object is prevented beforehand, and the type of the object other than the delineator can be determined with extremely high accuracy.
【0076】ところで、以上説明した例では、路面に水
平な方向にスキャニング面を有するスキャニングレーザ
レーダ2により自車両前方の物体を検知点として認識し
ているので、自車両前方の物体の高さ位置についての情
報は得られない。したがって、例えば自車両が走行する
車線の上方に看板が設置されている場合等においては、
この看板を示す検知点が自車両が走行する車線上の検知
点として認識され、この検知点で示される物体が自車両
の走行を妨げる障害物であるのか、或いは、障害物とな
らない上方に設置された看板であるのかの判断がつかな
い。In the example described above, since the scanning laser radar 2 having a scanning surface in a direction parallel to the road surface recognizes the object ahead of the host vehicle as a detection point, the height position of the object ahead of the host vehicle is determined. No information about is available. Therefore, for example, when a signboard is installed above the lane in which the vehicle runs,
The detection point indicating this signboard is recognized as a detection point on the lane where the host vehicle runs, and the object indicated by the detection point is an obstacle that hinders the running of the host vehicle, or is installed above where it does not become an obstacle. I can't tell if it's a sign that was done.
【0077】そこで、このような場合には、まず、検知
点の強度、すなわち、スキャニングレーザレーダ2によ
り検出された反射レーザ光の強度分布をもとに、車線上
の検知点で示される物体が看板でるかどうかを判断す
る。すなわち、看板は全面からの反射強度が強く、且
つ、その全面に亘ってほぼ同程度の反射強度が得られる
ことから、このような反射強度が得られるものは看板で
ある可能性が高い。そして、看板が路上に設置されてい
ることは考えられないので、上方に設置された看板とし
て認識することができる。Therefore, in such a case, first, based on the intensity of the detection point, that is, the intensity distribution of the reflected laser light detected by the scanning laser radar 2, the object indicated by the detection point on the lane is detected. Judge whether it is a signboard. That is, since the signboard has a strong reflection intensity from the entire surface and has substantially the same reflection intensity over the entire surface, it is highly likely that the signboard having such a reflection intensity is a signboard. Since it is unlikely that the signboard is installed on the road, it can be recognized as a signboard installed above.
【0078】但し、先行車両が自車両の近傍を走行して
いる場合には、先行車両の車体にて反射されたレーザ光
もスキャニングレーザレーダ2により検出される場合が
あり、その強度分布が看板からの反射レーザ光の強度分
布に近い場合がある。また、車線上に比較的大きな反射
面を有する落下物が存在する場合にも、この落下物から
の反射レーザ光の強度分布が看板からの反射レーザ光の
強度分布に近い場合がある。However, when the preceding vehicle is traveling in the vicinity of the own vehicle, the laser beam reflected by the vehicle body of the preceding vehicle may be detected by the scanning laser radar 2 and its intensity distribution is indicated by a signboard. May be close to the intensity distribution of the reflected laser light from Further, even when there is a falling object having a relatively large reflecting surface on the lane, the intensity distribution of the reflected laser light from this falling object may be close to the intensity distribution of the reflected laser light from the signboard.
【0079】したがって、このような場合には、更に以
下に示すような方法で自車両前方の物体の高さに関する
情報を間接的に取得して、その物体が自車両の走行を妨
げる障害物であるのか、或いは、障害物とならない上方
に設置された看板であるのかを判別することが望まし
い。Therefore, in such a case, information on the height of the object ahead of the host vehicle is indirectly obtained by the method described below, and the object is used as an obstacle to hinder the running of the host vehicle. It is desirable to determine whether there is a sign or a signboard installed above that does not become an obstacle.
【0080】すなわち、路面に水平な方向にスキャニン
グ面を有するスキャニングレーザレーダ2は、路面に垂
直な方向に対しても通常2〜3°程度の検知角を有して
いる。したがって、車線の上方に設置された看板は、図
14に示すように、自車両100から離れた遠方にある
ときはスキャニングレーザレーダ2により検知可能であ
る。そして、自車両100が前進することに伴って車線
上方に設置された看板が相対的に自車両100に近づい
てくると、この看板はスキャニングレーザレーダ2の検
知範囲外となる。このことから、対象となる物体と自車
両100との距離が所定の値となったときにその物体が
スキャニングレーザレーダ2の検知範囲外となるかどう
かを判断することで、その物体の高さ位置を間接的に認
識することができ、これに基づいて、対象となる物体が
自車両100の走行を妨げる障害物であるのか、或い
は、障害物とならない上方に設置された看板であるのか
を判別することができる。That is, the scanning laser radar 2 having a scanning surface in a direction parallel to the road surface has a detection angle of usually about 2 to 3 degrees even in a direction perpendicular to the road surface. Therefore, the signboard installed above the lane can be detected by the scanning laser radar 2 when it is far away from the vehicle 100 as shown in FIG. When the signboard installed above the lane relatively approaches the host vehicle 100 as the host vehicle 100 moves forward, the signboard is out of the detection range of the scanning laser radar 2. From this, when the distance between the target object and the host vehicle 100 becomes a predetermined value, it is determined whether the object is out of the detection range of the scanning laser radar 2 and the height of the object is determined. The position can be indirectly recognized, and based on this, it can be determined whether the target object is an obstacle that hinders traveling of the vehicle 100 or a signboard installed above that does not become an obstacle. Can be determined.
【0081】以上説明したように、本発明を適用した物
体種別判別装置1では、カメラ3により撮像された自車
両前方の画像を画像処理部4により画像処理することで
自車両前方の車線が認識され、判別部5において、この
画像処理により認識された車線に対する各検知点の位置
関係をもとにして、各検知点で示される物体の種別を判
別するようにしているので、自車両前方のデリニエー
タ、先行車両、車線上方の看板、車線外の物体等を適切
に判別することができる。As described above, the object type discriminating apparatus 1 to which the present invention is applied recognizes the lane ahead of the own vehicle by processing the image ahead of the own vehicle captured by the camera 3 by the image processing unit 4. Then, the determination unit 5 determines the type of the object indicated by each detection point based on the positional relationship of each detection point with respect to the lane recognized by the image processing. The delineator, the preceding vehicle, a signboard above the lane, an object outside the lane, and the like can be appropriately determined.
【0082】但し、これらの物体の種別を判別する基準
となる車線は、自車両前方の画像を画像処理(関数フィ
ッティング)することで求められたものであるので、自
車両から離れた遠方の車線は必ずしも正確なものとなっ
ていない場合がある。すなわち、カメラ3により撮像さ
れた画像は遠方になるに従って再現性が劣り、車線の検
出精度も粗くなる。一般的な車載カメラにより精度の良
い画像が得られるのは、通常50m程度までである。一
方、一般的に車載されているスキャニングレーザレーダ
では、通常、120〜130m程度離れた遠方に存在す
る物体まで精度良く検出することが可能である。However, since the lane used as a reference for discriminating the type of the object is obtained by performing image processing (function fitting) on an image in front of the host vehicle, the lane far away from the host vehicle is used. May not always be accurate. That is, as the image captured by the camera 3 becomes farther, the reproducibility deteriorates, and the lane detection accuracy also decreases. It is usually up to about 50 m that a high-precision image can be obtained by a general vehicle-mounted camera. On the other hand, a scanning laser radar that is generally mounted on a vehicle can accurately detect an object located at a distance of about 120 to 130 m.
【0083】したがって、自車両の前方に存在する物体
の種別をより高い精度で判別するには、上述した処理に
よってデリニエータを検出した後に、この検出したデリ
ニエータを基準にして、画像処理により求めた車線の位
置、特に自車両から離れた遠方における車線の位置を補
正することが望ましい。Therefore, in order to determine the type of the object existing in front of the own vehicle with higher accuracy, after the delineator is detected by the above-described processing, the lane obtained by the image processing based on the detected delineator is determined. It is desirable to correct the position of the vehicle, in particular, the position of the lane far away from the host vehicle.
【0084】このように、スキャニングレーザレーダ2
の検知点として認識されるデリニエータの位置を基準に
して画像処理により求めた車線の位置を補正するように
すれば、自車両から離れた遠方における車線の位置も精
度良く認識することができ、また、この車線を基準にし
て物体の種別が判別されるので、物体の種別の判別も更
に高精度に行うことができる。As described above, the scanning laser radar 2
If the lane position obtained by the image processing is corrected based on the position of the delineator recognized as the detection point of, the position of the lane far away from the vehicle can be accurately recognized, and Since the type of the object is determined based on the lane, the type of the object can be determined with higher accuracy.
【0085】以上説明したように、本発明を適用した物
体種別判別装置1は、自車両前方の物体の種別を極めて
精度良く判別することができるので、この物体種別判別
装置1を用いて自車両の先行車両を検出し、この先行車
両との車間距離を一定に保つように自車両の速度制御や
制動制御を行うようにすれば、車両の走行制御を極めて
適切に行うことができる。また、この物体種別判別装置
1により走行車線上に存在する障害物等を検出し、警告
音等によってその旨を運転者に知らせるようにすれば、
運転者による車両の運転操作を極めて適切に補助するこ
とができる。As described above, the object type discriminating apparatus 1 to which the present invention is applied can determine the type of the object ahead of the host vehicle with extremely high accuracy. If the preceding vehicle is detected and the speed control and the braking control of the own vehicle are performed so as to keep the inter-vehicle distance to the preceding vehicle constant, the traveling control of the vehicle can be performed extremely appropriately. Further, if the object type discriminating apparatus 1 detects an obstacle or the like existing on the traveling lane and notifies the driver of the obstacle by a warning sound or the like,
The driving operation of the vehicle by the driver can be extremely appropriately assisted.
【図1】本発明を適用した物体種別判別装置の概略構成
を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an object type discrimination device to which the present invention is applied.
【図2】前記物体種別判別装置を構成するスキャニング
レーザレーダ及びカメラの自車両に対する取り付け状態
を説明する図であり、(A)は自車両の側方から見た様
子を模式的に示す図、(B)は自車両の上方から見た様
子を模式的に示す図である。2A and 2B are diagrams illustrating a scanning laser radar and a camera that constitute the object type discriminating apparatus and a mounting state of the camera with respect to a host vehicle; FIG. 2A schematically illustrates a state of the host vehicle viewed from a side; (B) is a figure which shows typically the mode seen from the upper part of the own vehicle.
【図3】前記カメラにより撮像された自車両前方の画像
を示す図である。FIG. 3 is a diagram showing an image in front of a host vehicle taken by the camera.
【図4】前記カメラにより撮像された画像から自車両前
方の車線を認識する方法を説明する図である。FIG. 4 is a diagram illustrating a method of recognizing a lane ahead of the host vehicle from an image captured by the camera.
【図5】自車両前方の車線を円弧近似と仮定した場合の
画像処理部における車線の認識方法を具体的に説明する
図である。FIG. 5 is a diagram specifically illustrating a method of recognizing a lane in an image processing unit when a lane ahead of the host vehicle is assumed to be a circular arc approximation.
【図6】自車両前方の物体が判別部において二次元座標
上の検知点として認識され、車線が同一座標上における
一対の白線の画像として認識された様子を示す図であ
る。FIG. 6 is a diagram illustrating a state in which an object ahead of the host vehicle is recognized as a detection point on two-dimensional coordinates by a determination unit, and a lane is recognized as an image of a pair of white lines on the same coordinates.
【図7】自車両前方の物体を示す複数の検知点の中から
デリニエータを示す検知点を識別する第1の方法を説明
する図である。FIG. 7 is a diagram illustrating a first method for identifying a detection point indicating a delineator from a plurality of detection points indicating an object ahead of the host vehicle.
【図8】自車両前方の物体を示す複数の検知点の中から
デリニエータを示す検知点を識別する第2の方法を説明
する図である。FIG. 8 is a diagram illustrating a second method for identifying a detection point indicating a delineator from a plurality of detection points indicating an object in front of the host vehicle.
【図9】前記第2の例において隣接するデリニエータ間
の間隔が狭い場合にデリニエータの動きベクトルを適切
に求める方法を説明する図であり、(A)はデリニエー
タを示す各検知点毎にそれぞれ検出範囲を設定した様子
を示す図、(B)は(A)におけるA部を拡大して示す
図である。9A and 9B are diagrams illustrating a method of appropriately obtaining a motion vector of a delineator in a case where a distance between adjacent delineators is narrow in the second example, and FIG. 9A illustrates detection of each detection point indicating a delineator. FIG. 3B is a diagram illustrating a state in which a range is set, and FIG. 3B is a diagram illustrating a portion A in FIG.
【図10】画像処理によって認識された車線を基準にデ
リニエータが存在するであろう領域を設定した様子を示
す図であり、(A)は自車両が左側の車線を走行してい
るときに設定される領域を示す図、(B)は自車両が右
側の車線を走行しているときに設定される領域を示す図
である。FIG. 10 is a diagram showing a state in which a region where a delineator will be present is set based on a lane recognized by image processing, and FIG. 10 (A) shows a case where the own vehicle is traveling in a left lane; FIG. 7B is a diagram showing an area set when the host vehicle is traveling in the right lane.
【図11】自車両が交通量の多い車線を走行している場
合の自車両前方の様子を示す図であり、(A)は自車両
前方の実際の様子を示す図、(B)はスキャニングレー
ザレーダにより認識された検知点を示す図である。11A and 11B are diagrams illustrating a state in front of the host vehicle when the host vehicle is traveling in a lane with a large amount of traffic, where FIG. 11A is a diagram illustrating an actual state in front of the host vehicle, and FIG. FIG. 4 is a diagram illustrating detection points recognized by a laser radar.
【図12】自車両前方の車線が誤って推測され、各検知
点のグルーピングが適切に行われない様子を示す図であ
る。FIG. 12 is a diagram showing a situation in which a lane ahead of the host vehicle is erroneously estimated and grouping of each detection point is not properly performed.
【図13】自車両前方の車線が適切に認識され、各検知
点のグルーピングが適切に行われた様子を示す図であ
る。FIG. 13 is a diagram illustrating a state in which a lane ahead of the host vehicle is appropriately recognized and detection points are appropriately grouped.
【図14】路面に水平な方向にスキャニング面を有する
スキャニングレーザレーダにより自車両前方の物体の高
さ位置を間接的に認識する方法を説明する図である。FIG. 14 is a diagram illustrating a method of indirectly recognizing a height position of an object in front of a host vehicle by a scanning laser radar having a scanning surface in a direction horizontal to a road surface.
1 物体種別判別装置 2 スキャニングレーザレーダ 3 カメラ 4 画像処理部 5 判別部 DESCRIPTION OF SYMBOLS 1 Object type discrimination device 2 Scanning laser radar 3 Camera 4 Image processing part 5 Discrimination part
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA03 AA54 BB00 BB28 CC11 DD04 FF01 FF04 FF11 JJ03 JJ09 JJ19 JJ26 MM02 MM07 MM16 QQ18 QQ25 QQ32 QQ38 SS09 SS15 UU05 5H180 AA01 CC03 CC04 CC24 LL01 LL02 LL06 5J084 AA01 AA04 AA14 AB01 AB20 FA03 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA03 AA54 BB00 BB28 CC11 DD04 FF01 FF04 FF11 JJ03 JJ09 JJ19 JJ26 MM02 MM07 MM16 QQ18 QQ25 QQ32 QQ38 SS09 SS15 UU05 5H180 AA01 CC03 CC04 A04 AB04 AB04 AB01 AB04 FA03
Claims (10)
体の種別を判別する物体種別判別装置であって、 前記車両前方に電磁波を出射して、前記車両前方に存在
する物体からの反射電磁波を検出することで、前記物体
の存在及びその位置を検知点として認識する物体認識手
段と、 前記車両前方の画像を撮像する撮像手段と、 前記撮像手段により撮像された画像を画像処理して、前
記車両前方の車線を検出する車線検出手段と、 前記物体認識手段により認識された検知点の前記車線検
出手段により検出された車線に対する位置関係をもとに
して、前記検知点で示される物体の種別を判別する判別
手段とを備えることを特徴とする物体種別判別装置。1. An object type discriminating device mounted on a vehicle for discriminating a type of an object existing in front of the vehicle, wherein the electromagnetic wave is emitted in front of the vehicle and reflected from an object existing in front of the vehicle. By detecting the object, an object recognizing unit that recognizes the presence and the position of the object as a detection point, an image capturing unit that captures an image in front of the vehicle, and performing image processing on an image captured by the image capturing unit. A lane detecting unit that detects a lane ahead of the vehicle, and a positional relationship between a detection point recognized by the object recognizing unit and a lane detected by the lane detecting unit. An object type discriminating device comprising: a discriminating unit for discriminating a type.
り認識された全ての検知点の中から、道路脇に設置され
た道路脇反射体を示す検知点を抽出することを特徴とす
る請求項1に記載の物体種別判別装置。2. The method according to claim 1, wherein the determination unit extracts a detection point indicating a roadside reflector installed on a roadside from all the detection points recognized by the object recognition unit. 2. The object type determination device according to 1.
り検出された車線の近傍に位置する複数の検知点を抽出
し、これら抽出された複数の検知点を結ぶ線が前記車線
に沿う場合に、これらの各検知点で示される物体をそれ
ぞれ道路脇反射体として認識することを特徴とする請求
項2に記載の物体種別判別装置。3. The method according to claim 1, wherein the determining unit extracts a plurality of detection points located near the lane detected by the lane detecting unit, and determines whether a line connecting the extracted plurality of detection points is along the lane. 3. The object type discriminating apparatus according to claim 2, wherein the object indicated by each of the detection points is recognized as a roadside reflector.
連続的に前記検知点を認識し、 前記判別手段は、時間変化に応じて位置が変化した同一
の物体を示す検知点を結ぶ動きベクトルが前記車線検出
手段により検出された車線に沿う場合に、これらの検知
点で示される物体を道路脇反射体として認識することを
特徴とする請求項2に記載の物体種別判別装置。4. The object recognizing means continuously recognizes the detection points at a predetermined time interval, and the discriminating means moves the detection points indicating the same object whose position has changed with time. The object type discriminating apparatus according to claim 2, wherein when the vector is along the lane detected by the lane detecting means, the object indicated by these detection points is recognized as a roadside reflector.
連続的に前記検知点を認識し、 前記判別手段は、時間変化に応じて位置が変化した同一
の物体である可能性のある各検知点を結ぶ複数のベクト
ルを複数の検出範囲毎にそれぞれ検出し、これら複数の
検出範囲間において、互いに方向が略平行で前記車線検
出手段により検出された車線に沿い、且つ長さが略等し
くなるベクトルの組み合わせを求めて、これらのベクト
ルで結ばれる検知点をそれぞれ同一の物体を示すものと
判断し、これらの物体をそれぞれ道路脇反射体として認
識することを特徴とする請求項2に記載の物体種別判別
装置。5. The object recognizing means continuously recognizes the detection points at predetermined time intervals, and the discriminating means determines whether each of the detected objects is likely to be the same object whose position has changed with time. A plurality of vectors connecting the detection points are detected for each of a plurality of detection ranges, and between these detection ranges, directions are substantially parallel to each other, along the lane detected by the lane detection means, and have substantially equal lengths. 3. A combination of the following vectors is determined, and detection points connected by these vectors are determined to indicate the same object, and these objects are respectively recognized as roadside reflectors. Object type discrimination device.
り検出された車線を基準に前記道路脇反射体が存在する
であろう領域を設定し、この領域内に位置する検知点の
中から前記道路脇反射体を示す検知点を抽出することを
特徴とする請求項2乃至5の何れかに記載の物体種別判
別装置。6. The discriminating means sets an area where the roadside reflector will be located based on the lane detected by the lane detecting means, and sets the area from among the detection points located in this area. 6. The object type discriminating apparatus according to claim 2, wherein a detection point indicating a roadside reflector is extracted.
り認識された全ての検知点の中から前記道路脇反射体を
示す検知点を除いた検知点をグルーピングして、その結
果をもとに前記道路脇反射体を示す検知点以外の検知点
で示される物体の種別を判別することを特徴とする請求
項2乃至6の何れかに記載の物体種別判別装置。7. The determination means groups detection points excluding the detection points indicating the roadside reflector from all the detection points recognized by the object recognition means, and based on the result, The object type determination device according to claim 2, wherein the type of the object indicated by a detection point other than the detection point indicating the roadside reflector is determined.
り検出された物体からの反射電磁波の強度分布を参酌し
て、前記道路脇反射体を示す検知点以外の検知点で示さ
れる物体の種別を判別することを特徴とする請求項7に
記載の物体種別判別装置。8. The type of the object indicated by a detection point other than the detection point indicating the roadside reflector, by taking into account the intensity distribution of the reflected electromagnetic wave from the object detected by the object recognition unit. The object type determination device according to claim 7, wherein the object type is determined.
り前記道路脇反射体以外の特定の物体からの反射電磁波
が検出できなくなったときに、その物体との距離からそ
の物体の高さ位置を検出し、この高さ位置を参酌してそ
の物体の種別を判別することを特徴とする請求項7又は
8に記載の物体種別判別装置。9. When the object recognizing means cannot detect reflected electromagnetic waves from a specific object other than the roadside reflector, the object recognizing means determines a height position of the object from a distance from the object. The object type discriminating apparatus according to claim 7, wherein the object type is detected and the type of the object is discriminated in consideration of the height position.
体を示す検知点の位置に基づいて、前記車線検出手段に
より検出された車線の位置を補正することを特徴とする
請求項2乃至9の何れかに記載の物体種別判別装置。10. The method according to claim 2, wherein the determining unit corrects the position of the lane detected by the lane detecting unit based on the extracted position of the detection point indicating the roadside reflector. An object type determination device according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001104597A JP2002303671A (en) | 2001-04-03 | 2001-04-03 | Object-classification discrimination apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001104597A JP2002303671A (en) | 2001-04-03 | 2001-04-03 | Object-classification discrimination apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002303671A true JP2002303671A (en) | 2002-10-18 |
Family
ID=18957432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001104597A Pending JP2002303671A (en) | 2001-04-03 | 2001-04-03 | Object-classification discrimination apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002303671A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040050739A (en) * | 2002-12-09 | 2004-06-17 | 한국전자통신연구원 | 3d feature extraction and classification method by using the mobile laser scanning data |
EP1703299A3 (en) * | 2005-03-15 | 2007-08-22 | Omron Corporation | Object detector for a vehicle |
JP2007232408A (en) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Structure shape estimation device, obstacle detection device, and structure shape estimation method |
JP2007240277A (en) * | 2006-03-07 | 2007-09-20 | Olympus Corp | Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium |
KR100855071B1 (en) | 2008-05-16 | 2008-08-29 | (주)한성유아이엔지니어링 | Geographic information system for numerical information correction using mobile GPS measurement device |
KR100855066B1 (en) | 2008-05-16 | 2008-08-29 | (주)한성유아이엔지니어링 | Digitization information setting system of feature for creating digital map |
US7543677B2 (en) | 2005-03-22 | 2009-06-09 | Takata Corporation | Object detection system, protection system, and vehicle |
JP2011089879A (en) * | 2009-10-22 | 2011-05-06 | Honda Motor Co Ltd | Object detection apparatus |
JP2012104027A (en) * | 2010-11-12 | 2012-05-31 | Honda Motor Co Ltd | Object determination apparatus for vehicle |
US8452078B2 (en) | 2008-10-15 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America | System and method for object recognition and classification using a three-dimensional system with adaptive feature detectors |
US8483442B2 (en) | 2007-02-16 | 2013-07-09 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
US8687898B2 (en) | 2010-02-01 | 2014-04-01 | Toyota Motor Engineering & Manufacturing North America | System and method for object recognition based on three-dimensional adaptive feature detectors |
US8799201B2 (en) | 2011-07-25 | 2014-08-05 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for tracking objects |
JP2017004176A (en) * | 2015-06-08 | 2017-01-05 | 日産自動車株式会社 | Road surface marking detection device and road surface marking detection method |
WO2019172103A1 (en) * | 2018-03-08 | 2019-09-12 | 日立オートモティブシステムズ株式会社 | Signal processing system and evaluation system for same, and signal processing device used in said signal processing system |
US10583737B2 (en) | 2017-06-14 | 2020-03-10 | Toyota Jidosha Kabushiki Kaisha | Target determination apparatus and driving assistance system |
-
2001
- 2001-04-03 JP JP2001104597A patent/JP2002303671A/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040050739A (en) * | 2002-12-09 | 2004-06-17 | 한국전자통신연구원 | 3d feature extraction and classification method by using the mobile laser scanning data |
EP1703299A3 (en) * | 2005-03-15 | 2007-08-22 | Omron Corporation | Object detector for a vehicle |
CN100401011C (en) * | 2005-03-15 | 2008-07-09 | 欧姆龙株式会社 | Vehicle Object Recognition Device |
US7543677B2 (en) | 2005-03-22 | 2009-06-09 | Takata Corporation | Object detection system, protection system, and vehicle |
JP2007232408A (en) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Structure shape estimation device, obstacle detection device, and structure shape estimation method |
JP2007240277A (en) * | 2006-03-07 | 2007-09-20 | Olympus Corp | Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium |
US8483442B2 (en) | 2007-02-16 | 2013-07-09 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
US8625851B2 (en) | 2007-02-16 | 2014-01-07 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
US8571265B2 (en) | 2007-02-16 | 2013-10-29 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
KR100855071B1 (en) | 2008-05-16 | 2008-08-29 | (주)한성유아이엔지니어링 | Geographic information system for numerical information correction using mobile GPS measurement device |
KR100855066B1 (en) | 2008-05-16 | 2008-08-29 | (주)한성유아이엔지니어링 | Digitization information setting system of feature for creating digital map |
US8452078B2 (en) | 2008-10-15 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America | System and method for object recognition and classification using a three-dimensional system with adaptive feature detectors |
JP2011089879A (en) * | 2009-10-22 | 2011-05-06 | Honda Motor Co Ltd | Object detection apparatus |
US8687898B2 (en) | 2010-02-01 | 2014-04-01 | Toyota Motor Engineering & Manufacturing North America | System and method for object recognition based on three-dimensional adaptive feature detectors |
JP2012104027A (en) * | 2010-11-12 | 2012-05-31 | Honda Motor Co Ltd | Object determination apparatus for vehicle |
US8799201B2 (en) | 2011-07-25 | 2014-08-05 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for tracking objects |
JP2017004176A (en) * | 2015-06-08 | 2017-01-05 | 日産自動車株式会社 | Road surface marking detection device and road surface marking detection method |
US10583737B2 (en) | 2017-06-14 | 2020-03-10 | Toyota Jidosha Kabushiki Kaisha | Target determination apparatus and driving assistance system |
WO2019172103A1 (en) * | 2018-03-08 | 2019-09-12 | 日立オートモティブシステムズ株式会社 | Signal processing system and evaluation system for same, and signal processing device used in said signal processing system |
JP2019158390A (en) * | 2018-03-08 | 2019-09-19 | 日立オートモティブシステムズ株式会社 | Signal processing system, evaluation system therefor, and signal processing device used in signal processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5617085A (en) | Method and apparatus for monitoring the surroundings of a vehicle and for detecting failure of the monitoring apparatus | |
US6670912B2 (en) | Method for detecting stationary object located above road | |
US7859652B2 (en) | Sight-line end estimation device and driving assist device | |
US6823261B2 (en) | Monitor system of vehicle outside and the method thereof | |
KR100435650B1 (en) | Detection method of road condition in a vehicle equipped with a camera, and method for detecting distance between vehicles in the same vehicle | |
JP2002303671A (en) | Object-classification discrimination apparatus | |
US11119210B2 (en) | Vehicle control device and vehicle control method | |
US20010031068A1 (en) | Target detection system using radar and image processing | |
JP2007310595A (en) | Traveling environment recognition system | |
EP1402498A1 (en) | An object location system for a road vehicle | |
JP3649163B2 (en) | Object type discrimination device and object type discrimination method | |
JP2003084064A (en) | Device and method for recognizing vehicle in front side | |
US10907962B2 (en) | Driving assistance system mounted in vehicle | |
US20180149740A1 (en) | Object detection apparatus and object detection method | |
JP5098563B2 (en) | Object detection device | |
JP2001195698A (en) | Device for detecting pedestrian | |
JPH08156723A (en) | Vehicle obstruction detecting device | |
WO2011036807A1 (en) | Object detection device and object detection method | |
JP2003044995A (en) | Device and method for discriminating body kind | |
US10970870B2 (en) | Object detection apparatus | |
JP3822417B2 (en) | Vehicle periphery monitoring device | |
JP4110922B2 (en) | Vehicle external recognition device | |
JP3690260B2 (en) | Vehicle distance measurement method | |
JP2006004188A (en) | Obstacle recognition method and obstacle recognition device | |
JP4074550B2 (en) | Object recognition apparatus and recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040629 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040819 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050104 |