[go: up one dir, main page]

JP2005157731A - Lane recognition device and lane recognition method - Google Patents

Lane recognition device and lane recognition method Download PDF

Info

Publication number
JP2005157731A
JP2005157731A JP2003395164A JP2003395164A JP2005157731A JP 2005157731 A JP2005157731 A JP 2005157731A JP 2003395164 A JP2003395164 A JP 2003395164A JP 2003395164 A JP2003395164 A JP 2003395164A JP 2005157731 A JP2005157731 A JP 2005157731A
Authority
JP
Japan
Prior art keywords
white line
road surface
window
luminance
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003395164A
Other languages
Japanese (ja)
Inventor
Seiji Takeda
誠司 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003395164A priority Critical patent/JP2005157731A/en
Publication of JP2005157731A publication Critical patent/JP2005157731A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】道路上における道路補修跡による白線の誤認識を防止する。
【解決手段】自車両12の前方を撮像するカメラ14により撮像した画像内に路面輝度算出用ウインドウを設定し、この設定した路面輝度算出用ウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する。そして、カメラ14により撮像した画像から、前記算出した路面輝度よりも大きい輝度を有するエッジを抽出し、この抽出したエッジに基いて白線を認識する。
【選択図】 図1
An object of the present invention is to prevent erroneous recognition of a white line due to road repair marks on a road.
A road surface luminance calculation window is set in an image captured by a camera that images the front of a host vehicle, and an average value or mode value of luminance in the image in the set road surface luminance calculation window is set. Calculated as road surface brightness. Then, an edge having a luminance larger than the calculated road surface luminance is extracted from the image captured by the camera 14, and a white line is recognized based on the extracted edge.
[Selection] Figure 1

Description

本発明は、自車両の前方の道路上の白線を検出して車線を認識する車線認識装置および車線認識方法に関するものである。   The present invention relates to a lane recognition device and a lane recognition method that recognize a lane by detecting a white line on a road ahead of the host vehicle.

従来、自車両に設けた電子式のカメラで撮像した画像から自車両が走行する道路上の白線を検出し、自車両の車線(走行路)を認識する技術が知られている。
例えば下記特許文献1における従来装置では、カメラで撮像した画像内にウインドウを設定し、このウインドウ内の輝度変化に基いてエッジを検出し、このエッジに基いて白線を検出している。
2. Description of the Related Art Conventionally, a technique for detecting a white line on a road on which the host vehicle travels from an image captured by an electronic camera provided on the host vehicle and recognizing the lane (traveling path) of the host vehicle is known.
For example, in the conventional apparatus disclosed in Patent Document 1 below, a window is set in an image captured by a camera, an edge is detected based on a luminance change in the window, and a white line is detected based on the edge.

特開平7−78234号公報JP-A-7-78234

上記従来技術では、カメラで撮像した画像内に設定したウインドウ内の輝度変化に基いてエッジを検出し、このエッジに基いて白線を検出している。このため、検出すべき白線に加えて、工事による道路補修跡も同様の輝度変化を示してしまうことがある。このような場合、この道路補修跡を白線と誤認識してしまう可能性があった。
本発明は、道路上における道路補修跡による白線の誤認識を防止することができる車線認識装置および車線認識方法を提供することを目的とする。
In the above prior art, an edge is detected based on a luminance change in a window set in an image captured by a camera, and a white line is detected based on the edge. For this reason, in addition to the white line to be detected, road repair marks due to construction may show the same luminance change. In such a case, there is a possibility that this road repair trace may be mistakenly recognized as a white line.
An object of this invention is to provide the lane recognition apparatus and lane recognition method which can prevent the misrecognition of the white line by the road repair trace on a road.

上記課題を解決するために、本発明は、自車両の前方を撮像する画像取得手段と、撮像した画像内に路面輝度算出用のウインドウを設定するウインドウ設定手段と、設定したウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する路面輝度算出手段と、撮像した画像から、算出した路面輝度よりも大きい輝度を有するエッジを抽出するエッジ抽出手段と、抽出したエッジに基いて白線を認識する白線認識手段とを備えている。   In order to solve the above problems, the present invention relates to an image acquisition unit that captures the front of the host vehicle, a window setting unit that sets a window for calculating road surface luminance in the captured image, and an image in the set window. Based on the extracted edge, a road surface brightness calculating means for calculating an average value or a mode value of the brightness as the road surface brightness, an edge extracting means for extracting an edge having a brightness larger than the calculated road surface brightness from the captured image, and White line recognition means for recognizing a white line.

本発明によれば、道路上における道路補修跡による白線の誤認識を防止することができる。   According to the present invention, it is possible to prevent erroneous recognition of white lines due to road repair marks on the road.

以下、本発明の実施の形態を添付図面を参照して詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施の形態の車線認識装置を搭載した車両を示す図、図1は、本実施の形態の車線認識装置の基本的な構成を示すブロック図である。
図2において、12は自車両、10は本実施の形態の車線認識装置(道路白線認識装置)、14は電子式のカメラ、16は車線認識装置10の主要部を構成するプロセッサ、12aは自車両12の室内天井、12bは自車両12のフロントガラス、17はレーダ、Rは道路である。
図2に示すように、自車両12の前方の道路画像を取得するカメラ14と、カメラ14で取得した画像信号(以下、単に画像と記す)を処理するプロセッサ16と、自車両12の前方の立体物を検出するレーダ17が自車両12に設置されている。カメラ14としては、高感度撮像が可能なCCD(Charge Coupled Device)カメラまたはCMOS(Complementaly Metal-Oxide Semiconductor)カメラなどが好ましい。カメラ14は、自車両12の室内天井12aの前方中央部に前方下方を指向して設置され、フロントガラス12bを通して自車両12前方の道路Rの画像を取得する。プロセッサ16は、熱や風雨の影響のない自車両12の適宜の箇所に設置され、カメラ14で取得した道路Rの画像から道路Rの白線を認識し、道路Rの形状および道路Rに対する自車両12の姿勢を推定する制御が実行される。レーダ17は、自車両12の前方に設置され、先行車両との間の車間距離を計測する車間距離検出手段として設置されている。レーダ17は、レーザ光を前方に掃射し、自車両12の前方の立体物からの反射光を受光して該立体物の検出を行うものである。なお、レーザ光の代わりに電磁波を掃射するものも適用可能である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings described below, components having the same function are denoted by the same reference numerals, and repeated description thereof is omitted.
FIG. 2 is a diagram showing a vehicle equipped with a lane recognition device according to an embodiment of the present invention, and FIG. 1 is a block diagram showing a basic configuration of the lane recognition device according to the present embodiment.
In FIG. 2, 12 is the own vehicle, 10 is the lane recognition device (road white line recognition device) of the present embodiment, 14 is an electronic camera, 16 is a processor constituting the main part of the lane recognition device 10, and 12a is the own vehicle. An interior ceiling of the vehicle 12, 12b is a windshield of the host vehicle 12, 17 is a radar, and R is a road.
As shown in FIG. 2, a camera 14 that acquires a road image in front of the host vehicle 12, a processor 16 that processes an image signal acquired by the camera 14 (hereinafter simply referred to as an image), and a front of the host vehicle 12. A radar 17 that detects a three-dimensional object is installed in the host vehicle 12. The camera 14 is preferably a charge coupled device (CCD) camera or a complementary metal-oxide semiconductor (CMOS) camera capable of high-sensitivity imaging. The camera 14 is installed in the front center portion of the indoor ceiling 12a of the host vehicle 12 so as to face the front lower side, and acquires an image of the road R in front of the host vehicle 12 through the windshield 12b. The processor 16 is installed at an appropriate location of the host vehicle 12 that is not affected by heat or wind and rain, recognizes the white line of the road R from the image of the road R acquired by the camera 14, and forms the road R and the host vehicle with respect to the road R. Control for estimating 12 postures is executed. The radar 17 is installed in front of the host vehicle 12 and is installed as an inter-vehicle distance detection means for measuring the inter-vehicle distance from the preceding vehicle. The radar 17 sweeps laser light forward and receives reflected light from a three-dimensional object in front of the host vehicle 12 to detect the three-dimensional object. In addition, what sweeps electromagnetic waves instead of a laser beam is applicable.

図1において、15は自車両12に搭載したカメラ14により取得した自車両12の前方の道路Rの画像を格納する画像メモリ、101は路面輝度測定手段、102はウインドウ設定手段、103は白線候補点抽出手段、104は白線候補線算出手段、105は道路パラメータ推定手段である。
図1に示すように、車線認識装置10は、画像メモリ15に格納された道路Rの画像と、レーダ17により取得した自車両12の前方の立体物の配置に基いて道路パラメータを推定する、例えばマイクロプロセッサを使用したプロセッサ16とを備えている。
プロセッサ16は、路面輝度測定手段101と、ウインドウ設定手段102と、白線候補点抽出手段103と、白線候補線算出手段104と、道路パラメータ推定手段105とを備えている。そして、これらの手段101〜105をプログラム制御により実現している。なお言うまでもなく、これらの手段101〜105は、プロセッサ16が下記のフローチャート(図3、図4)に従って実行する制御機能を示している。
路面輝度測定手段101は、レーダ17から先行車両との車間距離情報を得て先行車両と自車両12との間の路面輝度を測定する。ウインドウ設定手段102は、画像メモリ15に格納された道路Rの画像上に、それぞれのウインドウに道路Rの白線が含まれるように該白線の延長方向に沿って複数のウインドウを設ける。白線候補点抽出手段103は、これらのウインドウ毎の画像を処理して白線候補点を抽出する。白線候補線算出手段104は、これらのウインドウ毎に抽出された白線候補点に基いて、白線の可能性が最も高い白線候補線の画像座標および傾きを算出する。道路パラメータ推定手段105は、これらの各ウインドウに対して算出された白線候補線の画像座標および傾きと道路モデル式とを用いて、少なくとも自車両12の車線に対する横変位を含む道路パラメータを推定する。
道路モデル式として、次に示す式1を用いて前述のように道路Rの形状および道路Rに対する自車両12の姿勢を推定する。
In FIG. 1, 15 is an image memory for storing an image of the road R ahead of the host vehicle 12 acquired by the camera 14 mounted on the host vehicle 12, 101 is a road surface luminance measuring unit, 102 is a window setting unit, and 103 is a white line candidate. Point extraction means, 104 is a white line candidate line calculation means, and 105 is road parameter estimation means.
As shown in FIG. 1, the lane recognition device 10 estimates road parameters based on the image of the road R stored in the image memory 15 and the arrangement of the three-dimensional object ahead of the host vehicle 12 acquired by the radar 17. For example, a processor 16 using a microprocessor is provided.
The processor 16 includes road surface brightness measuring means 101, window setting means 102, white line candidate point extracting means 103, white line candidate line calculating means 104, and road parameter estimating means 105. And these means 101-105 are implement | achieved by program control. Needless to say, these means 101 to 105 indicate control functions executed by the processor 16 according to the following flowcharts (FIGS. 3 and 4).
The road surface brightness measuring unit 101 obtains inter-vehicle distance information with the preceding vehicle from the radar 17 and measures the road surface brightness between the preceding vehicle and the host vehicle 12. The window setting means 102 provides a plurality of windows on the road R image stored in the image memory 15 along the extending direction of the white line so that each window includes the white line of the road R. The white line candidate point extraction means 103 processes the image for each window and extracts white line candidate points. The white line candidate line calculation means 104 calculates the image coordinates and inclination of the white line candidate line with the highest possibility of a white line, based on the white line candidate points extracted for each window. The road parameter estimation means 105 estimates a road parameter including at least a lateral displacement of the host vehicle 12 with respect to the lane using the image coordinates and inclination of the white line candidate line calculated for each of these windows and the road model formula. .
As the road model formula, the following formula 1 is used to estimate the shape of the road R and the posture of the host vehicle 12 with respect to the road R as described above.

Figure 2005157731
式1において、道路パラメータA,B,C,D,Hは、それぞれ、自車両12の車線に対する横変位(A)、道路曲率(B)、自車両12の車線に対するヨー角(C)、自車両12のピッチ角(D)、および道路Rの路面からのカメラ14の高さ(H)である。
また、Eは車線幅(左右の白線の内側間の距離)を示す定数、fはカメラ14のカメラ透視変換定数、jは左右の白線を区別するパラメータとし、左白線のとき、j=0、右白線のときj=1とする。また、(x,y)は、左白線または右白線内端上の任意の点の画像上の座標であり、画像左上を原点に取り、右方向がx軸正方向、下方向がy軸正方向とする。
なお、式1は、道路モデルを表す一手法を示したものであり、例えば、Eを変数にしたもの、Hを固定したもの、車線幅を前述のように左右の白線の内側間の距離ではなく、左白線中央と右白線中央との間の距離とし、(x,y)を白線幅の中央位置の画像座標としても定義することができる。
Figure 2005157731
In Equation 1, road parameters A, B, C, D, and H are respectively the lateral displacement (A) with respect to the lane of the own vehicle 12, the road curvature (B), the yaw angle (C) with respect to the lane of the own vehicle 12, The pitch angle (D) of the vehicle 12 and the height (H) of the camera 14 from the road surface of the road R.
E 0 is a constant indicating the lane width (the distance between the insides of the left and right white lines), f is a camera perspective conversion constant of the camera 14, and j is a parameter for distinguishing the left and right white lines. When the right white line, j = 1. Also, (x, y) is the coordinates on the image of an arbitrary point on the inner edge of the left white line or right white line, taking the upper left of the image as the origin, the right direction is the x-axis positive direction, and the lower direction is the y-axis positive The direction.
Note that Equation 1, which shows one technique for representing the road model, for example, those of E 0 to the variable, which is fixed to H, the distance between the inner white line of the right and left lane width as described above Instead, it can be defined as the distance between the center of the left white line and the center of the right white line, and (x, y) can also be defined as the image coordinates of the center position of the white line width.

図5(a)は、自車両と先行車両に対する本発明に係る路面輝度算出用ウインドウの設定位置関係を示す図、図5(b)、図6は、画面に設定される路面輝度算出用ウインドウの配置を示す図である。図5(a)において、18は道路上の白線、19は路面、23は先行車両、24は路面輝度算出用ウインドウの設定位置、図5(b)において、25は道路補修跡、26は路面輝度算出用ウインドウ、図6において、27は路面19上に描かれた文字である。
図8は、画面に設定される複数のウインドウの配列状態を示す図であり、20は白線認識用のウインドウである。
図10は、ウインドウ20内の白線18および道路補修跡の状態を示す図で、25は道路補修跡である。
図12は、ウインドウ20内の白線候補点のプロット状態を示す図であり、20aはウインドウ20の上辺、20bはウインドウ20の下辺、21は白線候補点である。
図14は、ウインドウ20内の白線候補線の選択状態を示す図で、22は白線候補線である。
FIG. 5A is a diagram showing a setting positional relationship of the road surface luminance calculation window according to the present invention with respect to the host vehicle and the preceding vehicle, and FIGS. 5B and 6 are road surface luminance calculation windows set on the screen. It is a figure which shows arrangement | positioning. 5A, 18 is a white line on the road, 19 is a road surface, 23 is a preceding vehicle, 24 is a setting position of a road surface luminance calculation window, 25 in FIG. 5B, 25 is a road repair trace, and 26 is a road surface. In the brightness calculation window, in FIG. 6, reference numeral 27 denotes characters drawn on the road surface 19.
FIG. 8 is a diagram showing an arrangement state of a plurality of windows set on the screen, and 20 is a window for white line recognition.
FIG. 10 is a diagram showing the state of the white line 18 and the road repair trace in the window 20, and 25 is the road repair trace.
FIG. 12 is a diagram showing a plot state of white line candidate points in the window 20, where 20a is the upper side of the window 20, 20b is the lower side of the window 20, and 21 is a white line candidate point.
FIG. 14 is a diagram showing a selection state of white line candidate lines in the window 20, and 22 is a white line candidate line.

図3および図4は、プロセッサ16によって道路パラメータを推定するプログラムのフローチャートである。例えば、自車両12の走行中に30[msec]毎に処理が繰り返されるものとする。
次に、図3の各ステップ毎の概略処理を説明する。
まず、ステップS1において、図1のカメラ14から画像メモリ15へ自車両12の前方画像を取り込む。
次いで、ステップS2において、レーダ17により先行車との相対車間距離を取得する。
次いで、ステップS3において、先行車との相対車間距離を元にして、ステップS1において取り込んだ画像に路面輝度算出用のウインドウ26(図5、図6参照)を設定する。
次いで、ステップS4において、路面輝度算出用のウインドウ26に基いて路面輝度を算出する。
3 and 4 are flowcharts of a program for estimating the road parameters by the processor 16. For example, it is assumed that the process is repeated every 30 [msec] while the host vehicle 12 is traveling.
Next, an outline process for each step in FIG. 3 will be described.
First, in step S1, a front image of the host vehicle 12 is taken into the image memory 15 from the camera 14 of FIG.
Next, in step S2, the radar 17 acquires the relative inter-vehicle distance from the preceding vehicle.
Next, in step S3, a road surface brightness calculation window 26 (see FIGS. 5 and 6) is set in the image captured in step S1, based on the relative inter-vehicle distance from the preceding vehicle.
Next, in step S4, the road surface luminance is calculated based on the road surface luminance calculation window 26.

次いで、ステップS5において、ステップS1において取り込んだ画像上に複数(m個)の白線認識用のウインドウ20(図8参照)を設定する。
次いで、ステップS6において、ウインドウ処理番号iを初期値の1に設定する。
次いで、ステップS7において、i番目のウインドウ20(以下、ウインドウiと記す)の画像データから、水平方向の輝度変化を検出して白線18の端部の位置を認識するための白線候補点21(図12参照)を抽出する。
次いで、ステップS8において、ウインドウ20内の白線候補点21の座標位置に基いて、これらの白線候補点21から最も白線18の可能性が高い白線候補線22(図14参照)を算出する。
次いで、ステップS9において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS10において、iがウインドウ数(m)を超えているか否かを判定する。
ステップS10の判定で、iがウインドウ数(m)を超えていなければ、次のウインドウ20を処理すべく、ステップS7へ戻る。
ステップS10の判定で、iがウインドウ数(m)を超えていれば、全ウインドウの前処理が終わったので、ステップS20において、道路パラメータの推定処理を行う。
Next, in step S5, a plurality (m) of white line recognition windows 20 (see FIG. 8) are set on the image captured in step S1.
In step S6, the window processing number i is set to an initial value of 1.
Next, in step S7, a white line candidate point 21 (for detecting the luminance change in the horizontal direction and recognizing the position of the end of the white line 18 from the image data of the i-th window 20 (hereinafter referred to as window i). (See FIG. 12).
Next, in step S8, based on the coordinate position of the white line candidate point 21 in the window 20, the white line candidate line 22 (see FIG. 14) having the highest possibility of the white line 18 from these white line candidate points 21 is calculated.
Next, in step S9, the window process number i is incremented by one.
Next, in step S10, it is determined whether i exceeds the number of windows (m).
If it is determined in step S10 that i does not exceed the number of windows (m), the process returns to step S7 to process the next window 20.
If it is determined in step S10 that i exceeds the number of windows (m), the pre-processing for all the windows has been completed. In step S20, road parameter estimation processing is performed.

以下、上記プログラムの処理を各ステップ毎にさらに詳細に説明する。
(1)前方画像の取り込み(S1)
プロセッサ16がプログラムを処理する所定時間毎、例えば30[msec]毎に、カメラ14によって撮像された自車両12の前方の画像を画像メモリ15へ取り込む。画像は各画素毎の輝度データとして表される。
(2)先行車両23との相対車間距離の取得(S2)
レーダ17が一定の処理サイクル(例えば30[msec])毎に出力する先行車両23との相対車間距離を取得する。
(3)路面輝度算出用ウインドウ26の設定(S3)
図5(b)に示すように、画像メモリ15に取り込まれた画像に路面輝度算出用ウインドウ26を設定する。この路面輝度算出用ウインドウ26は、上記(2)においてレーダ17により先行車両23の位置を取得し、図5(a)に示すように、先行車両23より近傍で、かつ、前回算出した左右の白線18の推定位置より内側になるように設定する。なお、この路面輝度算出用ウインドウ26の最適な設定位置、大きさについては実験評価により求める。
(4)路面輝度の算出(S4)
上記(3)で設定した路面輝度算出用ウインドウ26から路面19の輝度を算出する。図6に示すように、道路補修跡25および路面19上の(制限速度、矢印等の)文字27などの路面19以外の路面輝度に対する外乱要素が、設定したウインドウ26内にある場合を考える。
図7は、図6に示した路面輝度算出用ウインドウ26内の輝度のヒストグラムの概略を示す図であり、輝度値を横軸に、その輝度値の発生頻度を縦軸にとってある。71は道路補修跡25によるピーク、72は路面19によるピーク、73は文字27によるピーク、74は路面輝度算出用ウインドウ26内の画像における輝度の平均値、74は路面輝度算出用ウインドウ26内の画像における輝度の最も頻度が高く出現する輝度値である最頻値である。
この場合、輝度値を横軸に、その輝度値の発生頻度を縦軸にとったヒストグラムは図7に示すようになる。ここで、路面19の輝度は、平均値74もしくは最頻値75で表せられる。このように路面輝度は、路面輝度算出用ウインドウ26内のヒストグラムをとり、平均値74もしくは最頻値75を算出することにより導き出す。なお、輝度の最大値と最小値を除いた平均値を用いてもよい。
Hereinafter, the processing of the program will be described in more detail for each step.
(1) Capture forward image (S1)
An image in front of the host vehicle 12 captured by the camera 14 is taken into the image memory 15 every predetermined time for which the processor 16 processes the program, for example, every 30 [msec]. The image is represented as luminance data for each pixel.
(2) Acquisition of relative inter-vehicle distance from the preceding vehicle 23 (S2)
The radar 17 obtains the relative inter-vehicle distance with the preceding vehicle 23 that is output every fixed processing cycle (for example, 30 [msec]).
(3) Setting of road brightness calculation window 26 (S3)
As shown in FIG. 5B, a road luminance calculation window 26 is set in the image taken into the image memory 15. This road surface brightness calculation window 26 acquires the position of the preceding vehicle 23 by the radar 17 in (2) above, and as shown in FIG. It is set so as to be inside the estimated position of the white line 18. The optimum setting position and size of the road surface luminance calculation window 26 are obtained by experimental evaluation.
(4) Calculation of road surface brightness (S4)
The luminance of the road surface 19 is calculated from the road luminance calculation window 26 set in (3) above. As shown in FIG. 6, a case is considered in which disturbance elements for road surface brightness other than the road surface 19 such as road repair marks 25 and characters 27 (such as speed limit and arrow) on the road surface 19 are within a set window 26.
FIG. 7 is a diagram showing an outline of the luminance histogram in the road surface luminance calculation window 26 shown in FIG. 6, with the luminance value on the horizontal axis and the frequency of occurrence of the luminance value on the vertical axis. 71 is a peak due to the road repair trace 25, 72 is a peak due to the road surface 19, 73 is a peak due to the character 27, 74 is an average value of luminance in the image in the road surface luminance calculation window 26, and 74 is in the road luminance calculation window 26. It is a mode value that is a luminance value that appears most frequently in the image.
In this case, the histogram with the luminance value on the horizontal axis and the frequency of occurrence of the luminance value on the vertical axis is as shown in FIG. Here, the brightness of the road surface 19 is represented by an average value 74 or a mode value 75. Thus, the road surface brightness is derived by taking a histogram in the road surface brightness calculation window 26 and calculating the average value 74 or the mode value 75. An average value excluding the maximum value and the minimum value of luminance may be used.

(5)複数の白線認識用ウインドウ20の設定(S5)
図8に示すように、白線認識用ウインドウ20は、道路Rの白線18の延長方向に沿って複数(図5の例では、左白線に対して5個、右白線に対して5個)設けられる。前回の画像処理結果によって得られた道路モデルのパラメータにより、それぞれのウインドウ20に白線18が取り込まれるように、各ウインドウ20の位置が設定され、白線18はこれらのウインドウ20内で検知される。図5において、縦方向は画像座標y軸方向を示し、図中下方がyプラスである。また、横方向は画像座標x軸方向を示し、図中右方がxプラスである。
ここで、n番目のウインドウ(i=n)の上辺20a(図6)のy座標をynとし、前回のパラメータの推定結果を{A(−1),B(−1),C(−1),D(−1),H(−1)}とすると、式1より今回のウインドウ20の横方向の中心座標xestは、式2で示される。
(5) Setting of a plurality of white line recognition windows 20 (S5)
As shown in FIG. 8, a plurality of white line recognition windows 20 are provided along the extending direction of the white line 18 on the road R (in the example of FIG. 5, five for the left white line and five for the right white line). It is done. Based on the parameters of the road model obtained from the previous image processing result, the position of each window 20 is set so that the white line 18 is captured in each window 20, and the white line 18 is detected in these windows 20. In FIG. 5, the vertical direction indicates the image coordinate y-axis direction, and the lower side in the figure is y plus. The horizontal direction indicates the image coordinate x-axis direction, and the right side in the figure is x plus.
Here, the y coordinate of the upper side 20a (FIG. 6) of the nth window (i = n) is yn, and the previous parameter estimation results are {A (-1), B (-1), C (-1 ), D (−1), H (−1)}, the central coordinate x est in the horizontal direction of the current window 20 is expressed by Equation 2 from Equation 1.

Figure 2005157731
ウインドウ20のx方向の幅は固定値としてもよく、また、特開平8−261756号公報に示されるようにパラメータの分散から合理的に設定することもできる。
Figure 2005157731
The width of the window 20 in the x direction may be a fixed value, or may be set rationally from the dispersion of parameters as disclosed in JP-A-8-261756.

(6)ウインドウ処理番号iの初期化(S6)
ステップS4からステップS7までの処理を全てのウインドウ20に対して行うためのループ制御パラメータ(すなわち、ウインドウ処理番号)iを1に初期化する。
(7)白線候補点21の抽出(S7)
カメラ14から取り込まれた画像に上記のごとく設定された各白線認識用ウインドウ20の範囲の画像からソーベル(sobel)フィルタ処理などのエッジ検知(輝度変化検知)処理および輝度評価を利用して、白線候補点21(図12)を選択する。
図9は、エッジ検出処理を説明するための図で、28は画素(図中の四角はすべて画素)、29は注目点である。
このエッジ検知では、図9に示すように、注目点29の左右の画素28の輝度を比較し、右(画像座標のx値が大きい)の画素28の輝度が左(画像座標のx値が小さい)の画素28の輝度より大きい場合、フィルタの出力が正であるとする。また、輝度評価は、上記の(4)路面輝度の算出により求めた路面輝度を用いて輝度の判定を行う。
図11(a)、(b)は、白線18が満たすべき条件を説明する図で、図11(a)では輝度値を縦軸にとり、(b)ではエッジ強度値を縦軸にとり、(a)、(b)ともにx値を横軸にとってある。
今、図10に示したような左側の白線18を例に取って説明する。白線の条件は、図11(a)、(b)に示すように、
a)左端からスキャンを行っていって、右側にフィルタの出力が負のエッジ判別値を超えるエッジ点がある。ここでエッジ判別値は、カメラ14の特性および実験評価より一意的に決定されるものを用いてもよいし、画像全体またはウインドウ毎の平均輝度、コントラスト等により、適宜設定されてもよい。
b)エッジ点の左側に路面輝度より高い輝度(白線18と考えられる)を有する画素が所定幅以上ある。ここで、路面輝度より高い輝度とは、路面輝度にカメラ14の特性および実験評価により一意的に決められた値を足したものをしきい値として判定を行う。また、ここで所定幅とは、実際の道路にあると想定される白線幅の最小値から最大値が、カメラ14で撮像されたときに見える長さの範囲のことをいう。
c)路面輝度以上を有する画素の終端(左端)には、フィルタの出力が正のエソジ判別値を超えるエッジ点がある。
これを順に評価してすべての条件を満たしたものを白線候補点21とする。この作業を白線認識用ウインドウ20内の全ての画像データに対して行う。これにより、図12に示すような白線候補点21が得られる。このように、条件a)、c)だけでは道路補修跡25を除去することは難しいが、条件b)を足すことにより道路補修跡25を容易に除去することができる。なお、右白線の場合は、上記の説明と逆にして適用するだけである。
図13は、白線18と道路道路補修跡25を有する道路におけるエッジ強度の変化を示す図で、31はプラスエッジ、32はマイナスエッジである。
カメラ14で白黒画像を撮像し、エッジ検出により白線18を認識する場合、自車両12から向かって左側の白線は、図13に示すように、例えば左端からスキャンを行っていって、プラスエッジ31、マイナスエッジ32の領域があることによって認識している。向かって右側の白線も同様である。例えば2本の並行に近い道路補修跡25は、左側からスキャンしていくと、白線18の領域Aと類似のプラスエッジ31、マイナスエッジ32で囲まれた領域A′が存在するために、エッジ画像からだけでは真の白線と見分けがつきにくく、誤認識の可能性がある。本実施の形態では、路面輝度の平均値または最頻値を求め、この輝度よりも大きくて、エッジを有するものを白線18と判断することで、この誤認識を防止するものである。なお、中心からスキャンを行うことも可能である。
なお、このエッジ検知は、左右に隣接する画素の輝度の変化より白線候補点21を抽出するようにしているが、取り込まれた画像のうち上下に隣接する画素の輝度の変化より白線候補点21を抽出するようにしてもよい。ただし、この場合には、道路の側方に存在する白線18以外にも、交差点等に存在する停止線からも白線候補点21を抽出してしまうため、前者に記載した左右に隣接する画素の輝度変化より白線候補点21を抽出することが好ましい。
(6) Initialization of window processing number i (S6)
A loop control parameter (i.e., window processing number) i for performing the processing from step S4 to step S7 on all windows 20 is initialized to 1.
(7) Extraction of white line candidate points 21 (S7)
Using the edge detection (brightness change detection) process such as the sobel filter process and the brightness evaluation from the image of the range of each white line recognition window 20 set as described above to the image captured from the camera 14, the white line Candidate point 21 (FIG. 12) is selected.
FIG. 9 is a diagram for explaining the edge detection processing, in which 28 is a pixel (all squares in the figure are pixels), and 29 is a point of interest.
In this edge detection, as shown in FIG. 9, the luminances of the left and right pixels 28 of the point of interest 29 are compared, and the luminance of the pixel 28 on the right (the x value of the image coordinate is large) is left (the x value of the image coordinate is It is assumed that the output of the filter is positive when it is greater than the luminance of the small pixel 28. In the luminance evaluation, the luminance is determined using the road surface luminance obtained by the above (4) calculation of the road surface luminance.
11 (a) and 11 (b) are diagrams for explaining the conditions to be satisfied by the white line 18. In FIG. 11 (a), the luminance value is taken on the vertical axis, and in FIG. 11 (b), the edge intensity value is taken on the vertical axis. ) And (b) both have x values on the horizontal axis.
Now, the left white line 18 as shown in FIG. 10 will be described as an example. The white line conditions are as shown in FIGS.
a) Scanning from the left end, there is an edge point on the right side where the output of the filter exceeds the negative edge discrimination value. Here, the edge discrimination value may be determined uniquely from the characteristics of the camera 14 and the experimental evaluation, or may be set as appropriate depending on the entire image or the average luminance, contrast, etc. for each window.
b) On the left side of the edge point, a pixel having a luminance higher than the road surface luminance (considered as the white line 18) is greater than or equal to a predetermined width. Here, the brightness higher than the road surface brightness is determined using a threshold value obtained by adding the road surface brightness to a value uniquely determined by the characteristics of the camera 14 and experimental evaluation. Here, the predetermined width refers to a range of length that can be seen when the camera 14 captures the minimum to maximum white line width assumed to be on an actual road.
c) At the terminal end (left end) of the pixel having the road surface luminance or higher, there is an edge point at which the output of the filter exceeds the positive edge judgment value.
The white line candidate points 21 are evaluated in order and satisfy all the conditions. This operation is performed for all the image data in the white line recognition window 20. Thereby, white line candidate points 21 as shown in FIG. 12 are obtained. Thus, although it is difficult to remove the road repair trace 25 only by the conditions a) and c), the road repair trace 25 can be easily removed by adding the condition b). In the case of the right white line, it is simply applied in the reverse of the above description.
FIG. 13 is a diagram showing a change in edge strength on a road having a white line 18 and a road road repair trace 25, in which 31 is a plus edge and 32 is a minus edge.
When a black and white image is captured by the camera 14 and the white line 18 is recognized by edge detection, the white line on the left side from the host vehicle 12 is scanned from the left end, for example, as shown in FIG. This is recognized by the presence of the negative edge 32 region. The white line on the right side is the same. For example, when two near-parallel road repair traces 25 are scanned from the left side, an area A ′ surrounded by a plus edge 31 and a minus edge 32 similar to the area A of the white line 18 exists, and therefore, the edge From the image alone, it is difficult to distinguish it from a true white line, and there is a possibility of misrecognition. In the present embodiment, the average value or the mode value of the road surface luminance is obtained, and the erroneous recognition is prevented by determining the white line 18 that is larger than the luminance and has an edge. It is also possible to scan from the center.
In this edge detection, the white line candidate point 21 is extracted from the change in luminance of the pixels adjacent to the left and right, but the white line candidate point 21 is determined from the change in luminance of the pixels adjacent in the vertical direction in the captured image. May be extracted. However, in this case, since the white line candidate point 21 is extracted from the stop line existing at the intersection in addition to the white line 18 present on the side of the road, the left and right adjacent pixels described in the former are extracted. It is preferable to extract the white line candidate point 21 from the luminance change.

(8)白線候補線22の算出(S8)
白線認識用ウインドウ20内から抽出された白線候補点21の集合から白線候補線22(図14)を探索する。この探索には、ハフ変換や最小自乗法などを用いることができる。本実施形態ではハフ変換を用いるものとし、ハフ変換直線近似では図14に示すようにウインドウ20内を通過する直線のうち、最も多く白線候補点21を貫いた白線候補線22、つまり、白線候補点21が一番多く載る白線候補線22を、最も白線18の可能性が高い白線候補線22とする。
このとき、座標(x,y)を通過する直線はパラメータa,bを用いて次の式3として表すことができる。ここで、aは白線候補線22の傾き(∂x/∂y)であり、bはそのx切片である。
(8) Calculation of white line candidate line 22 (S8)
A white line candidate line 22 (FIG. 14) is searched from a set of white line candidate points 21 extracted from the white line recognition window 20. For this search, a Hough transform, a least square method, or the like can be used. In the present embodiment, the Hough transform is used. In the Hough transform straight line approximation, as shown in FIG. 14, among the straight lines passing through the window 20, the white line candidate line 22 that penetrates the white line candidate point 21 most frequently, that is, a white line candidate. The white line candidate line 22 on which the most points 21 are placed is the white line candidate line 22 with the highest possibility of the white line 18.
At this time, a straight line passing through the coordinates (x, y) can be expressed as the following Expression 3 using the parameters a and b. Here, a is the slope (∂x / ∂y) of the white line candidate line 22, and b is its x intercept.

Figure 2005157731
図15は、白線候補線22を探索する際のハフ変換による配列表を示す図、図16は、ハフ変換を配列要素で示す図である。
すなわち、白線候補点21の座標を(x,y)とすると、aを決めるとbが式3より計算でき、これにより図15に示すハフ変換による配列が得られる。この配列の横方向は、一定刻みのaの値であり、縦方向は一定刻みのbの値である。ここで、配列の空欄は零を意味する。また、「1」が立っている(a,b)の組み合わせの中に真値が含まれる。この配列を白線候補点21の全てに対してそれぞれ作成し、作成した配列を重ね合わせて、各配列要素毎の数を合計することにより図16に示す配列が得られる。図16において、配列要素(a,b)の数zrは、式4が貫く白線候補点21の数を表している。
Figure 2005157731
FIG. 15 is a diagram showing an array table by Hough transform when searching for the white line candidate line 22, and FIG. 16 is a diagram showing Hough transform by array elements.
That is, assuming that the coordinates of the white line candidate point 21 are (x, y), b can be calculated from Equation 3 when a is determined, thereby obtaining an array by the Hough transform shown in FIG. The horizontal direction of this array is the value of a in constant increments, and the vertical direction is the value of b in constant increments. Here, the blank in the array means zero. In addition, a true value is included in the combination of (a, b) where “1” stands. This array is created for each of the white line candidate points 21, and the created arrays are overlaid and the numbers for each array element are summed to obtain the array shown in FIG. In FIG. 16, the number zr of array elements (a r , b r ) represents the number of white line candidate points 21 that Formula 4 penetrates.

Figure 2005157731
したがって、白線候補点21を最も多く貫く白線候補線22が最も白線18の可能性が高い白線候補線22であり、そのa,bを求めることが白線候補線22を算出することになる。すなわち、配列要素の値として最大のzを持つ配列要素(a,b)が白線候補線22を示すことになる。
図17は、ウインドウ20の上辺20aと白線候補線22との交点との道路座標を示す図である。
こうして、白線候補線22が算出されると、次いで、図17に示すように、ウインドウ処理番号nにおける白線候補線22とウインドウ20の上辺20aとの交点の画像上の座標である道路座標(xn,yn)を算出する。ウインドウ20の上辺20aのy座標ynは、ウインドウ処理番号nに対する固定値である。道路座標のx成分xnは、式5で算出される。
Figure 2005157731
Therefore, the white line candidate line 22 that penetrates most of the white line candidate points 21 is the white line candidate line 22 that has the highest possibility of the white line 18, and obtaining the a and b will calculate the white line candidate line 22. That is, the array element (a, b) having the maximum z as the value of the array element indicates the white line candidate line 22.
FIG. 17 is a diagram illustrating road coordinates between the upper side 20 a of the window 20 and the intersection of the white line candidate line 22.
When the white line candidate line 22 is calculated in this way, next, as shown in FIG. 17, road coordinates (xn) which are coordinates on the image of the intersection of the white line candidate line 22 and the upper side 20a of the window 20 in the window processing number n. , Yn). The y coordinate yn of the upper side 20a of the window 20 is a fixed value for the window processing number n. The x component xn of the road coordinates is calculated by Equation 5.

Figure 2005157731
(9)道路パラメータの推定(S20)
前記の式1をyで微分して式6を得る。
Figure 2005157731
(9) Road parameter estimation (S20)
Equation 6 is differentiated by y to obtain Equation 6.

Figure 2005157731
そして、式1と式6からAを消去すると、式7を得る。
Figure 2005157731
Then, when A is eliminated from Equations 1 and 6, Equation 7 is obtained.

Figure 2005157731
このとき、Aは自車両12の車線に対する横位置のパラメータであり、このAを消去すると同時に、車線幅を表すEも消去されることになる。つまり、道路幅がいかなるものであれ、式7が成立することになる。
次に、カルマンフィルタを用いて道路パラメータを推定する場合、式8に示す方程式が与えられることにより、パラメータzを推定することができる。ただし、同式中のパラメータyyの値およびfの構造はそれぞれ既知とし、一般にyyはベクトルとなる。
Figure 2005157731
At this time, A is a parameter of the lateral position with respect to the lane of the host vehicle 12, and at the same time as A is deleted, E 0 indicating the lane width is also deleted. That is, Expression 7 is established regardless of the road width.
Next, when the road parameter is estimated using the Kalman filter, the equation z shown in Expression 8 is given, whereby the parameter z can be estimated. However, the value of the parameter yy and the structure of f in the equation are known, and generally yy is a vector.

Figure 2005157731
ここで、この式8に相当する観測方程式(仮称)は、前記式1が式9として成立する。
Figure 2005157731
Here, the observation equation (tentative name) corresponding to Equation 8 is established as Equation 9 above.

Figure 2005157731
この式9は、x=fz(A,B,C,D,H)…(式9’)と表すこともできる。
式9’は一般に複数列より構成され、これらを線型近似した上で並べることにより次の行列式10が得られる。
Figure 2005157731
Expression 9 can also be expressed as x = fz (A, B, C, D, H) (Expression 9 ′).
Expression 9 ′ is generally composed of a plurality of columns, and the following determinant 10 is obtained by arranging these after linear approximation.

Figure 2005157731
この行列式10中、mは、1画面中に設定されたウインドウ20の数である。この場合、znは、zn=xnとなる。
Figure 2005157731
In this determinant 10, m is the number of windows 20 set in one screen. In this case, zn is zn = xn.

次に、図4を参照して、道路パラメータ推定処理のサブルーチンP3を説明する。
図3にも示した道路パラメータの推定(S20)から、まず、ステップS21において、ウインドウ処理番号パラメータiを1に初期化する。
次いで、ステップS22において、式10のziはxiとし、式9’の右辺を線形近似することにより、Mi1,Mi2,Mi3,Mi4,Mi5は、それぞれyの値がyiにおけるdfz/dA,dfz/dB,dfz/dC,dfz/dD,dfz/dHとする。
次いで、ステップS23において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS24において、ウインドウ処理番号iがウインドウ数mを超えているか否かを判定する。
Next, with reference to FIG. 4, the subroutine P3 of the road parameter estimation process will be described.
From the road parameter estimation (S20) also shown in FIG. 3, first, the window processing number parameter i is initialized to 1 in step S21.
Next, in step S22, zi in Expression 10 is set to xi, and the right side of Expression 9 ′ is linearly approximated, so that Mi1, Mi2, Mi3, Mi4, and Mi5 are dfz / dA, dfz / dB, dfz / dC, dfz / dD, and dfz / dH.
Next, in step S23, the window process number i is incremented by one.
Next, in step S24, it is determined whether or not the window process number i exceeds the window number m.

ステップS24の判定で、iがウインドウ数mを超えていなければ、次のウインドウ20を処理すべく、ステップS22へ戻る。
ステップS24の判定で、iがウインドウ数mを超えていれば、ステップS25において、カルマンフィルタ処理により、パラメータ(A,B,C,D,H)を推定し、メインルーチンヘリターンする。
If it is determined in step S24 that i does not exceed the number m of windows, the process returns to step S22 to process the next window 20.
If it is determined in step S24 that i exceeds the number of windows m, parameters (A, B, C, D, H) are estimated by Kalman filter processing in step S25, and the process returns to the main routine.

以上のように、本実施の形態による車線認識装置10および車線認識方法は、自車両12の前方を撮像するカメラ14により撮像した画像内に路面輝度算出用ウインドウ26を設定し、設定した路面輝度算出用ウインドウ26内の画像における輝度の平均値または最頻値を路面輝度として算出する。そして、カメラ14により撮像した画像から、前記算出した路面輝度よりも大きい輝度を有するエッジを抽出し、抽出したエッジに基いて白線18を認識するという構成になっている。設定した路面輝度算出用ウインドウ26内における輝度の平均値または最頻値は、道路補修前の(道路補修跡25が無い)道路の路面輝度を示すものとなり、道路補修跡25の輝度は、一般に道路補修前の路面輝度よりも小さく(暗く、黒く)なる。したがって、路面輝度の平均値または最頻値を求め、この輝度よりも大きくて、エッジを有するものを白線18と判断することで、道路における道路補修跡25による誤認識を防止することができる。例えば本発明を車線逸脱防止装置や車線逸脱警報装置に適用した場合には、道路補修跡25を白線18と誤認識してしまうと、車線逸脱を防止するためとして誤った操舵を行う可能性があり、車線幅を間違って認識することから誤ったタイミングで警報を出す可能性がある。本実施の形態では、上記のような白線と道路補修跡25類似のエッジにはさまれた部分の輝度が、算出した路面輝度に近い場合は誤認識と判断し、上記のような誤認識を回避するものであり、車線逸脱の防止においては誤った操舵を行ったり、誤ったタイミングで警報を出す可能性を減少させることができる。   As described above, the lane recognition device 10 and the lane recognition method according to the present embodiment sets the road luminance calculation window 26 in the image captured by the camera 14 that images the front of the host vehicle 12, and sets the set road luminance. The average value or mode value of the luminance in the image in the calculation window 26 is calculated as the road surface luminance. Then, an edge having luminance greater than the calculated road surface luminance is extracted from the image captured by the camera 14, and the white line 18 is recognized based on the extracted edge. The average value or mode value of the brightness in the set road surface brightness calculation window 26 indicates the road surface brightness before road repair (there is no road repair trace 25). The brightness of the road repair trace 25 is generally It becomes smaller (darker, blacker) than the road surface brightness before road repair. Therefore, the average value or mode value of the road surface luminance is obtained, and the white line 18 that is larger than this luminance and has an edge can be determined as the white line 18, thereby preventing erroneous recognition by the road repair trace 25 on the road. For example, when the present invention is applied to a lane departure prevention device or a lane departure warning device, if the road repair trace 25 is mistakenly recognized as the white line 18, there is a possibility that erroneous steering is performed to prevent the lane departure. Yes, there is a possibility of issuing an alarm at an incorrect timing because the lane width is recognized incorrectly. In the present embodiment, when the luminance between the white line and the edge similar to the road repair mark 25 is close to the calculated road surface luminance, it is determined as erroneous recognition, and the erroneous recognition as described above is performed. In order to avoid lane departure, it is possible to reduce the possibility of performing an incorrect steering or issuing an alarm at an incorrect timing.

なお、本実施の形態では、路面輝度算出用ウインドウ26を用いて路面輝度を算出するのは、例えば30[msec]毎等、所定のサイクルごとに行う。したがって、その算出される路面輝度が自車両12の走行に伴って最新値へと更新されていくことが前提である。例えば交差点の先頭に停止した場合などで前方に停止線がある場合や、カーブの手前にあるカーブ予告線を多く含むような場合に、路面輝度算出用ウインドウ26が設定されてしまうと、このときの路面輝度を算出してしまう。したがって、この路面輝度を基準に白線18の認識を行なうと、正確な認識ができないことが考えられる。このような場合は、路面輝度の算出を行なわないようにして、異常値が更新されることを防止する。具体的には例えば以下のような方法で行なう。
(1)算出した基準となる路面輝度の平均値または最頻度が、過去の路面輝度の平均値±所定値の範囲外となる場合には、算出した基準となる路面輝度を用いず、前回の路面輝度値を用いる。
(2)GPS(Global Positioning System)システムによるナビゲーションの地図情報により、交差点やカーブであることを検出した場合には、基準となる路面輝度の算出を行なわない。または、路面輝度の算出する間隔を長くする。
(3)カメラ14で撮像した画像より、パターンマッチングにより停止線やカーブ予告線が検出された場合には、基準となる路面輝度の算出を行なわない。
このように、停止線やカーブ予告線等の白線による影響を排除した上で路面輝度を求めることにより、道路補修跡25による誤認識をより確実に防止できる。
また、前述のように、レーダ17により先行車両23の位置を取得し、図5(a)に示すように、先行車両23より近傍で、かつ、前回算出した左右の白線18の推定位置より内側になるように設定される路面輝度算出用ウインドウ26は、該ウインドウ26内に白線18が検出された場合は、前回検出した白線18を含まないように設定される。このように白線18による影響を排除した上で路面輝度を求めることにより、道路補修跡25による誤認識をより確実に防止できる。
また、図11のb)に示したように、路面輝度よりも大きい輝度を有するエッジを抽出するのに、該エッジの輝度が所定幅以上あるエッジを抽出する。また、図11のc)、a)に示したように、抽出したエッジにおいて、輝度が正に変化した後、負に変化した場合に、白線18と認識する。これらにより、白線18を確実に認識し、道路補修跡25による誤認識をより確実に防止できる。
また、カメラ14により撮像した画像内に複数の白線認識用のウインドウ20を設定し、このウインドウ20内のうち隣接する画素の輝度変化に基いて白線18を認識する。さらに、カメラ14により撮像した画像内のうち隣接する画素の輝度変化に基いて複数の白線候補点21を抽出し、これらの白線候補点21を直線で結ぶことにより白線18を認識する。これらの構成により、容易かつ確実に白線18を検出することができる。
In the present embodiment, the road surface brightness is calculated by using the road surface brightness calculation window 26 every predetermined cycle, for example, every 30 [msec]. Therefore, it is a premise that the calculated road surface brightness is updated to the latest value as the host vehicle 12 travels. For example, when the road surface brightness calculation window 26 is set when there is a stop line ahead, such as when stopping at the head of an intersection, or when there are many curve warning lines in front of the curve, The road surface brightness is calculated. Therefore, if the white line 18 is recognized based on the road surface luminance, it is considered that accurate recognition cannot be performed. In such a case, the road surface brightness is not calculated to prevent the abnormal value from being updated. Specifically, for example, the following method is used.
(1) If the average value or the maximum frequency of the calculated road surface brightness is out of the range of the past road surface average value ± predetermined value, the calculated road surface brightness is not used, The road surface brightness value is used.
(2) When it is detected that the vehicle is an intersection or a curve from navigation map information by a GPS (Global Positioning System) system, the reference road surface brightness is not calculated. Alternatively, the interval for calculating road surface brightness is lengthened.
(3) When a stop line or a curve warning line is detected from the image captured by the camera 14 by pattern matching, the reference road surface brightness is not calculated.
As described above, by obtaining the road surface luminance after eliminating the influence of the white line such as the stop line or the curve warning line, erroneous recognition by the road repair trace 25 can be more reliably prevented.
Further, as described above, the position of the preceding vehicle 23 is acquired by the radar 17, and as shown in FIG. 5A, it is in the vicinity of the preceding vehicle 23 and inside the estimated position of the left and right white lines 18 calculated last time. When the white line 18 is detected in the window 26, the road surface brightness calculation window 26 set so as to become is set so as not to include the previously detected white line 18. Thus, by obtaining the road surface brightness after eliminating the influence of the white line 18, it is possible to prevent erroneous recognition by the road repair trace 25 more reliably.
In addition, as shown in FIG. 11 b, in order to extract an edge having a luminance higher than the road surface luminance, an edge having a luminance of a predetermined width or more is extracted. In addition, as shown in c) and a) of FIG. 11, when the luminance changes positively and then changes negatively at the extracted edge, the white line 18 is recognized. By these, the white line 18 can be recognized reliably and the misrecognition by the road repair trace 25 can be prevented more reliably.
In addition, a plurality of white line recognition windows 20 are set in the image captured by the camera 14, and the white line 18 is recognized based on the luminance change of adjacent pixels in the window 20. Further, a plurality of white line candidate points 21 are extracted based on the luminance change of adjacent pixels in the image captured by the camera 14, and the white line 18 is recognized by connecting these white line candidate points 21 with a straight line. With these configurations, the white line 18 can be detected easily and reliably.

なお、本実施の形態における図1、図2のカメラ14および図3のステップS1が、特許請求の範囲の画像取得手段に相当する。本実施の形態における図1のプロセッサ16および図3のステップS2、S3が、ウインドウ設定手段に相当する。本実施の形態における図1のプロセッサ16、図1の路面輝度測定手段101および図3のステップS4が、路面輝度算出手段に相当する。本実施の形態における図1のプロセッサ16、図1のウインドウ設定手段102、白線候補点抽出手段103および図3のステップS5〜S7が、エッジ抽出手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線抽出手段104および図3のステップS8が、白線認識手段に相当する。
さらに、以上説明した実施の形態は本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施の形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
The camera 14 in FIGS. 1 and 2 and step S1 in FIG. 3 in the present embodiment correspond to the image acquisition means in the claims. The processor 16 in FIG. 1 and steps S2 and S3 in FIG. 3 in the present embodiment correspond to window setting means. 1 in this embodiment, the road surface brightness measuring means 101 in FIG. 1 and step S4 in FIG. 3 correspond to the road surface brightness calculating means. The processor 16 in FIG. 1, the window setting unit 102 in FIG. 1, the white line candidate point extracting unit 103, and steps S5 to S7 in FIG. 3 correspond to the edge extracting unit. The processor 16 in FIG. 1, the white line candidate line extraction unit 104 in FIG. 1, and step S8 in FIG. 3 in the present embodiment correspond to the white line recognition unit.
Further, the embodiments described above are described for facilitating the understanding of the present invention, and are not described for limiting the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.

本発明の実施の形態の車線認識装置の基本的な構成を示すブロック図である。It is a block diagram which shows the basic composition of the lane recognition apparatus of embodiment of this invention. 本発明の実施の形態の車線認識装置を搭載した車両を示す図である。It is a figure which shows the vehicle carrying the lane recognition apparatus of embodiment of this invention. 本発明の実施の形態による画像処理プログラムを実行するためのフローチャートである。It is a flowchart for performing the image processing program by embodiment of this invention. 本発明の実施の形態による画像処理プログラムにおける道路パラメータの推定サブルーチンを示すフローチャートである。It is a flowchart which shows the estimation subroutine of the road parameter in the image processing program by embodiment of this invention. (a)は本発明の実施の形態において自車両と先行車両に対する路面輝度算出用ウインドウの設定位置関係を示す図、(b)は画面に設定される路面輝度算出用ウインドウの配置を示す図である。(A) is a figure which shows the setting positional relationship of the road surface luminance calculation window with respect to the own vehicle and a preceding vehicle in embodiment of this invention, (b) is a figure which shows arrangement | positioning of the road surface luminance calculation window set to a screen. is there. 本発明の実施の形態において画面に設定される路面輝度算出用ウインドウの配置を示す図である。It is a figure which shows arrangement | positioning of the window surface brightness calculation window set to a screen in embodiment of this invention. 図6の路面輝度算出用ウインドウ内部の輝度のヒストグラムの概略図である。FIG. 7 is a schematic diagram of a luminance histogram inside the road surface luminance calculation window of FIG. 6. 本発明の実施の形態において画面に設定される複数の白線認識用ウインドウの配列状態を示す図である。It is a figure which shows the arrangement | sequence state of the several white line recognition window set to the screen in embodiment of this invention. 本発明の実施の形態におけるエッジ検出処理の説明図である。It is explanatory drawing of the edge detection process in embodiment of this invention. 本発明の実施の形態において設定される路面輝度算出用ウインドウ内の白線および道路補修跡の状態を示す図である。It is a figure which shows the state of the white line in the road surface luminance calculation window set in embodiment of this invention, and a road repair trace. 本発明の実施の形態において白線が満たすべき条件を説明する図である。It is a figure explaining the conditions which the white line should satisfy in embodiment of this invention. 本発明の実施の形態において設定されるウインドウ内の白線候補点のプロット状態を示す図である。It is a figure which shows the plot state of the white line candidate point in the window set in embodiment of this invention. 本発明の実施の形態において白線と道路道路補修跡を有する道路におけるエッジ強度の変化を示す図である。It is a figure which shows the change of the edge strength in the road which has a white line and road road repair trace in embodiment of this invention. 本発明の実施の形態において設定されるウインドウ内の白線候補線の選択状態を示す図である。It is a figure which shows the selection state of the white line candidate line in the window set in embodiment of this invention. 本発明の実施の形態において実行される白線候補線を探索する際のハフ変換による配列表を示す図である。It is a figure which shows the arrangement | sequence table by the Hough transform at the time of searching for the white line candidate line performed in embodiment of this invention. 本発明の実施の形態において実行されるハフ変換を配列要素で示す図である。It is a figure which shows the Hough transformation performed in embodiment of this invention by an array element. 本発明の実施の形態において設定されるウインドウの上辺と白線候補線との交点との道路座標を示す図である。It is a figure which shows the road coordinate of the intersection of the upper side of the window set in embodiment of this invention, and a white line candidate line.

符号の説明Explanation of symbols

10…車線認識装置 12…自車両
12a…室内天井 12b…フロントガラス
14…カメラ 16…プロセッサ
17…レーダ R…道路
18…白線 19…路面
20…ウインドウ
20a…上辺 20b…下辺
21…白線候補点 22…白線候補線
23…先行車両 24…路面輝度算出用ウインドウの設定位置
25…道路補修跡 26…路面輝度算出用ウインドウ
27…文字
28…画素 29…注目点
31…プラスエッジ 32…マイナスエッジ
101…路面輝度測定手段 102…ウインドウ設定手段
103…白線候補点抽出手段 104…白線候補線算出手段
105…道路パラメータ推定手段
DESCRIPTION OF SYMBOLS 10 ... Lane recognition apparatus 12 ... Own vehicle 12a ... Indoor ceiling 12b ... Windshield 14 ... Camera 16 ... Processor 17 ... Radar R ... Road 18 ... White line 19 ... Road surface 20 ... Window 20a ... Upper side 20b ... Lower side 21 ... White line candidate point 22 ... white line candidate line 23 ... preceding vehicle 24 ... setting position of road brightness calculation window 25 ... road repair trace 26 ... road brightness calculation window 27 ... character 28 ... pixel 29 ... attention point 31 ... plus edge 32 ... minus edge 101 ... Road surface brightness measuring means 102 ... Window setting means 103 ... White line candidate point extracting means 104 ... White line candidate line calculating means 105 ... Road parameter estimating means

Claims (8)

自車両の前方を撮像する画像取得手段と、
前記画像取得手段により撮像した画像内に、ウインドウを設定するウインドウ設定手段と、
前記ウインドウ設定手段により設定した前記ウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する路面輝度算出手段と、
前記画像取得手段により撮像した画像から、前記路面輝度算出手段により算出した前記路面輝度よりも大きい輝度を有するエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段により抽出したエッジに基いて白線を認識する白線認識手段と
を備えたことを特徴とする車線認識装置。
Image acquisition means for imaging the front of the host vehicle;
A window setting means for setting a window in the image captured by the image acquisition means;
Road surface brightness calculating means for calculating an average value or mode value of brightness in the image in the window set by the window setting means as road surface brightness;
Edge extraction means for extracting an edge having a brightness larger than the road surface brightness calculated by the road surface brightness calculation means from the image captured by the image acquisition means;
A lane recognition device comprising: white line recognition means for recognizing a white line based on the edge extracted by the edge extraction means.
前記ウインドウ設定手段は、白線を含まないように前記ウインドウを設定することを特徴とする請求項1記載の車線認識装置。   The lane recognition device according to claim 1, wherein the window setting means sets the window so as not to include a white line. 前記ウインドウに白線が含まれる場合は、前記路面輝度算出手段により前記路面輝度を算出しないことを特徴とする請求項1または2記載の車線認識装置。   3. The lane recognition device according to claim 1, wherein when the window includes a white line, the road surface brightness calculation unit does not calculate the road surface brightness. 4. 前記エッジ抽出手段は、前記路面輝度よりも大きい輝度を有する前記エッジを抽出するのに、該エッジの輝度が所定幅以上あるエッジを抽出することを特徴とする請求項1ないし3のいずれか記載の車線認識装置。   4. The edge extraction unit according to claim 1, wherein, in order to extract the edge having a luminance higher than the road surface luminance, an edge having a luminance of the edge equal to or larger than a predetermined width is extracted. Lane recognition device. 前記白線認識手段は、前記エッジ抽出手段により抽出した前記エッジにおいて、輝度が正に変化した後、負に変化した場合に、前記白線と認識することを特徴とする請求項1ないし4のいずれか記載の車線認識装置。   5. The white line recognizing unit recognizes the white line when the luminance extracted from the edge extracted by the edge extracting unit changes positively and then changes negatively. The lane recognition device described. 前記ウインドウ設定手段は、前記画像取得手段により撮像した前記画像内に複数の白線認識用のウインドウを設定し、
前記白線認識手段は、該ウインドウ内のうち隣接する画素の輝度変化に基いて前記白線を認識することを特徴とする請求項1ないし5のいずれか記載の車線認識装置。
The window setting means sets a plurality of white line recognition windows in the image captured by the image acquisition means,
6. The lane recognition device according to claim 1, wherein the white line recognition unit recognizes the white line based on a luminance change of an adjacent pixel in the window.
前記白線認識手段は、前記画像取得手段により撮像した前記画像内のうち隣接する画素の輝度変化に基いて複数の白線候補点を抽出し、該白線候補点を直線で結ぶことにより前記白線を認識することを特徴とする請求項1ないし6のいずれか記載の車線認識装置。   The white line recognizing unit extracts a plurality of white line candidate points based on a luminance change of adjacent pixels in the image captured by the image acquisition unit, and recognizes the white line by connecting the white line candidate points with a straight line. A lane recognition device according to any one of claims 1 to 6, wherein: 自車両の前方を撮像する画像取得工程と、
前記画像取得工程により撮像した画像内に、ウインドウを設定するウインドウ設定工程と、
前記ウインドウ設定工程により設定した前記ウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する路面輝度算出工程と、
前記画像取得工程により撮像した画像から、前記路面輝度算出工程により算出した前記路面輝度よりも大きい輝度を有するエッジを抽出するエッジ抽出工程と、
前記エッジ抽出工程により抽出したエッジに基いて白線を認識する白線認識工程と
を有することを特徴とする車線認識方法。
An image acquisition step of imaging the front of the host vehicle;
A window setting step for setting a window in the image captured by the image acquisition step;
A road surface brightness calculating step of calculating an average value or mode value of brightness in the image in the window set by the window setting step as road surface brightness;
An edge extraction step of extracting an edge having a luminance greater than the road surface luminance calculated by the road surface luminance calculation step from the image captured by the image acquisition step;
And a white line recognition step of recognizing a white line based on the edge extracted by the edge extraction step.
JP2003395164A 2003-11-26 2003-11-26 Lane recognition device and lane recognition method Pending JP2005157731A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003395164A JP2005157731A (en) 2003-11-26 2003-11-26 Lane recognition device and lane recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003395164A JP2005157731A (en) 2003-11-26 2003-11-26 Lane recognition device and lane recognition method

Publications (1)

Publication Number Publication Date
JP2005157731A true JP2005157731A (en) 2005-06-16

Family

ID=34720998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003395164A Pending JP2005157731A (en) 2003-11-26 2003-11-26 Lane recognition device and lane recognition method

Country Status (1)

Country Link
JP (1) JP2005157731A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006101004A1 (en) * 2005-03-22 2006-09-28 Honda Motor Co., Ltd. Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system
JP2008056233A (en) * 2006-09-01 2008-03-13 Harman Becker Automotive Systems Gmbh Method for operating a night view system in a vehicle and corresponding night view system
JP2010224930A (en) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd Road recognition device
KR101035538B1 (en) * 2009-10-29 2011-05-23 한국 천문 연구원 Real-time lane location information acquisition device and method
JP2011118889A (en) * 2009-11-04 2011-06-16 Valeo Schalter & Sensoren Gmbh Video image-based road feature analysis, lane detection, and lane departure prevention method and device
US8130288B2 (en) 2005-07-15 2012-03-06 Mitsubishi Denki Kabushiki Kaisha Image processing apparatus
JP2013061934A (en) * 2011-08-22 2013-04-04 Nissan Motor Co Ltd Lane recognition device
KR101406316B1 (en) * 2012-08-20 2014-06-12 하이브모션 주식회사 Apparatus and method for detecting lane
CN104978560A (en) * 2014-04-01 2015-10-14 本田技研工业株式会社 Lane mark recognition device
US20150294164A1 (en) * 2014-04-14 2015-10-15 Honda Motor Co., Ltd. Lane mark recognition device
JP2016133838A (en) * 2015-01-15 2016-07-25 トヨタ自動車株式会社 Composite line determination apparatus and composite line determination method
JP2016206721A (en) * 2015-04-15 2016-12-08 日産自動車株式会社 Road mark detection apparatus and road mark detection method
WO2019151110A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Road surface information acquisition method
JP2019159606A (en) * 2018-03-09 2019-09-19 クラリオン株式会社 Lane line recognition system
CN116895052A (en) * 2022-03-29 2023-10-17 本田技研工业株式会社 Road marking recognition device
US11861841B2 (en) 2018-06-27 2024-01-02 Nippon Telegraph And Telephone Corporation Lane estimation device, method, and program
CN116895052B (en) * 2022-03-29 2026-02-06 本田技研工业株式会社 Road marking recognition device

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006101004A1 (en) * 2005-03-22 2006-09-28 Honda Motor Co., Ltd. Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system
US7920721B2 (en) 2005-03-22 2011-04-05 Honda Motor Co., Ltd. Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system
US8130288B2 (en) 2005-07-15 2012-03-06 Mitsubishi Denki Kabushiki Kaisha Image processing apparatus
JP2008056233A (en) * 2006-09-01 2008-03-13 Harman Becker Automotive Systems Gmbh Method for operating a night view system in a vehicle and corresponding night view system
JP2010224930A (en) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd Road recognition device
KR101035538B1 (en) * 2009-10-29 2011-05-23 한국 천문 연구원 Real-time lane location information acquisition device and method
JP2011118889A (en) * 2009-11-04 2011-06-16 Valeo Schalter & Sensoren Gmbh Video image-based road feature analysis, lane detection, and lane departure prevention method and device
JP2013061934A (en) * 2011-08-22 2013-04-04 Nissan Motor Co Ltd Lane recognition device
CN103171560A (en) * 2011-08-22 2013-06-26 日产自动车株式会社 Lane recognition device
CN103171560B (en) * 2011-08-22 2016-01-20 日产自动车株式会社 Lane recognition device
KR101406316B1 (en) * 2012-08-20 2014-06-12 하이브모션 주식회사 Apparatus and method for detecting lane
JP2015197829A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device
CN104978560B (en) * 2014-04-01 2018-09-28 本田技研工业株式会社 Lane identification recognition device
CN104978560A (en) * 2014-04-01 2015-10-14 本田技研工业株式会社 Lane mark recognition device
US9436878B2 (en) 2014-04-01 2016-09-06 Honda Motor Co., Ltd. Lane mark recognition device
US9489585B2 (en) * 2014-04-14 2016-11-08 Honda Motor Co., Ltd. Lane mark recognition device
US20150294164A1 (en) * 2014-04-14 2015-10-15 Honda Motor Co., Ltd. Lane mark recognition device
JP2016133838A (en) * 2015-01-15 2016-07-25 トヨタ自動車株式会社 Composite line determination apparatus and composite line determination method
JP2016206721A (en) * 2015-04-15 2016-12-08 日産自動車株式会社 Road mark detection apparatus and road mark detection method
WO2019151110A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Road surface information acquisition method
JPWO2019151110A1 (en) * 2018-01-31 2021-01-28 パイオニア株式会社 Road surface information acquisition method
JP2022068242A (en) * 2018-01-31 2022-05-09 パイオニア株式会社 Road surface information acquisition method
JP2019159606A (en) * 2018-03-09 2019-09-19 クラリオン株式会社 Lane line recognition system
US11482016B2 (en) 2018-03-09 2022-10-25 Faurecia Clarion Electronics Co., Ltd. Division line recognition apparatus
US11861841B2 (en) 2018-06-27 2024-01-02 Nippon Telegraph And Telephone Corporation Lane estimation device, method, and program
CN116895052A (en) * 2022-03-29 2023-10-17 本田技研工业株式会社 Road marking recognition device
CN116895052B (en) * 2022-03-29 2026-02-06 本田技研工业株式会社 Road marking recognition device

Similar Documents

Publication Publication Date Title
JP3733875B2 (en) Road white line recognition device
JP4203512B2 (en) Vehicle periphery monitoring device
JP4607193B2 (en) Vehicle and lane mark detection device
EP2422320B1 (en) Object detection device
KR101176693B1 (en) Method and System for Detecting Lane by Using Distance Sensor
EP3800576B1 (en) Object detection device, vehicle, and object detection process
EP3196853A1 (en) Machine vision-based method and system for aircraft docking guidance and aircraft type identification
JP2002197444A (en) Vehicle travel path recognition device
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2005157731A (en) Lane recognition device and lane recognition method
JP6458651B2 (en) Road marking detection device and road marking detection method
JP6569280B2 (en) Road marking detection device and road marking detection method
JP2002197469A (en) Lane detection device
KR20150112656A (en) Method to calibrate camera and apparatus therefor
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
US20180247139A1 (en) Landmark Recognition Device and Landmark Recognition Method
JP2003157499A (en) Road white line recognition device
JP4296287B2 (en) Vehicle recognition device
JP2002334330A (en) Vehicle recognition device
JP3823782B2 (en) Leading vehicle recognition device
JP3700625B2 (en) Road white line recognition device
Yoneda et al. Simultaneous state recognition for multiple traffic signals on urban road
JPWO2018146997A1 (en) Three-dimensional object detection device
JP2003308599A (en) Roadway environment detection device
JPH10320559A (en) Roadway detection device for vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090421