JP2005157731A - Lane recognition device and lane recognition method - Google Patents
Lane recognition device and lane recognition method Download PDFInfo
- Publication number
- JP2005157731A JP2005157731A JP2003395164A JP2003395164A JP2005157731A JP 2005157731 A JP2005157731 A JP 2005157731A JP 2003395164 A JP2003395164 A JP 2003395164A JP 2003395164 A JP2003395164 A JP 2003395164A JP 2005157731 A JP2005157731 A JP 2005157731A
- Authority
- JP
- Japan
- Prior art keywords
- white line
- road surface
- window
- luminance
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】道路上における道路補修跡による白線の誤認識を防止する。
【解決手段】自車両12の前方を撮像するカメラ14により撮像した画像内に路面輝度算出用ウインドウを設定し、この設定した路面輝度算出用ウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する。そして、カメラ14により撮像した画像から、前記算出した路面輝度よりも大きい輝度を有するエッジを抽出し、この抽出したエッジに基いて白線を認識する。
【選択図】 図1
An object of the present invention is to prevent erroneous recognition of a white line due to road repair marks on a road.
A road surface luminance calculation window is set in an image captured by a camera that images the front of a host vehicle, and an average value or mode value of luminance in the image in the set road surface luminance calculation window is set. Calculated as road surface brightness. Then, an edge having a luminance larger than the calculated road surface luminance is extracted from the image captured by the camera 14, and a white line is recognized based on the extracted edge.
[Selection] Figure 1
Description
本発明は、自車両の前方の道路上の白線を検出して車線を認識する車線認識装置および車線認識方法に関するものである。 The present invention relates to a lane recognition device and a lane recognition method that recognize a lane by detecting a white line on a road ahead of the host vehicle.
従来、自車両に設けた電子式のカメラで撮像した画像から自車両が走行する道路上の白線を検出し、自車両の車線(走行路)を認識する技術が知られている。
例えば下記特許文献1における従来装置では、カメラで撮像した画像内にウインドウを設定し、このウインドウ内の輝度変化に基いてエッジを検出し、このエッジに基いて白線を検出している。
2. Description of the Related Art Conventionally, a technique for detecting a white line on a road on which the host vehicle travels from an image captured by an electronic camera provided on the host vehicle and recognizing the lane (traveling path) of the host vehicle is known.
For example, in the conventional apparatus disclosed in
上記従来技術では、カメラで撮像した画像内に設定したウインドウ内の輝度変化に基いてエッジを検出し、このエッジに基いて白線を検出している。このため、検出すべき白線に加えて、工事による道路補修跡も同様の輝度変化を示してしまうことがある。このような場合、この道路補修跡を白線と誤認識してしまう可能性があった。
本発明は、道路上における道路補修跡による白線の誤認識を防止することができる車線認識装置および車線認識方法を提供することを目的とする。
In the above prior art, an edge is detected based on a luminance change in a window set in an image captured by a camera, and a white line is detected based on the edge. For this reason, in addition to the white line to be detected, road repair marks due to construction may show the same luminance change. In such a case, there is a possibility that this road repair trace may be mistakenly recognized as a white line.
An object of this invention is to provide the lane recognition apparatus and lane recognition method which can prevent the misrecognition of the white line by the road repair trace on a road.
上記課題を解決するために、本発明は、自車両の前方を撮像する画像取得手段と、撮像した画像内に路面輝度算出用のウインドウを設定するウインドウ設定手段と、設定したウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する路面輝度算出手段と、撮像した画像から、算出した路面輝度よりも大きい輝度を有するエッジを抽出するエッジ抽出手段と、抽出したエッジに基いて白線を認識する白線認識手段とを備えている。 In order to solve the above problems, the present invention relates to an image acquisition unit that captures the front of the host vehicle, a window setting unit that sets a window for calculating road surface luminance in the captured image, and an image in the set window. Based on the extracted edge, a road surface brightness calculating means for calculating an average value or a mode value of the brightness as the road surface brightness, an edge extracting means for extracting an edge having a brightness larger than the calculated road surface brightness from the captured image, and White line recognition means for recognizing a white line.
本発明によれば、道路上における道路補修跡による白線の誤認識を防止することができる。 According to the present invention, it is possible to prevent erroneous recognition of white lines due to road repair marks on the road.
以下、本発明の実施の形態を添付図面を参照して詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施の形態の車線認識装置を搭載した車両を示す図、図1は、本実施の形態の車線認識装置の基本的な構成を示すブロック図である。
図2において、12は自車両、10は本実施の形態の車線認識装置(道路白線認識装置)、14は電子式のカメラ、16は車線認識装置10の主要部を構成するプロセッサ、12aは自車両12の室内天井、12bは自車両12のフロントガラス、17はレーダ、Rは道路である。
図2に示すように、自車両12の前方の道路画像を取得するカメラ14と、カメラ14で取得した画像信号(以下、単に画像と記す)を処理するプロセッサ16と、自車両12の前方の立体物を検出するレーダ17が自車両12に設置されている。カメラ14としては、高感度撮像が可能なCCD(Charge Coupled Device)カメラまたはCMOS(Complementaly Metal-Oxide Semiconductor)カメラなどが好ましい。カメラ14は、自車両12の室内天井12aの前方中央部に前方下方を指向して設置され、フロントガラス12bを通して自車両12前方の道路Rの画像を取得する。プロセッサ16は、熱や風雨の影響のない自車両12の適宜の箇所に設置され、カメラ14で取得した道路Rの画像から道路Rの白線を認識し、道路Rの形状および道路Rに対する自車両12の姿勢を推定する制御が実行される。レーダ17は、自車両12の前方に設置され、先行車両との間の車間距離を計測する車間距離検出手段として設置されている。レーダ17は、レーザ光を前方に掃射し、自車両12の前方の立体物からの反射光を受光して該立体物の検出を行うものである。なお、レーザ光の代わりに電磁波を掃射するものも適用可能である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings described below, components having the same function are denoted by the same reference numerals, and repeated description thereof is omitted.
FIG. 2 is a diagram showing a vehicle equipped with a lane recognition device according to an embodiment of the present invention, and FIG. 1 is a block diagram showing a basic configuration of the lane recognition device according to the present embodiment.
In FIG. 2, 12 is the own vehicle, 10 is the lane recognition device (road white line recognition device) of the present embodiment, 14 is an electronic camera, 16 is a processor constituting the main part of the
As shown in FIG. 2, a camera 14 that acquires a road image in front of the
図1において、15は自車両12に搭載したカメラ14により取得した自車両12の前方の道路Rの画像を格納する画像メモリ、101は路面輝度測定手段、102はウインドウ設定手段、103は白線候補点抽出手段、104は白線候補線算出手段、105は道路パラメータ推定手段である。
図1に示すように、車線認識装置10は、画像メモリ15に格納された道路Rの画像と、レーダ17により取得した自車両12の前方の立体物の配置に基いて道路パラメータを推定する、例えばマイクロプロセッサを使用したプロセッサ16とを備えている。
プロセッサ16は、路面輝度測定手段101と、ウインドウ設定手段102と、白線候補点抽出手段103と、白線候補線算出手段104と、道路パラメータ推定手段105とを備えている。そして、これらの手段101〜105をプログラム制御により実現している。なお言うまでもなく、これらの手段101〜105は、プロセッサ16が下記のフローチャート(図3、図4)に従って実行する制御機能を示している。
路面輝度測定手段101は、レーダ17から先行車両との車間距離情報を得て先行車両と自車両12との間の路面輝度を測定する。ウインドウ設定手段102は、画像メモリ15に格納された道路Rの画像上に、それぞれのウインドウに道路Rの白線が含まれるように該白線の延長方向に沿って複数のウインドウを設ける。白線候補点抽出手段103は、これらのウインドウ毎の画像を処理して白線候補点を抽出する。白線候補線算出手段104は、これらのウインドウ毎に抽出された白線候補点に基いて、白線の可能性が最も高い白線候補線の画像座標および傾きを算出する。道路パラメータ推定手段105は、これらの各ウインドウに対して算出された白線候補線の画像座標および傾きと道路モデル式とを用いて、少なくとも自車両12の車線に対する横変位を含む道路パラメータを推定する。
道路モデル式として、次に示す式1を用いて前述のように道路Rの形状および道路Rに対する自車両12の姿勢を推定する。
In FIG. 1, 15 is an image memory for storing an image of the road R ahead of the
As shown in FIG. 1, the
The
The road surface
As the road model formula, the following
また、E0は車線幅(左右の白線の内側間の距離)を示す定数、fはカメラ14のカメラ透視変換定数、jは左右の白線を区別するパラメータとし、左白線のとき、j=0、右白線のときj=1とする。また、(x,y)は、左白線または右白線内端上の任意の点の画像上の座標であり、画像左上を原点に取り、右方向がx軸正方向、下方向がy軸正方向とする。
なお、式1は、道路モデルを表す一手法を示したものであり、例えば、E0を変数にしたもの、Hを固定したもの、車線幅を前述のように左右の白線の内側間の距離ではなく、左白線中央と右白線中央との間の距離とし、(x,y)を白線幅の中央位置の画像座標としても定義することができる。
E 0 is a constant indicating the lane width (the distance between the insides of the left and right white lines), f is a camera perspective conversion constant of the camera 14, and j is a parameter for distinguishing the left and right white lines. When the right white line, j = 1. Also, (x, y) is the coordinates on the image of an arbitrary point on the inner edge of the left white line or right white line, taking the upper left of the image as the origin, the right direction is the x-axis positive direction, and the lower direction is the y-axis positive The direction.
Note that
図5(a)は、自車両と先行車両に対する本発明に係る路面輝度算出用ウインドウの設定位置関係を示す図、図5(b)、図6は、画面に設定される路面輝度算出用ウインドウの配置を示す図である。図5(a)において、18は道路上の白線、19は路面、23は先行車両、24は路面輝度算出用ウインドウの設定位置、図5(b)において、25は道路補修跡、26は路面輝度算出用ウインドウ、図6において、27は路面19上に描かれた文字である。
図8は、画面に設定される複数のウインドウの配列状態を示す図であり、20は白線認識用のウインドウである。
図10は、ウインドウ20内の白線18および道路補修跡の状態を示す図で、25は道路補修跡である。
図12は、ウインドウ20内の白線候補点のプロット状態を示す図であり、20aはウインドウ20の上辺、20bはウインドウ20の下辺、21は白線候補点である。
図14は、ウインドウ20内の白線候補線の選択状態を示す図で、22は白線候補線である。
FIG. 5A is a diagram showing a setting positional relationship of the road surface luminance calculation window according to the present invention with respect to the host vehicle and the preceding vehicle, and FIGS. 5B and 6 are road surface luminance calculation windows set on the screen. It is a figure which shows arrangement | positioning. 5A, 18 is a white line on the road, 19 is a road surface, 23 is a preceding vehicle, 24 is a setting position of a road surface luminance calculation window, 25 in FIG. 5B, 25 is a road repair trace, and 26 is a road surface. In the brightness calculation window, in FIG. 6, reference numeral 27 denotes characters drawn on the
FIG. 8 is a diagram showing an arrangement state of a plurality of windows set on the screen, and 20 is a window for white line recognition.
FIG. 10 is a diagram showing the state of the
FIG. 12 is a diagram showing a plot state of white line candidate points in the
FIG. 14 is a diagram showing a selection state of white line candidate lines in the
図3および図4は、プロセッサ16によって道路パラメータを推定するプログラムのフローチャートである。例えば、自車両12の走行中に30[msec]毎に処理が繰り返されるものとする。
次に、図3の各ステップ毎の概略処理を説明する。
まず、ステップS1において、図1のカメラ14から画像メモリ15へ自車両12の前方画像を取り込む。
次いで、ステップS2において、レーダ17により先行車との相対車間距離を取得する。
次いで、ステップS3において、先行車との相対車間距離を元にして、ステップS1において取り込んだ画像に路面輝度算出用のウインドウ26(図5、図6参照)を設定する。
次いで、ステップS4において、路面輝度算出用のウインドウ26に基いて路面輝度を算出する。
3 and 4 are flowcharts of a program for estimating the road parameters by the
Next, an outline process for each step in FIG. 3 will be described.
First, in step S1, a front image of the
Next, in step S2, the
Next, in step S3, a road surface brightness calculation window 26 (see FIGS. 5 and 6) is set in the image captured in step S1, based on the relative inter-vehicle distance from the preceding vehicle.
Next, in step S4, the road surface luminance is calculated based on the road surface luminance calculation window 26.
次いで、ステップS5において、ステップS1において取り込んだ画像上に複数(m個)の白線認識用のウインドウ20(図8参照)を設定する。
次いで、ステップS6において、ウインドウ処理番号iを初期値の1に設定する。
次いで、ステップS7において、i番目のウインドウ20(以下、ウインドウiと記す)の画像データから、水平方向の輝度変化を検出して白線18の端部の位置を認識するための白線候補点21(図12参照)を抽出する。
次いで、ステップS8において、ウインドウ20内の白線候補点21の座標位置に基いて、これらの白線候補点21から最も白線18の可能性が高い白線候補線22(図14参照)を算出する。
次いで、ステップS9において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS10において、iがウインドウ数(m)を超えているか否かを判定する。
ステップS10の判定で、iがウインドウ数(m)を超えていなければ、次のウインドウ20を処理すべく、ステップS7へ戻る。
ステップS10の判定で、iがウインドウ数(m)を超えていれば、全ウインドウの前処理が終わったので、ステップS20において、道路パラメータの推定処理を行う。
Next, in step S5, a plurality (m) of white line recognition windows 20 (see FIG. 8) are set on the image captured in step S1.
In step S6, the window processing number i is set to an initial value of 1.
Next, in step S7, a white line candidate point 21 (for detecting the luminance change in the horizontal direction and recognizing the position of the end of the
Next, in step S8, based on the coordinate position of the white
Next, in step S9, the window process number i is incremented by one.
Next, in step S10, it is determined whether i exceeds the number of windows (m).
If it is determined in step S10 that i does not exceed the number of windows (m), the process returns to step S7 to process the
If it is determined in step S10 that i exceeds the number of windows (m), the pre-processing for all the windows has been completed. In step S20, road parameter estimation processing is performed.
以下、上記プログラムの処理を各ステップ毎にさらに詳細に説明する。
(1)前方画像の取り込み(S1)
プロセッサ16がプログラムを処理する所定時間毎、例えば30[msec]毎に、カメラ14によって撮像された自車両12の前方の画像を画像メモリ15へ取り込む。画像は各画素毎の輝度データとして表される。
(2)先行車両23との相対車間距離の取得(S2)
レーダ17が一定の処理サイクル(例えば30[msec])毎に出力する先行車両23との相対車間距離を取得する。
(3)路面輝度算出用ウインドウ26の設定(S3)
図5(b)に示すように、画像メモリ15に取り込まれた画像に路面輝度算出用ウインドウ26を設定する。この路面輝度算出用ウインドウ26は、上記(2)においてレーダ17により先行車両23の位置を取得し、図5(a)に示すように、先行車両23より近傍で、かつ、前回算出した左右の白線18の推定位置より内側になるように設定する。なお、この路面輝度算出用ウインドウ26の最適な設定位置、大きさについては実験評価により求める。
(4)路面輝度の算出(S4)
上記(3)で設定した路面輝度算出用ウインドウ26から路面19の輝度を算出する。図6に示すように、道路補修跡25および路面19上の(制限速度、矢印等の)文字27などの路面19以外の路面輝度に対する外乱要素が、設定したウインドウ26内にある場合を考える。
図7は、図6に示した路面輝度算出用ウインドウ26内の輝度のヒストグラムの概略を示す図であり、輝度値を横軸に、その輝度値の発生頻度を縦軸にとってある。71は道路補修跡25によるピーク、72は路面19によるピーク、73は文字27によるピーク、74は路面輝度算出用ウインドウ26内の画像における輝度の平均値、74は路面輝度算出用ウインドウ26内の画像における輝度の最も頻度が高く出現する輝度値である最頻値である。
この場合、輝度値を横軸に、その輝度値の発生頻度を縦軸にとったヒストグラムは図7に示すようになる。ここで、路面19の輝度は、平均値74もしくは最頻値75で表せられる。このように路面輝度は、路面輝度算出用ウインドウ26内のヒストグラムをとり、平均値74もしくは最頻値75を算出することにより導き出す。なお、輝度の最大値と最小値を除いた平均値を用いてもよい。
Hereinafter, the processing of the program will be described in more detail for each step.
(1) Capture forward image (S1)
An image in front of the
(2) Acquisition of relative inter-vehicle distance from the preceding vehicle 23 (S2)
The
(3) Setting of road brightness calculation window 26 (S3)
As shown in FIG. 5B, a road luminance calculation window 26 is set in the image taken into the
(4) Calculation of road surface brightness (S4)
The luminance of the
FIG. 7 is a diagram showing an outline of the luminance histogram in the road surface luminance calculation window 26 shown in FIG. 6, with the luminance value on the horizontal axis and the frequency of occurrence of the luminance value on the vertical axis. 71 is a peak due to the
In this case, the histogram with the luminance value on the horizontal axis and the frequency of occurrence of the luminance value on the vertical axis is as shown in FIG. Here, the brightness of the
(5)複数の白線認識用ウインドウ20の設定(S5)
図8に示すように、白線認識用ウインドウ20は、道路Rの白線18の延長方向に沿って複数(図5の例では、左白線に対して5個、右白線に対して5個)設けられる。前回の画像処理結果によって得られた道路モデルのパラメータにより、それぞれのウインドウ20に白線18が取り込まれるように、各ウインドウ20の位置が設定され、白線18はこれらのウインドウ20内で検知される。図5において、縦方向は画像座標y軸方向を示し、図中下方がyプラスである。また、横方向は画像座標x軸方向を示し、図中右方がxプラスである。
ここで、n番目のウインドウ(i=n)の上辺20a(図6)のy座標をynとし、前回のパラメータの推定結果を{A(−1),B(−1),C(−1),D(−1),H(−1)}とすると、式1より今回のウインドウ20の横方向の中心座標xestは、式2で示される。
(5) Setting of a plurality of white line recognition windows 20 (S5)
As shown in FIG. 8, a plurality of white
Here, the y coordinate of the
(6)ウインドウ処理番号iの初期化(S6)
ステップS4からステップS7までの処理を全てのウインドウ20に対して行うためのループ制御パラメータ(すなわち、ウインドウ処理番号)iを1に初期化する。
(7)白線候補点21の抽出(S7)
カメラ14から取り込まれた画像に上記のごとく設定された各白線認識用ウインドウ20の範囲の画像からソーベル(sobel)フィルタ処理などのエッジ検知(輝度変化検知)処理および輝度評価を利用して、白線候補点21(図12)を選択する。
図9は、エッジ検出処理を説明するための図で、28は画素(図中の四角はすべて画素)、29は注目点である。
このエッジ検知では、図9に示すように、注目点29の左右の画素28の輝度を比較し、右(画像座標のx値が大きい)の画素28の輝度が左(画像座標のx値が小さい)の画素28の輝度より大きい場合、フィルタの出力が正であるとする。また、輝度評価は、上記の(4)路面輝度の算出により求めた路面輝度を用いて輝度の判定を行う。
図11(a)、(b)は、白線18が満たすべき条件を説明する図で、図11(a)では輝度値を縦軸にとり、(b)ではエッジ強度値を縦軸にとり、(a)、(b)ともにx値を横軸にとってある。
今、図10に示したような左側の白線18を例に取って説明する。白線の条件は、図11(a)、(b)に示すように、
a)左端からスキャンを行っていって、右側にフィルタの出力が負のエッジ判別値を超えるエッジ点がある。ここでエッジ判別値は、カメラ14の特性および実験評価より一意的に決定されるものを用いてもよいし、画像全体またはウインドウ毎の平均輝度、コントラスト等により、適宜設定されてもよい。
b)エッジ点の左側に路面輝度より高い輝度(白線18と考えられる)を有する画素が所定幅以上ある。ここで、路面輝度より高い輝度とは、路面輝度にカメラ14の特性および実験評価により一意的に決められた値を足したものをしきい値として判定を行う。また、ここで所定幅とは、実際の道路にあると想定される白線幅の最小値から最大値が、カメラ14で撮像されたときに見える長さの範囲のことをいう。
c)路面輝度以上を有する画素の終端(左端)には、フィルタの出力が正のエソジ判別値を超えるエッジ点がある。
これを順に評価してすべての条件を満たしたものを白線候補点21とする。この作業を白線認識用ウインドウ20内の全ての画像データに対して行う。これにより、図12に示すような白線候補点21が得られる。このように、条件a)、c)だけでは道路補修跡25を除去することは難しいが、条件b)を足すことにより道路補修跡25を容易に除去することができる。なお、右白線の場合は、上記の説明と逆にして適用するだけである。
図13は、白線18と道路道路補修跡25を有する道路におけるエッジ強度の変化を示す図で、31はプラスエッジ、32はマイナスエッジである。
カメラ14で白黒画像を撮像し、エッジ検出により白線18を認識する場合、自車両12から向かって左側の白線は、図13に示すように、例えば左端からスキャンを行っていって、プラスエッジ31、マイナスエッジ32の領域があることによって認識している。向かって右側の白線も同様である。例えば2本の並行に近い道路補修跡25は、左側からスキャンしていくと、白線18の領域Aと類似のプラスエッジ31、マイナスエッジ32で囲まれた領域A′が存在するために、エッジ画像からだけでは真の白線と見分けがつきにくく、誤認識の可能性がある。本実施の形態では、路面輝度の平均値または最頻値を求め、この輝度よりも大きくて、エッジを有するものを白線18と判断することで、この誤認識を防止するものである。なお、中心からスキャンを行うことも可能である。
なお、このエッジ検知は、左右に隣接する画素の輝度の変化より白線候補点21を抽出するようにしているが、取り込まれた画像のうち上下に隣接する画素の輝度の変化より白線候補点21を抽出するようにしてもよい。ただし、この場合には、道路の側方に存在する白線18以外にも、交差点等に存在する停止線からも白線候補点21を抽出してしまうため、前者に記載した左右に隣接する画素の輝度変化より白線候補点21を抽出することが好ましい。
(6) Initialization of window processing number i (S6)
A loop control parameter (i.e., window processing number) i for performing the processing from step S4 to step S7 on all
(7) Extraction of white line candidate points 21 (S7)
Using the edge detection (brightness change detection) process such as the sobel filter process and the brightness evaluation from the image of the range of each white
FIG. 9 is a diagram for explaining the edge detection processing, in which 28 is a pixel (all squares in the figure are pixels), and 29 is a point of interest.
In this edge detection, as shown in FIG. 9, the luminances of the left and
11 (a) and 11 (b) are diagrams for explaining the conditions to be satisfied by the
Now, the left
a) Scanning from the left end, there is an edge point on the right side where the output of the filter exceeds the negative edge discrimination value. Here, the edge discrimination value may be determined uniquely from the characteristics of the camera 14 and the experimental evaluation, or may be set as appropriate depending on the entire image or the average luminance, contrast, etc. for each window.
b) On the left side of the edge point, a pixel having a luminance higher than the road surface luminance (considered as the white line 18) is greater than or equal to a predetermined width. Here, the brightness higher than the road surface brightness is determined using a threshold value obtained by adding the road surface brightness to a value uniquely determined by the characteristics of the camera 14 and experimental evaluation. Here, the predetermined width refers to a range of length that can be seen when the camera 14 captures the minimum to maximum white line width assumed to be on an actual road.
c) At the terminal end (left end) of the pixel having the road surface luminance or higher, there is an edge point at which the output of the filter exceeds the positive edge judgment value.
The white line candidate points 21 are evaluated in order and satisfy all the conditions. This operation is performed for all the image data in the white
FIG. 13 is a diagram showing a change in edge strength on a road having a
When a black and white image is captured by the camera 14 and the
In this edge detection, the white
(8)白線候補線22の算出(S8)
白線認識用ウインドウ20内から抽出された白線候補点21の集合から白線候補線22(図14)を探索する。この探索には、ハフ変換や最小自乗法などを用いることができる。本実施形態ではハフ変換を用いるものとし、ハフ変換直線近似では図14に示すようにウインドウ20内を通過する直線のうち、最も多く白線候補点21を貫いた白線候補線22、つまり、白線候補点21が一番多く載る白線候補線22を、最も白線18の可能性が高い白線候補線22とする。
このとき、座標(x,y)を通過する直線はパラメータa,bを用いて次の式3として表すことができる。ここで、aは白線候補線22の傾き(∂x/∂y)であり、bはそのx切片である。
(8) Calculation of white line candidate line 22 (S8)
A white line candidate line 22 (FIG. 14) is searched from a set of white line candidate points 21 extracted from the white
At this time, a straight line passing through the coordinates (x, y) can be expressed as the following Expression 3 using the parameters a and b. Here, a is the slope (∂x / ∂y) of the white
すなわち、白線候補点21の座標を(x,y)とすると、aを決めるとbが式3より計算でき、これにより図15に示すハフ変換による配列が得られる。この配列の横方向は、一定刻みのaの値であり、縦方向は一定刻みのbの値である。ここで、配列の空欄は零を意味する。また、「1」が立っている(a,b)の組み合わせの中に真値が含まれる。この配列を白線候補点21の全てに対してそれぞれ作成し、作成した配列を重ね合わせて、各配列要素毎の数を合計することにより図16に示す配列が得られる。図16において、配列要素(ar,br)の数zrは、式4が貫く白線候補点21の数を表している。
That is, assuming that the coordinates of the white
図17は、ウインドウ20の上辺20aと白線候補線22との交点との道路座標を示す図である。
こうして、白線候補線22が算出されると、次いで、図17に示すように、ウインドウ処理番号nにおける白線候補線22とウインドウ20の上辺20aとの交点の画像上の座標である道路座標(xn,yn)を算出する。ウインドウ20の上辺20aのy座標ynは、ウインドウ処理番号nに対する固定値である。道路座標のx成分xnは、式5で算出される。
FIG. 17 is a diagram illustrating road coordinates between the
When the white
前記の式1をyで微分して式6を得る。
Equation 6 is differentiated by y to obtain Equation 6.
次に、カルマンフィルタを用いて道路パラメータを推定する場合、式8に示す方程式が与えられることにより、パラメータzを推定することができる。ただし、同式中のパラメータyyの値およびfの構造はそれぞれ既知とし、一般にyyはベクトルとなる。
Next, when the road parameter is estimated using the Kalman filter, the equation z shown in
式9’は一般に複数列より構成され、これらを線型近似した上で並べることにより次の行列式10が得られる。
次に、図4を参照して、道路パラメータ推定処理のサブルーチンP3を説明する。
図3にも示した道路パラメータの推定(S20)から、まず、ステップS21において、ウインドウ処理番号パラメータiを1に初期化する。
次いで、ステップS22において、式10のziはxiとし、式9’の右辺を線形近似することにより、Mi1,Mi2,Mi3,Mi4,Mi5は、それぞれyの値がyiにおけるdfz/dA,dfz/dB,dfz/dC,dfz/dD,dfz/dHとする。
次いで、ステップS23において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS24において、ウインドウ処理番号iがウインドウ数mを超えているか否かを判定する。
Next, with reference to FIG. 4, the subroutine P3 of the road parameter estimation process will be described.
From the road parameter estimation (S20) also shown in FIG. 3, first, the window processing number parameter i is initialized to 1 in step S21.
Next, in step S22, zi in
Next, in step S23, the window process number i is incremented by one.
Next, in step S24, it is determined whether or not the window process number i exceeds the window number m.
ステップS24の判定で、iがウインドウ数mを超えていなければ、次のウインドウ20を処理すべく、ステップS22へ戻る。
ステップS24の判定で、iがウインドウ数mを超えていれば、ステップS25において、カルマンフィルタ処理により、パラメータ(A,B,C,D,H)を推定し、メインルーチンヘリターンする。
If it is determined in step S24 that i does not exceed the number m of windows, the process returns to step S22 to process the
If it is determined in step S24 that i exceeds the number of windows m, parameters (A, B, C, D, H) are estimated by Kalman filter processing in step S25, and the process returns to the main routine.
以上のように、本実施の形態による車線認識装置10および車線認識方法は、自車両12の前方を撮像するカメラ14により撮像した画像内に路面輝度算出用ウインドウ26を設定し、設定した路面輝度算出用ウインドウ26内の画像における輝度の平均値または最頻値を路面輝度として算出する。そして、カメラ14により撮像した画像から、前記算出した路面輝度よりも大きい輝度を有するエッジを抽出し、抽出したエッジに基いて白線18を認識するという構成になっている。設定した路面輝度算出用ウインドウ26内における輝度の平均値または最頻値は、道路補修前の(道路補修跡25が無い)道路の路面輝度を示すものとなり、道路補修跡25の輝度は、一般に道路補修前の路面輝度よりも小さく(暗く、黒く)なる。したがって、路面輝度の平均値または最頻値を求め、この輝度よりも大きくて、エッジを有するものを白線18と判断することで、道路における道路補修跡25による誤認識を防止することができる。例えば本発明を車線逸脱防止装置や車線逸脱警報装置に適用した場合には、道路補修跡25を白線18と誤認識してしまうと、車線逸脱を防止するためとして誤った操舵を行う可能性があり、車線幅を間違って認識することから誤ったタイミングで警報を出す可能性がある。本実施の形態では、上記のような白線と道路補修跡25類似のエッジにはさまれた部分の輝度が、算出した路面輝度に近い場合は誤認識と判断し、上記のような誤認識を回避するものであり、車線逸脱の防止においては誤った操舵を行ったり、誤ったタイミングで警報を出す可能性を減少させることができる。
As described above, the
なお、本実施の形態では、路面輝度算出用ウインドウ26を用いて路面輝度を算出するのは、例えば30[msec]毎等、所定のサイクルごとに行う。したがって、その算出される路面輝度が自車両12の走行に伴って最新値へと更新されていくことが前提である。例えば交差点の先頭に停止した場合などで前方に停止線がある場合や、カーブの手前にあるカーブ予告線を多く含むような場合に、路面輝度算出用ウインドウ26が設定されてしまうと、このときの路面輝度を算出してしまう。したがって、この路面輝度を基準に白線18の認識を行なうと、正確な認識ができないことが考えられる。このような場合は、路面輝度の算出を行なわないようにして、異常値が更新されることを防止する。具体的には例えば以下のような方法で行なう。
(1)算出した基準となる路面輝度の平均値または最頻度が、過去の路面輝度の平均値±所定値の範囲外となる場合には、算出した基準となる路面輝度を用いず、前回の路面輝度値を用いる。
(2)GPS(Global Positioning System)システムによるナビゲーションの地図情報により、交差点やカーブであることを検出した場合には、基準となる路面輝度の算出を行なわない。または、路面輝度の算出する間隔を長くする。
(3)カメラ14で撮像した画像より、パターンマッチングにより停止線やカーブ予告線が検出された場合には、基準となる路面輝度の算出を行なわない。
このように、停止線やカーブ予告線等の白線による影響を排除した上で路面輝度を求めることにより、道路補修跡25による誤認識をより確実に防止できる。
また、前述のように、レーダ17により先行車両23の位置を取得し、図5(a)に示すように、先行車両23より近傍で、かつ、前回算出した左右の白線18の推定位置より内側になるように設定される路面輝度算出用ウインドウ26は、該ウインドウ26内に白線18が検出された場合は、前回検出した白線18を含まないように設定される。このように白線18による影響を排除した上で路面輝度を求めることにより、道路補修跡25による誤認識をより確実に防止できる。
また、図11のb)に示したように、路面輝度よりも大きい輝度を有するエッジを抽出するのに、該エッジの輝度が所定幅以上あるエッジを抽出する。また、図11のc)、a)に示したように、抽出したエッジにおいて、輝度が正に変化した後、負に変化した場合に、白線18と認識する。これらにより、白線18を確実に認識し、道路補修跡25による誤認識をより確実に防止できる。
また、カメラ14により撮像した画像内に複数の白線認識用のウインドウ20を設定し、このウインドウ20内のうち隣接する画素の輝度変化に基いて白線18を認識する。さらに、カメラ14により撮像した画像内のうち隣接する画素の輝度変化に基いて複数の白線候補点21を抽出し、これらの白線候補点21を直線で結ぶことにより白線18を認識する。これらの構成により、容易かつ確実に白線18を検出することができる。
In the present embodiment, the road surface brightness is calculated by using the road surface brightness calculation window 26 every predetermined cycle, for example, every 30 [msec]. Therefore, it is a premise that the calculated road surface brightness is updated to the latest value as the
(1) If the average value or the maximum frequency of the calculated road surface brightness is out of the range of the past road surface average value ± predetermined value, the calculated road surface brightness is not used, The road surface brightness value is used.
(2) When it is detected that the vehicle is an intersection or a curve from navigation map information by a GPS (Global Positioning System) system, the reference road surface brightness is not calculated. Alternatively, the interval for calculating road surface brightness is lengthened.
(3) When a stop line or a curve warning line is detected from the image captured by the camera 14 by pattern matching, the reference road surface brightness is not calculated.
As described above, by obtaining the road surface luminance after eliminating the influence of the white line such as the stop line or the curve warning line, erroneous recognition by the
Further, as described above, the position of the preceding vehicle 23 is acquired by the
In addition, as shown in FIG. 11 b, in order to extract an edge having a luminance higher than the road surface luminance, an edge having a luminance of a predetermined width or more is extracted. In addition, as shown in c) and a) of FIG. 11, when the luminance changes positively and then changes negatively at the extracted edge, the
In addition, a plurality of white
なお、本実施の形態における図1、図2のカメラ14および図3のステップS1が、特許請求の範囲の画像取得手段に相当する。本実施の形態における図1のプロセッサ16および図3のステップS2、S3が、ウインドウ設定手段に相当する。本実施の形態における図1のプロセッサ16、図1の路面輝度測定手段101および図3のステップS4が、路面輝度算出手段に相当する。本実施の形態における図1のプロセッサ16、図1のウインドウ設定手段102、白線候補点抽出手段103および図3のステップS5〜S7が、エッジ抽出手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線抽出手段104および図3のステップS8が、白線認識手段に相当する。
さらに、以上説明した実施の形態は本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施の形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
The camera 14 in FIGS. 1 and 2 and step S1 in FIG. 3 in the present embodiment correspond to the image acquisition means in the claims. The
Further, the embodiments described above are described for facilitating the understanding of the present invention, and are not described for limiting the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.
10…車線認識装置 12…自車両
12a…室内天井 12b…フロントガラス
14…カメラ 16…プロセッサ
17…レーダ R…道路
18…白線 19…路面
20…ウインドウ
20a…上辺 20b…下辺
21…白線候補点 22…白線候補線
23…先行車両 24…路面輝度算出用ウインドウの設定位置
25…道路補修跡 26…路面輝度算出用ウインドウ
27…文字
28…画素 29…注目点
31…プラスエッジ 32…マイナスエッジ
101…路面輝度測定手段 102…ウインドウ設定手段
103…白線候補点抽出手段 104…白線候補線算出手段
105…道路パラメータ推定手段
DESCRIPTION OF
Claims (8)
前記画像取得手段により撮像した画像内に、ウインドウを設定するウインドウ設定手段と、
前記ウインドウ設定手段により設定した前記ウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する路面輝度算出手段と、
前記画像取得手段により撮像した画像から、前記路面輝度算出手段により算出した前記路面輝度よりも大きい輝度を有するエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段により抽出したエッジに基いて白線を認識する白線認識手段と
を備えたことを特徴とする車線認識装置。 Image acquisition means for imaging the front of the host vehicle;
A window setting means for setting a window in the image captured by the image acquisition means;
Road surface brightness calculating means for calculating an average value or mode value of brightness in the image in the window set by the window setting means as road surface brightness;
Edge extraction means for extracting an edge having a brightness larger than the road surface brightness calculated by the road surface brightness calculation means from the image captured by the image acquisition means;
A lane recognition device comprising: white line recognition means for recognizing a white line based on the edge extracted by the edge extraction means.
前記白線認識手段は、該ウインドウ内のうち隣接する画素の輝度変化に基いて前記白線を認識することを特徴とする請求項1ないし5のいずれか記載の車線認識装置。 The window setting means sets a plurality of white line recognition windows in the image captured by the image acquisition means,
6. The lane recognition device according to claim 1, wherein the white line recognition unit recognizes the white line based on a luminance change of an adjacent pixel in the window.
前記画像取得工程により撮像した画像内に、ウインドウを設定するウインドウ設定工程と、
前記ウインドウ設定工程により設定した前記ウインドウ内の画像における輝度の平均値または最頻値を路面輝度として算出する路面輝度算出工程と、
前記画像取得工程により撮像した画像から、前記路面輝度算出工程により算出した前記路面輝度よりも大きい輝度を有するエッジを抽出するエッジ抽出工程と、
前記エッジ抽出工程により抽出したエッジに基いて白線を認識する白線認識工程と
を有することを特徴とする車線認識方法。 An image acquisition step of imaging the front of the host vehicle;
A window setting step for setting a window in the image captured by the image acquisition step;
A road surface brightness calculating step of calculating an average value or mode value of brightness in the image in the window set by the window setting step as road surface brightness;
An edge extraction step of extracting an edge having a luminance greater than the road surface luminance calculated by the road surface luminance calculation step from the image captured by the image acquisition step;
And a white line recognition step of recognizing a white line based on the edge extracted by the edge extraction step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003395164A JP2005157731A (en) | 2003-11-26 | 2003-11-26 | Lane recognition device and lane recognition method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003395164A JP2005157731A (en) | 2003-11-26 | 2003-11-26 | Lane recognition device and lane recognition method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005157731A true JP2005157731A (en) | 2005-06-16 |
Family
ID=34720998
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003395164A Pending JP2005157731A (en) | 2003-11-26 | 2003-11-26 | Lane recognition device and lane recognition method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005157731A (en) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006101004A1 (en) * | 2005-03-22 | 2006-09-28 | Honda Motor Co., Ltd. | Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system |
| JP2008056233A (en) * | 2006-09-01 | 2008-03-13 | Harman Becker Automotive Systems Gmbh | Method for operating a night view system in a vehicle and corresponding night view system |
| JP2010224930A (en) * | 2009-03-24 | 2010-10-07 | Fuji Heavy Ind Ltd | Road recognition device |
| KR101035538B1 (en) * | 2009-10-29 | 2011-05-23 | 한국 천문 연구원 | Real-time lane location information acquisition device and method |
| JP2011118889A (en) * | 2009-11-04 | 2011-06-16 | Valeo Schalter & Sensoren Gmbh | Video image-based road feature analysis, lane detection, and lane departure prevention method and device |
| US8130288B2 (en) | 2005-07-15 | 2012-03-06 | Mitsubishi Denki Kabushiki Kaisha | Image processing apparatus |
| JP2013061934A (en) * | 2011-08-22 | 2013-04-04 | Nissan Motor Co Ltd | Lane recognition device |
| KR101406316B1 (en) * | 2012-08-20 | 2014-06-12 | 하이브모션 주식회사 | Apparatus and method for detecting lane |
| CN104978560A (en) * | 2014-04-01 | 2015-10-14 | 本田技研工业株式会社 | Lane mark recognition device |
| US20150294164A1 (en) * | 2014-04-14 | 2015-10-15 | Honda Motor Co., Ltd. | Lane mark recognition device |
| JP2016133838A (en) * | 2015-01-15 | 2016-07-25 | トヨタ自動車株式会社 | Composite line determination apparatus and composite line determination method |
| JP2016206721A (en) * | 2015-04-15 | 2016-12-08 | 日産自動車株式会社 | Road mark detection apparatus and road mark detection method |
| WO2019151110A1 (en) * | 2018-01-31 | 2019-08-08 | パイオニア株式会社 | Road surface information acquisition method |
| JP2019159606A (en) * | 2018-03-09 | 2019-09-19 | クラリオン株式会社 | Lane line recognition system |
| CN116895052A (en) * | 2022-03-29 | 2023-10-17 | 本田技研工业株式会社 | Road marking recognition device |
| US11861841B2 (en) | 2018-06-27 | 2024-01-02 | Nippon Telegraph And Telephone Corporation | Lane estimation device, method, and program |
| CN116895052B (en) * | 2022-03-29 | 2026-02-06 | 本田技研工业株式会社 | Road marking recognition device |
-
2003
- 2003-11-26 JP JP2003395164A patent/JP2005157731A/en active Pending
Cited By (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006101004A1 (en) * | 2005-03-22 | 2006-09-28 | Honda Motor Co., Ltd. | Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system |
| US7920721B2 (en) | 2005-03-22 | 2011-04-05 | Honda Motor Co., Ltd. | Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system |
| US8130288B2 (en) | 2005-07-15 | 2012-03-06 | Mitsubishi Denki Kabushiki Kaisha | Image processing apparatus |
| JP2008056233A (en) * | 2006-09-01 | 2008-03-13 | Harman Becker Automotive Systems Gmbh | Method for operating a night view system in a vehicle and corresponding night view system |
| JP2010224930A (en) * | 2009-03-24 | 2010-10-07 | Fuji Heavy Ind Ltd | Road recognition device |
| KR101035538B1 (en) * | 2009-10-29 | 2011-05-23 | 한국 천문 연구원 | Real-time lane location information acquisition device and method |
| JP2011118889A (en) * | 2009-11-04 | 2011-06-16 | Valeo Schalter & Sensoren Gmbh | Video image-based road feature analysis, lane detection, and lane departure prevention method and device |
| JP2013061934A (en) * | 2011-08-22 | 2013-04-04 | Nissan Motor Co Ltd | Lane recognition device |
| CN103171560A (en) * | 2011-08-22 | 2013-06-26 | 日产自动车株式会社 | Lane recognition device |
| CN103171560B (en) * | 2011-08-22 | 2016-01-20 | 日产自动车株式会社 | Lane recognition device |
| KR101406316B1 (en) * | 2012-08-20 | 2014-06-12 | 하이브모션 주식회사 | Apparatus and method for detecting lane |
| JP2015197829A (en) * | 2014-04-01 | 2015-11-09 | 本田技研工業株式会社 | Lane marker recognition device |
| CN104978560B (en) * | 2014-04-01 | 2018-09-28 | 本田技研工业株式会社 | Lane identification recognition device |
| CN104978560A (en) * | 2014-04-01 | 2015-10-14 | 本田技研工业株式会社 | Lane mark recognition device |
| US9436878B2 (en) | 2014-04-01 | 2016-09-06 | Honda Motor Co., Ltd. | Lane mark recognition device |
| US9489585B2 (en) * | 2014-04-14 | 2016-11-08 | Honda Motor Co., Ltd. | Lane mark recognition device |
| US20150294164A1 (en) * | 2014-04-14 | 2015-10-15 | Honda Motor Co., Ltd. | Lane mark recognition device |
| JP2016133838A (en) * | 2015-01-15 | 2016-07-25 | トヨタ自動車株式会社 | Composite line determination apparatus and composite line determination method |
| JP2016206721A (en) * | 2015-04-15 | 2016-12-08 | 日産自動車株式会社 | Road mark detection apparatus and road mark detection method |
| WO2019151110A1 (en) * | 2018-01-31 | 2019-08-08 | パイオニア株式会社 | Road surface information acquisition method |
| JPWO2019151110A1 (en) * | 2018-01-31 | 2021-01-28 | パイオニア株式会社 | Road surface information acquisition method |
| JP2022068242A (en) * | 2018-01-31 | 2022-05-09 | パイオニア株式会社 | Road surface information acquisition method |
| JP2019159606A (en) * | 2018-03-09 | 2019-09-19 | クラリオン株式会社 | Lane line recognition system |
| US11482016B2 (en) | 2018-03-09 | 2022-10-25 | Faurecia Clarion Electronics Co., Ltd. | Division line recognition apparatus |
| US11861841B2 (en) | 2018-06-27 | 2024-01-02 | Nippon Telegraph And Telephone Corporation | Lane estimation device, method, and program |
| CN116895052A (en) * | 2022-03-29 | 2023-10-17 | 本田技研工业株式会社 | Road marking recognition device |
| CN116895052B (en) * | 2022-03-29 | 2026-02-06 | 本田技研工业株式会社 | Road marking recognition device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3733875B2 (en) | Road white line recognition device | |
| JP4203512B2 (en) | Vehicle periphery monitoring device | |
| JP4607193B2 (en) | Vehicle and lane mark detection device | |
| EP2422320B1 (en) | Object detection device | |
| KR101176693B1 (en) | Method and System for Detecting Lane by Using Distance Sensor | |
| EP3800576B1 (en) | Object detection device, vehicle, and object detection process | |
| EP3196853A1 (en) | Machine vision-based method and system for aircraft docking guidance and aircraft type identification | |
| JP2002197444A (en) | Vehicle travel path recognition device | |
| US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
| JP2005157731A (en) | Lane recognition device and lane recognition method | |
| JP6458651B2 (en) | Road marking detection device and road marking detection method | |
| JP6569280B2 (en) | Road marking detection device and road marking detection method | |
| JP2002197469A (en) | Lane detection device | |
| KR20150112656A (en) | Method to calibrate camera and apparatus therefor | |
| JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
| US20180247139A1 (en) | Landmark Recognition Device and Landmark Recognition Method | |
| JP2003157499A (en) | Road white line recognition device | |
| JP4296287B2 (en) | Vehicle recognition device | |
| JP2002334330A (en) | Vehicle recognition device | |
| JP3823782B2 (en) | Leading vehicle recognition device | |
| JP3700625B2 (en) | Road white line recognition device | |
| Yoneda et al. | Simultaneous state recognition for multiple traffic signals on urban road | |
| JPWO2018146997A1 (en) | Three-dimensional object detection device | |
| JP2003308599A (en) | Roadway environment detection device | |
| JPH10320559A (en) | Roadway detection device for vehicles |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060925 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081209 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081211 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090421 |
