JP2007179386A - Method and apparatus for recognizing white line - Google Patents
Method and apparatus for recognizing white line Download PDFInfo
- Publication number
- JP2007179386A JP2007179386A JP2005378336A JP2005378336A JP2007179386A JP 2007179386 A JP2007179386 A JP 2007179386A JP 2005378336 A JP2005378336 A JP 2005378336A JP 2005378336 A JP2005378336 A JP 2005378336A JP 2007179386 A JP2007179386 A JP 2007179386A
- Authority
- JP
- Japan
- Prior art keywords
- white line
- edge
- extracting
- road
- recognition method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 239000000284 extract Substances 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 21
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000000605 extraction Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 10
- 238000004088 simulation Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004069 differentiation Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車載カメラにより路面を撮影して得られた道路画像から白線位置を認識する方法及び装置に関するものである。 The present invention relates to a method and apparatus for recognizing a white line position from a road image obtained by photographing a road surface with an in-vehicle camera.
近年、道路の白線位置を認識し、車両の操舵を制御して車線を維持しながら走行するシステムが提案されている。この技術では、車両に搭載された白線認識装置がCCDカメラ等の撮像手段により車両前方の道路画像を取り込み、白線位置で明度が高いことを利用して白線を検出する。具体的には、例えば画像の微分処理および2値化処理によるエッジ(エッジ点列)抽出を行い、その抽出エッジについて白線エッジか否かの判定を行う。さらに、抽出エッジについて、直線検出法として知られるハフ(Hough)変換を行うことで、
白線位置を決定する。
In recent years, a system for recognizing the position of a white line on a road and controlling the vehicle steering to maintain the lane has been proposed. In this technology, a white line recognition device mounted on a vehicle captures a road image ahead of the vehicle by an imaging means such as a CCD camera, and detects a white line by utilizing the high brightness at the white line position. Specifically, for example, an edge (edge point sequence) is extracted by image differentiation processing and binarization processing, and it is determined whether or not the extracted edge is a white line edge. Furthermore, by performing a Hough transformation known as a straight line detection method for the extracted edge,
Determine the position of the white line.
このようなシステムでは、撮影された道路画像から白線をいかに正確に検出するかが重要な課題となっている。しかし、以下のような状況においては白線位置が認識できないという問題があった。
(1)白線が影内にある場合、白線と道路の輝度差が小さいため、白線エッジを抽出できず、未認識となる。
(2)白線の外側に路肩、溝等が存在する場合、それらのエッジを白線エッジと判断し、誤認識となる。
(3)白線が破線の場合、画像の取得タイミングによっては画像内に白線が存在しないため、未認識となる。
(4)前方に、車両、建物等が存在する場合、それらのエッジを白線エッジと判断し、誤認識となる。
In such a system, how to accurately detect a white line from a captured road image is an important issue. However, there is a problem that the position of the white line cannot be recognized in the following situation.
(1) When the white line is in the shadow, the brightness difference between the white line and the road is small, so the white line edge cannot be extracted and is unrecognized.
(2) If there are road shoulders, grooves, etc. outside the white line, those edges are judged as white line edges, which results in erroneous recognition.
(3) When the white line is a broken line, the white line does not exist in the image depending on the image acquisition timing, and thus it is not recognized.
(4) When a vehicle, a building, or the like is present in the front, those edges are determined as white line edges, resulting in erroneous recognition.
特許文献1には、走行レーン内の白線の認識精度の向上を図った白線認識技術が記載されている。この技術は、撮影された道路画像を近距離領域と遠距離領域の2つの領域に分割し、各領域で白線の検出を以下のように行っている。
まず、近距離領域において、画像中のエッジから白線を認識して確定する。次に、その近距離領域において確定された白線に基づいて、遠距離領域上で、その延長線上の領域を含むエッジ追跡領域を設定する。そして、その設定されたエッジ追跡領域内でエッジを追跡し、エッジが不連続の場合は、これを飛び越えて先のエッジを追跡して白線を認識確定する。この白線認識技術によれば、撮影画像の遠距離領域における白線の認識で問題となる、前方車両、街路樹、建物などの影の影響による白線の誤認識を少なくすることができる。 First, in a short distance region, a white line is recognized from the edge in the image and determined. Next, based on the white line determined in the short distance area, an edge tracking area including the area on the extension line is set on the long distance area. Then, the edge is tracked within the set edge tracking region, and when the edge is discontinuous, the white line is recognized and confirmed by jumping over the edge and tracking the previous edge. According to this white line recognition technology, it is possible to reduce erroneous recognition of white lines due to the influence of shadows of vehicles ahead, roadside trees, buildings, and the like, which is a problem in white line recognition in a long-distance region of a captured image.
特許文献2には、白線自体のかすれや白線画像が不鮮明なことによる白線の誤認識を防止し、白線検出精度の向上を図れるようにした技術が記載されている。この技術では、車両前方を撮影して得られる道路の白線画像から白線の候補点を抽出し、その白線候補点列と近似する直線を求めてこれを白線として認識する際に、白線画像にかすれがあるか否かを判定し、かすれがある場合は、現在の白線画像から抽出された白線候補点列に一定時間前の白線画像から抽出された白線候補点列を重ね合せ、その重ね合せた白線候補点列と近似する直線を求めてこれを白線として認識するようにしたものである。
特許文献1の技術では、撮影画像の遠距離領域における前方車両、街路樹、建物などの影の影響による白線の誤認識を少なくすることができるものの、近距離領域における画像中のエッジから白線を認識する際に、白線が影内にある場合、白線の外側に路肩、溝等が存在する場合、白線が破線の場合、等においては、依然として誤認識や未認識になる問題が残されている。
In the technique of
特許文献2の技術では、白線自体のかすれや白線画像が不鮮明なことによる誤認識を防止し、白線検出精度の向上を図ることができるものの、上記(1)〜(4)で例示したように、白線が影内にある場合、白線の外側に路肩、溝等が存在する場合、白線が破線の場合、前方に車両、建物等が存在する場合、等においては、依然として誤認識や未認識になる問題が残されている。
Although the technique of
よって、本発明は、例えば上述したような未認識、誤認識発生状況においても、白線を正常認識することができ、これにより白線認識精度を格段に向上させることができる技術を提供することを課題とする。 Therefore, it is an object of the present invention to provide a technique capable of normally recognizing a white line even in an unrecognized or misrecognized situation as described above, thereby significantly improving white line recognition accuracy. And
本発明は、上記課題を解決するため、以下の手段を採用した。
本発明は、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、少なくとも2つの2値化処理用の閾値を設定しておき、それらの閾値を切り替えて使用することを特徴としている。
The present invention employs the following means in order to solve the above problems.
The present invention is a white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by determining the candidate edge, and recognizing a white line position. Thus, at least two threshold values for binarization processing are set, and these threshold values are switched and used.
本発明の白線認識方法によれば、少なくとも2つの2値化処理用の閾値を設定しておき、それらの閾値を切り替えて使用する方法を採用しているで、閾値を1つに固定して使用する場合に比べて、例えば白線と道路とのコントラストが大きい場合や、小さい場合に生じやすい未認識、誤認識発生状況においても、白線を正常認識することができる。例えば白線が影内にあってコントラストが小さい場合でも閾値小であれば白線を正常認識することができる。これにより白線認識精度を格段に向上させることができる。 According to the white line recognition method of the present invention, at least two threshold values for binarization processing are set, and a method of switching and using these threshold values is employed. Compared to the case of using, for example, when the contrast between the white line and the road is large or small, the white line can be normally recognized even in the unrecognized and erroneous recognition situations that are likely to occur. For example, even when the white line is in the shadow and the contrast is small, the white line can be recognized normally if the threshold is small. Thereby, the white line recognition accuracy can be significantly improved.
本発明において、前記2つの閾値は、道路画像を得る撮影間隔に合わせて交互に切り替えて使用することが望ましい。このようにすれば、例えば白線と道路とのコントラストが大きい場合や小さい場合に生じやすい未認識、誤認識発生状況においても、白線を正常認識する精度を更に高めることができる。 In the present invention, it is desirable to use the two threshold values by alternately switching in accordance with a photographing interval for obtaining a road image. In this way, it is possible to further improve the accuracy of normally recognizing a white line even in a situation where unrecognized and erroneous recognition is likely to occur when the contrast between the white line and the road is large or small.
本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合、その認識された白線位置が走査範囲の中央となるように走査範囲を設定することが望ましい。このようにすれば、演算処理が早くなるように走査範囲を短くでき、しかも、白線周辺の路肩、溝等による誤認識を防ぐことができる。 In the present invention, in a method of extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing the position of the white line, Of the plurality of road images acquired in series, when the white line position can be recognized from the previously acquired road image, it is desirable to set the scanning range so that the recognized white line position is at the center of the scanning range. In this way, the scanning range can be shortened so that the arithmetic processing is accelerated, and erroneous recognition due to a shoulder, a groove, etc. around the white line can be prevented.
本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることが望ましい。このようにすれば、走査エリアを必要な範囲に収めて、白線周辺の路肩、溝等による白線の誤認識や未認識を防ぐことができる。 In the present invention, in a method of extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing the position of the white line, Of the plurality of road images acquired in series, it is desirable to shorten the scanning range when the white line position can be recognized from the previously acquired road image, and to increase the scanning range when the white line position cannot be recognized. In this way, it is possible to prevent the white line from being erroneously recognized or unrecognized by the road shoulder, groove or the like around the white line by keeping the scanning area within a necessary range.
本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、前記白線候補エッジから白線幅を算出し、算出した白線幅が規定範囲の場合に白線エッジと判断するステップを採用することが望ましい。このステップを採用すれば、白線幅を検出しない認識方法に比べて白線認識精度をさらに向上させることができる。 In the present invention, in the method of extracting the white line candidate edge by the differential processing and binarization processing of the road image obtained by photographing the road surface, extracting the white line edge by determining the candidate edge, and recognizing the position of the white line, It is desirable to employ a step of calculating the white line width from the white line candidate edge and determining the white line edge when the calculated white line width is within a specified range. If this step is adopted, the white line recognition accuracy can be further improved as compared with the recognition method in which the white line width is not detected.
本発明では、車両側から路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、前記車両を基準にして左側白線及び右側白線の各白線候補エッジからレーン幅を算出し、算出したレーン幅が規定範囲の場合に白線エッジと判断するステップを採用することが望ましい。このステップを採用すれば、レーン幅を検出しない方法に比べて白線認識精度をさらに向上させることができる。 In the present invention, a white line candidate edge is extracted by differential processing and binarization processing of a road image obtained by photographing a road surface from the vehicle side, a white line edge is extracted by determination of the candidate edge, and a white line position is recognized. Preferably, a step of calculating a lane width from each white line candidate edge of the left white line and the right white line on the basis of the vehicle and determining a white line edge when the calculated lane width is within a specified range is adopted. If this step is adopted, the white line recognition accuracy can be further improved as compared with the method in which the lane width is not detected.
本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、1本の走査線に対して1つの白線エッジを抽出する際に、白線エッジが抽出できなかった走査範囲については過去の規定時間前までにその走査範囲で取得した白線エッジで補完することが望ましい。このステップを採用すれば、例えば白線が破線の場合でも、過去エッジで補うことで、白線エッジの取得を可能にすることができる。 In the present invention, in a method of extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by determining the candidate edge, and recognizing a white line position, 1 When one white line edge is extracted from one scanning line, it is desirable to supplement the scanning range in which the white line edge cannot be extracted with the white line edge acquired in the scanning range before the past specified time. If this step is adopted, for example, even when the white line is a broken line, it is possible to obtain the white line edge by compensating with the past edge.
本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、抽出した白線エッジに対してHough変換により近似直線を取得する際、道
路画像の下部で抽出した信頼性の高い白線エッジにはHough変換の投票値に大きな重みを
持たせることが望ましい。このようにすれば、道路画像の上側走査範囲で僅かにノイズを抽出しても、下側走査範囲で正しい白線エッジが抽出できていれば、白線の認識を成功させることができる。また、下側走査範囲で僅かにノイズを抽出しても、上側走査範囲で正しい白線エッジが取得できていれば、白線の認識を成功させることができる。これにより、白線認識精度をさらに向上させることができる。
In the present invention, a white line candidate edge is extracted by differential processing and binarization processing of a road image obtained by photographing a road surface, and a white line edge is extracted by determination of the candidate edge, thereby extracting the white line position. When an approximate straight line is acquired by Hough transformation for the white line edge, it is desirable that a highly reliable white line edge extracted at the lower part of the road image is given a large weight to the vote value of the Hough transformation. In this way, even if noise is slightly extracted in the upper scanning range of the road image, if the correct white line edge is extracted in the lower scanning range, the white line can be recognized successfully. Even if noise is slightly extracted in the lower scanning range, if the correct white line edge is acquired in the upper scanning range, the white line can be recognized successfully. Thereby, the white line recognition accuracy can be further improved.
本発明は、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識装置であって、2つの2値化処理用の閾値を設定可能な閾値設定手段と、前記閾値を前記道路画像の撮影間隔に合わせて交互に切り替えて使用する閾値切換手段と、を有することを特徴としている。 The present invention is a white line recognition device that extracts white line candidate edges by differential processing and binarization processing of a road image obtained by photographing a road surface, extracts white line edges by determining candidate edges, and recognizes the position of the white line. A threshold value setting unit capable of setting two threshold values for binarization processing, and a threshold value switching unit which switches the threshold value alternately according to the shooting interval of the road image. Yes.
本発明によれば、種々の未認識、誤認識発生状況においても、白線を正常認識することができ、これにより白線認識精度を格段に向上させることができる According to the present invention, a white line can be normally recognized even in various unrecognized and misrecognized situations, whereby the white line recognition accuracy can be significantly improved.
以下、図面を参照し、本発明に係る白線認識方法及び装置の実施例について説明する。尚、本実施例の白線認識技術は、乗用車に適用する例について説明するが、他の各種車両にも適用することができる。
(ハードウエア構成)
図1及び図2に、本実施例に係る白線認識装置のブロック図を示す。この白線認識装置は、画像入力部としてのカメラ部1と、カメラ部1から入力される画像の画像処理部2とを備えている。カメラ部1は、光学フィルタ11、レンズ12、イメージセンサ13等を
有するCCDカメラより構成され、そのCCDカメラで撮影された車両前方の道路画像が画像処理部2に入力される。
Embodiments of a white line recognition method and apparatus according to the present invention will be described below with reference to the drawings. In addition, although the white line recognition technique of a present Example demonstrates the example applied to a passenger car, it can be applied also to other various vehicles.
(Hardware configuration)
1 and 2 are block diagrams of the white line recognition apparatus according to the present embodiment. The white line recognition apparatus includes a
画像処理部2は、画像処理用集積回路としてのASIC(Application Specific Integrated Circuit)20、このASIC(エーシック)20を含む各装置の制御やデータの
演算、加工を行うマイクロプロセッサからなるCPU(Central Processing Unit)3
0、各制御システムや各センサ50等の外部機器インターフェース(I/F)としてのコネクタ40を備えている。
The
0, a
ASIC20は、カメラ部1から入力される道路画像を取得する画像取得部21、その取得した道路画像から白線候補点を抽出する際に必要な前処理を行う微分処理部22、及び2値化処理部23を有する。さらに、ASIC20は、道路画像の微分処理および2値化処理による白線候補エッジ抽出の際、白線と道路の輝度差(濃度差)が大きい場合、小さい場合用にそれぞれ設定される2つの固定閾値(高い閾値と低い閾値)を交互にあるいは選択的に切り替えて使用するための閾値選択部(図2参照)を有している。
The
CPU30は、予め、図示しないメモリに記憶された画像処理プログラムを読み出して実行することにより、ASIC20から出力される2値化処理された道路画像から白線候補点を抽出する機能(白線候補点抽出部31)、及び抽出された白線候補点列に近似する直線をHough変換により求めてこれを白線として認識する機能(白線認識部32)を有す
る。
The
画像処理部2の有する各部の機能をより具体的に例示したのが図2の機能ブロック図である。この図2に示すように、画像入力部1から白線候補点抽出部31に入力される道路画像は、まず前処理部(ASIC)20によって処理される。前処理部20は、閾値選択機能、微分処理機能、2値化処理機能を有している。
FIG. 2 is a functional block diagram illustrating the functions of the respective units included in the
白線候補点抽出部31は、2値化処理されて入力された道路画像から白線候補点を抽出するための走査線の走査位置や走査幅等を決定する走査エリア決定機能、白線エッジ候補取得機能、白線エッジ判定機能、過去の白線エッジによる補完機能等を有している。白線認識部32は、周知のHough変換による直線近似処理機能を有するが、後述のように、画
像下部で取得した信頼性の高い白線エッジにはHough変換の投票値に大きな重み付けを行
うことができる機能を含む。
A white line candidate
次に、この白線認識技術について、そのシミュレーション結果や実車での走行実験例と共により具体的に説明する。
(課題対策と新規アルゴリズム)
従来のアルゴリズムにおいて課題であった未認識・誤認識を改善するために、以下に順次説明する新規アルゴリズムを開発し、PC上でのシミュレーション、実車での評価を行い効果の確認を行った。なお、アルゴリズムの詳細については後述する。
Next, the white line recognition technology will be described more specifically together with the simulation results and driving experiment examples with actual vehicles.
(Problem countermeasures and new algorithms)
In order to improve the unrecognized and misrecognized problems that have been a problem in the conventional algorithm, a new algorithm, which will be described in the following, was developed. Details of the algorithm will be described later.
(Hough変換におけるθ範囲の縮小)
従来のアルゴリズムでは、Hough変換で扱うθ値の範囲をθ=0°〜180°としてい
た。それにより、画像中に現れるすべての傾きの直線を検出するため、例えばθ=0°(直線)となる建物や車両等の立体物までも認識していた。ここで、θ=0°(直線)となる建物や車両等の立体物とは、例えば上下に延びる建物の左右の直線部分や、トラックの荷台を後方から見て、左端部分や右端部分のように画像上でも上下方向に延びる直線部分を有するものを意味する。
(Reduction of θ range in Hough transform)
In the conventional algorithm, the range of the θ value handled in the Hough transform is set to θ = 0 ° to 180 °. Accordingly, in order to detect straight lines having all inclinations appearing in the image, for example, a solid object such as a building or a vehicle in which θ = 0 ° (straight line) is recognized. Here, a solid object such as a building or a vehicle having θ = 0 ° (straight line) is, for example, a left or right straight part of a building that extends vertically, or a left end part or a right end part of a truck bed when viewed from the rear. It also has a linear portion extending in the vertical direction on the image.
<新規アルゴリズム1>
新規アルゴリズム1では、Hough変換で扱うθ値の範囲を設定し、θ=30°〜70°
とした。その根拠について以下に示す。
(1)白線認識の要件定義
白線認識の要件については以下のように定義した。
1)車両が自レーンを走行している状況において、1秒後に白線を逸脱する状況を検知できること。
2)対応する車速は50km〜120km。
3)車両が自レーンの白線を逸脱した状態とは、車両の一部が自レーンの白線からはみ出した状態とする。
<
In the
It was. The basis for this is shown below.
(1) Definition of requirements for white line recognition The requirements for white line recognition are defined as follows.
1) A situation where the vehicle deviates from the white line after 1 second in a situation where the vehicle is traveling in its own lane.
2) The corresponding vehicle speed is 50km to 120km.
3) The state where the vehicle deviates from the white line of the own lane is a state where a part of the vehicle protrudes from the white line of the own lane.
(2)環境定義
高速道路における白線認識を想定しているので、車線の幅は3.5mとした。また、車両のサイズは実験車両と同一とし、全長4900mm、全幅1795mmの乗用車とした。
(2) Environmental definition Since white line recognition on the expressway is assumed, the width of the lane is set to 3.5 m. The size of the vehicle was the same as that of the experimental vehicle, and the passenger car had a total length of 4900 mm and a total width of 1795 mm.
(3)θの下限値の決定。
図3(a)に示すように、1秒後に車両3が自レーンの白線(左側白線)a1を逸脱する状況を考えた場合、図3(b)に示すθの値が最小となるのは、左側白線a1に隣接した状態(基準位置)で、かつ車両がわずかでも左側に傾いている場合である。即ち、車両3の走行方向が左側白線a1と並行ではなく、わずかでも左側白線a1の方向に向いている場合である。
(3) Determination of the lower limit value of θ.
As shown in FIG. 3A, when considering a situation in which the
なお、図3(b)は、カメラ画像による左側白線a1とθとの関係を示している。ここで、左側白線a1は、カメラ画像の場合、遠近感のある実像に基づいて表示されるため、車両から離れた位置の左側白線a1ほど次第に画像の中央側へ寄る傾斜表示となる。従って、θは、左側白線a1に対する垂線4と、画像の上限線(白線と平行でない車両の走行方向に対応する線)5とで形成される角度に相当することになる。
FIG. 3B shows the relationship between the left white line a1 and θ by the camera image. Here, since the left white line a1 is displayed based on a perspective real image in the case of a camera image, the left white line a1 at a position farther from the vehicle is displayed with an inclination closer to the center of the image. Therefore, θ corresponds to an angle formed by the
図3(b)におけるθの下限値の取得に必要な値を算出した(図4参照)。その際、計算を容易にするために、図4に示すように車両の向きは左側白線a1と平行とした。また、θの下限値算出条件として、車両3が毎時50km/hで、1秒間に進む距離L0=13888mm、L0の1/2の距離L1=6944.0mm、車両の中央(車載カメラ搭載位置)から左側白線a1までの距離L2=937.21mmとした。
A value necessary for obtaining the lower limit value of θ in FIG. 3B was calculated (see FIG. 4). At that time, in order to facilitate the calculation, the direction of the vehicle was set to be parallel to the left white line a1 as shown in FIG. Further, as a condition for calculating the lower limit value of θ, the distance L0 = 13888 mm that the
図4における車載カメラの画像座標系を図5に示す。点Aの座標(−66.778、72.974)及び点Bの座標(−133.55、32.377)から、図5におけるθの下限値は32.367°であったが、カメラの取付誤差を考慮して30°とした。 FIG. 5 shows an image coordinate system of the in-vehicle camera in FIG. From the coordinates of the point A (−66.778, 72.974) and the coordinates of the point B (−133.55, 32.377), the lower limit value of θ in FIG. 5 was 32.367 °. Considering the mounting error, the angle is set to 30 °.
(4)θの上限値の決定
1秒後に車両3が自レーン左側白線a1を逸脱する状況を考えた場合、θの値が最大となるのは、図6(a)、(b)のように車両3が自レーンRの右側白線a2に隣接した状態(基準位置)で、かつ1秒後に左側白線a1を逸脱する場合である。図6(b)においてθの上限値の取得に必要な値を算出した(図7参照)。図7では計算を容易にするため、車両3ではなくカメラの位置を白線に隣接するように定義した。
(4) Determination of the upper limit value of θ When considering a situation where the
従って、図7では、車両3が毎時50km/hで、1秒間に進む距離L0=13888mm、車両の左側から左側白線a1との交点Aまでの距離L1=10442mm、車両の右側から左側白線あ1との交点Bまでの距離L2=17567mm、車両の中央(車載カメラ搭載位置)から左側白線a1までの距離L2=897.5mmとした。
Accordingly, in FIG. 7, the
図7のθの上限値における車載カメラの画像座標系を図8に示す。点Aの座標(88.816、37.788)及び点Bの座標(52.793、95.521)から、図8においてθの下限値は67.819°であったが、カメラの取付誤差を考慮して70°とした。 FIG. 8 shows an image coordinate system of the in-vehicle camera at the upper limit value of θ in FIG. From the coordinates of point A (88.816, 37.788) and the coordinates of point B (52.793, 95.521), the lower limit value of θ in FIG. 8 was 67.819 °, but the camera mounting error Was set to 70 °.
(上側走査線幅縮小)
従来のアルゴリズムでは、図9に示すように、白線a(以下、左側白線、右側白線及びセンターライン等を含めて白線aと総称する)を走査する走査線bの幅(走査範囲)はすべて一定(例えば150画素)としていた。しかし、画像上での道路は無限遠にむけて狭くなっていくため、従来のアルゴリズムでは道路からはみ出した部分(白線の判定範囲として不適切なエリア)まで走査範囲が及んでいた。
(Upper scanning line width reduction)
In the conventional algorithm, as shown in FIG. 9, the width (scanning range) of the scanning line b that scans the white line a (hereinafter collectively referred to as the white line a including the left white line, the right white line, and the center line) is constant. (For example, 150 pixels). However, since the road on the image becomes narrower toward infinity, the conventional algorithm has extended the scanning range to a portion protruding from the road (an area inappropriate as a white line determination range).
<新規アルゴリズム2>
新規アルゴリズム2では、図10に示すように、上半分の走査線bの捜査範囲を従来の半分(例えば75画素)とすることにより道路の外側に走査線bよる走査範囲がはみだすことを防止した。この画素数(75画素)はシミュレーションで得た最適値である。また、時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合、その認識された白線位置が走査範囲の中央となるように走査範囲を設定するようにした。これにより、演算処理が早くなるように走査範囲を短くでき、しかも、白線周辺の路肩、溝等による誤認識を防ぐことができる。
<
In the
さらに、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることもできる。これにより、走査エリアを必要な範囲に収めて、白線周辺の路肩、溝等による白線の誤認識や未認識を防ぐことができる。 Furthermore, when the white line position can be recognized from the previously acquired road image, the scanning range can be shortened, and when the white line position cannot be recognized, the scanning range can be lengthened. As a result, the scanning area can be kept within a necessary range, and erroneous recognition or unrecognition of the white line due to a shoulder, a groove or the like around the white line can be prevented.
(走査範囲の開始・終了位置の最適化)
従来のアルゴリズムでは、図11に示すように、走査線bの走査開始位置が高すぎる位置に、終了位置が低すぎる位置にあった。そのため、画像上方の走査線bは空や風景を、下方の走査線bは車両のボンネットの上を走査してしまい、白線の判定範囲として不適切なエリアまで走査線が及んでいた。
(Optimization of scanning range start / end position)
In the conventional algorithm, as shown in FIG. 11, the scanning start position of the scanning line b is at a position that is too high and the end position is at a position that is too low. For this reason, the scanning line b above the image scans the sky and landscape, and the scanning line b below scans the hood of the vehicle, and the scanning line extends to an inappropriate area as a white line determination range.
<新規アルゴリズム3>
新規アルゴリズム3では、図12に示すように、走査線bによる走査範囲の縦方向の開始位置を画像の無限遠に、終了位置を車両のボンネットの手前に設定した。これにより、演算処理が早くなるように走査線数を少なくでき、しかも、白線周辺の路肩、溝等による誤認識を防ぐことができる。
<
In the
(Hough変換時の投票に重み付け)
従来のアルゴリズムでは、Hough変換時の投票値をすべて「1」としていた。つまり白
線エッジ抽出において信頼性の高い画像下方(車両近傍)も、信頼性の劣る画像上方もHough変換時に同じ値で投票する設定としていた。
(Weighing votes during Hough conversion)
In the conventional algorithm, the vote values at the time of Hough conversion are all “1”. In other words, in the white line edge extraction, the lower part of the image with high reliability (near the vehicle) and the upper part of the image with poor reliability are set to vote with the same value during the Hough transform.
<新規アルゴリズム4>
新規アルゴリズム4では、白線エッジ抽出において信頼性の高い画像下方(車両近傍)に対して、Hough変換時の投票値に大きな重みを持たせた。具体的には、下半分の走査線
で抽出したエッジの投票値を「3」、上半分の走査線で抽出したエッジの投票値を「2」とした。投票値の「3」、「2」はシミュレーションで得た最適値である。ただし、投票値の重みは白線エッジ抽出方式を変更した場合、再度調整する必要がある(白線エッジ抽出における上側と下側の信頼性の比が変わるため)。
<
In the
このようにすれば、道路画像の上側走査範囲で僅かにノイズを抽出しても、下側走査範囲で正しい白線エッジが抽出できていれば、白線の認識を成功させることができる。また、下側走査範囲で僅かにノイズを抽出しても、上側走査範囲で正しい白線エッジが取得できていれば、白線の認識を成功させることができる。これにより、白線認識精度をさらに向上させることができる。 In this way, even if noise is slightly extracted in the upper scanning range of the road image, if the correct white line edge is extracted in the lower scanning range, the white line can be recognized successfully. Even if noise is slightly extracted in the lower scanning range, if the correct white line edge is acquired in the upper scanning range, the white line can be recognized successfully. Thereby, the white line recognition accuracy can be further improved.
(白線エッジの両端抽出と両端のエッジ間距離判定)
従来のアルゴリズムでは、次の(1)、(2)の手順で白線エッジの抽出を行っていた。
(1)内側エッジ抽出のために、捜査線上を内側から外側へ探索し、幅が3画素以上のHigh画素(内側エッジ)を抽出する。
(2)5連続近傍抽出のために、(1)で抽出したエッジの垂直方向に5連続で幅が3画素以上のHigh画素が存在することを確認する。
(Extraction of both ends of white line edge and judgment of distance between edges of both ends)
In the conventional algorithm, white line edges are extracted by the following procedures (1) and (2).
(1) In order to extract the inner edge, the search line is searched from the inner side to the outer side, and a High pixel (inner edge) having a width of 3 pixels or more is extracted.
(2) In order to extract 5 consecutive neighborhoods, it is confirmed that there are 5 consecutive high pixels having a width of 3 pixels or more in the vertical direction of the edge extracted in (1).
白線(右側)のエッジ抽出例を図13、図14に示す。微分フィルタ+2値化処理を行った画像が図13に示す画像である。同図においてdはノイズを示している。図13の画像の太枠c内を拡大し、エッジの抽出状況を表したのが図14である。図14の例では走査線b1は白線エッジが抽出できている。しかし、走査線b2、b3は白線エッジの内側のノイズを抽出し、誤認識となっている。 Examples of white line (right side) edge extraction are shown in FIGS. An image subjected to the differential filter + binarization process is an image shown in FIG. In the figure, d indicates noise. FIG. 14 shows the edge extraction state by enlarging the inside of the thick frame c in the image of FIG. In the example of FIG. 14, the white line edge can be extracted from the scanning line b1. However, the scanning lines b2 and b3 are misrecognized by extracting noise inside the white line edge.
<新規アルゴリズム5>
新規アルゴリズム5では、白線を判別するために、以下の(1)〜(5)の手順により、白線の両端(内側と外側)のエッジの抽出と、両端のエッジ間の距離による判定を行う。その抽出手順を図式化したものを図15に示す。
<
In the
(1) 内側エッジ抽出のために、捜査線上を内側から外側へ探索し、幅が3画素以上のHigh画素(内側エッジ)を抽出する。
(2) 5連続近傍抽出のために、(1)で抽出したエッジの垂直方向に5連続で幅が3画素以上のHigh画素が存在することを確認する。
(3) Low画素抽出のために、(1)で抽出したエッジの外側を探索し、幅が3画素以
上のLow画素が存在することを確認する。
(4) 外側エッジ抽出のために、(3)のLow画素の外側を探索し、幅が3画素以上のHigh画素(外側エッジ)を抽出する。
(5) 5連続近傍抽出のために、(4)で抽出したエッジの垂直方向に5連続で幅が3画素以上のHigh画素が存在することを確認する。
(6) 白線幅チェックのために、(1)で抽出した内側エッジと、(4)で抽出した外側エッジの間隔が40画素以下(規定範囲内)であることを確認し、規定範囲内であればそれを白線として認識する。なお、40画素とした理由は、シミュレーションで使用した画像において白線エッジの幅の最大値が30画素であり、その幅に10画素のマージンを加えたことによるものである。
(1) In order to extract the inner edge, the search line is searched from the inner side to the outer side, and a High pixel (inner edge) having a width of 3 pixels or more is extracted.
(2) In order to extract 5 consecutive neighborhoods, it is confirmed that there are 5 consecutive high pixels having a width of 3 pixels or more in the vertical direction of the edge extracted in (1).
(3) In order to extract a low pixel, the outside of the edge extracted in (1) is searched, and it is confirmed that a low pixel having a width of 3 pixels or more exists.
(4) In order to extract the outer edge, the outside of the low pixel in (3) is searched, and a high pixel (outer edge) having a width of 3 pixels or more is extracted.
(5) In order to extract five consecutive neighborhoods, it is confirmed that there are five consecutive high pixels having a width of 3 pixels or more in the vertical direction of the edge extracted in (4).
(6) To check the white line width, confirm that the interval between the inner edge extracted in (1) and the outer edge extracted in (4) is 40 pixels or less (within the specified range). If there is, it is recognized as a white line. The reason why the number of pixels is 40 pixels is that the maximum value of the width of the white line edge in the image used in the simulation is 30 pixels, and a margin of 10 pixels is added to the width.
(白線エッジ及びレーン幅判定)
さらに、このようにして認識される白線エッジについて、図16に示すように、車両の左側、右側で対となる走査線上の両方で白線エッジ(左側白線a1及び右側白線a2のエッジ)が保持できた座標のみを抽出し、左右の白線エッジの間隔(レーン幅R)を確認し、そのレーン幅Rが規定範囲内であった場合は、白線エッジとして判定する。即ち、車両を基準にして左側白線a1及び右側白線a2の各白線候補エッジからレーン幅Rを算出し、算出したレーン幅Rが規定範囲の場合に白線エッジと判断する。
(White line edge and lane width judgment)
Further, with respect to the white line edge recognized in this way, as shown in FIG. 16, the white line edge (the edge of the left white line a1 and the right white line a2) can be held on both the left and right sides of the paired scanning lines. Only the coordinates are extracted, the interval between the left and right white line edges (lane width R) is confirmed, and if the lane width R is within the specified range, it is determined as a white line edge. That is, the lane width R is calculated from the white line candidate edges of the left white line a1 and the right white line a2 with reference to the vehicle, and when the calculated lane width R is within a specified range, it is determined as a white line edge.
(シミュレーションによる性能評価)
新規アルゴリズムについてPC上でシミュレーションを行い、性能評価を実施した。シミュレーションでは実際の走行実験で採取した画像(BMPファイル)を使用した。
(Performance evaluation by simulation)
A new algorithm was simulated on a PC to evaluate its performance. In the simulation, an image (BMP file) collected in an actual running experiment was used.
(評価結果)
白線認識結果をスーパーインポーズした画像について、認識成功、未認識、誤認識を判定した結果、前回の走行実験に比べて認識率が向上したことを確認した。従って、白線幅を検出しない白線認識方法に比べて白線認識精度を向上させることができた。さらに、レーン幅を検出しない白線認識方法に比べて白線認識精度をより向上させることができた。
(Evaluation results)
As a result of judging the recognition success, unrecognition, and misrecognition for the image superimposed on the white line recognition result, it was confirmed that the recognition rate was improved compared to the previous driving experiment. Therefore, the white line recognition accuracy can be improved as compared with the white line recognition method that does not detect the white line width. Furthermore, the white line recognition accuracy can be further improved as compared with the white line recognition method that does not detect the lane width.
<新規アルゴリズム6>
(過去フレームのエッジ情報利用)
白線が破線の場合、抽出エッジの数が少ないため白線が認識できない場合がある。そのため、過去フレームのエッジ情報を保持し、利用することにより現状フレームだけでは不足するエッジ情報を補い、白線位置を認識できるようにした。図17の場合、白線エッジは3つしか抽出できておらず、白線位置を認識できなかった。しかし、図18のように1つ前のフレームで抽出したエッジを保持しておき、図19のように現在フレームでエッジが抽出できなかった走査線に対してエッジを補うことにより白線位置を特定することができる。図19において破線eで矩形状に囲む部分が、過去フレームで取得したエッジで補っている部分である。本アルゴリズムではシミュレーションを行い検討した結果、4つ前のフレームまでエッジ情報を保持し、利用することとした。
<New algorithm 6>
(Use edge information of past frames)
When the white line is a broken line, the white line may not be recognized because the number of extracted edges is small. For this reason, the edge information of the past frame is held and used to compensate for edge information that is insufficient with the current frame alone, and the white line position can be recognized. In the case of FIG. 17, only three white line edges can be extracted, and the white line position cannot be recognized. However, the edge extracted in the previous frame is retained as shown in FIG. 18, and the position of the white line is specified by supplementing the edge with respect to the scanning line in which the edge could not be extracted in the current frame as shown in FIG. can do. In FIG. 19, a portion surrounded by a broken line e in a rectangular shape is a portion supplemented by an edge acquired in a past frame. As a result of simulation and examination in this algorithm, edge information is retained and used up to the previous four frames.
<新規アルゴリズム7>
(2値化処理時に閾値を2つ使う)
トンネルの出口で路面が急に明るくなる場合、白線が影の中にある場合、白線がかすれている場合、などのように白線と道路のコントラストが小さい場合、画像から白線を特徴抽出できない。しかし、2値化処理時の閾値を例えば影内の白線と道路の濃度差以下(適切な閾値)に設定することで特徴抽出可能である。例えば白線の濃度値が70、道路の濃度値が40の場合は閾値を30とすれば良い。2値化処理における適切な閾値は、天候や時間帯、道路の状況により異なるが、状況によって閾値を動的に適切な値にすることは難しい。また、閾値を固定すると、閾値が高い場合、低い場合でメリット、デメリットが存在する。
<New algorithm 7>
(Use two thresholds during binarization)
If the road surface suddenly becomes bright at the exit of the tunnel, the white line is in shadow, the white line is faint, or the like, the white line cannot be extracted from the image when the contrast between the white line and the road is small. However, it is possible to extract features by setting a threshold value for binarization processing to be equal to or less than the density difference between the white line in the shadow and the road (appropriate threshold value). For example, when the density value of the white line is 70 and the density value of the road is 40, the threshold value may be set to 30. An appropriate threshold value in the binarization process varies depending on the weather, time zone, and road conditions, but it is difficult to dynamically set the threshold value to an appropriate value depending on the situation. If the threshold is fixed, there are advantages and disadvantages when the threshold is high and when the threshold is low.
即ち、低い閾値では白線と道路のコントラストが小さい場合でも白線を抽出できるメリットがあるものの、前方車両や建物の影などのエッジを抽出してしまうデメリットがある。高い閾値ではその逆になる。よって新規アルゴリズム7では、低い閾値を30、高い閾値を50とする2つの固定閾値(高い閾値と低い閾値)を100ms毎に交互に使用することとした。これにより、閾値の高・低におけるそれぞれのメリットを生かし、デメリットを吸収することができる。 That is, at a low threshold, there is a merit that a white line can be extracted even when the contrast between the white line and the road is small, but there is a demerit that an edge such as a shadow of a preceding vehicle or a building is extracted. The reverse is true for high thresholds. Therefore, in the new algorithm 7, two fixed threshold values (a high threshold value and a low threshold value) having a low threshold value of 30 and a high threshold value of 50 are alternately used every 100 ms. This makes it possible to absorb the demerits by taking advantage of the advantages and disadvantages of the high and low thresholds.
それぞれの閾値における2値化画像を図20、図21に示す。図20(閾値30)では白線エッジははっきり見えるが、エッジのにじみ、ノイズdが多い。また、図21(閾値50)では左側の白線のエッジはかすれているが、エッジのにじみ、ノイズが少ない。 The binarized images at the respective threshold values are shown in FIGS. In FIG. 20 (threshold 30), the white line edge is clearly visible, but the edge blurs and the noise d is large. In FIG. 21 (threshold value 50), the edge of the white line on the left side is faint, but the edge blurs and the noise is small.
従って、例えば白線aと道路とのコントラストが大きい場合や、小さい場合に生じやすい未認識、誤認識発生状況においても、白線aを正常認識することができる。例えば白線aが影内にあってコントラストが小さい場合でも閾値小であれば白線aを正常認識することができる。これにより白線認識精度を格段に向上させることができる。 Therefore, the white line a can be normally recognized even in an unrecognized or erroneous recognition occurrence situation that is likely to occur when, for example, the contrast between the white line a and the road is large or small. For example, even when the white line a is in the shadow and the contrast is small, the white line a can be recognized normally if the threshold is small. Thereby, the white line recognition accuracy can be significantly improved.
<新規アルゴリズム8>
(白線走査エリアの絞り込み)
白線の外側に走査エリアが及ぶことにより白線以外のエッジを抽出する誤認識を防止するために、走査エリアの範囲を絞り込むようにした。単純に走査エリアを狭めるだけでは白線の未認識につながるため、計算テーブルの状態によって下側走査線の幅を狭めることとした。
<New algorithm 8>
(Refine white line scanning area)
In order to prevent misrecognition of extracting edges other than the white line due to the scanning area extending outside the white line, the range of the scanning area is narrowed down. Simply narrowing the scanning area leads to unrecognition of the white line, so the width of the lower scanning line is reduced depending on the state of the calculation table.
計算テーブル状態が、例えば白線エッジ抽出処理連続成功回数10回未満のときを状態1としたとき、計算テーブルが状態2(白線エッジ抽出処理連続成功回数10回以上30回未満)の場合、正しい白線位置(もしくはその近傍)を取得している可能性が高い。また、画像は時系列で取得しているため(0.1秒毎)、次回白線位置は前回白線位置の近傍と考えられる。また、計算テーブルが状態3(白線エッジ抽出処理連続成功回数30回以上)の場合、状態2以上に白線位置、次回白線位置を正しく取得している信頼性は高い。そこで状態2の場合は下側走査線の幅を狭く、また状態3の場合はさらに狭くするようにした。
When the calculation table state is, for example, less than 10 consecutive white line edge extraction processing successes,
従って、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることができる。これにより、走査エリアを必要な範囲に収めて、白線周辺の路肩、溝等による白線の誤認識や未認識を防ぐことができる。 Therefore, the scanning range can be shortened when the white line position can be recognized from the previously acquired road image, and the scanning range can be lengthened when the white line position cannot be recognized. As a result, the scanning area can be kept within a necessary range, and erroneous recognition or unrecognition of the white line due to a shoulder, a groove or the like around the white line can be prevented.
次に、このような白線認識技術における白線認識手順の一例について図22のフロー図を参照して説明する。なお、この処理は画像処理部2で行うが、解り易くするため、図1、2に示した構成を参照して説明する。また、この処理は白線認識処理装置の動作中は繰り返し実行される。
Next, an example of a white line recognition procedure in such a white line recognition technique will be described with reference to the flowchart of FIG. This process is performed by the
画像入力部であるカメラ部1で撮影された道路画像を入力する(ステップS1)。そして、画像処理部2の前処理部20において、白線と白線以外の道路との濃度差が大きい場合、小さい場合用に予め設定されている2つの2値化処理用の閾値のうちの何れかの閾値(例えば表11に示す低い閾値30)を選択し(ステップS2)、その選択された閾値によって道路画像が取得される。そして、取得された道路画像は、微分処理(ステップS3)、2値化処理(ステップS4)を順次行った後、白線候補点抽出部31に入力される。なお、2つの閾値の選択に関しては、実施例では、カメラ部1による撮影間隔に合わせて交互に選択される。したがって、2つの閾値が交互に使用される。
A road image photographed by the
白線候補点抽出部31に道路画像が入力されると、走査エリアを決定する。即ち、図12に示すように道路画像に対する走査線開始位置と終了位置を決める走査線位置を決定し(ステップS5)、さらに走査線の長さである走査線幅を決定する(ステップS6)。走査線幅については、例えば図10に示すように、白線の上側走査線幅と下側走査線幅とが異なるように設定される。次いで、走査線による白線エッジ候補抽出のための走査が行われて白線エッジ候補が取得され、白線エッジが判定される。
When a road image is input to the white line candidate
白線候補点抽出部31において、走査線上の白線エッジが取得されると(ステップS7)、白線の内外エッジが取得できたか否かを判断し(ステップS8)、YESの場合はステップS9に進み、NOの場合はステップS12に進む。ステップS9では、図15で示したエッジ間隔の検出により白線幅が妥当か否かを判断し、YESの場合はステップS10に進み、NOの場合はステップS12に進む。
In the white line candidate
ステップS10では、車両の左右の白線間隔に相当するレーン幅が妥当か否かを判断し、YESの場合には抽出したエッジ座標を保持し(ステップS11)、次にステップS13に進む。NOの場合はステップS12に進む。 In step S10, it is determined whether or not the lane width corresponding to the left and right white line interval of the vehicle is appropriate. If YES, the extracted edge coordinates are held (step S11), and the process proceeds to step S13. If NO, the process proceeds to step S12.
一方、ステップS8、S9、S10においてNOと判断された場合にはステップS12に進むが、ここでは、ステップS8、S9、S10のそれぞれについて過去のエッジ座標を保持した後に、ステップS13へ進む。 On the other hand, if NO is determined in steps S8, S9, and S10, the process proceeds to step S12. Here, after the past edge coordinates are held for each of steps S8, S9, and S10, the process proceeds to step S13.
次に、ステップS13において、全ての走査線を調べたか否かを判断さし、YESの場合はステップS14へ進み、NOの場合はステップS7へ戻る。そして、ステップS13においてYESと判断されるまで(全ての走査線を調べるまで)上記と同様のループ処理が行われる。 Next, in step S13, it is determined whether or not all scanning lines have been examined. If YES, the process proceeds to step S14, and if NO, the process returns to step S7. Then, a loop process similar to the above is performed until YES is determined in step S13 (until all scanning lines are checked).
ステップS13においてYESと判断された場合、白線認識部32においてHough変換
による直線近似処理を行い、その近似直線が白線として認識される。
If YES is determined in step S13, the white
なお、以上の実施例では、車両前方の路面を撮影して得られる道路画像から白線を認識する技術について説明したが、例えば、駐車時等、後方へ進む場合の白線認識技術としても本発明を適用可能である。その場合には、車両後方の路面や駐車場等を撮影可能な後方用車載カメラ(撮像手段)を搭載することで対応可能になる。 In the above embodiment, the technology for recognizing the white line from the road image obtained by photographing the road surface in front of the vehicle has been described. Applicable. In such a case, it is possible to cope with such a situation by installing a rear in-vehicle camera (imaging means) that can photograph a road surface, a parking lot, or the like behind the vehicle.
1 カメラ部(画像入力部)
11 光学フィルタ
12 レンズ
13 イメージセンサ
2 画像処理部
20 ASIC
21 画像取得部
22 微分処理部
23 2値化処理部
30 CPU
31 白線候補点抽出部
32 白線認識部
40 コネクタ
A 路面
a 白線
a1 左側白線
a2 右側白線
b 走査線
1 Camera unit (image input unit)
DESCRIPTION OF
21 Image acquisition unit 22
31 White line candidate
Claims (9)
少なくとも2つの2値化処理用の閾値を設定しておき、それらの閾値を切り替えて使用することを特徴とする白線認識方法。 A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
A white line recognition method, characterized in that at least two threshold values for binarization processing are set, and the threshold values are switched and used.
時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合、その認識された白線位置が走査範囲の中央となるように走査範囲を設定することを特徴とする、白線認識方法。 A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
Of the plurality of road images acquired in time series, when the white line position can be recognized from the previously acquired road image, the scanning range is set so that the recognized white line position is at the center of the scanning range. A white line recognition method.
時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることを特徴とする、白線認識方法。 A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
Among a plurality of road images acquired in time series, the scanning range is shortened when the white line position can be recognized from the previously acquired road image, and the scanning range is lengthened when the white line position cannot be recognized. A white line recognition method.
前記白線候補エッジから白線幅を算出し、算出した白線幅が規定範囲の場合に白線エッジと判断することを特徴とする、白線認識方法。 A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
A white line recognition method, wherein a white line width is calculated from the white line candidate edge, and a white line edge is determined when the calculated white line width is within a specified range.
前記車両を基準にして左側白線及び右側白線の各白線候補エッジからレーン幅を算出し、算出したレーン幅が規定範囲の場合に白線エッジと判断することを特徴とする、白線認識方法。 This is a white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface from the vehicle side, extracting a white line edge by candidate edge determination, and recognizing a white line position. And
A white line recognition method, wherein a lane width is calculated from each white line candidate edge of a left white line and a right white line with reference to the vehicle, and a white line edge is determined when the calculated lane width is within a specified range.
1本の走査線に対して1つの白線エッジを抽出する際に、白線エッジが抽出できなかった走査範囲については過去の規定時間前までにその走査範囲で取得した白線エッジで補完することを特徴とする、白線認識方法。 A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
When one white line edge is extracted for one scanning line, the scanning range in which the white line edge cannot be extracted is complemented with the white line edge acquired in the scanning range before the past specified time. A white line recognition method.
抽出した白線エッジに対してHough変換により近似直線を取得する際、道路画像の下部
で抽出した信頼性の高い白線エッジにはHough変換の投票値に大きな重みを持たせること
を特徴とする、白線認識方法。 A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
A white line characterized by giving a high weight to the vote value of the Hough transform to the reliable white line edge extracted at the bottom of the road image when obtaining an approximate straight line by Hough transform for the extracted white line edge Recognition method.
2つの2値化処理用の閾値を設定可能な閾値設定手段と、
前記白線の候補エッジの抽出時に、前記閾値を前記道路画像の撮影間隔に合わせて交互に切り替えて使用する閾値切換手段と、を有することを特徴とする白線認識装置。
A white line recognition device that extracts a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracts a white line edge by candidate edge determination, and recognizes a white line position,
Threshold setting means capable of setting two threshold values for binarization processing;
A white line recognition apparatus comprising: threshold value switching means that alternately uses the threshold value in accordance with a shooting interval of the road image when extracting the candidate edge of the white line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005378336A JP2007179386A (en) | 2005-12-28 | 2005-12-28 | Method and apparatus for recognizing white line |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005378336A JP2007179386A (en) | 2005-12-28 | 2005-12-28 | Method and apparatus for recognizing white line |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007179386A true JP2007179386A (en) | 2007-07-12 |
Family
ID=38304493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005378336A Withdrawn JP2007179386A (en) | 2005-12-28 | 2005-12-28 | Method and apparatus for recognizing white line |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007179386A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009272728A (en) * | 2008-04-30 | 2009-11-19 | Ricoh Co Ltd | Image correction device, image correction method, image correction program and recording medium |
JP2009288867A (en) * | 2008-05-27 | 2009-12-10 | Toyota Motor Corp | Lane marking detection device and lane marking detection method |
JP2010093623A (en) * | 2008-10-09 | 2010-04-22 | Denso Corp | Image processor |
JP2011170750A (en) * | 2010-02-22 | 2011-09-01 | Denso Corp | White line recognition device |
JP2013003634A (en) * | 2011-06-13 | 2013-01-07 | Toyota Motor Corp | Partition line recognition device, partition line recognition method, program and medium |
JP2013097714A (en) * | 2011-11-04 | 2013-05-20 | Toyota Motor Corp | Lane recognition device |
JP2013191040A (en) * | 2012-03-14 | 2013-09-26 | Alpine Electronics Inc | Lane mark detector and reliability calculation method of lane mark |
JP2014013451A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | In-vehicle lane recognition device |
JP2016126605A (en) * | 2015-01-06 | 2016-07-11 | 株式会社日立製作所 | Driving environment recognition system |
US9990549B2 (en) | 2015-01-15 | 2018-06-05 | Toyota Jidosha Kabushiki Kaisha | Complex marking determining device and complex marking determining method |
CN109212033A (en) * | 2018-08-20 | 2019-01-15 | 汕头大学 | A kind of ultrasound image detection method of high-speed track inside hurt |
WO2019172059A1 (en) * | 2018-03-09 | 2019-09-12 | クラリオン株式会社 | Lane marker recognition device |
EP3862920A1 (en) | 2020-02-06 | 2021-08-11 | Faurecia Clarion Electronics Co., Ltd. | Image processor and image processing method |
-
2005
- 2005-12-28 JP JP2005378336A patent/JP2007179386A/en not_active Withdrawn
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009272728A (en) * | 2008-04-30 | 2009-11-19 | Ricoh Co Ltd | Image correction device, image correction method, image correction program and recording medium |
JP2009288867A (en) * | 2008-05-27 | 2009-12-10 | Toyota Motor Corp | Lane marking detection device and lane marking detection method |
US8090152B2 (en) | 2008-05-27 | 2012-01-03 | Toyota Jidosha Kabushiki Kaisha | Road lane boundary detection system and road lane boundary detecting method |
JP2010093623A (en) * | 2008-10-09 | 2010-04-22 | Denso Corp | Image processor |
US8310546B2 (en) | 2008-10-09 | 2012-11-13 | Denso Corporation | Image processing apparatus adapted to recognize object in acquired image |
US8643723B2 (en) | 2010-02-22 | 2014-02-04 | Denso Corporation | Lane-marker recognition system with improved recognition-performance |
JP2011170750A (en) * | 2010-02-22 | 2011-09-01 | Denso Corp | White line recognition device |
JP2013003634A (en) * | 2011-06-13 | 2013-01-07 | Toyota Motor Corp | Partition line recognition device, partition line recognition method, program and medium |
JP2013097714A (en) * | 2011-11-04 | 2013-05-20 | Toyota Motor Corp | Lane recognition device |
JP2013191040A (en) * | 2012-03-14 | 2013-09-26 | Alpine Electronics Inc | Lane mark detector and reliability calculation method of lane mark |
JP2014013451A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | In-vehicle lane recognition device |
JP2016126605A (en) * | 2015-01-06 | 2016-07-11 | 株式会社日立製作所 | Driving environment recognition system |
US9990549B2 (en) | 2015-01-15 | 2018-06-05 | Toyota Jidosha Kabushiki Kaisha | Complex marking determining device and complex marking determining method |
WO2019172059A1 (en) * | 2018-03-09 | 2019-09-12 | クラリオン株式会社 | Lane marker recognition device |
CN109212033A (en) * | 2018-08-20 | 2019-01-15 | 汕头大学 | A kind of ultrasound image detection method of high-speed track inside hurt |
CN109212033B (en) * | 2018-08-20 | 2021-02-02 | 汕头大学 | An ultrasonic image detection method for internal damage of high-speed rails |
EP3862920A1 (en) | 2020-02-06 | 2021-08-11 | Faurecia Clarion Electronics Co., Ltd. | Image processor and image processing method |
US11610317B2 (en) | 2020-02-06 | 2023-03-21 | Faurecia Clarion Electronics Co., Ltd. | Image processor and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10891738B2 (en) | Boundary line recognition apparatus and branch road determination apparatus | |
JP4437714B2 (en) | Lane recognition image processing device | |
US7542835B2 (en) | Vehicle image processing device | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
US20090010482A1 (en) | Diagrammatizing Apparatus | |
JP2002197470A (en) | Lane detection device | |
JP5855756B2 (en) | Lane mark recognition device | |
US20090201370A1 (en) | Traveling Lane Detector | |
JP7484783B2 (en) | Lane boundary detection device, lane boundary detection method, and computer program for lane boundary detection | |
JP2007179386A (en) | Method and apparatus for recognizing white line | |
CN111046741A (en) | Method and device for identifying lane line | |
JP4864043B2 (en) | Image processing apparatus, method, and program | |
JP3656056B2 (en) | Interrupting vehicle detection device and method | |
JP2010061375A (en) | Apparatus and program for recognizing object | |
JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
JP4631197B2 (en) | Branch determination device, program, and recording medium | |
CN111914610A (en) | Three-dimensional object detection device and three-dimensional object detection method | |
JPH0935198A (en) | Traveling road detector for vehicle | |
JPH07244717A (en) | Vehicle environment recognition device | |
JP3319401B2 (en) | Roadway recognition device | |
JPH10320559A (en) | Traveling path detector for vehicle | |
JP3915621B2 (en) | Lane mark detector | |
JP4842301B2 (en) | Pedestrian detection device and program | |
JP2014067320A (en) | Stereo camera device | |
JPH0520593A (en) | Driving lane recognition device and preceding vehicle recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090303 |