[go: up one dir, main page]

JP2007179386A - Method and apparatus for recognizing white line - Google Patents

Method and apparatus for recognizing white line Download PDF

Info

Publication number
JP2007179386A
JP2007179386A JP2005378336A JP2005378336A JP2007179386A JP 2007179386 A JP2007179386 A JP 2007179386A JP 2005378336 A JP2005378336 A JP 2005378336A JP 2005378336 A JP2005378336 A JP 2005378336A JP 2007179386 A JP2007179386 A JP 2007179386A
Authority
JP
Japan
Prior art keywords
white line
edge
extracting
road
recognition method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005378336A
Other languages
Japanese (ja)
Inventor
Takechika Kiritani
武親 桐谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2005378336A priority Critical patent/JP2007179386A/en
Publication of JP2007179386A publication Critical patent/JP2007179386A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To significantly enhance the accuracy of recognizing white lines by making it possible to normally recognize white lines even in a variety of situations where the failure to recognize them or recognition errors could occur. <P>SOLUTION: A method for recognizing a white line includes differentiating and binarizing a road image obtained by imaging a road surface A to extract candidate edges of the white line (a), determining the candidate edges to extract edges of the white line, and recognizing the position of the white line. At least two threshold values for the binarization process, for cases when the difference in density between the white line (a) and a road other than the white line (a) is great and when the difference is small, are preset. The threshold values are used alternatively when the candidate edges of the white line are extracted. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車載カメラにより路面を撮影して得られた道路画像から白線位置を認識する方法及び装置に関するものである。   The present invention relates to a method and apparatus for recognizing a white line position from a road image obtained by photographing a road surface with an in-vehicle camera.

近年、道路の白線位置を認識し、車両の操舵を制御して車線を維持しながら走行するシステムが提案されている。この技術では、車両に搭載された白線認識装置がCCDカメラ等の撮像手段により車両前方の道路画像を取り込み、白線位置で明度が高いことを利用して白線を検出する。具体的には、例えば画像の微分処理および2値化処理によるエッジ(エッジ点列)抽出を行い、その抽出エッジについて白線エッジか否かの判定を行う。さらに、抽出エッジについて、直線検出法として知られるハフ(Hough)変換を行うことで、
白線位置を決定する。
In recent years, a system for recognizing the position of a white line on a road and controlling the vehicle steering to maintain the lane has been proposed. In this technology, a white line recognition device mounted on a vehicle captures a road image ahead of the vehicle by an imaging means such as a CCD camera, and detects a white line by utilizing the high brightness at the white line position. Specifically, for example, an edge (edge point sequence) is extracted by image differentiation processing and binarization processing, and it is determined whether or not the extracted edge is a white line edge. Furthermore, by performing a Hough transformation known as a straight line detection method for the extracted edge,
Determine the position of the white line.

このようなシステムでは、撮影された道路画像から白線をいかに正確に検出するかが重要な課題となっている。しかし、以下のような状況においては白線位置が認識できないという問題があった。
(1)白線が影内にある場合、白線と道路の輝度差が小さいため、白線エッジを抽出できず、未認識となる。
(2)白線の外側に路肩、溝等が存在する場合、それらのエッジを白線エッジと判断し、誤認識となる。
(3)白線が破線の場合、画像の取得タイミングによっては画像内に白線が存在しないため、未認識となる。
(4)前方に、車両、建物等が存在する場合、それらのエッジを白線エッジと判断し、誤認識となる。
In such a system, how to accurately detect a white line from a captured road image is an important issue. However, there is a problem that the position of the white line cannot be recognized in the following situation.
(1) When the white line is in the shadow, the brightness difference between the white line and the road is small, so the white line edge cannot be extracted and is unrecognized.
(2) If there are road shoulders, grooves, etc. outside the white line, those edges are judged as white line edges, which results in erroneous recognition.
(3) When the white line is a broken line, the white line does not exist in the image depending on the image acquisition timing, and thus it is not recognized.
(4) When a vehicle, a building, or the like is present in the front, those edges are determined as white line edges, resulting in erroneous recognition.

特許文献1には、走行レーン内の白線の認識精度の向上を図った白線認識技術が記載されている。この技術は、撮影された道路画像を近距離領域と遠距離領域の2つの領域に分割し、各領域で白線の検出を以下のように行っている。   Patent Document 1 describes a white line recognition technique that improves white line recognition accuracy in a running lane. In this technique, a captured road image is divided into two areas, a short distance area and a long distance area, and a white line is detected in each area as follows.

まず、近距離領域において、画像中のエッジから白線を認識して確定する。次に、その近距離領域において確定された白線に基づいて、遠距離領域上で、その延長線上の領域を含むエッジ追跡領域を設定する。そして、その設定されたエッジ追跡領域内でエッジを追跡し、エッジが不連続の場合は、これを飛び越えて先のエッジを追跡して白線を認識確定する。この白線認識技術によれば、撮影画像の遠距離領域における白線の認識で問題となる、前方車両、街路樹、建物などの影の影響による白線の誤認識を少なくすることができる。   First, in a short distance region, a white line is recognized from the edge in the image and determined. Next, based on the white line determined in the short distance area, an edge tracking area including the area on the extension line is set on the long distance area. Then, the edge is tracked within the set edge tracking region, and when the edge is discontinuous, the white line is recognized and confirmed by jumping over the edge and tracking the previous edge. According to this white line recognition technology, it is possible to reduce erroneous recognition of white lines due to the influence of shadows of vehicles ahead, roadside trees, buildings, and the like, which is a problem in white line recognition in a long-distance region of a captured image.

特許文献2には、白線自体のかすれや白線画像が不鮮明なことによる白線の誤認識を防止し、白線検出精度の向上を図れるようにした技術が記載されている。この技術では、車両前方を撮影して得られる道路の白線画像から白線の候補点を抽出し、その白線候補点列と近似する直線を求めてこれを白線として認識する際に、白線画像にかすれがあるか否かを判定し、かすれがある場合は、現在の白線画像から抽出された白線候補点列に一定時間前の白線画像から抽出された白線候補点列を重ね合せ、その重ね合せた白線候補点列と近似する直線を求めてこれを白線として認識するようにしたものである。
特開平9−73545号公報 特開2001−236506号公報
Japanese Patent Application Laid-Open No. 2004-228561 describes a technique that can prevent white line misrecognition due to blurring of the white line itself or the white line image being unclear and improve white line detection accuracy. In this technique, white line candidate points are extracted from a white line image of a road obtained by photographing the front of the vehicle, a straight line that approximates the white line candidate point sequence is obtained and recognized as a white line, and the white line image is blurred. If there is blurring, the white line candidate point sequence extracted from the current white line image is overlaid with the white line candidate point sequence extracted from the white line image of a certain time ago, and the overlapping is performed. A straight line approximating the white line candidate point sequence is obtained and recognized as a white line.
JP-A-9-73545 JP 2001-236506 A

特許文献1の技術では、撮影画像の遠距離領域における前方車両、街路樹、建物などの影の影響による白線の誤認識を少なくすることができるものの、近距離領域における画像中のエッジから白線を認識する際に、白線が影内にある場合、白線の外側に路肩、溝等が存在する場合、白線が破線の場合、等においては、依然として誤認識や未認識になる問題が残されている。   In the technique of Patent Document 1, although it is possible to reduce the misrecognition of the white line due to the influence of the shadow of the forward vehicle, the roadside tree, the building, etc. in the long distance area of the photographed image, the white line is removed from the edge in the image in the short distance area. When recognizing, if the white line is in the shadow, if there is a road shoulder, a groove, etc. outside the white line, if the white line is a broken line, etc., there still remains a problem of misrecognition or unrecognition. .

特許文献2の技術では、白線自体のかすれや白線画像が不鮮明なことによる誤認識を防止し、白線検出精度の向上を図ることができるものの、上記(1)〜(4)で例示したように、白線が影内にある場合、白線の外側に路肩、溝等が存在する場合、白線が破線の場合、前方に車両、建物等が存在する場合、等においては、依然として誤認識や未認識になる問題が残されている。   Although the technique of Patent Document 2 can prevent misrecognition due to blurring of the white line itself or the white line image being unclear and improve white line detection accuracy, as exemplified in the above (1) to (4). If the white line is in the shadow, the shoulders, grooves, etc. exist outside the white line, the white line is a broken line, if there are vehicles, buildings, etc. in front, etc. The problem remains.

よって、本発明は、例えば上述したような未認識、誤認識発生状況においても、白線を正常認識することができ、これにより白線認識精度を格段に向上させることができる技術を提供することを課題とする。   Therefore, it is an object of the present invention to provide a technique capable of normally recognizing a white line even in an unrecognized or misrecognized situation as described above, thereby significantly improving white line recognition accuracy. And

本発明は、上記課題を解決するため、以下の手段を採用した。
本発明は、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、少なくとも2つの2値化処理用の閾値を設定しておき、それらの閾値を切り替えて使用することを特徴としている。
The present invention employs the following means in order to solve the above problems.
The present invention is a white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by determining the candidate edge, and recognizing a white line position. Thus, at least two threshold values for binarization processing are set, and these threshold values are switched and used.

本発明の白線認識方法によれば、少なくとも2つの2値化処理用の閾値を設定しておき、それらの閾値を切り替えて使用する方法を採用しているで、閾値を1つに固定して使用する場合に比べて、例えば白線と道路とのコントラストが大きい場合や、小さい場合に生じやすい未認識、誤認識発生状況においても、白線を正常認識することができる。例えば白線が影内にあってコントラストが小さい場合でも閾値小であれば白線を正常認識することができる。これにより白線認識精度を格段に向上させることができる。   According to the white line recognition method of the present invention, at least two threshold values for binarization processing are set, and a method of switching and using these threshold values is employed. Compared to the case of using, for example, when the contrast between the white line and the road is large or small, the white line can be normally recognized even in the unrecognized and erroneous recognition situations that are likely to occur. For example, even when the white line is in the shadow and the contrast is small, the white line can be recognized normally if the threshold is small. Thereby, the white line recognition accuracy can be significantly improved.

本発明において、前記2つの閾値は、道路画像を得る撮影間隔に合わせて交互に切り替えて使用することが望ましい。このようにすれば、例えば白線と道路とのコントラストが大きい場合や小さい場合に生じやすい未認識、誤認識発生状況においても、白線を正常認識する精度を更に高めることができる。   In the present invention, it is desirable to use the two threshold values by alternately switching in accordance with a photographing interval for obtaining a road image. In this way, it is possible to further improve the accuracy of normally recognizing a white line even in a situation where unrecognized and erroneous recognition is likely to occur when the contrast between the white line and the road is large or small.

本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合、その認識された白線位置が走査範囲の中央となるように走査範囲を設定することが望ましい。このようにすれば、演算処理が早くなるように走査範囲を短くでき、しかも、白線周辺の路肩、溝等による誤認識を防ぐことができる。   In the present invention, in a method of extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing the position of the white line, Of the plurality of road images acquired in series, when the white line position can be recognized from the previously acquired road image, it is desirable to set the scanning range so that the recognized white line position is at the center of the scanning range. In this way, the scanning range can be shortened so that the arithmetic processing is accelerated, and erroneous recognition due to a shoulder, a groove, etc. around the white line can be prevented.

本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることが望ましい。このようにすれば、走査エリアを必要な範囲に収めて、白線周辺の路肩、溝等による白線の誤認識や未認識を防ぐことができる。   In the present invention, in a method of extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing the position of the white line, Of the plurality of road images acquired in series, it is desirable to shorten the scanning range when the white line position can be recognized from the previously acquired road image, and to increase the scanning range when the white line position cannot be recognized. In this way, it is possible to prevent the white line from being erroneously recognized or unrecognized by the road shoulder, groove or the like around the white line by keeping the scanning area within a necessary range.

本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、前記白線候補エッジから白線幅を算出し、算出した白線幅が規定範囲の場合に白線エッジと判断するステップを採用することが望ましい。このステップを採用すれば、白線幅を検出しない認識方法に比べて白線認識精度をさらに向上させることができる。   In the present invention, in the method of extracting the white line candidate edge by the differential processing and binarization processing of the road image obtained by photographing the road surface, extracting the white line edge by determining the candidate edge, and recognizing the position of the white line, It is desirable to employ a step of calculating the white line width from the white line candidate edge and determining the white line edge when the calculated white line width is within a specified range. If this step is adopted, the white line recognition accuracy can be further improved as compared with the recognition method in which the white line width is not detected.

本発明では、車両側から路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、前記車両を基準にして左側白線及び右側白線の各白線候補エッジからレーン幅を算出し、算出したレーン幅が規定範囲の場合に白線エッジと判断するステップを採用することが望ましい。このステップを採用すれば、レーン幅を検出しない方法に比べて白線認識精度をさらに向上させることができる。   In the present invention, a white line candidate edge is extracted by differential processing and binarization processing of a road image obtained by photographing a road surface from the vehicle side, a white line edge is extracted by determination of the candidate edge, and a white line position is recognized. Preferably, a step of calculating a lane width from each white line candidate edge of the left white line and the right white line on the basis of the vehicle and determining a white line edge when the calculated lane width is within a specified range is adopted. If this step is adopted, the white line recognition accuracy can be further improved as compared with the method in which the lane width is not detected.

本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、1本の走査線に対して1つの白線エッジを抽出する際に、白線エッジが抽出できなかった走査範囲については過去の規定時間前までにその走査範囲で取得した白線エッジで補完することが望ましい。このステップを採用すれば、例えば白線が破線の場合でも、過去エッジで補うことで、白線エッジの取得を可能にすることができる。   In the present invention, in a method of extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by determining the candidate edge, and recognizing a white line position, 1 When one white line edge is extracted from one scanning line, it is desirable to supplement the scanning range in which the white line edge cannot be extracted with the white line edge acquired in the scanning range before the past specified time. If this step is adopted, for example, even when the white line is a broken line, it is possible to obtain the white line edge by compensating with the past edge.

本発明では、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する方法において、抽出した白線エッジに対してHough変換により近似直線を取得する際、道
路画像の下部で抽出した信頼性の高い白線エッジにはHough変換の投票値に大きな重みを
持たせることが望ましい。このようにすれば、道路画像の上側走査範囲で僅かにノイズを抽出しても、下側走査範囲で正しい白線エッジが抽出できていれば、白線の認識を成功させることができる。また、下側走査範囲で僅かにノイズを抽出しても、上側走査範囲で正しい白線エッジが取得できていれば、白線の認識を成功させることができる。これにより、白線認識精度をさらに向上させることができる。
In the present invention, a white line candidate edge is extracted by differential processing and binarization processing of a road image obtained by photographing a road surface, and a white line edge is extracted by determination of the candidate edge, thereby extracting the white line position. When an approximate straight line is acquired by Hough transformation for the white line edge, it is desirable that a highly reliable white line edge extracted at the lower part of the road image is given a large weight to the vote value of the Hough transformation. In this way, even if noise is slightly extracted in the upper scanning range of the road image, if the correct white line edge is extracted in the lower scanning range, the white line can be recognized successfully. Even if noise is slightly extracted in the lower scanning range, if the correct white line edge is acquired in the upper scanning range, the white line can be recognized successfully. Thereby, the white line recognition accuracy can be further improved.

本発明は、路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識装置であって、2つの2値化処理用の閾値を設定可能な閾値設定手段と、前記閾値を前記道路画像の撮影間隔に合わせて交互に切り替えて使用する閾値切換手段と、を有することを特徴としている。   The present invention is a white line recognition device that extracts white line candidate edges by differential processing and binarization processing of a road image obtained by photographing a road surface, extracts white line edges by determining candidate edges, and recognizes the position of the white line. A threshold value setting unit capable of setting two threshold values for binarization processing, and a threshold value switching unit which switches the threshold value alternately according to the shooting interval of the road image. Yes.

本発明によれば、種々の未認識、誤認識発生状況においても、白線を正常認識することができ、これにより白線認識精度を格段に向上させることができる   According to the present invention, a white line can be normally recognized even in various unrecognized and misrecognized situations, whereby the white line recognition accuracy can be significantly improved.

以下、図面を参照し、本発明に係る白線認識方法及び装置の実施例について説明する。尚、本実施例の白線認識技術は、乗用車に適用する例について説明するが、他の各種車両にも適用することができる。
(ハードウエア構成)
図1及び図2に、本実施例に係る白線認識装置のブロック図を示す。この白線認識装置は、画像入力部としてのカメラ部1と、カメラ部1から入力される画像の画像処理部2とを備えている。カメラ部1は、光学フィルタ11、レンズ12、イメージセンサ13等を
有するCCDカメラより構成され、そのCCDカメラで撮影された車両前方の道路画像が画像処理部2に入力される。
Embodiments of a white line recognition method and apparatus according to the present invention will be described below with reference to the drawings. In addition, although the white line recognition technique of a present Example demonstrates the example applied to a passenger car, it can be applied also to other various vehicles.
(Hardware configuration)
1 and 2 are block diagrams of the white line recognition apparatus according to the present embodiment. The white line recognition apparatus includes a camera unit 1 as an image input unit and an image processing unit 2 for an image input from the camera unit 1. The camera unit 1 is composed of a CCD camera having an optical filter 11, a lens 12, an image sensor 13, and the like, and a road image in front of the vehicle photographed by the CCD camera is input to the image processing unit 2.

画像処理部2は、画像処理用集積回路としてのASIC(Application Specific Integrated Circuit)20、このASIC(エーシック)20を含む各装置の制御やデータの
演算、加工を行うマイクロプロセッサからなるCPU(Central Processing Unit)3
0、各制御システムや各センサ50等の外部機器インターフェース(I/F)としてのコネクタ40を備えている。
The image processing unit 2 is an ASIC (Application Specific Integrated Circuit) 20 as an integrated circuit for image processing, and a CPU (Central Processing) including a microprocessor that controls each device including the ASIC 20 and calculates and processes data. Unit) 3
0, a connector 40 as an external device interface (I / F) such as each control system and each sensor 50 is provided.

ASIC20は、カメラ部1から入力される道路画像を取得する画像取得部21、その取得した道路画像から白線候補点を抽出する際に必要な前処理を行う微分処理部22、及び2値化処理部23を有する。さらに、ASIC20は、道路画像の微分処理および2値化処理による白線候補エッジ抽出の際、白線と道路の輝度差(濃度差)が大きい場合、小さい場合用にそれぞれ設定される2つの固定閾値(高い閾値と低い閾値)を交互にあるいは選択的に切り替えて使用するための閾値選択部(図2参照)を有している。   The ASIC 20 includes an image acquisition unit 21 that acquires a road image input from the camera unit 1, a differentiation processing unit 22 that performs preprocessing necessary when extracting white line candidate points from the acquired road image, and a binarization process Part 23. Furthermore, the ASIC 20 extracts two fixed threshold values (set for a case where the luminance difference (density difference) between the white line and the road is large and small when the white line candidate edge is extracted by the differential processing and binarization processing of the road image. A threshold selection unit (see FIG. 2) for switching between a high threshold and a low threshold) alternately or selectively is used.

CPU30は、予め、図示しないメモリに記憶された画像処理プログラムを読み出して実行することにより、ASIC20から出力される2値化処理された道路画像から白線候補点を抽出する機能(白線候補点抽出部31)、及び抽出された白線候補点列に近似する直線をHough変換により求めてこれを白線として認識する機能(白線認識部32)を有す
る。
The CPU 30 reads out and executes an image processing program stored in advance in a memory (not shown), thereby extracting white line candidate points from the binarized road image output from the ASIC 20 (white line candidate point extracting unit). 31) and a function (white line recognition unit 32) for obtaining a straight line approximating the extracted white line candidate point sequence by Hough transform and recognizing it as a white line.

画像処理部2の有する各部の機能をより具体的に例示したのが図2の機能ブロック図である。この図2に示すように、画像入力部1から白線候補点抽出部31に入力される道路画像は、まず前処理部(ASIC)20によって処理される。前処理部20は、閾値選択機能、微分処理機能、2値化処理機能を有している。   FIG. 2 is a functional block diagram illustrating the functions of the respective units included in the image processing unit 2 more specifically. As shown in FIG. 2, the road image input from the image input unit 1 to the white line candidate point extraction unit 31 is first processed by the preprocessing unit (ASIC) 20. The preprocessing unit 20 has a threshold selection function, a differentiation processing function, and a binarization processing function.

白線候補点抽出部31は、2値化処理されて入力された道路画像から白線候補点を抽出するための走査線の走査位置や走査幅等を決定する走査エリア決定機能、白線エッジ候補取得機能、白線エッジ判定機能、過去の白線エッジによる補完機能等を有している。白線認識部32は、周知のHough変換による直線近似処理機能を有するが、後述のように、画
像下部で取得した信頼性の高い白線エッジにはHough変換の投票値に大きな重み付けを行
うことができる機能を含む。
A white line candidate point extraction unit 31 has a scanning area determination function and a white line edge candidate acquisition function for determining a scanning position and a scanning width of a scanning line for extracting a white line candidate point from a binarized input road image. , White line edge determination function, past white line edge complementation function, and the like. The white line recognition unit 32 has a well-known straight line approximation processing function based on the Hough transform. However, as will be described later, a highly reliable white line edge acquired at the lower part of the image can be given a large weight to the vote value of the Hough transform. Includes functionality.

次に、この白線認識技術について、そのシミュレーション結果や実車での走行実験例と共により具体的に説明する。
(課題対策と新規アルゴリズム)
従来のアルゴリズムにおいて課題であった未認識・誤認識を改善するために、以下に順次説明する新規アルゴリズムを開発し、PC上でのシミュレーション、実車での評価を行い効果の確認を行った。なお、アルゴリズムの詳細については後述する。
Next, the white line recognition technology will be described more specifically together with the simulation results and driving experiment examples with actual vehicles.
(Problem countermeasures and new algorithms)
In order to improve the unrecognized and misrecognized problems that have been a problem in the conventional algorithm, a new algorithm, which will be described in the following, was developed. Details of the algorithm will be described later.

(Hough変換におけるθ範囲の縮小)
従来のアルゴリズムでは、Hough変換で扱うθ値の範囲をθ=0°〜180°としてい
た。それにより、画像中に現れるすべての傾きの直線を検出するため、例えばθ=0°(直線)となる建物や車両等の立体物までも認識していた。ここで、θ=0°(直線)となる建物や車両等の立体物とは、例えば上下に延びる建物の左右の直線部分や、トラックの荷台を後方から見て、左端部分や右端部分のように画像上でも上下方向に延びる直線部分を有するものを意味する。
(Reduction of θ range in Hough transform)
In the conventional algorithm, the range of the θ value handled in the Hough transform is set to θ = 0 ° to 180 °. Accordingly, in order to detect straight lines having all inclinations appearing in the image, for example, a solid object such as a building or a vehicle in which θ = 0 ° (straight line) is recognized. Here, a solid object such as a building or a vehicle having θ = 0 ° (straight line) is, for example, a left or right straight part of a building that extends vertically, or a left end part or a right end part of a truck bed when viewed from the rear. It also has a linear portion extending in the vertical direction on the image.

<新規アルゴリズム1>
新規アルゴリズム1では、Hough変換で扱うθ値の範囲を設定し、θ=30°〜70°
とした。その根拠について以下に示す。
(1)白線認識の要件定義
白線認識の要件については以下のように定義した。
1)車両が自レーンを走行している状況において、1秒後に白線を逸脱する状況を検知できること。
2)対応する車速は50km〜120km。
3)車両が自レーンの白線を逸脱した状態とは、車両の一部が自レーンの白線からはみ出した状態とする。
<New algorithm 1>
In the new algorithm 1, the range of the θ value handled by the Hough transform is set, and θ = 30 ° to 70 °
It was. The basis for this is shown below.
(1) Definition of requirements for white line recognition The requirements for white line recognition are defined as follows.
1) A situation where the vehicle deviates from the white line after 1 second in a situation where the vehicle is traveling in its own lane.
2) The corresponding vehicle speed is 50km to 120km.
3) The state where the vehicle deviates from the white line of the own lane is a state where a part of the vehicle protrudes from the white line of the own lane.

(2)環境定義
高速道路における白線認識を想定しているので、車線の幅は3.5mとした。また、車両のサイズは実験車両と同一とし、全長4900mm、全幅1795mmの乗用車とした。
(2) Environmental definition Since white line recognition on the expressway is assumed, the width of the lane is set to 3.5 m. The size of the vehicle was the same as that of the experimental vehicle, and the passenger car had a total length of 4900 mm and a total width of 1795 mm.

(3)θの下限値の決定。
図3(a)に示すように、1秒後に車両3が自レーンの白線(左側白線)a1を逸脱する状況を考えた場合、図3(b)に示すθの値が最小となるのは、左側白線a1に隣接した状態(基準位置)で、かつ車両がわずかでも左側に傾いている場合である。即ち、車両3の走行方向が左側白線a1と並行ではなく、わずかでも左側白線a1の方向に向いている場合である。
(3) Determination of the lower limit value of θ.
As shown in FIG. 3A, when considering a situation in which the vehicle 3 departs from the white line (left white line) a1 of its own lane after 1 second, the value of θ shown in FIG. This is a case where the vehicle is tilted to the left side even if it is in a state adjacent to the left white line a1 (reference position). That is, this is a case where the traveling direction of the vehicle 3 is not parallel to the left white line a1 but is slightly in the direction of the left white line a1.

なお、図3(b)は、カメラ画像による左側白線a1とθとの関係を示している。ここで、左側白線a1は、カメラ画像の場合、遠近感のある実像に基づいて表示されるため、車両から離れた位置の左側白線a1ほど次第に画像の中央側へ寄る傾斜表示となる。従って、θは、左側白線a1に対する垂線4と、画像の上限線(白線と平行でない車両の走行方向に対応する線)5とで形成される角度に相当することになる。   FIG. 3B shows the relationship between the left white line a1 and θ by the camera image. Here, since the left white line a1 is displayed based on a perspective real image in the case of a camera image, the left white line a1 at a position farther from the vehicle is displayed with an inclination closer to the center of the image. Therefore, θ corresponds to an angle formed by the perpendicular line 4 with respect to the left white line a1 and the upper limit line (a line corresponding to the traveling direction of the vehicle not parallel to the white line) 5 of the image.

図3(b)におけるθの下限値の取得に必要な値を算出した(図4参照)。その際、計算を容易にするために、図4に示すように車両の向きは左側白線a1と平行とした。また、θの下限値算出条件として、車両3が毎時50km/hで、1秒間に進む距離L0=13888mm、L0の1/2の距離L1=6944.0mm、車両の中央(車載カメラ搭載位置)から左側白線a1までの距離L2=937.21mmとした。   A value necessary for obtaining the lower limit value of θ in FIG. 3B was calculated (see FIG. 4). At that time, in order to facilitate the calculation, the direction of the vehicle was set to be parallel to the left white line a1 as shown in FIG. Further, as a condition for calculating the lower limit value of θ, the distance L0 = 13888 mm that the vehicle 3 travels at 50 km / h per second, the distance L1 = 6944.0 mm that is 1/2 of L0, the center of the vehicle (the position where the vehicle is mounted) The distance L2 from the left side white line a1 was set to 937.21 mm.

図4における車載カメラの画像座標系を図5に示す。点Aの座標(−66.778、72.974)及び点Bの座標(−133.55、32.377)から、図5におけるθの下限値は32.367°であったが、カメラの取付誤差を考慮して30°とした。   FIG. 5 shows an image coordinate system of the in-vehicle camera in FIG. From the coordinates of the point A (−66.778, 72.974) and the coordinates of the point B (−133.55, 32.377), the lower limit value of θ in FIG. 5 was 32.367 °. Considering the mounting error, the angle is set to 30 °.

(4)θの上限値の決定
1秒後に車両3が自レーン左側白線a1を逸脱する状況を考えた場合、θの値が最大となるのは、図6(a)、(b)のように車両3が自レーンRの右側白線a2に隣接した状態(基準位置)で、かつ1秒後に左側白線a1を逸脱する場合である。図6(b)においてθの上限値の取得に必要な値を算出した(図7参照)。図7では計算を容易にするため、車両3ではなくカメラの位置を白線に隣接するように定義した。
(4) Determination of the upper limit value of θ When considering a situation where the vehicle 3 departs from the white line a1 on the left side of its own lane after 1 second, the value of θ is maximized as shown in FIGS. 6 (a) and 6 (b). This is a case where the vehicle 3 is adjacent to the right white line a2 of its own lane R (reference position) and departs from the left white line a1 after 1 second. In FIG. 6B, a value necessary for obtaining the upper limit value of θ was calculated (see FIG. 7). In FIG. 7, the position of the camera, not the vehicle 3, is defined so as to be adjacent to the white line for easy calculation.

従って、図7では、車両3が毎時50km/hで、1秒間に進む距離L0=13888mm、車両の左側から左側白線a1との交点Aまでの距離L1=10442mm、車両の右側から左側白線あ1との交点Bまでの距離L2=17567mm、車両の中央(車載カメラ搭載位置)から左側白線a1までの距離L2=897.5mmとした。   Accordingly, in FIG. 7, the vehicle 3 travels at 50 km / h at a distance of 1 km L0 = 13888 mm, the distance from the left side of the vehicle to the intersection A with the white line a1 on the left side L1 = 10442 mm, and from the right side of the vehicle to the left side line 1 The distance L2 to the intersection B is 17567 mm, and the distance L2 from the center of the vehicle (on-vehicle camera mounting position) to the left white line a1 is 897.5 mm.

図7のθの上限値における車載カメラの画像座標系を図8に示す。点Aの座標(88.816、37.788)及び点Bの座標(52.793、95.521)から、図8においてθの下限値は67.819°であったが、カメラの取付誤差を考慮して70°とした。   FIG. 8 shows an image coordinate system of the in-vehicle camera at the upper limit value of θ in FIG. From the coordinates of point A (88.816, 37.788) and the coordinates of point B (52.793, 95.521), the lower limit value of θ in FIG. 8 was 67.819 °, but the camera mounting error Was set to 70 °.

(上側走査線幅縮小)
従来のアルゴリズムでは、図9に示すように、白線a(以下、左側白線、右側白線及びセンターライン等を含めて白線aと総称する)を走査する走査線bの幅(走査範囲)はすべて一定(例えば150画素)としていた。しかし、画像上での道路は無限遠にむけて狭くなっていくため、従来のアルゴリズムでは道路からはみ出した部分(白線の判定範囲として不適切なエリア)まで走査範囲が及んでいた。
(Upper scanning line width reduction)
In the conventional algorithm, as shown in FIG. 9, the width (scanning range) of the scanning line b that scans the white line a (hereinafter collectively referred to as the white line a including the left white line, the right white line, and the center line) is constant. (For example, 150 pixels). However, since the road on the image becomes narrower toward infinity, the conventional algorithm has extended the scanning range to a portion protruding from the road (an area inappropriate as a white line determination range).

<新規アルゴリズム2>
新規アルゴリズム2では、図10に示すように、上半分の走査線bの捜査範囲を従来の半分(例えば75画素)とすることにより道路の外側に走査線bよる走査範囲がはみだすことを防止した。この画素数(75画素)はシミュレーションで得た最適値である。また、時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合、その認識された白線位置が走査範囲の中央となるように走査範囲を設定するようにした。これにより、演算処理が早くなるように走査範囲を短くでき、しかも、白線周辺の路肩、溝等による誤認識を防ぐことができる。
<New algorithm 2>
In the new algorithm 2, as shown in FIG. 10, the scanning range of the scanning line b in the upper half is prevented from protruding outside the road by making the search range of the scanning line b of the upper half half (for example, 75 pixels). . This number of pixels (75 pixels) is an optimum value obtained by simulation. In addition, when a white line position can be recognized from a previously acquired road image among a plurality of road images acquired in time series, the scanning range is set so that the recognized white line position becomes the center of the scanning range. I made it. As a result, the scanning range can be shortened so as to speed up the arithmetic processing, and erroneous recognition due to the shoulders, grooves, etc. around the white line can be prevented.

さらに、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることもできる。これにより、走査エリアを必要な範囲に収めて、白線周辺の路肩、溝等による白線の誤認識や未認識を防ぐことができる。   Furthermore, when the white line position can be recognized from the previously acquired road image, the scanning range can be shortened, and when the white line position cannot be recognized, the scanning range can be lengthened. As a result, the scanning area can be kept within a necessary range, and erroneous recognition or unrecognition of the white line due to a shoulder, a groove or the like around the white line can be prevented.

(走査範囲の開始・終了位置の最適化)
従来のアルゴリズムでは、図11に示すように、走査線bの走査開始位置が高すぎる位置に、終了位置が低すぎる位置にあった。そのため、画像上方の走査線bは空や風景を、下方の走査線bは車両のボンネットの上を走査してしまい、白線の判定範囲として不適切なエリアまで走査線が及んでいた。
(Optimization of scanning range start / end position)
In the conventional algorithm, as shown in FIG. 11, the scanning start position of the scanning line b is at a position that is too high and the end position is at a position that is too low. For this reason, the scanning line b above the image scans the sky and landscape, and the scanning line b below scans the hood of the vehicle, and the scanning line extends to an inappropriate area as a white line determination range.

<新規アルゴリズム3>
新規アルゴリズム3では、図12に示すように、走査線bによる走査範囲の縦方向の開始位置を画像の無限遠に、終了位置を車両のボンネットの手前に設定した。これにより、演算処理が早くなるように走査線数を少なくでき、しかも、白線周辺の路肩、溝等による誤認識を防ぐことができる。
<New algorithm 3>
In the new algorithm 3, as shown in FIG. 12, the start position in the vertical direction of the scanning range by the scanning line b is set at infinity of the image, and the end position is set in front of the hood of the vehicle. As a result, the number of scanning lines can be reduced so as to speed up the arithmetic processing, and erroneous recognition due to a shoulder, a groove, etc. around the white line can be prevented.

(Hough変換時の投票に重み付け)
従来のアルゴリズムでは、Hough変換時の投票値をすべて「1」としていた。つまり白
線エッジ抽出において信頼性の高い画像下方(車両近傍)も、信頼性の劣る画像上方もHough変換時に同じ値で投票する設定としていた。
(Weighing votes during Hough conversion)
In the conventional algorithm, the vote values at the time of Hough conversion are all “1”. In other words, in the white line edge extraction, the lower part of the image with high reliability (near the vehicle) and the upper part of the image with poor reliability are set to vote with the same value during the Hough transform.

<新規アルゴリズム4>
新規アルゴリズム4では、白線エッジ抽出において信頼性の高い画像下方(車両近傍)に対して、Hough変換時の投票値に大きな重みを持たせた。具体的には、下半分の走査線
で抽出したエッジの投票値を「3」、上半分の走査線で抽出したエッジの投票値を「2」とした。投票値の「3」、「2」はシミュレーションで得た最適値である。ただし、投票値の重みは白線エッジ抽出方式を変更した場合、再度調整する必要がある(白線エッジ抽出における上側と下側の信頼性の比が変わるため)。
<New algorithm 4>
In the new algorithm 4, in the white line edge extraction, a high weight is given to the vote value at the time of the Hough conversion for the lower part of the image (near the vehicle) with high reliability. Specifically, the vote value of the edge extracted by the lower half scanning line is “3”, and the vote value of the edge extracted by the upper half scanning line is “2”. Vote values “3” and “2” are optimum values obtained by simulation. However, the weight of the voting value needs to be adjusted again when the white line edge extraction method is changed (because the reliability ratio between the upper side and the lower side in white line edge extraction changes).

このようにすれば、道路画像の上側走査範囲で僅かにノイズを抽出しても、下側走査範囲で正しい白線エッジが抽出できていれば、白線の認識を成功させることができる。また、下側走査範囲で僅かにノイズを抽出しても、上側走査範囲で正しい白線エッジが取得できていれば、白線の認識を成功させることができる。これにより、白線認識精度をさらに向上させることができる。   In this way, even if noise is slightly extracted in the upper scanning range of the road image, if the correct white line edge is extracted in the lower scanning range, the white line can be recognized successfully. Even if noise is slightly extracted in the lower scanning range, if the correct white line edge is acquired in the upper scanning range, the white line can be recognized successfully. Thereby, the white line recognition accuracy can be further improved.

(白線エッジの両端抽出と両端のエッジ間距離判定)
従来のアルゴリズムでは、次の(1)、(2)の手順で白線エッジの抽出を行っていた。
(1)内側エッジ抽出のために、捜査線上を内側から外側へ探索し、幅が3画素以上のHigh画素(内側エッジ)を抽出する。
(2)5連続近傍抽出のために、(1)で抽出したエッジの垂直方向に5連続で幅が3画素以上のHigh画素が存在することを確認する。
(Extraction of both ends of white line edge and judgment of distance between edges of both ends)
In the conventional algorithm, white line edges are extracted by the following procedures (1) and (2).
(1) In order to extract the inner edge, the search line is searched from the inner side to the outer side, and a High pixel (inner edge) having a width of 3 pixels or more is extracted.
(2) In order to extract 5 consecutive neighborhoods, it is confirmed that there are 5 consecutive high pixels having a width of 3 pixels or more in the vertical direction of the edge extracted in (1).

白線(右側)のエッジ抽出例を図13、図14に示す。微分フィルタ+2値化処理を行った画像が図13に示す画像である。同図においてdはノイズを示している。図13の画像の太枠c内を拡大し、エッジの抽出状況を表したのが図14である。図14の例では走査線b1は白線エッジが抽出できている。しかし、走査線b2、b3は白線エッジの内側のノイズを抽出し、誤認識となっている。   Examples of white line (right side) edge extraction are shown in FIGS. An image subjected to the differential filter + binarization process is an image shown in FIG. In the figure, d indicates noise. FIG. 14 shows the edge extraction state by enlarging the inside of the thick frame c in the image of FIG. In the example of FIG. 14, the white line edge can be extracted from the scanning line b1. However, the scanning lines b2 and b3 are misrecognized by extracting noise inside the white line edge.

<新規アルゴリズム5>
新規アルゴリズム5では、白線を判別するために、以下の(1)〜(5)の手順により、白線の両端(内側と外側)のエッジの抽出と、両端のエッジ間の距離による判定を行う。その抽出手順を図式化したものを図15に示す。
<New algorithm 5>
In the new algorithm 5, in order to discriminate a white line, the following steps (1) to (5) are used to extract edges at both ends (inner side and outer side) of the white line and perform determination based on the distance between the edges at both ends. A schematic diagram of the extraction procedure is shown in FIG.

(1) 内側エッジ抽出のために、捜査線上を内側から外側へ探索し、幅が3画素以上のHigh画素(内側エッジ)を抽出する。
(2) 5連続近傍抽出のために、(1)で抽出したエッジの垂直方向に5連続で幅が3画素以上のHigh画素が存在することを確認する。
(3) Low画素抽出のために、(1)で抽出したエッジの外側を探索し、幅が3画素以
上のLow画素が存在することを確認する。
(4) 外側エッジ抽出のために、(3)のLow画素の外側を探索し、幅が3画素以上のHigh画素(外側エッジ)を抽出する。
(5) 5連続近傍抽出のために、(4)で抽出したエッジの垂直方向に5連続で幅が3画素以上のHigh画素が存在することを確認する。
(6) 白線幅チェックのために、(1)で抽出した内側エッジと、(4)で抽出した外側エッジの間隔が40画素以下(規定範囲内)であることを確認し、規定範囲内であればそれを白線として認識する。なお、40画素とした理由は、シミュレーションで使用した画像において白線エッジの幅の最大値が30画素であり、その幅に10画素のマージンを加えたことによるものである。
(1) In order to extract the inner edge, the search line is searched from the inner side to the outer side, and a High pixel (inner edge) having a width of 3 pixels or more is extracted.
(2) In order to extract 5 consecutive neighborhoods, it is confirmed that there are 5 consecutive high pixels having a width of 3 pixels or more in the vertical direction of the edge extracted in (1).
(3) In order to extract a low pixel, the outside of the edge extracted in (1) is searched, and it is confirmed that a low pixel having a width of 3 pixels or more exists.
(4) In order to extract the outer edge, the outside of the low pixel in (3) is searched, and a high pixel (outer edge) having a width of 3 pixels or more is extracted.
(5) In order to extract five consecutive neighborhoods, it is confirmed that there are five consecutive high pixels having a width of 3 pixels or more in the vertical direction of the edge extracted in (4).
(6) To check the white line width, confirm that the interval between the inner edge extracted in (1) and the outer edge extracted in (4) is 40 pixels or less (within the specified range). If there is, it is recognized as a white line. The reason why the number of pixels is 40 pixels is that the maximum value of the width of the white line edge in the image used in the simulation is 30 pixels, and a margin of 10 pixels is added to the width.

(白線エッジ及びレーン幅判定)
さらに、このようにして認識される白線エッジについて、図16に示すように、車両の左側、右側で対となる走査線上の両方で白線エッジ(左側白線a1及び右側白線a2のエッジ)が保持できた座標のみを抽出し、左右の白線エッジの間隔(レーン幅R)を確認し、そのレーン幅Rが規定範囲内であった場合は、白線エッジとして判定する。即ち、車両を基準にして左側白線a1及び右側白線a2の各白線候補エッジからレーン幅Rを算出し、算出したレーン幅Rが規定範囲の場合に白線エッジと判断する。
(White line edge and lane width judgment)
Further, with respect to the white line edge recognized in this way, as shown in FIG. 16, the white line edge (the edge of the left white line a1 and the right white line a2) can be held on both the left and right sides of the paired scanning lines. Only the coordinates are extracted, the interval between the left and right white line edges (lane width R) is confirmed, and if the lane width R is within the specified range, it is determined as a white line edge. That is, the lane width R is calculated from the white line candidate edges of the left white line a1 and the right white line a2 with reference to the vehicle, and when the calculated lane width R is within a specified range, it is determined as a white line edge.

(シミュレーションによる性能評価)
新規アルゴリズムについてPC上でシミュレーションを行い、性能評価を実施した。シミュレーションでは実際の走行実験で採取した画像(BMPファイル)を使用した。
(Performance evaluation by simulation)
A new algorithm was simulated on a PC to evaluate its performance. In the simulation, an image (BMP file) collected in an actual running experiment was used.

(評価結果)
白線認識結果をスーパーインポーズした画像について、認識成功、未認識、誤認識を判定した結果、前回の走行実験に比べて認識率が向上したことを確認した。従って、白線幅を検出しない白線認識方法に比べて白線認識精度を向上させることができた。さらに、レーン幅を検出しない白線認識方法に比べて白線認識精度をより向上させることができた。
(Evaluation results)
As a result of judging the recognition success, unrecognition, and misrecognition for the image superimposed on the white line recognition result, it was confirmed that the recognition rate was improved compared to the previous driving experiment. Therefore, the white line recognition accuracy can be improved as compared with the white line recognition method that does not detect the white line width. Furthermore, the white line recognition accuracy can be further improved as compared with the white line recognition method that does not detect the lane width.

<新規アルゴリズム6>
(過去フレームのエッジ情報利用)
白線が破線の場合、抽出エッジの数が少ないため白線が認識できない場合がある。そのため、過去フレームのエッジ情報を保持し、利用することにより現状フレームだけでは不足するエッジ情報を補い、白線位置を認識できるようにした。図17の場合、白線エッジは3つしか抽出できておらず、白線位置を認識できなかった。しかし、図18のように1つ前のフレームで抽出したエッジを保持しておき、図19のように現在フレームでエッジが抽出できなかった走査線に対してエッジを補うことにより白線位置を特定することができる。図19において破線eで矩形状に囲む部分が、過去フレームで取得したエッジで補っている部分である。本アルゴリズムではシミュレーションを行い検討した結果、4つ前のフレームまでエッジ情報を保持し、利用することとした。
<New algorithm 6>
(Use edge information of past frames)
When the white line is a broken line, the white line may not be recognized because the number of extracted edges is small. For this reason, the edge information of the past frame is held and used to compensate for edge information that is insufficient with the current frame alone, and the white line position can be recognized. In the case of FIG. 17, only three white line edges can be extracted, and the white line position cannot be recognized. However, the edge extracted in the previous frame is retained as shown in FIG. 18, and the position of the white line is specified by supplementing the edge with respect to the scanning line in which the edge could not be extracted in the current frame as shown in FIG. can do. In FIG. 19, a portion surrounded by a broken line e in a rectangular shape is a portion supplemented by an edge acquired in a past frame. As a result of simulation and examination in this algorithm, edge information is retained and used up to the previous four frames.

<新規アルゴリズム7>
(2値化処理時に閾値を2つ使う)
トンネルの出口で路面が急に明るくなる場合、白線が影の中にある場合、白線がかすれている場合、などのように白線と道路のコントラストが小さい場合、画像から白線を特徴抽出できない。しかし、2値化処理時の閾値を例えば影内の白線と道路の濃度差以下(適切な閾値)に設定することで特徴抽出可能である。例えば白線の濃度値が70、道路の濃度値が40の場合は閾値を30とすれば良い。2値化処理における適切な閾値は、天候や時間帯、道路の状況により異なるが、状況によって閾値を動的に適切な値にすることは難しい。また、閾値を固定すると、閾値が高い場合、低い場合でメリット、デメリットが存在する。
<New algorithm 7>
(Use two thresholds during binarization)
If the road surface suddenly becomes bright at the exit of the tunnel, the white line is in shadow, the white line is faint, or the like, the white line cannot be extracted from the image when the contrast between the white line and the road is small. However, it is possible to extract features by setting a threshold value for binarization processing to be equal to or less than the density difference between the white line in the shadow and the road (appropriate threshold value). For example, when the density value of the white line is 70 and the density value of the road is 40, the threshold value may be set to 30. An appropriate threshold value in the binarization process varies depending on the weather, time zone, and road conditions, but it is difficult to dynamically set the threshold value to an appropriate value depending on the situation. If the threshold is fixed, there are advantages and disadvantages when the threshold is high and when the threshold is low.

即ち、低い閾値では白線と道路のコントラストが小さい場合でも白線を抽出できるメリットがあるものの、前方車両や建物の影などのエッジを抽出してしまうデメリットがある。高い閾値ではその逆になる。よって新規アルゴリズム7では、低い閾値を30、高い閾値を50とする2つの固定閾値(高い閾値と低い閾値)を100ms毎に交互に使用することとした。これにより、閾値の高・低におけるそれぞれのメリットを生かし、デメリットを吸収することができる。   That is, at a low threshold, there is a merit that a white line can be extracted even when the contrast between the white line and the road is small, but there is a demerit that an edge such as a shadow of a preceding vehicle or a building is extracted. The reverse is true for high thresholds. Therefore, in the new algorithm 7, two fixed threshold values (a high threshold value and a low threshold value) having a low threshold value of 30 and a high threshold value of 50 are alternately used every 100 ms. This makes it possible to absorb the demerits by taking advantage of the advantages and disadvantages of the high and low thresholds.

それぞれの閾値における2値化画像を図20、図21に示す。図20(閾値30)では白線エッジははっきり見えるが、エッジのにじみ、ノイズdが多い。また、図21(閾値50)では左側の白線のエッジはかすれているが、エッジのにじみ、ノイズが少ない。   The binarized images at the respective threshold values are shown in FIGS. In FIG. 20 (threshold 30), the white line edge is clearly visible, but the edge blurs and the noise d is large. In FIG. 21 (threshold value 50), the edge of the white line on the left side is faint, but the edge blurs and the noise is small.

従って、例えば白線aと道路とのコントラストが大きい場合や、小さい場合に生じやすい未認識、誤認識発生状況においても、白線aを正常認識することができる。例えば白線aが影内にあってコントラストが小さい場合でも閾値小であれば白線aを正常認識することができる。これにより白線認識精度を格段に向上させることができる。   Therefore, the white line a can be normally recognized even in an unrecognized or erroneous recognition occurrence situation that is likely to occur when, for example, the contrast between the white line a and the road is large or small. For example, even when the white line a is in the shadow and the contrast is small, the white line a can be recognized normally if the threshold is small. Thereby, the white line recognition accuracy can be significantly improved.

<新規アルゴリズム8>
(白線走査エリアの絞り込み)
白線の外側に走査エリアが及ぶことにより白線以外のエッジを抽出する誤認識を防止するために、走査エリアの範囲を絞り込むようにした。単純に走査エリアを狭めるだけでは白線の未認識につながるため、計算テーブルの状態によって下側走査線の幅を狭めることとした。
<New algorithm 8>
(Refine white line scanning area)
In order to prevent misrecognition of extracting edges other than the white line due to the scanning area extending outside the white line, the range of the scanning area is narrowed down. Simply narrowing the scanning area leads to unrecognition of the white line, so the width of the lower scanning line is reduced depending on the state of the calculation table.

計算テーブル状態が、例えば白線エッジ抽出処理連続成功回数10回未満のときを状態1としたとき、計算テーブルが状態2(白線エッジ抽出処理連続成功回数10回以上30回未満)の場合、正しい白線位置(もしくはその近傍)を取得している可能性が高い。また、画像は時系列で取得しているため(0.1秒毎)、次回白線位置は前回白線位置の近傍と考えられる。また、計算テーブルが状態3(白線エッジ抽出処理連続成功回数30回以上)の場合、状態2以上に白線位置、次回白線位置を正しく取得している信頼性は高い。そこで状態2の場合は下側走査線の幅を狭く、また状態3の場合はさらに狭くするようにした。   When the calculation table state is, for example, less than 10 consecutive white line edge extraction processing successes, state 1 is assumed, and when the calculation table is in state 2 (10 to less than 30 consecutive white line edge extraction processing successes), the correct white line There is a high possibility that the position (or its vicinity) has been acquired. Since the images are acquired in time series (every 0.1 second), the next white line position is considered to be near the previous white line position. Further, when the calculation table is in state 3 (the white line edge extraction process has been successfully performed 30 times or more), the reliability of correctly acquiring the white line position and the next white line position in state 2 or higher is high. Therefore, in the case of state 2, the width of the lower scanning line is narrowed, and in the case of state 3, it is further narrowed.

従って、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることができる。これにより、走査エリアを必要な範囲に収めて、白線周辺の路肩、溝等による白線の誤認識や未認識を防ぐことができる。   Therefore, the scanning range can be shortened when the white line position can be recognized from the previously acquired road image, and the scanning range can be lengthened when the white line position cannot be recognized. As a result, the scanning area can be kept within a necessary range, and erroneous recognition or unrecognition of the white line due to a shoulder, a groove or the like around the white line can be prevented.

次に、このような白線認識技術における白線認識手順の一例について図22のフロー図を参照して説明する。なお、この処理は画像処理部2で行うが、解り易くするため、図1、2に示した構成を参照して説明する。また、この処理は白線認識処理装置の動作中は繰り返し実行される。   Next, an example of a white line recognition procedure in such a white line recognition technique will be described with reference to the flowchart of FIG. This process is performed by the image processing unit 2, but will be described with reference to the configuration shown in FIGS. This process is repeatedly executed during the operation of the white line recognition processing apparatus.

画像入力部であるカメラ部1で撮影された道路画像を入力する(ステップS1)。そして、画像処理部2の前処理部20において、白線と白線以外の道路との濃度差が大きい場合、小さい場合用に予め設定されている2つの2値化処理用の閾値のうちの何れかの閾値(例えば表11に示す低い閾値30)を選択し(ステップS2)、その選択された閾値によって道路画像が取得される。そして、取得された道路画像は、微分処理(ステップS3)、2値化処理(ステップS4)を順次行った後、白線候補点抽出部31に入力される。なお、2つの閾値の選択に関しては、実施例では、カメラ部1による撮影間隔に合わせて交互に選択される。したがって、2つの閾値が交互に使用される。   A road image photographed by the camera unit 1 as an image input unit is input (step S1). Then, in the preprocessing unit 20 of the image processing unit 2, when the density difference between the white line and the road other than the white line is large, one of two threshold values for binarization processing set in advance for a small case (For example, the low threshold 30 shown in Table 11) is selected (step S2), and a road image is acquired by the selected threshold. The acquired road image is subjected to differentiation processing (step S3) and binarization processing (step S4) in order, and then input to the white line candidate point extraction unit 31. Regarding the selection of the two threshold values, in the embodiment, the two threshold values are alternately selected in accordance with the photographing interval by the camera unit 1. Therefore, two threshold values are used alternately.

白線候補点抽出部31に道路画像が入力されると、走査エリアを決定する。即ち、図12に示すように道路画像に対する走査線開始位置と終了位置を決める走査線位置を決定し(ステップS5)、さらに走査線の長さである走査線幅を決定する(ステップS6)。走査線幅については、例えば図10に示すように、白線の上側走査線幅と下側走査線幅とが異なるように設定される。次いで、走査線による白線エッジ候補抽出のための走査が行われて白線エッジ候補が取得され、白線エッジが判定される。   When a road image is input to the white line candidate point extraction unit 31, a scanning area is determined. That is, as shown in FIG. 12, the scanning line position for determining the scanning line start position and end position for the road image is determined (step S5), and the scanning line width which is the length of the scanning line is further determined (step S6). For example, as shown in FIG. 10, the scanning line width is set so that the upper scanning line width and the lower scanning line width of the white line are different. Next, scanning for white line edge candidate extraction by the scanning line is performed, white line edge candidates are acquired, and white line edges are determined.

白線候補点抽出部31において、走査線上の白線エッジが取得されると(ステップS7)、白線の内外エッジが取得できたか否かを判断し(ステップS8)、YESの場合はステップS9に進み、NOの場合はステップS12に進む。ステップS9では、図15で示したエッジ間隔の検出により白線幅が妥当か否かを判断し、YESの場合はステップS10に進み、NOの場合はステップS12に進む。   In the white line candidate point extraction unit 31, when the white line edge on the scanning line is acquired (step S7), it is determined whether the white line inner and outer edges have been acquired (step S8). If YES, the process proceeds to step S9. If NO, the process proceeds to step S12. In step S9, it is determined whether or not the white line width is appropriate by detecting the edge interval shown in FIG. 15. If YES, the process proceeds to step S10, and if NO, the process proceeds to step S12.

ステップS10では、車両の左右の白線間隔に相当するレーン幅が妥当か否かを判断し、YESの場合には抽出したエッジ座標を保持し(ステップS11)、次にステップS13に進む。NOの場合はステップS12に進む。   In step S10, it is determined whether or not the lane width corresponding to the left and right white line interval of the vehicle is appropriate. If YES, the extracted edge coordinates are held (step S11), and the process proceeds to step S13. If NO, the process proceeds to step S12.

一方、ステップS8、S9、S10においてNOと判断された場合にはステップS12に進むが、ここでは、ステップS8、S9、S10のそれぞれについて過去のエッジ座標を保持した後に、ステップS13へ進む。   On the other hand, if NO is determined in steps S8, S9, and S10, the process proceeds to step S12. Here, after the past edge coordinates are held for each of steps S8, S9, and S10, the process proceeds to step S13.

次に、ステップS13において、全ての走査線を調べたか否かを判断さし、YESの場合はステップS14へ進み、NOの場合はステップS7へ戻る。そして、ステップS13においてYESと判断されるまで(全ての走査線を調べるまで)上記と同様のループ処理が行われる。   Next, in step S13, it is determined whether or not all scanning lines have been examined. If YES, the process proceeds to step S14, and if NO, the process returns to step S7. Then, a loop process similar to the above is performed until YES is determined in step S13 (until all scanning lines are checked).

ステップS13においてYESと判断された場合、白線認識部32においてHough変換
による直線近似処理を行い、その近似直線が白線として認識される。
If YES is determined in step S13, the white line recognition unit 32 performs straight line approximation processing by Hough transform, and the approximate straight line is recognized as a white line.

なお、以上の実施例では、車両前方の路面を撮影して得られる道路画像から白線を認識する技術について説明したが、例えば、駐車時等、後方へ進む場合の白線認識技術としても本発明を適用可能である。その場合には、車両後方の路面や駐車場等を撮影可能な後方用車載カメラ(撮像手段)を搭載することで対応可能になる。   In the above embodiment, the technology for recognizing the white line from the road image obtained by photographing the road surface in front of the vehicle has been described. Applicable. In such a case, it is possible to cope with such a situation by installing a rear in-vehicle camera (imaging means) that can photograph a road surface, a parking lot, or the like behind the vehicle.

本発明の実施例に係る白線認識装置のブロック図である。It is a block diagram of the white line recognition apparatus which concerns on the Example of this invention. 本発明の実施例に係る白線認識装置の機能ブロック図である。It is a functional block diagram of the white line recognition apparatus which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術の説明図である。It is explanatory drawing of the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術の説明図である。It is explanatory drawing of the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術の説明図である。It is explanatory drawing of the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術の説明図である。It is explanatory drawing of the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術の説明図である。It is explanatory drawing of the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術の説明図である。It is explanatory drawing of the white line recognition technique which concerns on the Example of this invention. 従来の白線認識技術の走査線幅を示す説明図である。It is explanatory drawing which shows the scanning line width of the conventional white line recognition technique. 本発明の実施例に係る白線認識技術の走査線幅を示す道路画像の説明図である。It is explanatory drawing of the road image which shows the scanning line width of the white line recognition technique which concerns on the Example of this invention. 従来の白線認識技術の走査線開始位置と終了位置を示す道路画像の説明図である。It is explanatory drawing of the road image which shows the scanning line start position and end position of the conventional white line recognition technique. 本発明の実施例に係る白線認識技術の走査線開始位置と終了位置を示す道路画像の説明図である。It is explanatory drawing of the road image which shows the scanning line start position and end position of the white line recognition technique which concerns on the Example of this invention. 従来の白線認識技術における2値化処理後の道路画像例を示す説明図である。It is explanatory drawing which shows the example of a road image after the binarization process in the conventional white line recognition technique. 図13の部分拡大図である。It is the elements on larger scale of FIG. 本発明の実施例に係る白線認識技術の白線エッジ抽出例を示す説明図である。It is explanatory drawing which shows the white line edge extraction example of the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術のレーン幅抽出例を示す図である。It is a figure which shows the example of lane width extraction of the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術における左側白線が破線の場合の道路画像例を示す説明図である。It is explanatory drawing which shows the example of a road image in case the left side white line in the white line recognition technique which concerns on the Example of this invention is a broken line. 本発明の実施例に係る白線認識技術における一つ前のフレームの道路画像例を示す説明図である。It is explanatory drawing which shows the road image example of the 1st front frame in the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術における現在フレームの道路画像例を示す説明図である。It is explanatory drawing which shows the road image example of the present flame | frame in the white line recognition technique which concerns on the Example of this invention. 本発明の実施例に係る閾値30の2値化処理画像例を示す説明図である。It is explanatory drawing which shows the example of a binarization process image of the threshold value 30 which concerns on the Example of this invention. 本発明の実施例に係る閾値50の2値化処理画像例を示す説明図である。It is explanatory drawing which shows the example of a binarization process image of the threshold value 50 which concerns on the Example of this invention. 本発明の実施例に係る白線認識技術における処理フロー図である。It is a processing flowchart in the white line recognition technique which concerns on the Example of this invention.

符号の説明Explanation of symbols

1 カメラ部(画像入力部)
11 光学フィルタ
12 レンズ
13 イメージセンサ
2 画像処理部
20 ASIC
21 画像取得部
22 微分処理部
23 2値化処理部
30 CPU
31 白線候補点抽出部
32 白線認識部
40 コネクタ
A 路面
a 白線
a1 左側白線
a2 右側白線
b 走査線
1 Camera unit (image input unit)
DESCRIPTION OF SYMBOLS 11 Optical filter 12 Lens 13 Image sensor 2 Image processing part 20 ASIC
21 Image acquisition unit 22 Differentiation processing unit 23 Binary processing unit 30 CPU
31 White line candidate point extraction unit 32 White line recognition unit 40 Connector A Road surface a White line a1 Left white line a2 Right white line b Scanning line

Claims (9)

路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、
少なくとも2つの2値化処理用の閾値を設定しておき、それらの閾値を切り替えて使用することを特徴とする白線認識方法。
A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
A white line recognition method, characterized in that at least two threshold values for binarization processing are set, and the threshold values are switched and used.
前記2つの閾値は、前記道路画像を得る撮影間隔に合わせて交互に切り替えて使用することを特徴とする請求項1に記載の白線認識方法。   2. The white line recognition method according to claim 1, wherein the two threshold values are alternately used in accordance with a shooting interval for obtaining the road image. 路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、
時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合、その認識された白線位置が走査範囲の中央となるように走査範囲を設定することを特徴とする、白線認識方法。
A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
Of the plurality of road images acquired in time series, when the white line position can be recognized from the previously acquired road image, the scanning range is set so that the recognized white line position is at the center of the scanning range. A white line recognition method.
路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、
時系列で取得される複数の道路画像のうち、前回取得した道路画像から白線位置が認識できた場合には走査範囲を短くし、認識できなかった場合には走査範囲を長くすることを特徴とする、白線認識方法。
A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
Among a plurality of road images acquired in time series, the scanning range is shortened when the white line position can be recognized from the previously acquired road image, and the scanning range is lengthened when the white line position cannot be recognized. A white line recognition method.
路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、
前記白線候補エッジから白線幅を算出し、算出した白線幅が規定範囲の場合に白線エッジと判断することを特徴とする、白線認識方法。
A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
A white line recognition method, wherein a white line width is calculated from the white line candidate edge, and a white line edge is determined when the calculated white line width is within a specified range.
車両側から路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、
前記車両を基準にして左側白線及び右側白線の各白線候補エッジからレーン幅を算出し、算出したレーン幅が規定範囲の場合に白線エッジと判断することを特徴とする、白線認識方法。
This is a white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface from the vehicle side, extracting a white line edge by candidate edge determination, and recognizing a white line position. And
A white line recognition method, wherein a lane width is calculated from each white line candidate edge of a left white line and a right white line with reference to the vehicle, and a white line edge is determined when the calculated lane width is within a specified range.
路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、
1本の走査線に対して1つの白線エッジを抽出する際に、白線エッジが抽出できなかった走査範囲については過去の規定時間前までにその走査範囲で取得した白線エッジで補完することを特徴とする、白線認識方法。
A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
When one white line edge is extracted for one scanning line, the scanning range in which the white line edge cannot be extracted is complemented with the white line edge acquired in the scanning range before the past specified time. A white line recognition method.
路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識方法であって、
抽出した白線エッジに対してHough変換により近似直線を取得する際、道路画像の下部
で抽出した信頼性の高い白線エッジにはHough変換の投票値に大きな重みを持たせること
を特徴とする、白線認識方法。
A white line recognition method for extracting a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracting a white line edge by candidate edge determination, and recognizing a white line position,
A white line characterized by giving a high weight to the vote value of the Hough transform to the reliable white line edge extracted at the bottom of the road image when obtaining an approximate straight line by Hough transform for the extracted white line edge Recognition method.
路面を撮影して得られる道路画像の微分処理及び2値化処理により白線の候補エッジを抽出し、候補エッジの判定により白線エッジを抽出し、白線位置を認識する白線認識装置であって、
2つの2値化処理用の閾値を設定可能な閾値設定手段と、
前記白線の候補エッジの抽出時に、前記閾値を前記道路画像の撮影間隔に合わせて交互に切り替えて使用する閾値切換手段と、を有することを特徴とする白線認識装置。
A white line recognition device that extracts a white line candidate edge by differential processing and binarization processing of a road image obtained by photographing a road surface, extracts a white line edge by candidate edge determination, and recognizes a white line position,
Threshold setting means capable of setting two threshold values for binarization processing;
A white line recognition apparatus comprising: threshold value switching means that alternately uses the threshold value in accordance with a shooting interval of the road image when extracting the candidate edge of the white line.
JP2005378336A 2005-12-28 2005-12-28 Method and apparatus for recognizing white line Withdrawn JP2007179386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005378336A JP2007179386A (en) 2005-12-28 2005-12-28 Method and apparatus for recognizing white line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005378336A JP2007179386A (en) 2005-12-28 2005-12-28 Method and apparatus for recognizing white line

Publications (1)

Publication Number Publication Date
JP2007179386A true JP2007179386A (en) 2007-07-12

Family

ID=38304493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005378336A Withdrawn JP2007179386A (en) 2005-12-28 2005-12-28 Method and apparatus for recognizing white line

Country Status (1)

Country Link
JP (1) JP2007179386A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009272728A (en) * 2008-04-30 2009-11-19 Ricoh Co Ltd Image correction device, image correction method, image correction program and recording medium
JP2009288867A (en) * 2008-05-27 2009-12-10 Toyota Motor Corp Lane marking detection device and lane marking detection method
JP2010093623A (en) * 2008-10-09 2010-04-22 Denso Corp Image processor
JP2011170750A (en) * 2010-02-22 2011-09-01 Denso Corp White line recognition device
JP2013003634A (en) * 2011-06-13 2013-01-07 Toyota Motor Corp Partition line recognition device, partition line recognition method, program and medium
JP2013097714A (en) * 2011-11-04 2013-05-20 Toyota Motor Corp Lane recognition device
JP2013191040A (en) * 2012-03-14 2013-09-26 Alpine Electronics Inc Lane mark detector and reliability calculation method of lane mark
JP2014013451A (en) * 2012-07-03 2014-01-23 Clarion Co Ltd In-vehicle lane recognition device
JP2016126605A (en) * 2015-01-06 2016-07-11 株式会社日立製作所 Driving environment recognition system
US9990549B2 (en) 2015-01-15 2018-06-05 Toyota Jidosha Kabushiki Kaisha Complex marking determining device and complex marking determining method
CN109212033A (en) * 2018-08-20 2019-01-15 汕头大学 A kind of ultrasound image detection method of high-speed track inside hurt
WO2019172059A1 (en) * 2018-03-09 2019-09-12 クラリオン株式会社 Lane marker recognition device
EP3862920A1 (en) 2020-02-06 2021-08-11 Faurecia Clarion Electronics Co., Ltd. Image processor and image processing method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009272728A (en) * 2008-04-30 2009-11-19 Ricoh Co Ltd Image correction device, image correction method, image correction program and recording medium
JP2009288867A (en) * 2008-05-27 2009-12-10 Toyota Motor Corp Lane marking detection device and lane marking detection method
US8090152B2 (en) 2008-05-27 2012-01-03 Toyota Jidosha Kabushiki Kaisha Road lane boundary detection system and road lane boundary detecting method
JP2010093623A (en) * 2008-10-09 2010-04-22 Denso Corp Image processor
US8310546B2 (en) 2008-10-09 2012-11-13 Denso Corporation Image processing apparatus adapted to recognize object in acquired image
US8643723B2 (en) 2010-02-22 2014-02-04 Denso Corporation Lane-marker recognition system with improved recognition-performance
JP2011170750A (en) * 2010-02-22 2011-09-01 Denso Corp White line recognition device
JP2013003634A (en) * 2011-06-13 2013-01-07 Toyota Motor Corp Partition line recognition device, partition line recognition method, program and medium
JP2013097714A (en) * 2011-11-04 2013-05-20 Toyota Motor Corp Lane recognition device
JP2013191040A (en) * 2012-03-14 2013-09-26 Alpine Electronics Inc Lane mark detector and reliability calculation method of lane mark
JP2014013451A (en) * 2012-07-03 2014-01-23 Clarion Co Ltd In-vehicle lane recognition device
JP2016126605A (en) * 2015-01-06 2016-07-11 株式会社日立製作所 Driving environment recognition system
US9990549B2 (en) 2015-01-15 2018-06-05 Toyota Jidosha Kabushiki Kaisha Complex marking determining device and complex marking determining method
WO2019172059A1 (en) * 2018-03-09 2019-09-12 クラリオン株式会社 Lane marker recognition device
CN109212033A (en) * 2018-08-20 2019-01-15 汕头大学 A kind of ultrasound image detection method of high-speed track inside hurt
CN109212033B (en) * 2018-08-20 2021-02-02 汕头大学 An ultrasonic image detection method for internal damage of high-speed rails
EP3862920A1 (en) 2020-02-06 2021-08-11 Faurecia Clarion Electronics Co., Ltd. Image processor and image processing method
US11610317B2 (en) 2020-02-06 2023-03-21 Faurecia Clarion Electronics Co., Ltd. Image processor and image processing method

Similar Documents

Publication Publication Date Title
US10891738B2 (en) Boundary line recognition apparatus and branch road determination apparatus
JP4437714B2 (en) Lane recognition image processing device
US7542835B2 (en) Vehicle image processing device
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
US20090010482A1 (en) Diagrammatizing Apparatus
JP2002197470A (en) Lane detection device
JP5855756B2 (en) Lane mark recognition device
US20090201370A1 (en) Traveling Lane Detector
JP7484783B2 (en) Lane boundary detection device, lane boundary detection method, and computer program for lane boundary detection
JP2007179386A (en) Method and apparatus for recognizing white line
CN111046741A (en) Method and device for identifying lane line
JP4864043B2 (en) Image processing apparatus, method, and program
JP3656056B2 (en) Interrupting vehicle detection device and method
JP2010061375A (en) Apparatus and program for recognizing object
JP4123138B2 (en) Vehicle detection method and vehicle detection device
JP4631197B2 (en) Branch determination device, program, and recording medium
CN111914610A (en) Three-dimensional object detection device and three-dimensional object detection method
JPH0935198A (en) Traveling road detector for vehicle
JPH07244717A (en) Vehicle environment recognition device
JP3319401B2 (en) Roadway recognition device
JPH10320559A (en) Traveling path detector for vehicle
JP3915621B2 (en) Lane mark detector
JP4842301B2 (en) Pedestrian detection device and program
JP2014067320A (en) Stereo camera device
JPH0520593A (en) Driving lane recognition device and preceding vehicle recognition device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090303