JP4575031B2 - In-vehicle road marking detection device - Google Patents
In-vehicle road marking detection device Download PDFInfo
- Publication number
- JP4575031B2 JP4575031B2 JP2004161109A JP2004161109A JP4575031B2 JP 4575031 B2 JP4575031 B2 JP 4575031B2 JP 2004161109 A JP2004161109 A JP 2004161109A JP 2004161109 A JP2004161109 A JP 2004161109A JP 4575031 B2 JP4575031 B2 JP 4575031B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- line
- road marking
- white line
- marking detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/421—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、走行車線を区分する白線や横断歩道線などの路面上の標示を検出する車載用路面標示検出装置に関する。 The present invention relates to an on-vehicle road marking detection device that detects markings on a road surface such as a white line or a pedestrian crossing line that divides a traveling lane.
車載カメラで撮影された画像から白線及び横断歩道を検出する従来の路面標示検出装置として、例えば特許文献1(特開2003−252148号公報)に示されるものがある。この路面標示検出装置では、車載カメラで撮影された画像データとデータベース中のパターンマッチング用参照データと比較し、車載カメラで撮影された画像のパターン認識を行う。このとき、パターンマッチング用の参照データとして、白線及び横断歩道のパターンデータをデータベース上に格納することにより、白線及び横断歩道の検出が可能となる。 As a conventional road marking detection device that detects a white line and a pedestrian crossing from an image taken by an in-vehicle camera, for example, there is one disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2003-252148). In this road marking detection device, image data captured by a vehicle-mounted camera is compared with pattern matching reference data in a database, and pattern recognition of the image captured by the vehicle-mounted camera is performed. At this time, white line and pedestrian crossing pattern data are stored in the database as reference data for pattern matching, thereby enabling detection of white lines and pedestrian crossings.
従来の路面標示検出装置は以上のように構成されており、白線及び横断歩道の検出を入力画像と予め用意されたデータベースとの比較により行うため、データベース中には、車載カメラで撮影された多様な画像に対処するため多くの参照データが必要であり、検出には、それら全ての参照データと特徴(輝度値など)の比較・照合を行わなければならず、処理時間が膨大にかかるという課題があった。 Conventional road marking detection devices are configured as described above, and white lines and pedestrian crossings are detected by comparing input images with a database prepared in advance. A lot of reference data is necessary to deal with a complex image, and all the reference data and features (luminance values, etc.) must be compared and verified for detection, which takes a lot of processing time. was there.
本発明は、上記のような課題を解決するためになされたもので、構造の異なる白線及び横断歩道線の検出に、線分特徴を抽出し、前記線分特徴の構造を基に白線及び横断歩道線の検出を行うため、データベースが不要で、高速に検出が可能な路面標示検出装置の実現を目的とする。 The present invention has been made to solve the above-described problems. For detecting white lines and pedestrian crossing lines having different structures, line segment features are extracted, and white lines and crossings are extracted based on the structure of the line segment features. The purpose of the present invention is to realize a road marking detection apparatus that does not require a database and can detect at high speed because it detects a sidewalk line.
本発明の車載用路面標示検出装置は、走行する自車両前方の画像データを入力する画像入力手段と,前記画像入力手段によって取り込まれた画像から、エッジ点を抽出するエッジ抽出手段と、前記画像入力手段の画像を複数の部分画像に分割する画像分割手段と、各部分画像内に存在するエッジ点を通る線分を抽出する線分抽出手段と、前記線分抽出手段により得られた線分の傾きと端点位置を特徴として抽出する特徴抽出手段と、前記特徴抽出手段によって得られた線分の端点位置が水平方向に所定の間隔で存在し、かつそれら線分が一つの消失点を形成した場合、前方に横断歩道が存在すると判断する路面標示検出手段を備える。
An in-vehicle road marking detection apparatus according to the present invention includes an image input unit that inputs image data in front of a traveling vehicle, an edge extraction unit that extracts an edge point from an image captured by the image input unit, and the image Image dividing means for dividing the image of the input means into a plurality of partial images, line segment extracting means for extracting line segments passing through edge points existing in each partial image, and line segments obtained by the line segment extracting means of a feature extraction means for the slope and end positions extracted as feature present in a predetermined interval endpoint positions in the horizontal direction of the obtained line segments by the feature extraction means, and they line segment one vanishing point When formed, road marking detection means for determining that a pedestrian crossing exists ahead is provided.
本発明は、白線及び横断歩道線を構成する白線候補の特徴を抽出する特徴抽出手段を設け、前記特徴抽出手段で抽出された特徴を基に白線と横断歩道線の構造の相違に着目して白線と横断歩道線の路面標示を検出するようにしたので、データベースが不要でかつ高速に検出を行うことができる。 The present invention provides a feature extraction means for extracting features of white line candidates constituting white lines and pedestrian crossing lines, and pays attention to the difference in structure between the white lines and the pedestrian crossing lines based on the features extracted by the feature extraction means. Since the road markings of the white line and the pedestrian crossing line are detected, a database is unnecessary and the detection can be performed at high speed.
実施の形態1.
以下、本発明の路面標示検出装置の実施の形態について図面を参照して説明する。
図1は、本発明の実施の形態1を示す構成図であり、本実施の形態1は、走行する自車両前方の画像データを入力する車載カメラ等からなる画像入力手段1と,前記画像入力手段1によって取り込まれた画像から、エッジ点を抽出するエッジ抽出手段2と、前記画像入力手段の画像を複数の部分画像(ブロック)に分割する画像分割手段3と、各ブロック内に存在するエッジ点を多く通る線分を複数検出する線分抽出手段4と、線分の傾き及び端点位置の差が所定範囲内にある線分同士を一つの組とし、組となった線分の傾き及び端点位置を特徴として抽出する特徴抽出手段5と、前記特徴抽出手段によって得られた特徴に基づき路面標示の検出を行う路面標示検出手段6と、前記各手段を制御する制御手段7から構成される。
Embodiments of a road marking detection apparatus according to the present invention will be described below with reference to the drawings.
FIG. 1 is a configuration diagram showing a first embodiment of the present invention. The first embodiment is an image input means 1 composed of an in-vehicle camera or the like for inputting image data in front of the traveling vehicle, and the image input. Edge extracting means 2 for extracting edge points from the image captured by
図2は、本実施の形態1の処理の流れを示すフローチャートであり、本図により動作を説明する。 FIG. 2 is a flowchart showing the flow of processing according to the first embodiment, and the operation will be described with reference to FIG.
まず、白線検出処理について説明する。
図2のステップS11において、制御手段7は、画像入力手段1に指示し、画像情報を入手する。ここでは、図3の画像を入手したとする。
First, the white line detection process will be described.
In step S11 of FIG. 2, the control means 7 instructs the image input means 1 to obtain image information. Here, it is assumed that the image of FIG. 3 is obtained.
次に、ステップS12に進み、制御手段7は、画像入力手段1で得られた入力画像をエッジ抽出手段2に送る。エッジ抽出手段2は、得られた画像中のエッジ抽出を行う。エッジ抽出処理は、一般的な手法であるSOBELオペレータを用いることで行うことができる。
In step S12, the control unit 7 sends the input image obtained by the
図4は、前記エッジ抽出手段2が図3の入力画像から生成したエッジ画像例である。エッジ抽出処理では、白線の輪郭線以外にも、背景に含まれる陰影の変化部分や縁石などが、エッジとして抽出される。
FIG. 4 is an example of an edge image generated by the
次に、ステップS13に進み、制御手段7は、エッジ抽出手段2で得られたエッジ画像を、画像分割手段3に送る。画像分割手段3は、入力したエッジ画像を部分画像に分割する。
In step S13, the control unit 7 sends the edge image obtained by the
図5は、画像分割手段3により、図4のエッジ画像を部分画像に分割した例であり、垂直方向に2分割、水平方向に4分割され、合計8個の部分画像に分割されている。なお、白線1本はこの水平方向に分割された線分によって近似される。
FIG. 5 shows an example in which the edge image of FIG. 4 is divided into partial images by the image dividing
次に、ステップS14に進み、制御手段7は、図6(a)(b)に示す垂直方向に分割した全ての部分画像に対し、特徴抽出手段5による白線候補の特徴を抽出する処理を行ったか否かを判別する。全ての部分画像に対し、特徴抽出処理を行っていれば、ステップS18に進み。行っていなければ、ステップS15に進む。ここでは、特徴抽出処理を行っていないため、ステップS15に進む。
まず、図6(a)に示す部分画像を用いて、特徴抽出手段5による白線候補特徴を抽出する処理について説明する。
Next, proceeding to step S14, the control means 7 performs a process of extracting features of white line candidates by the feature extraction means 5 for all the partial images divided in the vertical direction shown in FIGS. 6 (a) and 6 (b). It is determined whether or not. If feature extraction processing has been performed on all partial images, the process proceeds to step S18. If not, the process proceeds to step S15. Here, since the feature extraction process is not performed, the process proceeds to step S15.
First, a process of extracting white line candidate features by the
ステップS15において、制御手段7は、部分画像(ブロック1〜4)を、線分抽出手段4に送り、線分抽出手段4は、線分を抽出する。線分抽出処理では、ブロック内に存在する任意のエッジ点2つを選び、それを結ぶ線分上に位置する他のエッジ点数をカウントする。これを全ての組み合わせで行い、カウント数の大きな上位数個の線分を抽出する。
In step S15, the control means 7 sends the partial images (
図7は、線分抽出手段4が、図6(a)の部分画像から線分を抽出した例である。図7において、k1〜k13は各ブロック内の線分を意味し、それぞれの線分は線分番号に対応する端点(s1〜s13,e1〜e13)を有する。
FIG. 7 shows an example in which the line
次に、ステップS16に進み、制御手段7は、特徴抽出手段5に対し、線分抽出手段4で得られた線分から、白線候補を生成する指示を行う。白線候補の生成は、線分抽出手段4により得られた線分の傾き及び端点の位置座標に基づいて、線分をグループ化することにより行われる。具体的には、線分kの傾きをak、端点をsk,ekとしたとき、式1、2を満たすものを同一の直線から構成される線分と判断してグループ化を行い、白線候補とする。
Next, in step S16, the control means 7 instructs the feature extraction means 5 to generate white line candidates from the line segments obtained by the line segment extraction means 4. The generation of the white line candidates is performed by grouping the line segments based on the slopes of the line segments obtained by the line
なお、隣接線分以外とのグループ化を判別する時は、比較対象となる端点位置での座標値を線分の傾きから算出する。 Note that when determining grouping from other than the adjacent line segment, the coordinate value at the end point position to be compared is calculated from the slope of the line segment.
図8は、図7から、白線候補を生成した画像例である。図8において、L1〜L7は、白線候補を示しており、白線が破線であっても、不連続部に影響されることなく、離れた線分を一つの白線候補として認識することができる。 FIG. 8 is an image example in which white line candidates are generated from FIG. In FIG. 8, L1 to L7 indicate white line candidates, and even if the white line is a broken line, a distant line segment can be recognized as one white line candidate without being affected by the discontinuous portion.
次に、ステップS17に進み、制御手段7は、特徴抽出手段5に処理を指示し、特徴抽出手段5は、ステップS16で得られた白線候補の傾き及び、それら白線候補のカメラ(画像入力手段1)側に近い端点位置(画像下部側)を特徴として抽出する。
In step S17, the control unit 7 instructs the
図9は、図8の白線候補L1〜L7の特徴となる白線候補の傾きp1〜p7、及び、カメラ(画像入力手段1)側に近い端点位置t1〜t7を示した例である。 FIG. 9 is an example showing inclinations p1 to p7 of white line candidates, which are features of the white line candidates L1 to L7 in FIG. 8, and end point positions t1 to t7 close to the camera (image input means 1) side.
次に、ステップS14に戻り、ステップS15からステップS17までの処理を、図6(b)に示す部分画像に対して行う。図10に、図6(b)から、白線候補の特徴となる白線候補の傾きp8〜p11、及びカメラ(画像入力手段1)側に近い端点位置t8〜t11を抽出した例を示す。以上により、垂直方向に分割した全ての部分画像に対し、白線候補の特徴を抽出する処理を行ったため、次に、ステップS18に進む。 Next, returning to step S14, the processing from step S15 to step S17 is performed on the partial image shown in FIG. FIG. 10 shows an example in which the white line candidate inclinations p8 to p11 and the end point positions t8 to t11 close to the camera (image input means 1) are extracted from FIG. 6B. As described above, since the process of extracting white line candidate features has been performed on all the partial images divided in the vertical direction, the process proceeds to step S18.
ステップS18において、制御手段7は、特徴抽出手段5で得られた特徴を、路面標示検出手段6に送り、路面標示検出手段6は、白線及び横断歩道の検出を行う。 In step S18, the control means 7 sends the features obtained by the feature extraction means 5 to the road marking detection means 6, and the road marking detection means 6 detects white lines and pedestrian crossings.
図11は、路面標示検出手段6の白線及び横断歩道検出のフローチャートであり、本図を用いてその動作を説明する。 FIG. 11 is a flowchart of white line and pedestrian crossing detection by the road marking detection means 6, and its operation will be described with reference to FIG.
まず、ステップS601において、制御手段7は、垂直方向に分割した全ての部分画像に対し、白線を検出する処理を行ったか否かを判別する。全ての部分画像に対し、白線検出処理を行っていれば、ステップS603に進み。行っていなければ、ステップS602に進む。ここでは、全ての部分画像に白線検出処理を行っていないため、ステップS602に進む。
まず、図9に示す白線候補の特徴を用いて、白線を検出する処理について説明する。
First, in step S601, the control means 7 determines whether or not processing for detecting a white line has been performed on all partial images divided in the vertical direction. If white line detection processing is performed for all partial images, the process proceeds to step S603. If not, the process proceeds to step S602. Here, since the white line detection process is not performed on all the partial images, the process proceeds to step S602.
First, processing for detecting a white line using the characteristics of the white line candidate shown in FIG. 9 will be described.
ステップS602では、制御手段7は、路面標示検出手段6の白線検出部に処理を指示し、白線検出部は、白線の検出を行う。白線検出部では、以下に示すような条件を設定し、白線の検出を行う。 In step S602, the control unit 7 instructs the white line detection unit of the road marking detection unit 6 to perform processing, and the white line detection unit detects a white line. The white line detection unit sets the following conditions and detects a white line.
白線を検出するための条件
(条件1)
特徴抽出手段5によって得られた白線候補のカメラ(画像入力手段1)側に近い端点tiの座標を(xi,yi)としたとき、tiが、より画像中央に位置するものを白線として選択する。例えば、式3に示す評価関数を用いることで行うことができる。
Conditions for detecting white lines (Condition 1)
When the coordinates of the end point t i close to the camera (image input unit 1) side of the white line candidate obtained by the
(条件2)
入力画像データは、なめらかに変化することから、前回の白線検出によって得られた白線の端点位置と今回の白線候補の端点位置は、ほぼ等しくなる。具体的に、現在の時刻をmとし、今回の白線候補の端点座標を(xi(m),yi(m))、前回の検出結果の端点座標を(xi(m-1),yi(m-1))としたとき、式4満たすものを白線として選択する。
(Condition 2)
Since the input image data changes smoothly, the end point position of the white line obtained by the previous white line detection and the end point position of the current white line candidate are substantially equal. Specifically, the current time is m, the endpoint coordinates of the current white line candidate are (x i (m), y i (m)), and the endpoint coordinates of the previous detection result are (x i (m-1), When y i (m−1)), a line that satisfies
(条件3)
白線の幅に関する閾値を設け、白線候補間の端点座標距離が、所定の閾値を満たすものを白線として選択する。具体的に、式5満たすものを白線として選択する。
(Condition 3)
A threshold relating to the width of the white line is provided, and a white line whose endpoint coordinate distance between white line candidates satisfies a predetermined threshold is selected. Specifically, the one that satisfies
図12は、上記条件を用いて、図9の白線候補の特徴から、白線を検出した例を示す。また、図13は、上記同様の処理で、図10の白線候補の特徴から、白線を検出した例を示す。
以上により、垂直方向に分割した全ての部分画像に対し、白線検出処理を行ったため、次に、ステップS603に進む。
なお、本実施の形態では、垂直方向の2分割した部分画像を用いたが、これは白線検出部において白線を検出する際、白線候補の組み合わせ数を抑制するために行ったものであり、垂直方向に画像を分割しない場合でも白線検出を行うことができる。
FIG. 12 shows an example in which a white line is detected from the features of the white line candidate in FIG. 9 using the above conditions. FIG. 13 shows an example in which a white line is detected from the characteristics of the white line candidate in FIG.
As described above, since the white line detection process has been performed on all the partial images divided in the vertical direction, the process proceeds to step S603.
In this embodiment, the partial image divided into two in the vertical direction is used. This is performed in order to suppress the number of combinations of white line candidates when the white line is detected by the white line detection unit. Even when the image is not divided in the direction, white line detection can be performed.
ステップS603では、制御手段7は、路面標示検出手段6に対し、図14に示すように、特徴抽出手段5で得られた白線候補(L1〜L11)と、あらかじめ設定した基準線との交点(A、B)を求めるよう指示する。次いで路面標示検出手段6は各交点間の距離が一定の比を満たすか否かを判別し、一定の比を満たせばステップS604に進み、満たさなければ、当該検出処理を終了する。ここでは、横断歩道が画像中に含まれておらず、交点間の距離が他の交点間の距離と一定の比を満たさず当該検出処理を終了し、白線を検出と判断する。
In step S603, the control unit 7 causes the road marking detection unit 6 to intersect the white line candidates (L1 to L11) obtained by the
次に、横断歩道検出の処理について説明する。
図2のステップS11において、制御手段7は、画像入力手段1に指示し、画像を入手する。ここでは、図15に示す画像中に横断歩道が存在した画像を入手したとする。画像入力手段1により、入手した画像は、白線検出処理と同様にステップS12からステップS17の処理を行い白線候補の特徴が抽出される。
Next, pedestrian crossing detection processing will be described.
In step S11 of FIG. 2, the control means 7 instructs the image input means 1 to obtain an image. Here, it is assumed that an image having a pedestrian crossing in the image shown in FIG. 15 is obtained. The acquired image is subjected to the processing from step S12 to step S17 in the same manner as the white line detection processing by the image input means 1, and the characteristics of the white line candidate are extracted.
図16は、図15から白線候補の特徴を抽出した例であり、特徴抽出手段5により、図中L12〜L21に示される白線候補の傾き、及び、●印で示されるカメラ(画像入力手段1)側に近い端点t12〜t21が特徴として抽出される。
FIG. 16 shows an example in which the features of white line candidates are extracted from FIG. 15. The
次に、ステップS18に進み、制御手段7は、路面標示検出手段6に処理を指示し、路面標示検出手段6は、白線及び横断歩道の検出を行う。この検出処理を図11により説明する。ここで、ステップS602における路面標示検出手段6における白線検出部の処理は、前述の白線検出処理において説明した処理と同様なため説明を省略する。 Next, it progresses to step S18, and the control means 7 instruct | indicates a process to the road marking detection means 6, and the road marking detection means 6 detects a white line and a pedestrian crossing. This detection process will be described with reference to FIG. Here, the processing of the white line detection unit in the road marking detection unit 6 in step S602 is the same as the processing described in the white line detection processing described above, and thus the description thereof is omitted.
次に、ステップS603に進む、制御手段7は、図17に示すように、特徴抽出手段5で得られた白線候補(L12〜L21)と、あらかじめ設定した基準線との交点(A〜H)を求めるよう路面標示検出手段6に指示する。次いで路面標示検出手段6は各交点間の距離が一定の比を満たすか否かを判別し、一定の比を満たせばステップS604に進み、満たさなければ、当該検出処理を終了する。ここでは、横断歩道が画像中に含まれおり、交点間の距離が一定の比を満たすため、ステップS604に進む。 Next, the control means 7 proceeds to step S603, as shown in FIG. 17, the intersection (A to H) between the white line candidates (L12 to L21) obtained by the feature extraction means 5 and the preset reference line. Is instructed to the road marking detection means 6. Next, the road marking detection means 6 determines whether or not the distance between the intersections satisfies a certain ratio. If the certain ratio is satisfied, the process proceeds to step S604, and if not, the detection process is terminated. Here, since the pedestrian crossing is included in the image and the distance between the intersections satisfies a certain ratio, the process proceeds to step S604.
次に、ステップS604では、制御手段7は、ステップS603で得られた一定の比を満たす白線候補同士の交点を算出するよう路面標示検出手段6に指示する。交点(xvp,yvp)の算出は、白線候補の傾き及び切片をαi、qiとしたとき、式6、式7で行うことができる。横断歩道を構成する白線は、3次元的に平行であるため、これを2次元に射影した画像データは、消失点で1点に交わる。この消失点形成の有無を交点(xvp,yvp)の取り得る範囲に閾値を設けることで判別する。上記条件を満たせば、ステップS605に進み、消失点を形成しない場合は、当該検出処理を終了する。ここでは、図18に示すように、白線候補が消失点を形成するため、ステップS605へ進む。 Next, in step S604, the control means 7 instructs the road marking detection means 6 to calculate the intersection of white line candidates that satisfy the certain ratio obtained in step S603. The intersection point (x vp , y vp ) can be calculated by Equations 6 and 7, where α i and q i are the slope and intercept of the white line candidate. Since the white lines constituting the pedestrian crossing are three-dimensionally parallel, the image data obtained by projecting the two-dimensionally crosses one point at the vanishing point. Whether or not this vanishing point is formed is determined by providing a threshold value in a range that the intersection (x vp , y vp ) can take. If the above condition is satisfied, the process proceeds to step S605. If no vanishing point is formed, the detection process is terminated. Here, as shown in FIG. 18, since the white line candidate forms a vanishing point, the process proceeds to step S605.
次に、ステップS605では、制御手段7は、横断歩道の上下線(車両走行方向に平行な白線を横断する形で引かれている横断歩道の手前と奥に位置する白線)の検出を行うために、横断歩道上下端の大まかな位置を決定するよう路面標示検出手段6に指示する。位置の決定には、図19に示すように、まず、各白線候補線の中点を中心に、白線候補の延長線方向に走査線を生成する。次に、その走査線に沿って、水平方向に輝度値分散w(j)を計算する。上記分散値は、白線部では大きく、路面部において小さな値を示すため、その変化点を横断歩道の上下端点とする。 Next, in step S605, the control means 7 detects the upper and lower lines of the pedestrian crossing (white lines located before and behind the pedestrian crossing that is drawn across the white line parallel to the vehicle traveling direction). In addition, the road marking detection means 6 is instructed to determine the approximate positions of the upper and lower ends of the pedestrian crossing. For determining the position, as shown in FIG. 19, first, a scanning line is generated in the direction of the extension line of the white line candidate, centering on the midpoint of each white line candidate line. Next, the luminance value variance w (j) is calculated in the horizontal direction along the scanning line. Since the variance value is large in the white line portion and small in the road surface portion, the change point is set as the upper and lower end points of the pedestrian crossing.
図20に、ステップS605で得られた横断歩道の上下端点の例を示す。 FIG. 20 shows an example of upper and lower end points of the pedestrian crossing obtained in step S605.
次にステップS606において、制御手段7は、ステップS605で得られた上下端点に基づいて、横断歩道の上下線を求めるための探索領域の決定を行う指示を路面標示検出手段6に出す。探索領域の決定処理は、例えば、まず、ステップS605で得られた上下端点それぞれに対し、最小2乗推定法を用いて、直線を算出する。次に、算出された直線をy=ax+bとしたとき、式8を満たす領域を探索領域とすることで行うことができる。ただし、式8中のv、νは、処理範囲を設定するための閾値である。
Next, in step S606, the control means 7 issues an instruction to the road marking detection means 6 for determining the search area for obtaining the vertical line of the pedestrian crossing based on the upper and lower end points obtained in step S605. In the search area determination process, for example, first, a straight line is calculated for each of the upper and lower end points obtained in step S605 using the least square estimation method. Next, when the calculated straight line is y = ax + b, the
図21は、ステップS606で得られた横断歩道上下線の探索領域をそれぞれ、探索領域1、探索領域2とした例である。次に,ステップS607において、横断歩道の上下線を求める。
FIG. 21 is an example in which the search areas of the pedestrian crossing vertical line obtained in step S606 are set as
ステップS607において、制御手段7は、探索領域内のエッジ点を最も多く通る直線を横断歩道の上下線として検出する指示を路面標示検出手段6に行う。横断歩道の上下線の検出を行う処理では、各探索領域内の任意のエッジ点2つを選び、それを結ぶ線分上に位置する他のエッジ点数のカウントを行う。これを全ての組み合わせで行い、カウント数の最も大きな線分を横断歩道の上下線とする。 In step S <b> 607, the control unit 7 instructs the road marking detection unit 6 to detect the straight line that passes through the most edge points in the search area as the upper and lower lines of the pedestrian crossing. In the process of detecting the vertical line of the pedestrian crossing, two arbitrary edge points in each search area are selected, and the number of other edge points located on the line segment connecting them is counted. This is done in all combinations, and the line segment with the largest count is taken as the vertical line of the pedestrian crossing.
図22は、ステップS607で得られた横断歩道の上下線を示した例である。 FIG. 22 is an example showing the vertical lines of the pedestrian crossing obtained in step S607.
以上、実施の形態1について説明した。本実施の形態では、路面標示検出手段6において、ステップS603及びステップS604の処理を用いて、横断歩道の有無を判別したが、路面標示検出手段6の他の実施例として、図23のフローチャートで示すようにステップS603及びステップS604の処理の代わりにステップS701の横断歩道有無判別処理機能を有するものに変更しても良い。この実施例における路面標示検出手段6の横断歩道有無判別処理ステップS701は、次のような手順で、横断歩道の有無判別を行う。図24(a)で示すように、図2のステップS16で生成された白線候補の延長線方向を走査線とし、その走査線上に位置するエッジ分布を求める。図24(b)は、走査線上に位置するエッジの分布を示した例である。横断歩道を構成するエッジは、各白線候補の走査線上において特定の位置に分布しているため、走査線上のエッジ位置に関する分散が大きくなる。この分散値を指標とすることで、横断歩道の判別を行うことができる。 The first embodiment has been described above. In the present embodiment, the road marking detection unit 6 determines the presence or absence of a pedestrian crossing by using the processing of step S603 and step S604. As another example of the road marking detection unit 6, FIG. As shown, it may be changed to one having the pedestrian crossing presence / absence determination processing function of step S701 instead of the processing of step S603 and step S604. In the present embodiment, the pedestrian crossing presence / absence determination processing step S701 of the road surface marking detection means 6 determines whether or not there is a pedestrian crossing by the following procedure. As shown in FIG. 24A, the extension line direction of the white line candidate generated in step S16 in FIG. 2 is set as a scanning line, and an edge distribution located on the scanning line is obtained. FIG. 24B shows an example of the distribution of edges located on the scanning line. Since the edges constituting the pedestrian crossing are distributed at specific positions on the scanning lines of the white line candidates, the dispersion relating to the edge positions on the scanning lines increases. By using this dispersion value as an index, it is possible to determine a pedestrian crossing.
また、本実施の形態では、路面標示検出手段6において、ステップS603及びステップS604の処理を用いて、横断歩道の有無を判別したが、横断歩道を構成する白線幅と道路白線の幅は異なるため、白線幅に関する閾値を設けることで、横断歩道が存在するか否かを判別する処理に変更・追加しても良い。 In the present embodiment, the road marking detection means 6 determines whether or not there is a pedestrian crossing by using the processing of step S603 and step S604. However, the white line width and the road white line constituting the pedestrian crossing are different. By providing a threshold value regarding the white line width, it may be changed or added to the process for determining whether or not a pedestrian crossing exists.
また、本実施の形態では、路面標示検出手段6において、ステップS603及びステップS604の処理を用いて、横断歩道の有無を判別したが、路面標示検出手段6のさらに他の実施例として、図25のフローチャートで示すようなステップS702の横断歩道有無判別処理を追加する機能を有するものにしても良い。ステップS702では、ステップS16において生成された白線候補数が所定数以上か否かにより横断歩道の有無判別を行う。横断歩道は、所定数以上の白線候補から構成されるため、この白線候補数に関する閾値を設けることで行うことができる。
このような路面標示検出手段6を用いれば、横断歩道有無の判別処理の精度がさらにあがる。
Further, in the present embodiment, the road marking detection unit 6 determines the presence or absence of a pedestrian crossing by using the processing of step S603 and step S604. As still another example of the road marking detection unit 6, FIG. It may have a function of adding a crosswalk presence / absence determination process in step S702 as shown in the flowchart of FIG. In step S702, the presence / absence of a pedestrian crossing is determined based on whether the number of white line candidates generated in step S16 is a predetermined number or more. Since a pedestrian crossing is composed of a predetermined number or more of white line candidates, it can be performed by providing a threshold value regarding the number of white line candidates.
If such a road marking detection means 6 is used, the accuracy of the determination process of the presence or absence of a pedestrian crossing is further improved.
また、本実施の形態では、エッジ抽出手段2における入力画像のエッジ抽出処理は、ステップSOBELオペレータ以外の方法で実施しても良く、例えばCannyオペレータなどのエッジ抽出フィルタを用いて行っても良い。 In the present embodiment, the edge extraction processing of the input image in the edge extraction means 2 may be performed by a method other than the step SOBEL operator, for example, using an edge extraction filter such as a Canny operator.
また、本実施の形態では、線分抽出手段4における線分抽出処理として、直線検出アルゴリズムの1つであるHough変換や最小2乗法などの手法を用いて行っても良い。
Further, in the present embodiment, the line segment extraction processing in the line
上記のように、本実施の形態によれば、白線及び横断歩道線を構成する白線候補の特徴を抽出する特徴抽出手段5を設け、前記特徴抽出手段5で抽出された特徴を基に白線と横断歩道線の構造の相違に着目して検出するようにしたので、データベースが不要でかつ高速に検出を行うことができる。
As described above, according to the present embodiment, the
実施の形態2.
以下、本発明の実施の形態2について図1、2、26を用いて説明する。本実施の形態2は路面標示検出手段6の構成、機能が実施の形態1と異なるのみで概略構成は図1に示す実施の形態1と同様であり、路面標示検出装置の概略処理手順も図2に示すフローチャートと同様である。図26は本実施の形態2における路面標示検出手段6のフローチャートである。
なお、図中、実施の形態1と同一または相当部分は同一の符号を付し、その説明を省略する。
The second embodiment of the present invention will be described below with reference to FIGS. The second embodiment is the same as the first embodiment shown in FIG. 1 except for the configuration and function of the road marking detection means 6, and the schematic configuration is the same as that of the first embodiment shown in FIG. This is the same as the flowchart shown in FIG. FIG. 26 is a flowchart of the road marking detection means 6 in the second embodiment.
In the figure, the same or corresponding parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
本実施の形態2の動作を図2に示すフローチャートにより説明する。
制御手段7は、実施の形態1と同様の手順で、まず、画像入力手段1に指示し、画像を入手する。ここでは、図27の画像を入手したとする。入手した画像は、実施の形態1と同様、ステップS12からステップS17の処理を行い白線候補の特徴が抽出される。
The operation of the second embodiment will be described with reference to the flowchart shown in FIG.
The control means 7 first instructs the image input means 1 and obtains an image in the same procedure as in the first embodiment. Here, it is assumed that the image of FIG. 27 is obtained. As in the first embodiment, the obtained image is subjected to the processing from step S12 to step S17 to extract the features of white line candidates.
図28は、図27の入手画像から白線候補の特徴を抽出した例であり、特徴抽出手段5により、図中L22〜L29に示される白線候補の傾き、及び、●印で示されるカメラ(画像入力手段1)側に近い端点t22〜t29が特徴として抽出される。 FIG. 28 is an example in which the features of white line candidates are extracted from the obtained image of FIG. 27, and the feature extraction means 5 uses the camera (image) indicated by the inclinations of the white line candidates indicated by L22 to L29 in the figure and the ● marks. The end points t22 to t29 close to the input means 1) side are extracted as features.
次に、制御手段7は、路面標示検出手段6に処理を指示し、路面標示検出手段6は白線及び横断歩道の検出を行う。白線及び横断歩道の検出の動作の流れを図26のフローチャートを用いて説明する。なお、路面標示検出手段6におけるステップS601、S602の白線検出は、実施の形態1と同一であるため、その説明を省略する。 Next, the control means 7 instructs the road marking detection means 6 to perform processing, and the road marking detection means 6 detects white lines and pedestrian crossings. The flow of operations for detecting white lines and pedestrian crossings will be described with reference to the flowchart of FIG. Note that the white line detection in steps S601 and S602 in the road marking detection means 6 is the same as that in the first embodiment, and a description thereof will be omitted.
ステップS603において、制御手段7は、図29に示すように、特徴抽出手段5で得られた白線候補(L22〜L29)と、あらかじめ設定した基準線との交点(A、B、C、D)を求めるよう路面標示検出手段6に指示をする。各交点間の距離が一定の比を満たすか否かを判別し、一定の比を満たせばステップS604に進み、満たさなければ、ステップS703に進む。ここでは、横断歩道を構成する白線が、かすれによって一部検出されなかったため、交点間の距離の比が一定の比にならず。ステップS703に進む。 In step S603, the control means 7, as shown in FIG. 29, intersects (A, B, C, D) between the white line candidates (L22 to L29) obtained by the feature extraction means 5 and a preset reference line. Is instructed to the road marking detection means 6. It is determined whether or not the distance between the intersections satisfies a certain ratio. If the certain ratio is satisfied, the process proceeds to step S604, and if not, the process proceeds to step S703. Here, the white lines that make up the pedestrian crossing were not partially detected by blurring, so the ratio of the distances between the intersections did not become a constant ratio. The process proceeds to step S703.
次に、ステップS703において、路面標示検出手段6は、検出された交点のみから、かすれなどによって、検出されなかった交点を推測し、横断歩道の有無判別処理を行う。具体的には、検出された交点(A、B、C、D)から、各交点間の距離を計算し、算出された距離AB、BC、CDを用いて、式9、式10を満たすか否かで行うことができる。式9、式10の条件を満たさない場合は当該検出処理を終了する。ここでは、条件を満たし、ステップS604に進む。
Next, in step S703, the road surface marking detection means 6 estimates an intersection that has not been detected by fading or the like only from the detected intersection, and performs a crosswalk presence / absence determination process. Specifically, the distance between each intersection is calculated from the detected intersections (A, B, C, D), and using the calculated distances AB, BC, CD, whether the
次に、ステップS604では、制御手段7は、ステップS703で得られた白線候補が消失点を形成するか否かの判別を行う指示を路面標示検出手段6にだす。ここでは、白線候補が消失点を形成するため、ステップS605へ進む。消失点を形成しない場合は当該検出処理を終了する。 Next, in step S604, the control means 7 gives an instruction for determining whether or not the white line candidate obtained in step S703 forms a vanishing point to the road marking detection means 6. Here, since the white line candidate forms a vanishing point, the process proceeds to step S605. If no vanishing point is formed, the detection process ends.
次に、ステップS605では、制御手段7は、横断歩道の上下線の検出を行うために、横断歩道上下端の大まかな位置を決定するよう路面標示検出手段6に指示し、路面標示検出手段6は横断歩道の上下端点を抽出する。 Next, in step S605, the control means 7 instructs the road marking detection means 6 to determine the approximate positions of the upper and lower pedestrian crossings in order to detect the upper and lower lines of the pedestrian crossing, and the road marking detection means 6 Extracts the top and bottom points of the pedestrian crossing.
次にステップS606において、制御手段7は、ステップS605で得られた上下端点に基づいて、横断歩道の上下線を求めるための探索領域の決定を行う指示を路面標示検出手段6に出し、路面標示検出手段6は探索領域の決定を行う。 Next, in step S606, the control means 7 issues an instruction to the road marking detection means 6 to determine the search area for obtaining the vertical line of the pedestrian crossing based on the upper and lower end points obtained in step S605. The detection means 6 determines a search area.
ステップS607では、制御手段7は、探索領域内のエッジ点を最も多く通る直線を横断歩道の上下線として検出する指示を路面標示検出手段6に行い路面標示検出手段6は横断歩道の上下線を検出する。 In step S607, the control means 7 instructs the road marking detection means 6 to detect the straight line passing through the most edge points in the search area as the vertical line of the pedestrian crossing, and the road marking detection means 6 displays the vertical line of the pedestrian crossing. To detect.
以上のように、本実施の形態によれば、実施の形態1の効果に加えて、路面標示検出手段6において、横断歩道の有無を再判定する処理を設けるようにしたので、横断歩道の一部がかすれや隠蔽されている場合においても検出を行うことができる。 As described above, according to the present embodiment, in addition to the effect of the first embodiment, the road marking detection means 6 is provided with a process for re-determining the presence or absence of a pedestrian crossing. Detection can be performed even when the part is faint or concealed.
本発明はデータベースを用いずに白線と横断歩道線の路面標示を高速に検出することが可能なため、ナビゲーション装置に適用で、GPS(Global Positioning System)からの自車位置の検出信号と併用することで、自車の位置の検出精度を高めることができる。 Since the present invention can detect the road markings of the white line and the pedestrian crossing line at high speed without using a database, it is applied to a navigation apparatus and used together with a detection signal of the vehicle position from a GPS (Global Positioning System). Thus, the detection accuracy of the position of the own vehicle can be increased.
1:画像入力手段、2:エッジ抽出手段、3:画像分割手段、4:線分抽出手段、5:特徴抽出手段、6:路面標示検出手段、7:制御手段。 1: image input means, 2: edge extraction means, 3: image segmentation means, 4: line segment extraction means, 5: feature extraction means, 6: road marking detection means, 7: control means.
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004161109A JP4575031B2 (en) | 2004-05-31 | 2004-05-31 | In-vehicle road marking detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004161109A JP4575031B2 (en) | 2004-05-31 | 2004-05-31 | In-vehicle road marking detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005339468A JP2005339468A (en) | 2005-12-08 |
JP4575031B2 true JP4575031B2 (en) | 2010-11-04 |
Family
ID=35492933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004161109A Expired - Fee Related JP4575031B2 (en) | 2004-05-31 | 2004-05-31 | In-vehicle road marking detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4575031B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264712A (en) * | 2006-03-27 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane detection device |
JP5109294B2 (en) * | 2006-06-19 | 2012-12-26 | 三菱電機株式会社 | 3D position correction device |
JP5631581B2 (en) * | 2009-12-01 | 2014-11-26 | 富士重工業株式会社 | Road recognition device |
JP5554579B2 (en) * | 2010-01-26 | 2014-07-23 | 富士通株式会社 | Lane detection program and lane detection device |
WO2017061148A1 (en) | 2015-10-09 | 2017-04-13 | 株式会社Ihi | Line segment detection method |
JP6647171B2 (en) * | 2016-07-29 | 2020-02-14 | エヌ・ティ・ティ・コムウェア株式会社 | Information processing apparatus, information processing method, and program |
JP7032280B2 (en) * | 2018-10-11 | 2022-03-08 | トヨタ自動車株式会社 | Pedestrian crossing marking estimation device |
JP7229804B2 (en) * | 2019-02-14 | 2023-02-28 | フォルシアクラリオン・エレクトロニクス株式会社 | Image processing device and image processing method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0290381A (en) * | 1988-09-28 | 1990-03-29 | Honda Motor Co Ltd | Running path discriminating method |
JPH07271978A (en) * | 1994-03-29 | 1995-10-20 | Toshiba Corp | Image processor |
JPH0844999A (en) * | 1994-08-03 | 1996-02-16 | Nissan Motor Co Ltd | Approach prediction device |
JPH08315296A (en) * | 1995-05-12 | 1996-11-29 | Mitsubishi Electric Corp | Device and method for monitoring road surface |
JPH10187973A (en) * | 1996-12-19 | 1998-07-21 | Mitsubishi Heavy Ind Ltd | Road white line recognizing device |
JPH10232937A (en) * | 1996-12-17 | 1998-09-02 | Technol Res Assoc Of Medical & Welfare Apparatus | Method and instrument for measuring meal tray |
-
2004
- 2004-05-31 JP JP2004161109A patent/JP4575031B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0290381A (en) * | 1988-09-28 | 1990-03-29 | Honda Motor Co Ltd | Running path discriminating method |
JPH07271978A (en) * | 1994-03-29 | 1995-10-20 | Toshiba Corp | Image processor |
JPH0844999A (en) * | 1994-08-03 | 1996-02-16 | Nissan Motor Co Ltd | Approach prediction device |
JPH08315296A (en) * | 1995-05-12 | 1996-11-29 | Mitsubishi Electric Corp | Device and method for monitoring road surface |
JPH10232937A (en) * | 1996-12-17 | 1998-09-02 | Technol Res Assoc Of Medical & Welfare Apparatus | Method and instrument for measuring meal tray |
JPH10187973A (en) * | 1996-12-19 | 1998-07-21 | Mitsubishi Heavy Ind Ltd | Road white line recognizing device |
Also Published As
Publication number | Publication date |
---|---|
JP2005339468A (en) | 2005-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3169483B2 (en) | Road environment recognition device | |
JP4327389B2 (en) | Travel lane recognition device | |
CN109791598A (en) | The image processing method of land mark and land mark detection system for identification | |
JP6560355B2 (en) | Landmark recognition apparatus and recognition method | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
EP2372304A2 (en) | Vehicle position recognition system | |
CN104376297A (en) | Detection method and device for linear indication signs on road | |
US10963708B2 (en) | Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes of a road | |
JP2003228711A (en) | Lane mark recognition method | |
JP6303362B2 (en) | MAP MATCHING DEVICE AND NAVIGATION DEVICE HAVING THE SAME | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
CN107021103B (en) | Information computing device | |
CN109960999B (en) | External environment recognition device | |
EP1596322B1 (en) | Driving lane recognizer and driving lane recognizing method | |
WO2008139928A1 (en) | Route guidance system and route guidance method | |
JP5974923B2 (en) | Road edge detection system, method and program | |
JP4575031B2 (en) | In-vehicle road marking detection device | |
JP5888275B2 (en) | Road edge detection system, method and program | |
JP2022088094A (en) | Image recognition device and image recognition method | |
JP3470172B2 (en) | Traffic flow monitoring device | |
JP3227247B2 (en) | Roadway detection device | |
KR101938145B1 (en) | Optimum driving lane leading method and system using a front image and navigation information | |
KR101706455B1 (en) | Road sign detection-based driving lane estimation method and apparatus | |
KR101595317B1 (en) | Precise positioning of the vehicle for detecting a road surface display method and system | |
JP6143176B2 (en) | Stop line detection device, moving body control device, and stop line detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100817 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4575031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130827 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |