[go: up one dir, main page]

JPH1115952A - Travel lane recognition device - Google Patents

Travel lane recognition device

Info

Publication number
JPH1115952A
JPH1115952A JP9169191A JP16919197A JPH1115952A JP H1115952 A JPH1115952 A JP H1115952A JP 9169191 A JP9169191 A JP 9169191A JP 16919197 A JP16919197 A JP 16919197A JP H1115952 A JPH1115952 A JP H1115952A
Authority
JP
Japan
Prior art keywords
obstacle
white line
vehicle
road
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9169191A
Other languages
Japanese (ja)
Other versions
JP3433650B2 (en
Inventor
Yoshiaki Miichi
善紀 見市
Yoshifusa Nakane
吉英 中根
Kazuya Hayafune
一弥 早舩
Takashi Ota
貴志 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP16919197A priority Critical patent/JP3433650B2/en
Publication of JPH1115952A publication Critical patent/JPH1115952A/en
Application granted granted Critical
Publication of JP3433650B2 publication Critical patent/JP3433650B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】 走行レーン認識装置において、画像処理によ
る白線の認識に際し先行車の影響を回避して低コストで
正しく走行レーンを認識できるようにする。 【解決手段】 撮像手段2で撮像された画像情報を画像
情報処理手段4で処理し、この処理された情報から得ら
れる前方道路上の左右の白線位置に基づいて推定手段5
により車両に対する走行レーン位置を推定する走行レー
ン認識装置において、前方道路上の障害物を検出する障
害物位置検出手段3をそなえ、推定手段5が、障害物位
置検出手段3により該障害物が検出されると、該障害物
が既に推定して得られた該走行レーンにおける左右いず
れかに偏在している場合には、上記の左右の白線のうち
該障害物位置から離隔した側の白線情報を主体として該
走行レーン位置の推定を行なうように構成する。
(57) [Problem] To provide a traveling lane recognition device capable of correctly recognizing a traveling lane at a low cost by avoiding the influence of a preceding vehicle when recognizing a white line by image processing. SOLUTION: Image information picked up by an image pickup means 2 is processed by an image information processing means 4 and an estimating means 5 based on left and right white line positions on a front road obtained from the processed information.
In the traveling lane recognition device for estimating the traveling lane position with respect to the vehicle, there is provided an obstacle position detecting means 3 for detecting an obstacle on the road ahead, and the estimating means 5 detects the obstacle by the obstacle position detecting means 3. Then, when the obstacle is unevenly distributed on either the left or right in the travel lane obtained and estimated, the white line information on the side of the left and right white lines separated from the obstacle position is displayed. The driving lane position is configured to be mainly estimated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビカメラ等に
よる撮影で得られた画像情報から、道路において白線で
代表される走行区分線により規定される走行レーン規定
形状の把握を行なうための、走行レーン認識装置に関
し、特に、前方道路上に存在する先行車等の障害物の存
在を考慮して走行レーン認識を行なう、走行レーン認識
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a driving method for determining a driving lane defining shape specified by a driving lane marking represented by a white line on a road from image information obtained by photographing with a television camera or the like. More particularly, the present invention relates to a travel lane recognition apparatus that performs travel lane recognition in consideration of the presence of an obstacle such as a preceding vehicle existing on a road ahead.

【0002】[0002]

【従来の技術】近年、自動車にテレビカメラを設置し
て、走行中の道路の形状把握や、道路に対する車両姿勢
の把握を行なって、自動車の自動走行制御に用いたり、
ドライバへの各種警告のために用いたりする技術が開発
されている。例えば車両に設置したカメラからの画像情
報のうち、明度の高い部分を白線候補点として、この中
から前回の画面情報で得た白線位置(白線認識情報)に
最も近い点を白線であると認識して、この道路白線に基
づいて走行レーンを把握して操舵を行なうようにした、
道路白線認識(走行レーン認識)に関する技術が、特開
平3−137798号公報等に開示されている。
2. Description of the Related Art In recent years, a television camera has been installed in an automobile to grasp the shape of a running road and the attitude of the vehicle with respect to the road, and to use it for automatic driving control of the automobile.
Techniques have been developed that are used for various warnings to the driver. For example, of image information from a camera installed in a vehicle, a portion having high brightness is a white line candidate point, and a point closest to the white line position (white line recognition information) obtained in the previous screen information is recognized as a white line. Then, based on this road white line, the traveling lane was grasped and steering was performed,
A technique relating to road white line recognition (running lane recognition) is disclosed in Japanese Patent Application Laid-Open No. 3-137798.

【0003】また、特開平7−85249号公報には、
画像情報に基づいて白線探索エリア内で横方向に明度変
化を探索して、明度変化が極めて少ない部分を道路部分
であると判断し、且つ、明度変化が極めて少ない道路部
分に隣接して明度変化が大きい部分について白線である
と認識する技術が開示されている。このような道路白線
認識装置(走行レーン認識装置)は、カメラ(撮像手
段)と、カメラからの画像情報の処理を行なうECU
(電子制御ユニット)とをそなえ、まず、カメラで画像
(実画像)を取得して、ECUでこの画像を処理する
が、このとき、ECUでは、画像(原画像)を平面視の
2次元画像に変換して、原画像の道路白線を平面視画像
の道路白線に変換した上で白線認識を行なう。
[0003] Also, JP-A-7-85249 discloses that
A brightness change is searched in the horizontal direction in the white line search area based on the image information, and a portion where the brightness change is extremely small is determined to be a road portion, and the brightness change is adjacent to a road portion where the brightness change is extremely small. There is disclosed a technique for recognizing a portion where is large as a white line. Such a road white line recognition device (traveling lane recognition device) includes a camera (imaging means) and an ECU for processing image information from the camera.
(Electronic control unit), an image (actual image) is first obtained by a camera, and this image is processed by the ECU. At this time, the ECU converts the image (original image) into a two-dimensional image in plan view. Then, the road white line of the original image is converted into the road white line of the planar view image, and white line recognition is performed.

【0004】[0004]

【発明が解決しようとする課題】ところで、道路上の白
線(走行区分線)を認識する場合、カメラから白線まで
の間の空間に、障害物がないことが前提となる。つま
り、白線からカメラに至る光軸上に障害物があったら白
線をカメラでとらえることができず、当然、白線認識を
行なうことはできない。実際に走行する道路上前方に
は、先行車が走行していたり停止車両が存在することも
あり、これら前方の他車両が障害物となって、白線認識
が困難となる不具合や、前方の他車両のエッジ部分を白
線のエッジと認識してしまうなど、白線を誤認識してし
まう不具合がある。
When recognizing a white line (a lane marking) on a road, it is assumed that there is no obstacle in the space between the camera and the white line. That is, if there is an obstacle on the optical axis from the white line to the camera, the white line cannot be captured by the camera, and the white line cannot be recognized naturally. There may be a preceding vehicle running or a stopped vehicle in front of the road on which the vehicle actually travels.Therefore, other vehicles in front of the road may become obstacles, making it difficult to recognize the white line. There is a problem that a white line is erroneously recognized, such as an edge portion of a vehicle being recognized as an edge of a white line.

【0005】したがって、白線(走行区分線)の認識に
際して、路上の先行車の影響を回避してより正しく白線
を認識できるようにしたい。特開平8−30770号公
報には、テレビカメラで撮影した走行区分線に関する画
像のうち、先行車等の障害物が存在する領域を処理禁止
領域としてこの禁止領域を除いた画像領域について処理
を行なうようにして、走行区分線の認識に際し前方道路
上の先行車の影響を回避する技術が開示されている。し
かし、この技術では、処理禁止領域の設定等のロジック
が複雑になり易く、画像処理装置に高い処理能力が要求
され、コスト高を招く。
Therefore, when recognizing a white line (a lane marking), it is desired to avoid the influence of a preceding vehicle on the road so that the white line can be recognized more correctly. Japanese Patent Application Laid-Open No. Hei 8-30770 discloses that an image area obtained by using a television camera and which includes an obstacle such as a preceding vehicle is processed in an image area excluding the prohibited area. In this way, a technique for avoiding the influence of a preceding vehicle on a road ahead in recognizing a lane marking is disclosed. However, in this technique, the logic for setting the processing prohibited area or the like is likely to be complicated, and a high processing capability is required for the image processing apparatus, resulting in an increase in cost.

【0006】本発明は、上述の課題に鑑み創案されたも
ので、画像処理による白線(走行区分線)の認識に際
し、画像処理系に大きな負担を与えることなく前方道路
上の先行車の影響を回避できるようにして、低コストで
より正しく走行レーンを認識できるようにした、走行レ
ーン認識装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and recognizes the influence of a preceding vehicle on a road ahead without imposing a large burden on an image processing system when recognizing a white line (traveling lane) by image processing. It is an object of the present invention to provide a traveling lane recognition device which can avoid the traveling lane and can recognize the traveling lane more accurately at low cost.

【0007】[0007]

【課題を解決するための手段】このため、請求項1記載
の本発明の走行レーン認識装置では、車両の前方道路を
撮像する撮像手段と、該撮像手段で撮像された画像情報
を処理する画像情報処理手段と、該画像情報処理手段で
処理された情報から得られる該前方道路上の左右の白線
位置に基づいて該車両に対する走行レーン位置を推定す
る推定手段とをそなえており、撮像手段で撮像された画
像情報を画像情報処理手段で処理して、この処理された
情報から得られる該前方道路上の左右の白線位置に基づ
いて推定手段が該車両に対する走行レーン位置を推定す
る。
According to a first aspect of the present invention, there is provided a driving lane recognizing apparatus, comprising: an image pickup means for picking up an image of a road ahead of a vehicle; and an image for processing image information picked up by the image pickup means. Information processing means; and estimating means for estimating a traveling lane position for the vehicle based on left and right white line positions on the front road obtained from information processed by the image information processing means. The captured image information is processed by the image information processing means, and the estimating means estimates a travel lane position for the vehicle based on left and right white line positions on the front road obtained from the processed information.

【0008】さらに、該前方道路上に障害物が存在する
場合に該障害物の位置を検出する障害物位置検出手段が
そなえられており、推定手段では、この障害物位置検出
手段により該前方道路上の該障害物とその位置が検出さ
れた場合には、既に推定して得られた該走行レーンにお
いて該障害物が左右いずれかに偏在していると、上記の
左右の白線のうち該障害物位置から離隔した側の白線情
報を主体として該走行レーン位置の推定を行なう。
[0008] Further, there is provided an obstacle position detecting means for detecting the position of the obstacle when there is an obstacle on the road ahead, and the estimating means includes an obstacle position detecting means for detecting the position of the obstacle. When the obstacle and its position above are detected, if the obstacle is unevenly distributed to the left or right in the travel lane that has been estimated and obtained, the obstacle in the left and right white lines The travel lane position is estimated mainly using the white line information on the side separated from the object position.

【0009】つまり、該障害物位置が左の白線側に偏在
していれば主として右側の白線情報に基づいて走行レー
ン位置を推定し、該障害物位置が右の白線側に偏在して
いれば主として左側の白線情報に基づいて走行レーン位
置を推定する。これにより、該障害物の影響を受けず
に、該走行レーン位置の推定が行なわれるようになる。
That is, if the obstacle position is unevenly located on the left white line side, the travel lane position is estimated mainly based on the right white line information, and if the obstacle position is unevenly located on the right white line side. The travel lane position is estimated mainly based on the left white line information. Thus, the travel lane position can be estimated without being affected by the obstacle.

【0010】請求項2記載の本発明の走行レーン認識装
置では、該推定手段は、該障害物位置検出手段の検出情
報に基づいて該障害物が該車両から白線認識距離以内に
接近した場合に、上記の障害物位置から離隔した側の白
線情報を主体とした走行レーン位置の推定を行なうの
で、障害物が白線認識距離以遠にある場合、即ち、障害
物が白線の認識に影響のない場合には、左右の白線情報
に基づいて該走行レーン位置の推定を行なうことにな
る。
In the driving lane recognizing device according to the present invention, the estimating means determines whether or not the obstacle approaches the vehicle within a white line recognition distance based on the detection information of the obstacle position detecting means. Since the travel lane position is estimated mainly based on the white line information on the side separated from the obstacle position, the obstacle is located beyond the white line recognition distance, that is, the obstacle does not affect the white line recognition. Then, the travel lane position is estimated based on the left and right white line information.

【0011】[0011]

【発明の実施の形態】以下、図面により、本発明の実施
の形態について説明すると、図1〜図5は本発明の一実
施形態としての走行レーン認識装置及び本走行レーン認
識装置を利用した自動操舵装置を示すものである。図2
に示すように、車両1には、この車両前方の道路状態を
撮像する撮像手段としてのカメラ2と、車両前方に先行
車等の障害物が存在したらこの障害物位置に関して検出
する障害物位置検出手段3と、カメラ2からの画像情報
から画像情報を適宜処理して前方道路上の左右の白線位
置を認識する画像情報処理手段4と、この画像情報処理
手段4による白線位置画像情報と障害物位置検出手段3
からの障害物位置情報とから走行レーンの位置や特徴及
び自車両との位置関係を推定する走行レーン推定手段
(推定手段)5と、操舵輪22を転舵させるための操舵
アクチュエータ21と、走行レーン推定手段5の認識結
果に基づいて操舵アクチュエータ21を制御するコント
ローラ6とがそなえられている。なお、20はステアリ
ングホイールである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to the drawings. FIGS. 1 to 5 show a traveling lane recognition apparatus as an embodiment of the present invention and an automatic lane recognition apparatus using the traveling lane recognition apparatus. 3 shows a steering device. FIG.
As shown in FIG. 1, the vehicle 1 has a camera 2 as an imaging means for imaging the road condition ahead of the vehicle, and an obstacle position detection for detecting the position of an obstacle such as a preceding vehicle if there is an obstacle ahead of the vehicle. Means 3, image information processing means 4 for appropriately processing image information from image information from the camera 2 to recognize left and right white line positions on the front road, and white line position image information and obstacles by the image information processing means 4. Position detecting means 3
Traveling lane estimating means (estimating means) 5 for estimating the position and characteristics of the traveling lane and the positional relationship with the vehicle from the obstacle position information from the vehicle, a steering actuator 21 for turning the steered wheels 22, and traveling A controller 6 for controlling the steering actuator 21 based on the recognition result of the lane estimating means 5 is provided. In addition, 20 is a steering wheel.

【0012】また、障害物位置検出手段3,画像情報処
理手段4,走行レーン推定手段5,コントローラ6は、
CPU,入出力インタフェース,ROM,RAM等をそ
なえてなる電子制御ユニットとして構成される。そし
て、本走行レーン認識装置は、撮像手段としてのカメラ
2と、画像情報処理手段4と、障害物位置検出手段と、
推定手段5とから構成されている。
The obstacle position detecting means 3, the image information processing means 4, the traveling lane estimating means 5, and the controller 6
The electronic control unit includes a CPU, an input / output interface, a ROM, a RAM, and the like. The traveling lane recognition device includes a camera 2 as an imaging unit, an image information processing unit 4, an obstacle position detection unit,
And estimating means 5.

【0013】なお、カメラ2は、車両前方正面のやや下
方に向けて設置されており、車両が走行する前方の道路
の所定の撮影範囲で撮影しうる。障害物位置検出手段3
は、レーザレーダ3Aとこのレーザレーダ3Aからの情
報を処理するレーダ情報処理部3Bとをそなえている。
特に、レーザレーダ3Aは、車両1の前方道路上に先行
車等の何らかの物体(これらを障害物という)が存在す
るか否かを検出するとともに、障害物が存在したら障害
物の位置及び障害物までの距離とを検出する。
Note that the camera 2 is installed slightly downward in front of the front of the vehicle, and is capable of photographing in a predetermined photographing range on the road ahead of the vehicle. Obstacle position detection means 3
Has a laser radar 3A and a radar information processing unit 3B that processes information from the laser radar 3A.
In particular, the laser radar 3A detects whether or not there is any object such as a preceding vehicle on the road ahead of the vehicle 1 (these are referred to as obstacles), and if an obstacle exists, the position of the obstacle and the obstacle. To detect the distance to.

【0014】つまり、レーザレーダ3Aは、カメラ2と
対応するように検出方向を車体前方に向けられており、
このレーザレーダ3Aでとらえた物体のレーダからの距
離を検出しうるとともに、レーザレーダ3Aでとらえた
物体のレーダ上での位置をカメラ2でとらえた走行レー
ン位置に関する画像に対応させて把握することができる
ようになっている。
That is, the detection direction of the laser radar 3A is directed to the front of the vehicle body so as to correspond to the camera 2,
The distance of the object captured by the laser radar 3A from the radar can be detected, and the position of the object captured by the laser radar 3A on the radar is grasped in correspondence with the image of the traveling lane position captured by the camera 2. Is available.

【0015】レーダ情報処理部3Bでは、レーザレーダ
3Aでとらえた物体のレーダ上での位置をカメラ2でと
らえた走行レーン位置に関する画像に対応させ、前方の
物体が既に把握した走行レーン位置に対して左右いずれ
に偏在しているかを判定する。画像情報処理手段4で
は、図2に示すように、カメラ2からの原画像41を取
り込み、この原画像41から道路白線の抽出して、抽出
した道路白線の画像を、鉛直上方から見たような平面視
画像42に変換する。道路白線の抽出については後述す
る。
The radar information processing unit 3B associates the position on the radar of the object captured by the laser radar 3A with the image related to the travel lane position captured by the camera 2, and compares the position of the object in front with the travel lane position already grasped by the object ahead. To determine which one is left or right. As shown in FIG. 2, the image information processing means 4 takes in the original image 41 from the camera 2, extracts a road white line from the original image 41, and looks at the extracted image of the road white line from above vertically. The image is converted into a simple planar view image 42. The extraction of the road white line will be described later.

【0016】推定手段5では、画像情報処理手段4によ
り平面視画像42において認識された走行レーン左端又
は右端の路側線としての白線12L,12Rの位置情報
に基づいて走行レーン位置の推定を行なうようになって
おり、抽出された左右の道路白線12L,12Rで規定
される領域、又は、抽出された左右の道路白線12L,
12Rの一方と予め認識されているレーン幅とから規定
される領域を、走行レーンと推定するようになってい
る。
The estimating means 5 estimates the position of the driving lane based on the position information of the white lines 12L and 12R as roadside lines at the left or right end of the driving lane recognized by the image information processing means 4 in the plan view image 42. And the area defined by the extracted left and right road white lines 12L and 12R, or the extracted left and right road white lines 12L and 12R.
An area defined from one of the 12Rs and a lane width recognized in advance is estimated as a traveling lane.

【0017】特に、本推定手段5では、障害物位置検出
手段3で検出した先行車等の障害物情報から、車両から
先行車等の物体までの距離及びこの物体の横方向位置
(既に検出された走行レーン情報に基づいた走行レーン
に対する位置)に応じて走行レーン位置を推定するよう
になっている。コントローラ6では、この推定手段5で
推定された走行レーンの左右中心線(道路中心線)位置
を基準に、自車両の左右偏差(横偏差)と、自車両の方
向(偏角β)と、走行レーンの曲率(道路曲率)とを算
出し、これらの算出結果に基づいて自動操舵制御を行な
うようになっている。
In particular, the estimating means 5 uses the obstacle information such as the preceding vehicle detected by the obstacle position detecting means 3 to determine the distance from the vehicle to the object such as the preceding vehicle and the lateral position of the object (already detected). The travel lane position is estimated in accordance with the travel lane information based on the travel lane information. In the controller 6, the left-right deviation (lateral deviation) of the own vehicle, the direction of the own vehicle (declination angle β), The curvature of the traveling lane (road curvature) is calculated, and automatic steering control is performed based on the calculation results.

【0018】上述のように、走行レーン位置の推定は、
画像情報処理手段4により認識された走行レーン左端又
は右端の路側線としての白線12L,12Rの位置情報
に基づいて行なうが、ここで、白線12L,12Rの認
識について説明する。なお、ここでは、走行レーン左端
の路側線としての白線12Lの認識について説明する
が、走行レーン右端の白線12Rを基準とする場合につ
いても同様であるため、左端の白線12Lについては単
に白線12と称することにする。
As described above, the travel lane position is estimated by
The recognition is performed based on the position information of the white lines 12L and 12R as roadside lines at the left end or the right end of the traveling lane recognized by the image information processing means 4. Here, recognition of the white lines 12L and 12R will be described. Here, the recognition of the white line 12L as the roadside line at the left end of the traveling lane will be described. However, the same applies to the case where the white line 12R at the right end of the traveling lane is used as a reference. I will call it.

【0019】画像情報認識手段4では、まず、図3
(a)に示すように、車両1にそなえられたカメラ2に
より平地において車両前方の範囲(例えば5m〜30
m)の白黒画像情報を取り込み、この画像情報から画面
上で縦方向の画像を一部省略する。そして、この画面上
で等間隔になるような複数の水平線11を設定する。こ
の白黒画像情報の取り込みは、微小な制御周期毎に更新
されるようになっており、図3(b)に示すように、そ
れぞれの水平線11上において前回の画面での白線位置
の左右の所要の範囲(ここでは、左右50画素〔do
t〕)を白線探査エリア(処理対象領域)10として設
定する。また、初回の画面は、直線路における白線位置
を前回の画面データとして利用する。
In the image information recognizing means 4, first, FIG.
As shown in FIG. 1A, a camera 2 provided on a vehicle 1 uses a camera 2 to cover a flat area (eg, 5 m to 30 m).
m), the image in the vertical direction on the screen is partially omitted from the image information. Then, a plurality of horizontal lines 11 are set at equal intervals on this screen. The capture of the black-and-white image information is updated every minute control cycle. As shown in FIG. 3B, on each horizontal line 11, the left and right positions of the white line position on the previous screen are required. (Here, the left and right 50 pixels [do
t]) is set as a white line search area (processing target area) 10. For the first screen, the white line position on the straight road is used as the previous screen data.

【0020】そして、図3(c)に示すように、各水平
線の明度をそれぞれ左から横方向に微分する。また、図
中の符号14はガードレールである。ところで、通常の
路面は輝度が低く、輝度変化も小さい。これに対して、
白線12は通常の路面に比較して輝度が非常に高いの
で、このように道路の明度を微分すると、通常の路面か
ら白線12への境界点で輝度変化がプラス、白線12か
ら通常の路面への境界点で輝度変化がマイナスとなるよ
うな微分データが得られる。このような微分データの一
例を図3(d)示す。
Then, as shown in FIG. 3C, the brightness of each horizontal line is differentiated in the horizontal direction from the left. Reference numeral 14 in the figure is a guardrail. By the way, a normal road surface has low luminance and a small change in luminance. On the contrary,
Since the brightness of the white line 12 is much higher than that of the normal road surface, when the brightness of the road is differentiated in this way, the luminance change is positive at the boundary point from the normal road surface to the white line 12, and the white line 12 changes to the normal road surface. Differential data is obtained such that the luminance change becomes negative at the boundary point of. FIG. 3D shows an example of such differential data.

【0021】そして、各水平線11のデータそれぞれに
ついて、微分値のピークが左からプラス,マイナスの順
に並んで現れ、且つそれぞれのピークの間隔が白線12
として妥当と思われる程度(プラスのピークからマイナ
スのピークまでの間隔が例えば30dot以内)に納ま
っている組み合わせを白線候補として抽出し、図3
(e)に示すように、その中点を白線候補点15として
保存する。
Then, for each data of each horizontal line 11, peaks of the differential values appear in the order of plus and minus from the left, and the interval between the peaks is the white line 12
As a white line candidate, a combination that fits within a range that is considered appropriate (the interval from the positive peak to the negative peak is, for example, within 30 dots) is extracted, and FIG.
As shown in (e), the midpoint is stored as a white line candidate point 15.

【0022】そして、これらの白線候補点15のうち、
画面中心に最も近いもののみを最終候補点として残す。
これは、例えば車両1が左側通行の場合、探索エリア1
0の中の右側が通常輝度変化の少ない道路面であり、こ
の通常の道路面に最も近い白線候補点15が白線12と
判断できる。したがって白線12よりもさらに左側に、
ノイズの原因となる物体(例えばガードレール14等)
が存在する場合であっても、カメラ2により撮像された
画像情報から白線12を確実に認識することができる。
Then, among these white line candidate points 15,
Only the point closest to the screen center is left as the final candidate point.
This means that, for example, when the vehicle 1 is traveling on the left side, the search area 1
The right side of 0 is a road surface with little change in normal luminance, and the white line candidate point 15 closest to this normal road surface can be determined as the white line 12. Therefore, further to the left of the white line 12,
Objects that cause noise (for example, guardrails 14)
Is present, the white line 12 can be reliably recognized from the image information captured by the camera 2.

【0023】そして、図3(f)に示すように、最後に
各水平線データにおける白線候補点15の上下方向の連
続性を画面の下方から順次検証していく。まず、事前に
前画面での白線12の上下端間の傾きを計算しておく。
そして、最下点15Aを白線12とすると、一本上の水
平線11上の候補点15Bが、前回の白線12の傾き分
±50dotの範囲内に入っているかを検証する。
Finally, as shown in FIG. 3F, the vertical continuity of the white line candidate points 15 in each horizontal line data is sequentially verified from the bottom of the screen. First, the inclination between the upper and lower ends of the white line 12 on the previous screen is calculated in advance.
Then, assuming that the lowest point 15A is the white line 12, it is verified whether or not the candidate point 15B on the upper horizontal line 11 is within the range of ± 50 dots of the inclination of the previous white line 12.

【0024】候補点15Bがこの範囲内に入っていれば
これを白線とし、入っていないときは候補点15Bは却
下されて、上述の傾きから補間計算した座標が白線位置
としてみなされる。そして、この検出を各水平線につい
て同様の作業を行なうことにより、連続した白線12を
認識することができるのである。そして、このような白
線認識の作業は、所要の周期で継続して行なわれ、その
都度白線12の認識が更新されるようになっている。
If the candidate point 15B falls within this range, it is regarded as a white line. If not, the candidate point 15B is rejected, and the coordinates interpolated from the above-mentioned inclination are regarded as the white line position. By performing the same operation for each horizontal line for this detection, a continuous white line 12 can be recognized. Such white line recognition work is continuously performed at a required cycle, and the recognition of the white line 12 is updated each time.

【0025】走行レーン右端の路側線としての白線12
Rの認識についも、これと同様に行なわれる。画像情報
処理手段4では、このように各認識周期で認識された原
画像41上の白線12R,12Lを平面視画像42に変
換して、走行レーン左端の白線12Lから推定しうる道
路中心線LCL と走行レーン右端の白線12Rから推定
しうる道路中心線LCR とに基づいて、障害物位置検出
手段3からの検出情報に応じて道路中心線LCの推定を
行なうようになっている。
White line 12 as the roadside line at the right end of the traveling lane
The recognition of R is performed in the same manner. The image information processing means 4 converts the white lines 12R and 12L on the original image 41 recognized in each recognition cycle in this way into a planar view image 42, and estimates the road center line LC from the white line 12L at the left end of the traveling lane. based on the road centerline LC R which may be estimated from L and the traveling lane right end of the white line 12R, and performs the estimation of the road center line LC according to the detection information from the obstacle position detection means 3.

【0026】つまり、障害物位置検出手段3において、
レーザレーダ3Aでは、前方の道路上に先行車等の物体
(障害物)16をとらえると、車両からこの物体16ま
での距離と、レーダ上でのこの物体16の位置とを検出
する。また、レーダ情報処理部3Bでは、図4に示すよ
うに、レーザレーダ3Aでとらえた物体16のレーダ上
での位置を、カメラ2情報から、既に把握された走行レ
ーン位置に関する画像に対応させて、この物体16が既
に把握した走行レーン位置に対して左右いずれに偏在し
ているかを判定する。
That is, in the obstacle position detecting means 3,
When the laser radar 3A captures an object (obstacle) 16 such as a preceding vehicle on the road ahead, it detects the distance from the vehicle to the object 16 and the position of the object 16 on the radar. Also, as shown in FIG. 4, the radar information processing unit 3B associates the position on the radar of the object 16 captured by the laser radar 3A with the image of the traveling lane position already grasped from the camera 2 information. Then, it is determined whether the object 16 is unevenly located left or right with respect to the traveling lane position already grasped.

【0027】ここでは、既に車両前方の所定範囲(例え
ば5m〜30m)の走行レーンについて把握しているの
で、レーダ情報処理部3Bでは、とらえた物体16がこ
の範囲内(即ち、例えば車両から30m以内)に入った
ら、この地点(車両から30m付近)の走行レーン位置
(道路中心)に対して物体16がどの位置にあるかを判
定する。レーダ3Aでとらえた物体16の左右方向中心
16Aが車両から所定距離(30m)における既に推定
された走行レーン中心LCFに対して左右いずれかに所
定距離(L0)以上離隔していれば、対応方向へ偏在し
ていると判定する。
In this case, since the traveling lane in a predetermined range (for example, 5 m to 30 m) ahead of the vehicle has already been grasped, the radar information processing unit 3B places the captured object 16 in this range (that is, for example, 30 m from the vehicle). ), The position of the object 16 with respect to the traveling lane position (road center) at this point (around 30 m from the vehicle) is determined. If the center 16A in the left and right direction of the object 16 captured by the radar 3A is separated from the already-estimated traveling lane center LCF at a predetermined distance (30 m) by a predetermined distance (L0) or more from the vehicle, the corresponding direction Is determined to be unevenly distributed.

【0028】図4に示す例では、物体16の左右方向中
心16Aは、走行レーン中心LCFよりも距離L1(L
1>L0とする)だけ左側に偏在しており、物体16は
左白線12L側に偏在しているといえる。推定手段5で
は、このような障害物位置検出手段3からの検出情報に
応じて道路中心線LCの推定を行なう。
In the example shown in FIG. 4, the center 16A of the object 16 in the left-right direction is more than the distance L1 (L
1> L0), and it can be said that the object 16 is unevenly distributed on the left white line 12L side. The estimating means 5 estimates the road center line LC according to the detection information from the obstacle position detecting means 3.

【0029】1.車両前方に先行車等の障害物がない場
合及び車両前方に先行車等の障害物があるがこの障害物
が前方道路上で左右いずれにも偏在していない場合に
は、各道路中心線LCL ,LCR を平均すること(例え
ば単純平均)により道路中心線LC(=LCL +L
R )を算出する。2.車両前方に先行車等の障害物が
ありこの障害物が前方道路上で左右いずれかに偏在して
いる場合には、各道路中心線LCL ,LCR のうち障害
物が偏在しないほうの情報に応じて道路中心線LCを算
出する。
1. If there is no obstacle such as a preceding vehicle ahead of the vehicle or if there is an obstacle such as a preceding vehicle ahead of the vehicle but this obstacle is not unevenly distributed on the left or right on the road ahead, each road center line LC L, the center line of the road by averaging the LC R (e.g. simple average) LC (= LC L + L
C R ) is calculated. 2. Case, information of better obstacle is not unevenly distributed among the road center line LC L, LC R vehicle forward there is an obstacle such as a preceding vehicle the obstacle are unevenly distributed in the right or left on the road ahead The road center line LC is calculated according to.

【0030】つまり、障害物位置の中心位置がそれま
で算出した道路中心線LCよりも左方にあれば(図4参
照)、この障害物位置の存在する左側の白線に基づいた
道路中心線LCL は信頼性が低くなるため、残った右側
の白線に基づいた道路中心線LCR を道路中心線LCに
採用する。逆に、障害物位置の中心位置がそれまで算
出した道路中心線LCよりも右方にあれば、この障害物
位置の存在する右側の白線に基づいた道路中心線LCR
は信頼性が低くなるため、残った左側の白線に基づいた
道路中心線LCL を道路中心線LCに採用する。
That is, if the center position of the obstacle position is to the left of the road center line LC calculated so far (see FIG. 4), the road center line LC based on the white line on the left side where the obstacle position exists is located. in order that L be unreliable, the remaining road centerline LC R, based on the right of the white line to adopt a road center line LC. Conversely, if the center position of the obstacle position is on the right side of the road center line LC calculated so far, the road center line LC R based on the white line on the right side where the obstacle position exists.
Since the reliability decreases, the remaining road centerline LC L based on the left of the white line to adopt a road center line LC.

【0031】ただし、1.の状態(車両前方に先行車等
の障害物がない場合及び車両前方の障害物があるが左右
いずれにも偏在していない場合)と、2.の状態(車両
前方に先行車等の障害物がありしかもこの障害物が左右
いずれかに偏在している場合)との間で、状態が切り替
わった場合には、それまで推定してきた道路中心線LC
との連続性を確保する必要がある。このため、推定した
道路中心線LC情報の出力に対して平滑化処理しうるロ
ーパスフィルタ43がそなえられている。
However, 1. (When there is no obstacle such as a preceding vehicle in front of the vehicle and when there is an obstacle in front of the vehicle but it is not unevenly distributed on either side) (When there is an obstacle such as a preceding vehicle in front of the vehicle and this obstacle is unevenly distributed on either side), the road center line estimated up to that point LC
It is necessary to ensure continuity with For this reason, a low-pass filter 43 capable of smoothing the output of the estimated road center line LC information is provided.

【0032】なお、このように道路中心線LCが推定さ
れると、この道路中心線LCに基づいて、横偏差及び偏
角βが算出され、自動操舵を行なうようになっている。
ところで、コントローラ6では、かかる推定手段5で推
定された車両1に対する走行レーン位置情報に基づい
て、操舵アクチュエータ21を制御して、自動操舵を行
なうようになっている。
When the road center line LC is estimated as described above, the lateral deviation and the deflection angle β are calculated based on the road center line LC, and automatic steering is performed.
By the way, the controller 6 controls the steering actuator 21 based on the traveling lane position information for the vehicle 1 estimated by the estimating means 5 to perform automatic steering.

【0033】つまり、本車両1では、カメラ2で撮像さ
れた画像に基づいて操舵輪20を自動的に転舵させうる
自動操舵車両であって、コントローラ6では、推定手段
5で推定された車両1と走行レーンとの位置関係から車
両のとるべき操舵角(これを目標操舵角という)を設定
し、この設定した目標操舵角に応じて操舵アクチュエー
タ21の作動を制御し操舵輪20を転舵するようになっ
ている。
That is, the vehicle 1 is an auto-steering vehicle capable of automatically turning the steered wheels 20 based on the image taken by the camera 2, and the controller 6 uses the vehicle estimated by the estimating means 5. A steering angle to be taken by the vehicle (this is referred to as a target steering angle) is set from the positional relationship between the vehicle 1 and the traveling lane, and the operation of the steering actuator 21 is controlled in accordance with the set target steering angle to steer the steered wheels 20. It is supposed to.

【0034】ここで、車両1にそなえられた自動操舵装
置による制御について説明すると、この自動操舵装置
は、人為的な操舵操作(ドライバの操舵操作)にならっ
て自動操舵制御を行なうようになっている。例えば、ド
ライバが操舵操作(舵角の変更)を行なうのは、主に車
両1の走行方向が走行している道路(走行レーン)の方
向と合わなくなったときこれを修正する場合であり、さ
らに、車両1が走行レーンから左右にはみ出そうとして
いるときこれを修正するためにも行なう。走行方向が走
行レーン方向と合わなくなるのは、主に曲走路走行中で
あるが、直走路を走行しているときでも車両自体の姿勢
がヨー方向に動くことで走行方向が走行レーン方向から
外れる場合もある。
Here, the control by the automatic steering device provided in the vehicle 1 will be described. This automatic steering device performs automatic steering control following artificial steering operation (driver's steering operation). I have. For example, the driver performs the steering operation (change of the steering angle) mainly when the traveling direction of the vehicle 1 is corrected to be inconsistent with the direction of the traveling road (traveling lane). This is also performed to correct this when the vehicle 1 is going out of the running lane to the left or right. The reason that the running direction does not match the running lane direction is mainly during running on a curved road, but even when running on a straight running path, the running direction deviates from the running lane direction due to the attitude of the vehicle itself moving in the yaw direction In some cases.

【0035】そこで、この自動操舵装置では、主とし
て、車両1の走行方向を走行レーンの方向と合わせるよ
うに操舵を行なって、これに、車両1の横方向位置の修
正のための操舵要素を付加するようになっている。ま
た、人為的な操舵(ドライバ操舵)では、ドライバが視
覚で得た情報から、車両と道路との相対的な状況を判断
して、操舵操作を行なっている。つまり、ドライバは、
目から入った情報に基づいて、車両1の走行方向と走行
レーン方向との相対関係(偏角)や、車両1の横方向の
位置ずれ(横偏差)を判断し、これらを修正するように
操舵操作を行なっている。
Therefore, in this automatic steering system, steering is mainly performed so that the traveling direction of the vehicle 1 matches the direction of the traveling lane, and a steering element for correcting the lateral position of the vehicle 1 is added to this steering. It is supposed to. In the case of artificial steering (driver steering), the relative operation between the vehicle and the road is determined based on information visually obtained by the driver, and the steering operation is performed. That is, the driver
Based on the information obtained from the eyes, the relative relationship (deviation) between the traveling direction of the vehicle 1 and the traveling lane direction and the lateral displacement (lateral deviation) of the vehicle 1 are determined and corrected. The steering operation is being performed.

【0036】このようなドライバが視覚で得る情報を整
理すると、道路のカーブの半径,車速,乗り心地(横加
速度,横ジャーク)の3つの要素に分類することができ
る。また、一般に、曲走路の定常円及びこれに近い部分
や直走路等を走行している際(定常走行時)には、操舵
角を一定に保持しようとするので、ドライバは、操舵操
作は走路の曲率にあった操舵角δ0 を保持するように操
舵を行なう。
By organizing the information visually obtained by such a driver, it can be classified into three elements: the radius of the curve of the road, the vehicle speed, and the riding comfort (lateral acceleration, lateral jerk). Further, in general, when the vehicle is traveling on a steady circle on a curved road, a portion close to the circle, a straight running road, or the like (during steady traveling), the steering angle is to be kept constant. The steering is performed so as to maintain the steering angle δ 0 corresponding to the curvature.

【0037】これに対して、直走路から曲走路へ進入し
ようとする際(過渡走行時)には、曲走路のある程度手
前から操舵角δを曲走路の曲率に応じた操舵角δ0 に除
々に増加させていく。この場合、ドライバは、曲走路に
入る地点のどの程度手前から操舵を開始するか(すなわ
ち、操舵開始距離Dをどの程度にするか)、また、どの
程度の割合(操舵速度δV )で操舵角δを増加させてい
くかを、その時の車速や予想される乗り心地(横加速度
のかかり具合)等を考慮して設定する。
On the other hand, when an attempt is made to enter a curved road from a straight road (at the time of transitional traveling), the steering angle δ is gradually reduced to a steering angle δ 0 corresponding to the curvature of the curved road from a point short of the curved road. To increase. In this case, the driver determines how far before the point where the vehicle enters the curved road (ie, how much the steering start distance D is to be set), and at what ratio (steering speed δ V ) Whether to increase the angle δ is set in consideration of the vehicle speed at that time, the expected riding comfort (the degree of application of lateral acceleration), and the like.

【0038】つまり、ドライバが操舵操作に際して決定
する操舵要素を分類すると、操舵角δ0 ,操舵開始距離
(操舵開始タイミング)D,操舵速度δV に分けられ
る。本実施形態にかかるの自動操舵装置では、このよう
な、ドライバ操舵と同様な手法により自動操舵を行なう
ようになっている。このため、ドライバの視覚系に対応
する推定手段5と、ドライバのデータ処理系に対応する
ように、操舵に必要な各量、即ち、操舵角δ0 ,操舵開
始距離D,操舵速度δV を設定するコントローラ6とを
そなえているのである。
That is, when the steering elements determined by the driver at the time of the steering operation are classified, they are divided into a steering angle δ 0 , a steering start distance (steering start timing) D, and a steering speed δ V. In the automatic steering device according to the present embodiment, automatic steering is performed by a method similar to such driver steering. For this reason, the estimation means 5 corresponding to the driver's visual system and the respective amounts required for steering, that is, the steering angle δ 0 , the steering start distance D, and the steering speed δ V are set to correspond to the driver's data processing system. It has a controller 6 to be set.

【0039】そして、推定手段5で推定された平面視画
像42における道路中心線LCに基づいて、車両1から
所定距離だけ離れた地点(すなわち、平面視画像4B内
の所定の高さの地点)における偏角βを算出する。この
偏角βとは、図5に示すように、屈曲した道路中心線L
Cの接線と車両中心線方向とがなす角であり、車両から
所定距離だけ離れた第1検出点(図中には近地点と示
す)における基準線位置情報と、この近地点よりもさら
に車両1から所定量だけ離れた第2検出点(図中には遠
地点と示す)における基準線位置情報とから算出するこ
とができる。
Then, based on the road center line LC in the planar view image 42 estimated by the estimating means 5, a point separated from the vehicle 1 by a predetermined distance (ie, a point at a predetermined height in the planar view image 4B). Is calculated. The declination β is, as shown in FIG. 5, a curved road center line L
The reference line position information at a first detection point (shown as perigee in the figure) which is a predetermined distance away from the vehicle, and the angle between the tangent to C and the direction of the vehicle center line. It can be calculated from reference line position information at a second detection point (shown as an apogee in the figure) separated by a predetermined amount.

【0040】つまり、偏角βは、これらの第1検出点と
第2検出点とを結んだ直線と、車両1の中心線とがなす
角として算出するようになっている。このようにして算
出される偏角は、第1検出点(近地点)と第2検出点
(遠地点)との中間地点(図中×印)における偏角であ
り、少なくとも車両1から一定以上前方の地点の偏角で
ある。なお、この例では、カメラ2による画像情報に基
づく道路中心線LCのうち車両に最も近い地点を第1検
出点としており、この第1検出点に基づいて横偏差を算
出し、さらに、算出された偏角βに基づいてカーブ半径
Rを推定するようになっている。
That is, the declination β is calculated as an angle between a straight line connecting the first detection point and the second detection point and the center line of the vehicle 1. The declination calculated in this way is a declination at an intermediate point (x mark in the figure) between the first detection point (perigee) and the second detection point (apogee), and is at least a certain distance or more in front of the vehicle 1. The declination of a point. In this example, the point closest to the vehicle on the road center line LC based on the image information from the camera 2 is set as the first detection point, and the lateral deviation is calculated based on the first detection point. The curve radius R is estimated based on the deviation angle β.

【0041】本発明の一実施形態としての走行レーン認
識装置は、上述のように構成されているので、本装置に
よる白線認識は、以下のように行なわれる。本装置で
は、走行レーン左端の白線12Lと、走行レーン右端の
白線12Rとに関して白線認識を行ない、この白線認識
から、車両の走行している走行レーンが車両に対してど
のような位置にあるか(逆に言えば、車両が走行レーン
に対してどのような位置にあるか)を推定するが、ま
ず、各白線12L、12Rの認識について、左側の白線
12Lを例に説明する。
Since the driving lane recognizing device as one embodiment of the present invention is configured as described above, the white line recognition by the present device is performed as follows. In the present apparatus, white line recognition is performed on the white line 12L at the left end of the running lane and the white line 12R at the right end of the running lane. Based on the white line recognition, the position of the running lane in which the vehicle is running with respect to the vehicle is determined. (In other words, the position of the vehicle with respect to the driving lane) is estimated. First, recognition of the white lines 12L and 12R will be described using the left white line 12L as an example.

【0042】まず、図3(a)に示すように、カメラ2
により平地において車両前方の範囲(例えば5m〜30
m)の白黒画像情報を微小な制御周期毎に取り込み、各
周期毎に、この画面上で等間隔になるような複数の水平
線11を設定する。そして、図3(b)に示すように、
それぞれの水平線11上において前回の画面での白線位
置の左右の所要の範囲(例えば左右50画素〔do
t〕)を白線探査エリア(処理対象領域)10として設
定する。なお、初期画面では、直線路における白線位置
を前回の画面データとして利用する。
First, as shown in FIG.
On a flat ground, the area in front of the vehicle (for example,
The monochrome image information m) is fetched at every minute control cycle, and a plurality of horizontal lines 11 are set at regular intervals on this screen at each cycle. Then, as shown in FIG.
On each horizontal line 11, a required range of the left and right positions of the white line position on the previous screen (for example, left and right 50 pixels [do
t]) is set as a white line search area (processing target area) 10. In the initial screen, a white line position on a straight road is used as previous screen data.

【0043】このような画像情報から、図3(c)に示
すように、各水平線の明度をそれぞれ左から横方向に微
分して、このような各水平線の微分データ〔図3(d)
参照〕から、微分値のピークが左からプラス,マイナス
の順に並んで現れ、且つそれぞれのピークの間隔が白線
12として妥当と思われる程度(プラスのピークからマ
イナスのピークまでの間隔が例えば30dot以内)に
納まっている組み合わせを白線候補として抽出し、その
中点を白線候補点15として保存する〔図3(e)参
照〕。
From the image information, as shown in FIG. 3C, the brightness of each horizontal line is differentiated in the horizontal direction from the left, and the differential data of each horizontal line is obtained as shown in FIG. 3D.
From the left], the peaks of the differential values appear in the order of plus and minus from the left, and the interval between the peaks is considered to be appropriate as the white line 12 (the interval from the plus peak to the minus peak is, for example, within 30 dots). ) Are extracted as white line candidates, and the midpoint thereof is stored as a white line candidate point 15 (see FIG. 3E).

【0044】そして、これらの白線候補点15のうち、
画面中心に最も近いもののみを最終候補点として残す。
このように白線候補点15を画面中心に最も近いものに
限定することにより、白線12よりもさらに外側に、ノ
イズの原因となる物体(例えばガードレール14や他の
走行レーンの車両等)が存在する場合であっても、カメ
ラ2による画像情報から白線12を確実に認識すること
ができる。
Then, among these white line candidate points 15,
Only the point closest to the screen center is left as the final candidate point.
By limiting the white line candidate point 15 to the one closest to the center of the screen in this way, an object that causes noise (for example, the guardrail 14 or a vehicle in another traveling lane) exists outside the white line 12. Even in this case, the white line 12 can be reliably recognized from the image information obtained by the camera 2.

【0045】最後に、図3(f)に示すように、各水平
線データにおける白線候補点15の上下方向の連続性を
画面の下方から順次検証していく。まず、事前に前画面
での白線12の上下端間の傾きを計算しておく。そし
て、最下点15Aを白線12とすると、一本上の水平線
11上の候補点15Bが、前回の白線12の傾き分±5
0dotの範囲内に入っているかを比較して、候補点1
5Bがこの範囲内に入っていればこれを白線とし、入っ
ていないときは候補点15Bは却下されて、上述の傾き
から補間計算した座標を白線位置とみなす。
Finally, as shown in FIG. 3 (f), the continuity of the white line candidate points 15 in each horizontal line data in the vertical direction is sequentially verified from the bottom of the screen. First, the inclination between the upper and lower ends of the white line 12 on the previous screen is calculated in advance. If the lowermost point 15A is the white line 12, the candidate point 15B on the upper horizontal line 11 is calculated by the inclination ± 5 of the previous white line 12.
0 dot is compared, and candidate point 1
If 5B is within this range, it is regarded as a white line. If not, the candidate point 15B is rejected, and the coordinates calculated by interpolation from the above-mentioned inclination are regarded as the position of the white line.

【0046】このような作業を各水平線について行なう
ことにより、連続した白線12を認識することができ
る。このような白線認識の作業は、所要の周期で継続し
て行なわれ、その都度白線12の認識を更新していく。
こうして、周期的に走行レーンの左右の白線12L,1
2Rの認識を行なうが、これと同様に行なわれる。
By performing such an operation for each horizontal line, continuous white lines 12 can be recognized. Such white line recognition work is continuously performed at a required cycle, and the recognition of the white line 12 is updated each time.
In this manner, the white lines 12L, 1 on the left and right of the traveling lane are periodically repeated.
Recognition of 2R is performed in the same manner.

【0047】そして、走行レーン左端の白線12Lから
推定した道路中心線LCL と走行レーン右端の白線12
Rから推定した道路中心線LCR とに基づいて、障害物
位置検出手段3からの検出情報に応じて道路中心線LC
の推定を行なうようになっている。つまり、障害物位置
検出手段3において、レーザレーダ3Aでは、前方の道
路上に先行車等の物体をとらえると、車両からこの物体
までの距離と、レーダ上でのこの物体の位置とを検出す
る。また、レーダ情報処理部3Bでは、レーザレーダ3
Aでとらえた物体のレーダ上での位置をカメラ2でとら
えて既に把握した走行レーン位置に関する画像に対応さ
せて、この物体が既に把握した走行レーン位置に対して
左右いずれに偏在しているかを判定する。
[0047] and, with the center line of the road LC L estimated from the white line 12L of the traveling lane leftmost lane right edge of the white line 12
R based on the road center line LC R estimated from the road center line LC R based on the detection information from the obstacle position detecting means 3.
Is estimated. That is, in the obstacle position detection means 3, when the laser radar 3A captures an object such as a preceding vehicle on the road ahead, it detects the distance from the vehicle to the object and the position of the object on the radar. . In the radar information processing unit 3B, the laser radar 3
The camera 2 captures the position of the object on the radar on the radar 2 and associates it with the image of the traveling lane position already grasped, and determines whether the object is skewed left or right with respect to the traveling lane position already grasped. judge.

【0048】ここでは、既に車両前方の所定範囲(例え
ば5m〜30m)の走行レーンについて把握しているの
で、レーダ情報処理部3Bでは、とらえた物体が車両か
らこの範囲内(即ち、例えば30m以内)に入ったら、
走行レーン位置に対して物体がどの位置にあるかを判定
する。そして、レーダ3Aでとらえた物体の中心が既に
推定された走行レーン中心線に対して左右いずれかに所
定距離以上離隔していれば、対応方向へ偏在していると
判定する。
Here, since the traveling lane in a predetermined range (for example, 5 m to 30 m) ahead of the vehicle has already been grasped, the radar information processing unit 3B places the captured object within this range (for example, within 30 m) from the vehicle. )
It is determined which position the object is at relative to the traveling lane position. If the center of the object captured by the radar 3A is separated from the already estimated running lane center line by a predetermined distance to the left or right, it is determined that the object is unevenly distributed in the corresponding direction.

【0049】そして、推定手段4では、障害物位置検出
手段3からの検出情報に応じて、車両前方に先行車等の
障害物がない場合及び車両前方に先行車等の障害物があ
るがこの障害物が前方道路上で左右いずれにも偏在して
いない場合には、各道路中心線LCL ,LCR を平均し
て道路中心線LC(=LCL +LCR )を算出する。ま
た、車両前方に先行車等の障害物がありこの障害物が前
方道路上で左右いずれかに偏在している場合には、各道
路中心線LCL ,LCR のうち障害物が偏在しないほう
の情報に応じて道路中心線LCを算出する。つまり、障
害物位置の中心位置がそれまで算出した道路中心線LC
よりも左方にあれば、残った右側の白線に基づいた道路
中心線LCR を道路中心線LCに採用する。逆に、障害
物位置の中心位置がそれまで算出した道路中心線LCよ
りも右方にあれば、残った左側の白線に基づいた道路中
心線LCL を道路中心線LCに採用する。
The estimating means 4 determines whether or not there is an obstacle such as a preceding vehicle in front of the vehicle and there is an obstacle such as a preceding vehicle in front of the vehicle according to the detection information from the obstacle position detecting means 3. obstacle when not unevenly distributed to the right or left on the road ahead calculates the road center line LC L, the center line of the road on average LC R LC a (= LC L + LC R) . Further, when the front of the vehicle there is an obstacle such as a preceding vehicle the obstacle are unevenly distributed in the right or left on the road ahead, each road center line LC L, better obstacle of LC R is not unevenly distributed The center line LC is calculated according to the information. That is, the center position of the obstacle position is the road center line LC calculated so far.
If the left than the remaining road centerline LC R, based on the right of the white line to adopt a road center line LC. Conversely, if the right of the center line of the road LC center position is calculated to its obstacle position, the remaining left road centerline LC L based on the white line to adopt a road center line LC.

【0050】こうして推定された道路中心線LCに基づ
いて、横偏差算出手段7による横偏差の算出、偏角算出
手段8による偏角βの算出、曲率状態推定手段9による
走行レーンの曲率(道路曲率)の算出が行なわれて、こ
れらの算出情報に基づいて自動操舵制御を行なうことが
できる。このようにして、本走行レーン認識装置では、
障害物が存在するため信頼性の低下した白線認識情報に
基づくことなく、障害物位置が存在せず信頼性の高い白
線認識情報に基づいて、道路中心線LCが推定されるよ
うになり、道路中心線LCの推定、即ち、走行レーンの
推定をより精度よく行なうことができるようになる利点
がある。
Based on the road center line LC estimated in this way, the lateral deviation is calculated by the lateral deviation calculating means 7, the deflection angle β is calculated by the deflection angle calculating means 8, and the curvature of the traveling lane is calculated by the curvature state estimating means 9. (Curvature) is calculated, and automatic steering control can be performed based on the calculated information. In this way, in the traveling lane recognition device,
The road center line LC is estimated based on highly reliable white line recognition information without an obstacle position, without being based on the white line recognition information with reduced reliability due to the presence of an obstacle. There is an advantage that the estimation of the center line LC, that is, the estimation of the traveling lane can be performed with higher accuracy.

【0051】しかも、障害物位置検出手段3の主体とな
るレーダレーザ3Aは、車間距離制御等を行なう車両で
は既に設置されているので、新たに設置する必要がな
く、低コストで本装置を装備することができ、また、画
像処理系に大きな負担を与えることもなく、低コストで
前方道路上の先行車等に影響されることなく、より正し
く走行レーンの認識を行なえるようになる。
Further, since the radar laser 3A, which is the main component of the obstacle position detecting means 3, is already installed in a vehicle that performs inter-vehicle distance control or the like, there is no need to newly install the radar laser 3A. In addition, the driving lane can be recognized more accurately without imposing a large burden on the image processing system, at a low cost, and without being affected by the preceding vehicle on the road ahead.

【0052】また、ローパスフィルタ43により、推定
手段5で推定した道路中心線LC情報が平滑化処理され
て出力されるので、道路中心線LCの位置が急変するこ
となく滑らかに連続するようになり、道路中心線LCの
位置に基づいた制御を安定させることができる。なお、
本実施形態では、左右の白線12L,12Rを認識し
て、それぞれに基づいて道路中心線LCL ,LCR を推
定した上で、障害物位置検出手段3の検出情報に基づい
て道路中心線LCを推定しているが、左右の白線12
L,12Rを認識する段階から、障害物位置検出手段3
の検出情報に基づき、障害物位置が存在する側の白線に
ついては認識しないで、障害物位置が存在しない側の白
線についてのみ認識するように構成して、この認識した
方の白線位置に基づいて道路中心線LCを推定するよう
に構成してもよい。この場合、画像処理系への負担が一
層軽減されることになる。
Further, the road center line LC information estimated by the estimating means 5 is smoothed and output by the low-pass filter 43, so that the position of the road center line LC is smoothly continuous without abrupt change. Thus, control based on the position of the road center line LC can be stabilized. In addition,
In the present embodiment, the left and right white lines 12L, recognizes 12R, road center line LC L based on each, after estimating the LC R, the road center line LC on the basis of the detection information of the obstacle position detection means 3 Is estimated, but the left and right white lines 12
From the stage of recognizing L, 12R, the obstacle position detecting means 3
Based on the detection information, the white line on the side where the obstacle position exists is not recognized, and only the white line on the side where the obstacle position does not exist is recognized. Based on the recognized white line position, The configuration may be such that the road center line LC is estimated. In this case, the load on the image processing system is further reduced.

【0053】[0053]

【発明の効果】以上詳述したように、請求項1記載の本
発明の走行レーン認識装置によれば、撮像手段で撮像さ
れた画像情報を画像情報処理手段で処理し、さらに、推
定手段で、障害物位置検出手段により検出された前方道
路上の障害物の検出情報から、該障害物が既に認識した
走行レーンにおいて左右いずれかに偏在していると、該
障害物位置から離隔した側の白線情報を主体として該走
行レーン位置の推定を行なうので、障害物が存在するた
め信頼性の低下した白線認識情報に基づくことなく、障
害物位置が存在せず信頼性の高い白線認識情報に基づい
て、道路中心線LCが推定されるようになり、道路中心
線LCの推定、即ち、走行レーンの推定をより精度よく
行なうことができるようになる利点がある。
As described above in detail, according to the driving lane recognizing device of the first aspect of the present invention, the image information picked up by the image pickup means is processed by the image information processing means, and further, the image information is picked up by the estimating means. From the detection information of the obstacle on the road ahead detected by the obstacle position detection means, if the obstacle is unevenly distributed to the left or right in the traveling lane already recognized, the side separated from the obstacle position Since the travel lane position is estimated mainly based on the white line information, it is not based on the white line recognition information whose reliability has been reduced due to the presence of an obstacle, but based on the highly reliable white line recognition information without an obstacle position. Thus, there is an advantage that the road center line LC can be estimated, and the estimation of the road center line LC, that is, the estimation of the traveling lane can be performed more accurately.

【0054】請求項2記載の本発明の走行レーン認識装
置によれば、障害物が車両から白線認識距離以内に接近
した場合に、上記の障害物位置から離隔した側の白線情
報を主体とした走行レーン位置の推定を行ない、障害物
が白線認識距離以遠の白線の認識に影響のない位置にあ
る場合には、左右の白線情報に基づいて該走行レーン位
置の推定を行なうことができ、走行レーン位置の推定精
度を向上させることができる。
According to the driving lane recognizing device of the present invention, when an obstacle approaches within the white line recognition distance from the vehicle, the white line information on the side separated from the obstacle position is mainly used. When the travel lane position is estimated and the obstacle is located at a position that does not affect the recognition of the white line beyond the white line recognition distance, the travel lane position can be estimated based on the left and right white line information. The lane position estimation accuracy can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態としての走行レーン認識装
置を示すブロック図である。
FIG. 1 is a block diagram showing a traveling lane recognition device as one embodiment of the present invention.

【図2】本発明の一実施形態としての走行レーン認識装
置の模式的な構成図である。
FIG. 2 is a schematic configuration diagram of a traveling lane recognition device as one embodiment of the present invention.

【図3】本発明の一実施形態としての走行レーン認識装
置による道路白線認識を説明する模式図である。
FIG. 3 is a schematic diagram illustrating road white line recognition by a driving lane recognition device as one embodiment of the present invention.

【図4】本発明の一実施形態としての走行レーン認識装
置における障害物位置の検出を説明する道路の平面視画
像の模式図である。
FIG. 4 is a schematic diagram of a plan view image of a road for explaining detection of an obstacle position in the traveling lane recognition device as one embodiment of the present invention.

【図5】本発明の一実施形態としての走行レーン認識装
置による推定結果から算出される偏角,横偏差を説明す
る道路の平面視画像の模式図である。
FIG. 5 is a schematic diagram of a plan view image of a road explaining a declination and a lateral deviation calculated from an estimation result by the traveling lane recognition device as one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 車両 2 撮像手段としてのカメラ 3 障害物位置検出手段 3A レーザレーダ 3B レーダ情報処理部 4 画像情報処理手段 5 走行レーン推定手段(推定手段) 12,12L,12R 白線 16 物体(障害物) LC 道路中心線 Reference Signs List 1 vehicle 2 camera as imaging means 3 obstacle position detection means 3A laser radar 3B radar information processing unit 4 image information processing means 5 traveling lane estimation means (estimation means) 12, 12L, 12R white line 16 object (obstacle) LC road Center line

───────────────────────────────────────────────────── フロントページの続き (72)発明者 太田 貴志 東京都港区芝五丁目33番8号 三菱自動車 工業株式会社内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Takashi Ota Mitsubishi Motors Corporation

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 車両の前方道路を撮像する撮像手段と、
該撮像手段で撮像された画像情報を処理する画像情報処
理手段と、該画像情報処理手段で処理された情報から得
られる該前方道路上の左右の白線位置に基づいて該車両
に対する走行レーン位置を推定する推定手段とをそなえ
た、走行レーン認識装置において、 該前方道路上に障害物が存在する場合に該障害物の位置
を検出する障害物位置検出手段をそなえ、 該推定手段は、該障害物位置検出手段により該前方道路
上の該障害物とその位置が検出されると、該障害物が既
に推定して得られた該走行レーンにおける左右いずれか
に偏在している場合には、上記の左右の白線のうち該障
害物位置から離隔した側の白線情報を主体として該走行
レーン位置の推定を行なうことを特徴とする、走行レー
ン認識装置。
1. An imaging means for imaging a road ahead of a vehicle,
Image information processing means for processing image information captured by the image capturing means; and a traveling lane position for the vehicle based on left and right white line positions on the front road obtained from the information processed by the image information processing means. A traveling lane recognizing device having an estimating means for estimating, wherein an obstacle position detecting means for detecting a position of the obstacle when an obstacle is present on the road ahead is provided; When the obstacle position and its position on the road ahead are detected by the object position detection means, if the obstacle is unevenly located on either the left or right of the traveling lane obtained by estimation, The travel lane recognition device is characterized in that the travel lane position is estimated mainly based on white line information on a side of the left and right white lines separated from the obstacle position.
【請求項2】 該推定手段は、該障害物位置検出手段の
検出情報に基づいて該障害物が該車両から白線認識距離
以内に接近した場合に、上記の障害物位置から離隔した
側の白線情報を主体とした走行レーン位置の推定を行な
うことを特徴とする、請求項1記載の走行レーン認識装
置。
2. The method according to claim 1, wherein the estimating means includes a white line on a side separated from the obstacle position when the obstacle approaches the vehicle within a white line recognition distance based on the detection information of the obstacle position detecting means. The travel lane recognition apparatus according to claim 1, wherein the travel lane position is estimated mainly based on the information.
JP16919197A 1997-06-25 1997-06-25 Driving lane recognition device Expired - Fee Related JP3433650B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16919197A JP3433650B2 (en) 1997-06-25 1997-06-25 Driving lane recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16919197A JP3433650B2 (en) 1997-06-25 1997-06-25 Driving lane recognition device

Publications (2)

Publication Number Publication Date
JPH1115952A true JPH1115952A (en) 1999-01-22
JP3433650B2 JP3433650B2 (en) 2003-08-04

Family

ID=15881923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16919197A Expired - Fee Related JP3433650B2 (en) 1997-06-25 1997-06-25 Driving lane recognition device

Country Status (1)

Country Link
JP (1) JP3433650B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151123A (en) * 2004-11-26 2006-06-15 Aisin Seiki Co Ltd Vehicle travel support device
JP2007241468A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Lane change detection device
JP2008132867A (en) * 2006-11-28 2008-06-12 Hitachi Ltd Collision avoidance support device and vehicle equipped with the same
US7613568B2 (en) 2003-07-11 2009-11-03 Toyota Jidosha Kabushiki Kaisha Crash-safe vehicle control system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7613568B2 (en) 2003-07-11 2009-11-03 Toyota Jidosha Kabushiki Kaisha Crash-safe vehicle control system
JP2006151123A (en) * 2004-11-26 2006-06-15 Aisin Seiki Co Ltd Vehicle travel support device
JP2007241468A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Lane change detection device
JP2008132867A (en) * 2006-11-28 2008-06-12 Hitachi Ltd Collision avoidance support device and vehicle equipped with the same

Also Published As

Publication number Publication date
JP3433650B2 (en) 2003-08-04

Similar Documents

Publication Publication Date Title
EP2103500B1 (en) Vehicle and steering control device for vehicle
US6489887B2 (en) Lane-keep assisting system for vehicle
EP2422320B1 (en) Object detection device
US11577724B2 (en) Driving assistance apparatus
US6868168B2 (en) Lane recognition system for vehicle
US7266454B2 (en) Obstacle detection apparatus and method for automotive vehicle
US7742864B2 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
JP3780848B2 (en) Vehicle traveling path recognition device
US20090192686A1 (en) Method and Driver Assistance System for Sensor-Based Drive-Off Control of a Motor Vehicle
JP5971020B2 (en) Lane recognition device
JP3201323B2 (en) Lane departure prevention device
JPH0781603A (en) Vehicle automatic steering system
JP3807253B2 (en) Traveling path detection device
JPH1172337A (en) Travel lane recognition device
JPH0781602A (en) Vehicle automatic steering system
KR100540743B1 (en) Device and method for generating steering angle / speed control data of vehicle by driving deviation correction
JP3433650B2 (en) Driving lane recognition device
JP2000030198A (en) Road shape recognition device for vehicles
JP3296208B2 (en) Curve curvature estimator
JPH11198714A (en) Light distribution control device for automotive headlights
JP2002163641A (en) Image processor for vehicle
US20230260293A1 (en) Travel environment recognition apparatus
JPH0785249A (en) Road white line recognition method
JP3393584B2 (en) Lane departure prevention device
JP4397164B2 (en) Obstacle detection device and obstacle detection method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030430

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080530

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090530

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100530

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100530

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140530

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees