[go: up one dir, main page]

JP4432730B2 - Road marking detection device for vehicles - Google Patents

Road marking detection device for vehicles Download PDF

Info

Publication number
JP4432730B2
JP4432730B2 JP2004317759A JP2004317759A JP4432730B2 JP 4432730 B2 JP4432730 B2 JP 4432730B2 JP 2004317759 A JP2004317759 A JP 2004317759A JP 2004317759 A JP2004317759 A JP 2004317759A JP 4432730 B2 JP4432730 B2 JP 4432730B2
Authority
JP
Japan
Prior art keywords
road
road marking
mark
obj
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004317759A
Other languages
Japanese (ja)
Other versions
JP2006127358A (en
Inventor
琢 高浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004317759A priority Critical patent/JP4432730B2/en
Publication of JP2006127358A publication Critical patent/JP2006127358A/en
Application granted granted Critical
Publication of JP4432730B2 publication Critical patent/JP4432730B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Regulating Braking Force (AREA)
  • Image Processing (AREA)
  • Character Discrimination (AREA)

Description

本発明は、カメラにより自車前方の道路環境を撮像し、撮像した画像を処理して道路交通上の規制や指示を路面に記した道路標示を検出する装置および方法に関する。   The present invention relates to an apparatus and method for capturing a road environment ahead of a host vehicle with a camera, detecting the road marking in which the captured image is processed and road traffic regulations and instructions are written on a road surface.

路面に描かれた文字列や記号を撮像し、予め記憶されている「止まれ」などの文字列からなる基準文字記号パターンと照合して道路標示を検出する安全運転支援装置が知られている(例えば、特許文献1参照)。   There is known a safe driving support device that captures a character string or a symbol drawn on a road surface and compares a reference character / symbol pattern including a character string such as “stop” stored in advance to detect a road sign ( For example, see Patent Document 1).

この出願の発明に関連する先行技術文献としては次のものがある。
特開2002−219998号公報
Prior art documents related to the invention of this application include the following.
JP 2002-219998 A

しかしながら、上述した従来の装置では、道路標示を文字列単位で照合しているので、車両前方道路の広い範囲を撮像して画像処理を行わなければならず、画像処理の演算負荷が重いという問題がある。
また、道路標示の一つの文字列を完全に撮像できないと、基準文字列パターンとの照合結果が不一致となって検出信頼性が低くなるという問題がある。
However, in the above-described conventional apparatus, road markings are collated in character string units, so a wide range of roads ahead of the vehicle must be imaged and image processing must be performed, and the computational load of image processing is heavy. There is.
In addition, if one character string of a road sign cannot be completely imaged, there is a problem that the matching result with the reference character string pattern is inconsistent and detection reliability is lowered.

本願にあっては、前記道路標示検出手段により道路標示の1文字または1記号が検出されるたびにその検出結果に基づいて前記撮像手段の撮像画像上の前記道路標示検出手段の画像処理領域を絞り込む領域絞り込み手段を備え、道路標示検出手段により連続して検出された文字または記号に基づいて道路標示を識別した識別結果を乗員に伝達する道路標示伝達手段において、前記領域絞り込み手段が自車前方を撮像した撮像画像を処理して道路上の進行方向に連続して描かれる道路標示を1文字または1記号ずつ検出するときに、道路標示の1文字または1記号が検出されるたびにその検出結果に基づいて撮像画像上の画像処理領域を絞り込み、連続して検出された文字または記号に基づいて道路標示を識別するとともに、道路標示の1文字または1記号の位置に応じて、次の道路標示の1文字または1記号を検出するための前記道路標示検出手段の画像処理領域の位置を設定することを特徴とする。
In the present application, every time one character or one symbol of a road marking is detected by the road marking detection unit, the image processing area of the road marking detection unit on the captured image of the imaging unit is narrowed down based on the detection result. In the road marking transmission means that includes an area narrowing means and transmits an identification result obtained by identifying the road marking based on the characters or symbols continuously detected by the road sign detection means to the occupant, the area narrowing means moves the vehicle forward. When the captured image is processed to detect a road sign continuously drawn in the traveling direction on the road one character or one symbol at a time, each time one character or one symbol of the road sign is detected, the detection result is displayed. based refine image processing area on the captured image, as well as identify the road sign based on the detected character or symbol in succession, one character of the road sign Other depending on the position of one symbol, and sets the position of the image processing area of the road sign detection means for detecting a character or a symbol of the next road markings.

本発明によれば、道路標示の検出信頼性を向上させながら画像処理負荷を低減することができる。領域絞り込み手段が道路上の連続してペイントされる道路標示を1文字または1記号ずつ部分的に検出するとともに、一つの道路標示の検出結果(検出位置)により次の道路標示の探索領域(画像処理領域)の位置や大きさを設定するようにしたので、画像処理領域を必要最小限の範囲まで狭くすることができ、画像処理負荷を低減することができるという効果が得られる。 According to the present invention, it is possible to reduce the image processing load while improving the detection reliability of road markings. The area narrowing means partially detects road markings that are continuously painted on the road one character or one symbol at a time, and the search area (image) for the next road marking based on the detection result (detection position) of one road marking. Since the position and size of the (processing area) are set, the image processing area can be narrowed to the minimum necessary range, and the image processing load can be reduced.

《発明の第1の実施の形態》
図1は第1の実施の形態の構成を示す。スキャンニング式レーザーレーダー1は車両前方にレーザー光を照射して物体からの反射光を受光し、物体までの距離と方位を測定する。レーダー処理装置2はレーザーレーダー1による測定結果に基づいて車両前方の障害物を抽出し、自車両を原点とする車両前後方向と車幅方向の二次元座標上における障害物の位置と大きさ(幅)とを算出する。プログレッシブスキャン式CCDカメラ3は車両前方を高速に撮像する。画像処理装置4は、カメラ3による撮像画像を処理して道路交通上の規制や指示を路面に記した道路標示の検出を行う。
<< First Embodiment of the Invention >>
FIG. 1 shows the configuration of the first embodiment. The scanning laser radar 1 irradiates a laser beam in front of the vehicle to receive reflected light from the object, and measures the distance and direction to the object. The radar processing device 2 extracts obstacles ahead of the vehicle based on the measurement result of the laser radar 1, and the position and size of the obstacles on the two-dimensional coordinates in the vehicle longitudinal direction and the vehicle width direction with the own vehicle as the origin ( Width). The progressive scan CCD camera 3 images the front of the vehicle at high speed. The image processing device 4 processes the image captured by the camera 3 and detects a road marking in which road traffic regulations and instructions are written on the road surface.

外界認識装置5は、レーダー処理装置2と画像処理装置4の車両検出結果と、車速検出装置6により検出された車速、操舵角検出装置7により検出された操舵角などに基づいて自車前方の車両を検出し、自車両の障害になるか否かを判断し、必要に応じて自動ブレーキ制御装置8を制御して負圧ブレーキブースター9を駆動し、車両の制動力を発生させる。外界認識装置5は、レーダー処理装置2で検出した障害物までの距離に基づいて制動力を演算するとともに、画像処理装置4により検出した停止線までの距離に基づいて制動力を演算し、どちらか大きい方を制動力指令値として自動ブレーキ制御装置8へ出力し、負圧ブレーキブースター9のソレノイドバルブに制動力指令電圧を印加して自車両を制動する。   The external environment recognition device 5 is based on the vehicle detection results of the radar processing device 2 and the image processing device 4, the vehicle speed detected by the vehicle speed detection device 6, the steering angle detected by the steering angle detection device 7, and the like. The vehicle is detected, it is determined whether or not the vehicle is an obstacle, and the automatic brake control device 8 is controlled as necessary to drive the negative pressure brake booster 9 to generate the braking force of the vehicle. The outside recognition device 5 calculates the braking force based on the distance to the obstacle detected by the radar processing device 2, and calculates the braking force based on the distance to the stop line detected by the image processing device 4. The larger one is output to the automatic brake control device 8 as a braking force command value, and the braking force command voltage is applied to the solenoid valve of the negative pressure brake booster 9 to brake the host vehicle.

なお、レーダー処理装置2、画像処理装置4および外界認識装置5はそれぞれマイクロコンピューターとその周辺部品や各種アクチュエーターの駆動回路などを備え、互いに通信回線を介して情報の授受を行う。   The radar processing device 2, the image processing device 4, and the external environment recognition device 5 are each provided with a microcomputer and its peripheral components, various actuator drive circuits, and the like, and exchange information with each other via a communication line.

図2は、カメラ3による撮像画像を処理して道路上にペイントされている一時停止の道路標示「止まれ」を検出する処理を示す。外界認識装置5は、50msecごとに図2に示す道路標示検出処理を繰り返す。ステップ100において、今回のサンプリングでカメラ3により撮像し画像処理装置4で処理した画像を読み込む。続くステップ101では車速検出装置6から車速を、操舵角検出装置7から操舵角を読み込む。ステップ102で、道路標示の文字や記号などのマークを認識した回数を表すカウンターDetectsStepが0、すなわち、まだ道路標示のマークを一つも認識していない状態か否かを確認する。   FIG. 2 shows a process of processing a captured image by the camera 3 to detect a paused road sign “stop” painted on the road. The external environment recognition device 5 repeats the road marking detection process shown in FIG. 2 every 50 msec. In step 100, an image captured by the camera 3 at this sampling and processed by the image processing apparatus 4 is read. In the subsequent step 101, the vehicle speed is read from the vehicle speed detection device 6 and the steering angle is read from the steering angle detection device 7. In step 102, it is confirmed whether or not the counter DetectsStep representing the number of times a mark such as a road marking character or symbol has been recognized is 0, that is, no road marking mark has been recognized yet.

道路標示の文字や記号などのマークをまだ一つも認識していない状態の場合はステップ103へ進み、道路標示を検出するための初期条件を以下のように設定する。
obj_Y=20,
obj_X=0,
ProcessWide=1.5,
ProcessDist=10.0
ここで、obj_Yは道路上の画像処理領域の前後方向位置(単位メートル)、obj_Xは道路上の画像処理領域の左右方向位置(単位メートル、自車両の正面が0)である。また、ProcessWideは画像処理領域の横方向範囲の半分の値(単位メートル)、ProcessDistは画像処理領域の前後方向範囲の半分の値(単位メートル)である。
If no mark such as a road marking character or symbol has been recognized yet, the process proceeds to step 103, and initial conditions for detecting the road marking are set as follows.
obj_Y = 20,
obj_X = 0,
ProcessWide = 1.5,
ProcessDist = 10.0
Here, obj_Y is the position in the front-rear direction (unit meter) of the image processing area on the road, and obj_X is the position in the left-right direction of the image processing area on the road (unit meter, the front of the host vehicle is 0). Further, ProcessWide is a half value (unit meter) of the horizontal range of the image processing area, and ProcessDist is a half value (unit meter) of the front-rear direction range of the image processing area.

ステップ104においてカメラ3の撮像画像の画像処理領域を次のように設定する。
disp_obj_YA=y0+focusV*CAM_h/(obj_Y+ProcessDist) ・・・(1)
disp_obj_YB=y0+focusV*CAM_h/(obj_Y−ProcessDist) ・・・(2)
disp_obj_XL=x0+focusH*obj_X/obj_Y−focusH*ProcessWide/obj_Y ・・・(3)
disp_obj_XR=x0+focesH*obj_X/obj_Y+focusH*ProcessWide/obj_Y
・・・(4)
ここで、disp_obj_YAは画像処理領域の上側の座標、disp_obj_YBは画像処理領域の下側の座標、disp_obj_XLは画像処理領域の左側の座標、disp_obj_XRは画像処理領域の右側の座標である。また、y0、x0は消失点の縦方向座標[pix:画素数](カメラ3の取り付け位置と向き(撮影レンズの方向)で決まるパラメーター)である。同様に、focusVとfocusHは鉛直方向と水平方向のカメラ3の焦点距離を画素換算した値[pix](カメラ3の画角と受光素子の解像度で決まるパラメーター)である。CAM_hはカメラ3の取り付け高さ(単位はメートル)である。
In step 104, the image processing area of the image captured by the camera 3 is set as follows.
disp_obj_YA = y0 + focusV * CAM_h / (obj_Y + ProcessDist) (1)
disp_obj_YB = y0 + focusV * CAM_h / (obj_Y-ProcessDist) (2)
disp_obj_XL = x0 + focusH * obj_X / obj_Y-focusH * ProcessWide / obj_Y (3)
disp_obj_XR = x0 + focesH * obj_X / obj_Y + focusH * ProcessWide / obj_Y
... (4)
Here, disp_obj_YA is the upper coordinate of the image processing area, disp_obj_YB is the lower coordinate of the image processing area, disp_obj_XL is the left coordinate of the image processing area, and disp_obj_XR is the right coordinate of the image processing area. Further, y0 and x0 are the longitudinal coordinates [pix: number of pixels] of the vanishing point (a parameter determined by the mounting position and orientation of the camera 3 (direction of the photographing lens)). Similarly, focus V and focus H are values [pix] (parameters determined by the angle of view of the camera 3 and the resolution of the light receiving element) obtained by converting the focal length of the camera 3 in the vertical and horizontal directions into pixels. CAM_h is the mounting height (unit: meters) of the camera 3.

ステップ105では上記画像処理領域において道路標示の文字や記号などのマークを識別するための前処理を行う。この処理方法としてこの一実施の形態では微分演算と2値化処理を行う。微分演算は、微分画像を求める一般的な手法であるsobelフィルターにより実施する。sobelフィルターとは、ある画素に隣接する画素どうしの輝度変化を求める演算である。2値化処理は、求めた微分画像の輝度についてその平均値Avと分散値Vrを求め、これをしきい値として2値化処理を実施する。なお、2値化とは、各画素の輝度(ここでは微分画像のため輝度変化)がしきい値以下の場合には黒色に、しきい値を超える場合は白色に、微分画像の濃淡を白と黒の2色に分けることである。   In step 105, pre-processing for identifying marks such as road marking characters and symbols in the image processing area is performed. As this processing method, in this embodiment, differentiation and binarization processing are performed. The differential operation is performed by a sobel filter which is a general method for obtaining a differential image. The sobel filter is an operation for obtaining a luminance change between pixels adjacent to a certain pixel. In the binarization process, the average value Av and the variance value Vr are obtained for the luminance of the obtained differential image, and the binarization process is performed using these values as threshold values. Note that binarization is black when the luminance of each pixel (in this case, the luminance change for a differential image) is equal to or less than a threshold value, white when the luminance exceeds the threshold value, and white and shade of the differential image. And black.

ステップ106では道路標示マークの認識回数カウンターDetectStepの値に応じて参照用マークを決定する。
DetectStep=0の場合、Ref_Mark=「れ」・・・まだ何も検出せず、
DetectStep=1の場合、Ref_Mark=「ま」・・・「れ」は検出すみ、
DetectStep=2の場合、Ref_Mark=「止」・・・「ま」は検出すみ、
DetectStep=3の場合、Ref_Mark=「−」・・・すべて検出すみ、停止線を探す。
・・・(5)
ここで、Ref_Markとは、検出した道路標示マークと照合するために参照するマークであり、カメラ3から路面上の道路標示マークを見下ろすのと同じように、斜め上から見た遠近感のある参照用マークを予め設定しておくものとする。
In step 106, a reference mark is determined according to the value of the recognition count counter DetectStep of the road marking mark.
If DetectStep = 0, Ref_Mark = “Re” ... still not detected,
When DetectStep = 1, Ref_Mark = “MA” ... “RE” is detected,
When DetectStep = 2, Ref_Mark = “Stop” ... “Ma” is detected,
When DetectStep = 3, Ref_Mark = “−”... All are detected and a stop line is searched.
... (5)
Here, Ref_Mark is a mark that is referred to in order to collate with the detected road marking mark, and is a reference with a sense of perspective as viewed from diagonally above in the same manner as when looking down the road marking mark on the road surface from the camera 3. It is assumed that a mark for use is set in advance.

ステップ107では、上述した前処理により識別した道路標示マークを参照用マークと照合して道路標示マークを認識する。この認識方法として、この一実施の形態では参照用マークと2値化画像とのOCR(Optical Character Recognition)手法を応用し、所定以上の類似性がある場合にその道路標示マークを認識できたものとする。続くステップ108で道路標示マークを認識した場合はステップ109へ進み、認識できなかった場合はステップ112へ進む。   In step 107, the road marking mark identified by the pre-processing described above is compared with the reference mark to recognize the road marking mark. As this recognition method, in this embodiment, an OCR (Optical Character Recognition) method between a reference mark and a binarized image is applied, and the road marking mark can be recognized when there is a predetermined similarity or more. And If the road marking mark is recognized in the subsequent step 108, the process proceeds to step 109. If the road marking mark is not recognized, the process proceeds to step 112.

道路標示マークを認識した場合は、ステップ109で道路標示マークの認識回数カウンターDetectStepをインクリメントする。カウンターDetectStepが4になった場合はステップ113へ進み、4未満の場合はステップ110へ進む。ステップ110では、認識した道路標示マークの画面上の位置に基づいて、次に道路標示マークを探索する画面上の画像処理領域の位置を次式により求める。
obj_Y=focusV*CAM_h/(Ref_Mark_Center_y−y0)+2.0,
obj_X=obj_Y(Ref_Mark_Center_x−x0)/focusH ・・・(6)
(6)式において、Ref_Mark_Center_yは認識したマークの画面上の垂直方向(上下方向)位置、Ref_Mark_Center_xは認識したマークの画面上の水平方向(左右方向)位置である。
If the road marking mark is recognized, the road marking mark recognition number counter DecetStep is incremented in step 109. If the counter DetectStep is 4, the process proceeds to step 113. If it is less than 4, the process proceeds to step 110. In step 110, based on the recognized position of the road marking mark on the screen, the position of the image processing area on the screen for searching for the road marking mark next is obtained by the following equation.
obj_Y = focusV * CAM_h / (Ref_Mark_Center_y−y0) +2.0,
obj_X = obj_Y (Ref_Mark_Center_x−x0) / focusH (6)
In Expression (6), Ref_Mark_Center_y is the vertical (up and down) position of the recognized mark on the screen, and Ref_Mark_Center_x is the horizontal (left and right) position of the recognized mark on the screen.

ステップ111では、認識した道路標示マークの画面上の大きさに基づいて、次に道路標示マークを探索する画像処理領域の大きさを次式により求める。
ProcessWide=(Rcg_Mark_SizeH*obj_Y/focusH)/2,
ProcessDist=(Rcg_Mark_SizeV*obj_Y/focusV)/2 ・・・(7)
(7)式において、Rcg_Mark_SizeHとRcg_Mark_SizeVは、認識した道路標示マークの水平方向サイズ(単位は画素数)と鉛直方向サイズ(単位は画素数)である。
In step 111, the size of the image processing area to be searched for the next road marking mark is obtained by the following equation based on the recognized size of the road marking mark on the screen.
ProcessWide = (Rcg_Mark_SizeH * obj_Y / focusH) / 2
ProcessDist = (Rcg_Mark_SizeV * obj_Y / focusV) / 2 (7)
In equation (7), Rcg_Mark_SizeH and Rcg_Mark_SizeV are the horizontal size (unit is the number of pixels) and vertical size (unit is the number of pixels) of the recognized road marking mark.

一方、道路標示マークの認識回数カウンターDetectStepが4になった場合はステップ113へ進み、自車前方の一時停止マーク「−」を検出したのでスピーカー(不図示)により「一時停止です」と放送するとともに、ディスプレイ(不図示)に警告表示を行い、運転者に一時停止情報を提供してステップ112へ進む。ステップ112では車速、操舵角などの自車挙動データの過去値を更新して処理を終了する。   On the other hand, if the road marking mark recognition frequency counter DetectStep is 4, the process proceeds to step 113, and a pause mark “-” in front of the host vehicle is detected. At the same time, a warning is displayed on a display (not shown), and temporary stop information is provided to the driver. In step 112, the past values of the vehicle behavior data such as the vehicle speed and the steering angle are updated, and the process is terminated.

このように、道路上の進行方向に連続してペイントされる道路標示を1文字または1記号ずつ部分的に検出するとともに、一つの道路標示の検出結果により次の道路標示の探索領域(画像処理領域)の位置や大きさを設定するようにしたので、画像処理領域を必要最小限の範囲まで狭くすることができ、画像処理負荷を低減することができる。   In this way, a road sign continuously painted in the traveling direction on the road is partially detected one character or one symbol at a time, and the search area of the next road sign (image processing is determined based on the detection result of one road sign. Since the position and size of the (region) are set, the image processing region can be narrowed to the minimum necessary range, and the image processing load can be reduced.

《発明の第2の実施の形態》
上述した第1の実施の形態では一文字ずつ「れ」→「ま」→「止」の順に部分的に道路標示を検出する例を示したが、文字の順序を問わず1文字または1記号ずつ部分的に道路標示を検出する第2の実施の形態を説明する。なお、この第2の実施の形態の構成は図1に示す構成と同様であり、説明を省略する。
<< Second Embodiment of the Invention >>
In the first embodiment described above, an example is shown in which road markings are partially detected in order of “re” → “ma” → “stop” character by character, but one character or one symbol at a time regardless of the character order. A second embodiment for partially detecting road marking will be described. The configuration of the second embodiment is the same as the configuration shown in FIG.

図3〜図4は、カメラ3による撮像画像を処理して道路上にペイントされている一時停止の道路標示「止まれ」を検出する処理を示す。外界認識装置5は、50msecごとに図3〜図4に示す道路標示検出処理を繰り返す。ステップ200において、今回のサンプリングでカメラ3により撮像し画像処理装置4で処理した画像を読み込む。続くステップ201では車速検出装置6から車速を、操舵角検出装置7から操舵角を読み込む。ステップ202で、道路標示の文字や記号などのマークを認識した回数を表すカウンターDetectsStepの値を確認し、カウンターDetectsStepの値に応じて次のように分岐する。
DetectsStep=0(何も検出していない状態)の場合はステップ203へ、
DetectsStep=1(「れ」のみ検出すみ)の場合はステップ205へ、
DetectsStep=2(「ま」のみ検出すみ)の場合はステップ207へ、
DetectsStep=3(「れ」と「ま」を検出すみ)の場合はステップ209へ、
DetectsStep=4(「止」のみ検出すみ)の場合はステップ211へ、
DetectsStep=5(「れ」と「止」を検出すみ)の場合はステップ213へ、
DetectsStep=6(「ま」と「止」を検出すみ)の場合はステップ215へ、
DetectsStep=7(「れ」「ま」「止」を検出すみ)の場合はステップ217へ。
3 to 4 show processing for detecting a temporarily stopped road sign “stop” painted on the road by processing the image captured by the camera 3. The external environment recognition device 5 repeats the road marking detection process shown in FIGS. 3 to 4 every 50 msec. In step 200, an image captured by the camera 3 at this sampling and processed by the image processing device 4 is read. In the next step 201, the vehicle speed is read from the vehicle speed detection device 6 and the steering angle is read from the steering angle detection device 7. In step 202, the value of the counter DetectsStep representing the number of times a mark such as a character or symbol on the road marking has been recognized is confirmed, and branching is made as follows according to the value of the counter DetectsStep.
If DetectsStep = 0 (the state in which nothing is detected), go to step 203.
If DetectsStep = 1 (only “re” is detected), go to step 205.
If DetectsStep = 2 (only “ma” is detected), go to step 207.
If DetectsStep = 3 (detects “re” and “ma”), go to step 209.
If DetectsStep = 4 (only “stop” is detected), go to step 211.
If DetectsStep = 5 (“Re” and “Stop” are detected), go to Step 213.
If DetectsStep = 6 ("Ma" and "Stop" are detected), go to step 215.
If DetectsStep = 7 (“re”, “ma”, “stop” is detected), go to step 217.

カウンターDetectsStep=0で道路標示の文字や記号などのマークをまだ一つも検出していない場合は、ステップ203で道路標示を検出するためのパラメーターを次のように設定する。
obj_Y1=20,
obj_X1=0,
ProcessWide=1.5,
ProcessDist=10.0,
もし、RcgState>2 あるいは RcgState<0の場合には RcgState=0
・・・(8)
ここで、obj_Y1は道路上の画像処理領域の前後方向位置(単位メートル)、obj_X1は道路上の画像処理領域の左右方向位置(単位メートル、自車両正面が0)である。また、ProcessWideは画像処理領域の横方向範囲の半分の値(単位メートル)、ProcessDistは画像処理領域の前後方向範囲の半分の値(単位メートル)である。RcgStateとは、今回のサンプリング周期における画像処理で認識する道路標示マークの種類を決める変数であり、初期値は0である。
続くステップ204では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値に応じて参照用マークを設定する。
RcgState=0の場合、Ref_Mark=「れ」,
RcgState=1の場合、Ref_Mark=「ま」,
RcgState=2の場合、Ref_Mark=「止」 ・・・ (9)
ここで、Ref_Markとは、検出した道路標示マークと照合するために参照するマークであり、カメラ3から路面上の道路標示マークを見下ろすのと同じように、斜め上から見た遠近感のある参照用マークを予め設定しておくものとする。
When the counter DetectsStep = 0 and no mark such as a character or symbol of the road marking has been detected yet, the parameter for detecting the road marking is set as follows in step 203.
obj_Y1 = 20,
obj_X1 = 0,
ProcessWide = 1.5,
ProcessDist = 10.0,
If RcgState> 2 or RcgState <0, RcgState = 0
... (8)
Here, obj_Y1 is the position in the front-rear direction (unit meter) of the image processing area on the road, and obj_X1 is the position in the left-right direction of the image processing area on the road (unit meter, the front of the host vehicle is 0). Further, ProcessWide is a half value (unit meter) of the horizontal range of the image processing area, and ProcessDist is a half value (unit meter) of the front-rear direction range of the image processing area. RcgState is a variable that determines the type of road marking mark recognized by the image processing in the current sampling cycle, and the initial value is zero.
In the next step 204, a reference mark is set according to the value of a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
When RcgState = 0, Ref_Mark = “Re”,
When RcgState = 1, Ref_Mark = “MA”,
When RcgState = 2, Ref_Mark = “stop” (9)
Here, Ref_Mark is a mark that is referred to in order to collate with the detected road marking mark, and is a reference with a sense of perspective as viewed from diagonally above in the same manner as when looking down the road marking mark on the road surface from the camera 3. It is assumed that a mark for use is set in advance.

カウンターDetectsStep=1で「れ」のみ検出すみの場合は、ステップ205で道路標示を検出するためのパラメーターを次のように設定する。
もし、RcgState>2 あるいは RcgState<0の場合には、RcgState=0、
もし、RcgState=0 ならば obj_Y1=obj_Y ・・・「ま」検出用、
もし、RcgState=1 ならば obj_Y1=obj_Y+2.0 ・・・「止」検出用
・・・(10)
続くステップ206では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値に応じて参照用マークを設定する。
RcgState=0の場合、Ref_Mark=「ま」、
RcgState=1の場合、Ref_Mark=「止」 ・・・(11)
If the counter DetectsStep = 1 and only “le” is detected, parameters for detecting road markings are set as follows in step 205.
If RcgState> 2 or RcgState <0, RcgState = 0,
If RcgState = 0, obj_Y1 = obj_Y ... for detecting “ma”,
If RcgState = 1, obj_Y1 = obj_Y + 2.0 ... for "stop" detection
... (10)
In the next step 206, a reference mark is set according to the value of a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
When RcgState = 0, Ref_Mark = “MA”,
When RcgState = 1, Ref_Mark = “stop” (11)

カウンターDetectsStep=2で「ま」のみ検出すみの場合は、ステップ207で道路標示を検出するためのパラメーターを次のように設定する。
もし、RcgState>2 あるいは RcgState<0の場合には、RcgState=0、
もし、RcgState=0 ならば obj_Y1=obj_Y ・・・「止」検出用、
もし、RcgState=1 ならば obj_Y1=obj_Y−4.0 ・・・「れ」検出用
・・・(12)
続くステップ208では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値に応じて参照用マークを設定する。
RcgState=0の場合、Ref_Mark=「止」、
RcgState=1の場合、Ref_Mark=「れ」 ・・・(13)
If the counter DetectsStep = 2 and only “ma” is detected, parameters for detecting road markings are set as follows in step 207.
If RcgState> 2 or RcgState <0, RcgState = 0,
If RcgState = 0, then obj_Y1 = obj_Y ... for "stop" detection,
If RcgState = 1, obj_Y1 = obj_Y-4.0 ... for detecting “re”
(12)
In the next step 208, a reference mark is set according to the value of a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
When RcgState = 0, Ref_Mark = “stop”,
When RcgState = 1, Ref_Mark = “Re” (13)

カウンターDetectsStep=3で「れ」と「ま」を検出すみの場合は、ステップ209で道路標示を検出するためのパラメーターを次のように設定する。
もし、RcgState>2 あるいは RcgState<0の場合には、RcgState=0、
もし、RcgState=0 ならば obj_Y1=obj_Y ・・・「止」検出用、
もし、RcgState=1 ならば obj_Y1=obj_Y+2.0 ・・・「−」検出用
・・・(14)
続くステップ210では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値に応じて参照用マークを設定する。
RcgState=0の場合、Ref_Mark=「止」、
RcgState=1の場合、Ref_Mark=「−」(停止線) ・・・(15)
In the case where the counter DetectsStep = 3 and “re” and “ma” are detected, parameters for detecting road markings are set as follows in step 209.
If RcgState> 2 or RcgState <0, RcgState = 0,
If RcgState = 0, then obj_Y1 = obj_Y ... for "stop" detection,
If RcgState = 1, obj_Y1 = obj_Y + 2.0 ... for "-" detection
(14)
In the subsequent step 210, a reference mark is set according to the value of a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
When RcgState = 0, Ref_Mark = “stop”,
When RcgState = 1, Ref_Mark = “−” (stop line) (15)

カウンターDetectsStep=4で「止」のみ検出すみの場合は、ステップ211で道路標示を検出するためのパラメーターを次のように設定する。
もし、RcgState>2 あるいは RcgState<0の場合には、RcgState=0、
もし、RcgState=0 ならば obj_Y1=obj_Y−4.0 ・・・「れ」検出用、
もし、RcgState=1 ならば obj_Y1=obj_Y−2.0 ・・・「ま」検出用
・・・(16)
続くステップ212では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値に応じて参照用マークを設定する。
RcgState=0の場合、Ref_Mark=「れ」、
RcgState=1の場合、Ref_Mark=「ま」 ・・・(17)
If the counter DetectsStep = 4 and only “stop” is detected, parameters for detecting road markings are set as follows in step 211.
If RcgState> 2 or RcgState <0, RcgState = 0,
If RcgState = 0, obj_Y1 = obj_Y-4.0 ... for detecting “re”,
If RcgState = 1, obj_Y1 = obj_Y-2.0 ... for detecting “ma”
... (16)
In the subsequent step 212, a reference mark is set in accordance with the value of a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
When RcgState = 0, Ref_Mark = “Re”,
When RcgState = 1, Ref_Mark = “MA” (17)

カウンターDetectsStep=5で「れ」と「止」を検出すみの場合は、ステップ213で道路標示を検出するためのパラメーターを次のように設定する。
もし、RcgState>2 あるいは RcgState<0の場合には、RcgState=0、
もし、RcgState=0 ならば obj_Y1=obj_Y−4.0 ・・・「ま」検出用、
もし、RcgState=1 ならば obj_Y1=obj_Y ・・・「−」検出用
・・・(18)
続くステップ212では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値に応じて参照用マークを設定する。
RcgState=0の場合、Ref_Mark=「ま」、
RcgState=1の場合、Ref_Mark=「−」 ・・・(19)
When the counter DetectsStep = 5 and “re” and “stop” are detected, parameters for detecting road markings are set as follows in step 213.
If RcgState> 2 or RcgState <0, RcgState = 0,
If RcgState = 0, obj_Y1 = obj_Y-4.0 ... for detecting “ma”,
If RcgState = 1, obj_Y1 = obj_Y ... "-" detection
... (18)
In the subsequent step 212, a reference mark is set in accordance with the value of a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
When RcgState = 0, Ref_Mark = “MA”,
When RcgState = 1, Ref_Mark = “−” (19)

DetectsStep=6(「ま」と「止」を検出すみ)の場合は、ステップ215で道路表示を検出するためのパラメーターを次式のように設定する。
もし、RcgState>2 あるいは RcgState<0の場合には、RcgState=0、
もし、RcgState=0 ならば obj_Y1=obj_Y−6.0 ・・・「れ」検出用、
もし、RcgState=1 ならば obj_Y1=obj_Y ・・・「−」検出用
・・・(20)
続くステップ216では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値に応じて参照用マークを設定する。
RcgState=0の場合、Ref_Mark=「れ」、
RcgState=1の場合、Ref_Mark=「−」 ・・・(21)
In the case of DetectsStep = 6 (when “MA” and “STOP” are detected), the parameter for detecting the road display is set as follows in step 215.
If RcgState> 2 or RcgState <0, RcgState = 0,
If RcgState = 0, obj_Y1 = obj_Y-6.0 ... for detecting “re”,
If RcgState = 1, obj_Y1 = obj_Y ... "-" detection
... (20)
In the subsequent step 216, a reference mark is set according to the value of a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
When RcgState = 0, Ref_Mark = “Re”,
When RcgState = 1, Ref_Mark = “−” (21)

カウンターDetectsStep=7で「れ」「ま」「止」を検出すみの場合は、ステップ217で道路表示を検出するためのパラメーターを次式のように設定する。
obj_Y1=obj_Y ・・・「−」検出用 ・・・(22)
続くステップ218では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateの値によらず、参照用マークを次のように設定する。
Ref_Mark=「−」
If the counter DetectsStep = 7 and “re”, “ma”, “stop” are detected, parameters for detecting road display are set as follows in step 217.
obj_Y1 = obj_Y (for detecting "-") (22)
In the subsequent step 218, the reference mark is set as follows regardless of the value of the variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period.
Ref_Mark = “-”

ステップ219においてカメラ3の撮像画像上の画像処理領域を次のように設定する。
disp_obj_YA=y0+focusV*CAM_h/(obj_Y1+ProcessDist)
・・・(23)
disp_obj_YB=y0+focusV*CAM_h/(obj_Y1−ProcessDist)
・・・(24)
disp_obj_XL=x0+focusH*obj_X1/obj_Y1
−focusH*ProcessWide/obj_Y1 ・・・(25)
disp_obj_XR=x0+focusH*obj_X1/obj_Y1
+focusH*ProcessWide/obj_Y1 ・・・(26)
ここで、disp_obj_YAは画像処理領域の上側の座標、disp_obj_YBは画像処理領域の下側の座標、disp_obj_XLは画像処理領域の左側の座標、disp_obj_XRは画像処理領域の右側の座標である。また、y0、x0は消失点の縦方向座標[pix:画素数](カメラ3の取り付け位置と向き(撮影レンズの方向)で決まるパラメーター)である。同様に、focusVとfocusHは鉛直方向と水平方向のカメラ3の焦点距離を画素換算した値[pix](カメラ3の画角と受光素子の解像度で決まるパラメーター)である。CAM_hはカメラ3の取り付け高さ(単位はメートル)である。
In step 219, the image processing area on the captured image of the camera 3 is set as follows.
disp_obj_YA = y0 + focus V * CAM_h / (obj_Y1 + ProcessDist)
... (23)
disp_obj_YB = y0 + focusV * CAM_h / (obj_Y1-ProcessDist)
... (24)
disp_obj_XL = x0 + focusH * obj_X1 / obj_Y1
-FocusH * ProcessWide / obj_Y1 (25)
disp_obj_XR = x0 + focusH * obj_X1 / obj_Y1
+ FocusH * ProcessWide / obj_Y1 (26)
Here, disp_obj_YA is the upper coordinate of the image processing area, disp_obj_YB is the lower coordinate of the image processing area, disp_obj_XL is the left coordinate of the image processing area, and disp_obj_XR is the right coordinate of the image processing area. Further, y0 and x0 are the longitudinal coordinates [pix: number of pixels] of the vanishing point (a parameter determined by the mounting position and orientation of the camera 3 (direction of the photographing lens)). Similarly, focus V and focus H are values [pix] (parameters determined by the angle of view of the camera 3 and the resolution of the light receiving element) obtained by converting the focal length of the camera 3 in the vertical and horizontal directions into pixels. CAM_h is the mounting height (unit: meters) of the camera 3.

ステップ220では上記画像処理領域において道路標示の文字や記号などのマークを識別するための前処理を行う。この処理方法としてこの一実施の形態では微分演算と2値化処理を行う。微分演算は、微分画像を求める一般的な手法であるsobelフィルターにより実施する。sobelフィルターとは、ある画素に隣接する画素どうしの輝度変化を求める演算である。2値化処理は、求めた微分画像の輝度についてその平均値Avと分散値Vrを求め、これをしきい値として2値化処理を実施する。なお、2値化とは、各画素の輝度(ここでは微分画像のため輝度変化)がしきい値以下の場合には黒色に、しきい値を超える場合は白色に、微分画像の濃淡を白と黒の2色に分けることである。   In step 220, pre-processing is performed for identifying marks such as characters and symbols of road markings in the image processing area. As this processing method, in this embodiment, differentiation and binarization processing are performed. The differential operation is performed by a sobel filter which is a general method for obtaining a differential image. The sobel filter is an operation for obtaining a luminance change between pixels adjacent to a certain pixel. In the binarization process, the average value Av and the variance value Vr are obtained for the luminance of the obtained differential image, and the binarization process is performed using these values as threshold values. Note that binarization is black when the luminance of each pixel (in this case, the luminance change for a differential image) is equal to or less than a threshold value, white when the luminance exceeds the threshold value, and white and shade of the differential image. And black.

ステップ221では、上述した前処理により識別した道路標示マークを参照用マークと照合して道路標示マークを認識する。この認識方法として、この一実施の形態では参照用マークと2値化画像とのOCR(Optical Character Recognition)手法を応用し、所定以上の類似性がある場合にその道路標示マークを認識できたものとする。認識できたマークに応じて認識結果状態を表す変数RcgResultを次のように設定する。
Ref_Mark=「れ」を認識できた場合には、RcgResult=1、
Ref_Mark=「ま」を認識できた場合には、RcgResult=2、
Ref_Mark=「止」を認識できた場合には、RcgResult=4、
Ref_Mark=「−」を認識できた場合には、RcgResult=8、
Ref_Markを認識できなかった場合には、RcgResult=0 ・・・(27)
In step 221, the road marking mark identified by the pre-processing described above is compared with the reference mark to recognize the road marking mark. As this recognition method, in this embodiment, an OCR (Optical Character Recognition) method between a reference mark and a binarized image is applied, and the road marking mark can be recognized when there is a predetermined similarity or more. And A variable RcgResult representing the recognition result state is set as follows according to the recognized mark.
If Ref_Mark = “Re” is recognized, RcgResult = 1,
If Ref_Mark = “ma” is recognized, RcgResult = 2,
If Ref_Mark = “stop” is recognized, RcgResult = 4,
If Ref_Mark = “−” is recognized, RcgResult = 8,
When Ref_Mark cannot be recognized, RcgResult = 0 (27)

ステップ222において、道路標示マークを認識した回数を表すカウンターDetectsStepの値と、認識できたマークに応じて認識結果状態を表す変数RcgResultの値に応じて分岐する。
もし、RcgResult=0(検出できない)場合にはステップ226へ進む、
もし、RcgResult=8(停止線を検出)の場合にはステップ228へ進む、
もし、DetectStep<RcgResultの場合にはステップ223へ進む、
もし、DetectStep>RcgResultの場合にはステップ225へ進む。
In step 222, the process branches according to the value of the counter DetectsStep representing the number of times the road marking mark has been recognized and the value of the variable RcgResult representing the recognition result state according to the recognized mark.
If RcgResult = 0 (cannot be detected), go to step 226.
If RcgResult = 8 (stop line detected), go to step 228.
If DetectStep <RcgResult, go to step 223.
If DetectStep> RcgResult, go to step 225.

DetectStep<RcgResultの場合には、ステップ223で認識した道路標示マークの画面上の位置に基づいて、次に探索する領域の位置を次式により求める。
obj_Y=focusV*CAM_h/(Ref_Mark_Center_y−y0)+2.0,
obj_X=obj_Y(Ref_Mark_Center_x−x0)/focusH ・・・(28)
ここで、Ref_Mark_Center_yは認識した道路標示マークの画面上の垂直方向(上下方向)位置、Ref_Mark_Center_xは認識した道路標示マークの画面上の水平方向(左右方向)位置である。
In the case of DetectStep <RcgResult, the position of the area to be searched next is obtained by the following equation based on the position of the road marking mark recognized in step 223 on the screen.
obj_Y = focusV * CAM_h / (Ref_Mark_Center_y−y0) +2.0,
obj_X = obj_Y (Ref_Mark_Center_x−x0) / focusH (28)
Here, Ref_Mark_Center_y is the vertical direction (vertical direction) position of the recognized road marking mark on the screen, and Ref_Mark_Center_x is the horizontal direction (horizontal direction) position of the recognized road marking mark on the screen.

続くステップ224では、認識した道路標示マークの画面上の大きさに基づいて、次に探索する領域の大きさを次式により求める。
ProcessWide=(Rcg_Mark_SizeH*obj_Y/focusH)/2,
ProcessDist=(Rcg_Mark_SizeV*obj_Y/focusV)/2 ・・・(29)
ここで、Rcg_Mark_SizeHとRcg_Mark_SizeVは、認識した道路標示マークの水平方向サイズ(単位は画素数)と鉛直方向サイズ(単位は画素数)である。ステップ225では道路標示マークを認識した回数を表すカウンターDetectsStepを次式により設定する。
DetectsStep=DetectsStep+RcgResult ・・・(30)
In the subsequent step 224, the size of the area to be searched next is obtained by the following equation based on the size of the recognized road marking mark on the screen.
ProcessWide = (Rcg_Mark_SizeH * obj_Y / focusH) / 2
ProcessDist = (Rcg_Mark_SizeV * obj_Y / focusV) / 2 (29)
Here, Rcg_Mark_SizeH and Rcg_Mark_SizeV are the horizontal size (unit: number of pixels) and vertical size (unit: number of pixels) of the recognized road marking mark. In step 225, a counter DetectsStep representing the number of times the road marking mark has been recognized is set by the following equation.
DectectsStep = DectectsStep + RcgResult (30)

ステップ226では、今回のサンプリング周期の画像処理で認識する道路標示マークの種類を決める変数RcgStateを次式により設定する。
RcgState=RcgState+1 ・・・(31)
ステップ228において、自車両前方に一時停止マーク「−」を検出したので、シートベルト巻き取り装置(不図示)により運転者用シートベルトを巻き取り、一時停止マークがあることを運転者に知らせる。ステップ227では車速や操舵角などの自車挙動データの過去値を更新して処理を終了する。
In step 226, a variable RcgState that determines the type of road marking mark recognized in the image processing of the current sampling period is set by the following equation.
RcgState = RcgState + 1 (31)
In step 228, since the temporary stop mark “−” is detected in front of the host vehicle, the driver's seat belt is wound up by a seat belt retractor (not shown) to notify the driver that there is a temporary stop mark. In step 227, the past values of the vehicle behavior data such as the vehicle speed and the steering angle are updated, and the process is terminated.

このように、道路上の進行方向に連続してペイントされる道路標示を、文字の認識順序を問わず1文字または1記号ずつ部分的に検出するとともに、一つの道路標示の検出結果により次の道路標示の探索領域(画像処理領域)の位置や大きさを設定するようにしたので、画像処理領域を必要最小限の範囲まで狭くすることができ、画像処理負荷を低減することができる。また、上述した第1の実施の形態では道路標示の文字列のすべての文字を検出できなければその道路標示を検出できないが、第2の実施の形態では道路標示の文字列の中の一部の文字を検出できればその道路標示を検出することができる。   In this way, road markings that are continuously painted in the traveling direction on the road are partially detected one character or one symbol at a time regardless of the character recognition order, and the next detection result of one road marking is Since the position and size of the road marking search area (image processing area) are set, the image processing area can be narrowed to the minimum necessary range, and the image processing load can be reduced. Further, in the first embodiment described above, the road marking cannot be detected unless all the characters of the road marking character string can be detected. However, in the second embodiment, a part of the road marking character string is detected. If this character can be detected, the road marking can be detected.

《発明の第3の実施の形態》
「◇」→「◇」→「−」の順序で道路表示マークを1記号ずつ部分的に認識して信号のない横断歩道を検出する第3の実施の形態を説明する。なお、この第3の実施の形態の構成は図1に示す構成と同様であり、説明を省略する。
<< Third Embodiment of the Invention >>
A third embodiment for detecting a crosswalk without a signal by partially recognizing a road display mark one symbol at a time in the order of “◇” → “◇” → “−” will be described. The configuration of the third embodiment is the same as the configuration shown in FIG.

図5は、カメラ3による撮像画像を処理して道路上にペイントされている横断歩道の道路標示「◇」を検出する処理を示す。外界認識装置5は、50msecごとに図5に示す道路標示検出処理を繰り返す。ステップ300において、今回のサンプリングでカメラ3により撮像し画像処理装置4で処理した画像を読み込む。続くステップ301では車速検出装置6から車速を、操舵角検出装置7から操舵角を読み込む。ステップ302で、道路標示の文字や記号などのマークを認識した回数を表すカウンターDetectsStepが0、すなわち、まだ道路標示のマークを一つも認識していない状態か否かを確認する。   FIG. 5 shows a process of detecting the road marking “◇” of the pedestrian crossing painted on the road by processing the image captured by the camera 3. The external environment recognition device 5 repeats the road marking detection process shown in FIG. 5 every 50 msec. In step 300, an image picked up by the camera 3 in the current sampling and processed by the image processing device 4 is read. In the subsequent step 301, the vehicle speed is read from the vehicle speed detection device 6 and the steering angle is read from the steering angle detection device 7. In step 302, it is confirmed whether or not the counter DetectsStep representing the number of times a mark such as a road marking character or symbol has been recognized is 0, that is, no road marking mark has been recognized yet.

道路標示の文字や記号などのマークをまだ一つも認識していない状態の場合はステップ103へ進み、道路標示を検出するための初期条件を以下のように設定する。
obj_Y=20,
obj_X=0,
ProcessWide=1.5,
ProcessDist=10.0
参照用マークの回転許容範囲;最小値αs1=−45[deg]、最大値αs2=+45[deg] ・・・ (32)
(32)式において、obj_Yは道路上の画像処理領域の前後方向位置(単位メートル)、obj_Xは道路上の画像処理領域の左右方向位置(単位メートル、自車両の正面が0)である。また、ProcessWideは画像処理領域の横方向範囲の半分の値(単位メートル)、ProcessDistは画像処理領域の前後方向範囲の半分の値(単位メートル)である。
If no mark such as a road marking character or symbol has been recognized yet, the process proceeds to step 103, and initial conditions for detecting the road marking are set as follows.
obj_Y = 20,
obj_X = 0,
ProcessWide = 1.5,
ProcessDist = 10.0
Reference mark rotation allowable range; minimum value αs1 = −45 [deg], maximum value αs2 = + 45 [deg] (32)
In Expression (32), obj_Y is the front-rear direction position (unit meter) of the image processing area on the road, and obj_X is the left-right position of the image processing area on the road (unit meter, the front of the host vehicle is 0). Further, ProcessWide is a half value (unit meter) of the horizontal range of the image processing area, and ProcessDist is a half value (unit meter) of the front-rear direction range of the image processing area.

ステップ304においてカメラ3の撮像画像の画像処理領域を次のように設定する。
disp_obj_YA=y0+focusV*CAM_h/(obj_Y+ProcessDist)・・・(33)
disp_obj_YB=y0+focusV*CAM_h/(obj_Y−ProcessDist)・・・(34)
disp_obj_XL=x0+focusH*obj_X/obj_Y−focusH*ProcessWide/obj_Y ・・・(35)
disp_obj_XR=x0+focusH*obj_X/obj_Y+focusH*ProcessWide/obj_Y
・・・(36)
ここで、disp_obj_YAは画像処理領域の上側の座標、disp_obj_YBは画像処理領域の下側の座標、disp_obj_XLは画像処理領域の左側の座標、disp_obj_XRは画像処理領域の右側の座標である。また、y0、x0は消失点の縦方向座標[pix:画素数](カメラ3の取り付け位置と向き(撮影レンズの方向)で決まるパラメーター)である。同様に、focusVとfocusHは鉛直方向と水平方向のカメラ3の焦点距離を画素換算した値[pix](カメラ3の画角と受光素子の解像度で決まるパラメーター)である。CAM_hはカメラ3の取り付け高さ(単位はメートル)である。
In step 304, the image processing area of the image captured by the camera 3 is set as follows.
disp_obj_YA = y0 + focusV * CAM_h / (obj_Y + ProcessDist) (33)
disp_obj_YB = y0 + focusV * CAM_h / (obj_Y-ProcessDist) (34)
disp_obj_XL = x0 + focusH * obj_X / obj_Y-focusH * ProcessWide / obj_Y (35)
disp_obj_XR = x0 + focusH * obj_X / obj_Y + focusH * ProcessWide / obj_Y
... (36)
Here, disp_obj_YA is the upper coordinate of the image processing area, disp_obj_YB is the lower coordinate of the image processing area, disp_obj_XL is the left coordinate of the image processing area, and disp_obj_XR is the right coordinate of the image processing area. Further, y0 and x0 are the longitudinal coordinates [pix: number of pixels] of the vanishing point (a parameter determined by the mounting position and orientation of the camera 3 (direction of the photographing lens)). Similarly, focus V and focus H are values [pix] (parameters determined by the angle of view of the camera 3 and the resolution of the light receiving element) obtained by converting the focal length of the camera 3 in the vertical and horizontal directions into pixels. CAM_h is the mounting height (unit: meters) of the camera 3.

ステップ305では上記画像処理領域において道路標示の文字や記号などのマークを識別するための前処理を行う。この処理方法としてこの一実施の形態では微分演算と2値化処理を行う。微分演算は、微分画像を求める一般的な手法であるsobelフィルターにより実施する。sobelフィルターとは、ある画素に隣接する画素どうしの輝度変化を求める演算である。2値化処理は、求めた微分画像の輝度についてその平均値Avと分散値Vrを求め、これをしきい値として2値化処理を実施する。なお、2値化とは、各画素の輝度(ここでは微分画像のため輝度変化)がしきい値以下の場合には黒色に、しきい値を超える場合は白色に、微分画像の濃淡を白と黒の2色に分けることである。   In step 305, pre-processing for identifying marks such as road marking characters and symbols in the image processing area is performed. As this processing method, in this embodiment, differentiation operation and binarization processing are performed. The differential operation is performed by a sobel filter which is a general method for obtaining a differential image. The sobel filter is an operation for obtaining a luminance change between pixels adjacent to a certain pixel. In the binarization process, the average value Av and the variance value Vr are obtained for the luminance of the obtained differential image, and the binarization process is performed using these values as threshold values. Note that binarization is black when the luminance of each pixel (in this case, the luminance change for a differential image) is equal to or less than a threshold value, white when the luminance exceeds the threshold value, and white and shade of the differential image. And black.

ステップ306において、道路標示マークを認識した回数を表すカウンターDetectsStepの値に応じて参照用マークを設定する。
DetectsStep=0でまだ何も検出しない場合はRef_Mark=「◇」、
DetectsStep=1で最初の「◇」を検出すみの場合はRef_Mark=「◇」、
DetectsStep=2で2個の「◇」を検出すみの場合はRef_Mark=「−」(横断歩道としての横線を探す) ・・・(37)
ここで、Ref_Markとは、検出した道路標示マークと照合するために参照するマークであり、カメラ3から路面上の道路標示を見下ろすのと同じように、斜め上から見た遠近感のある参照用マークを予め設定しておくものとする。
In step 306, a reference mark is set in accordance with the value of the counter DetectsStep representing the number of times the road marking mark has been recognized.
If DetectsStep = 0 and nothing is detected yet, Ref_Mark = “◇”,
If DetectsStep = 1 and the first “◇” is detected, Ref_Mark = “◇”,
If DetectsStep = 2 and two “◇” are detected, Ref_Mark = “−” (look for a horizontal line as a pedestrian crossing) (37)
Here, Ref_Mark is a mark that is referred to in order to collate with the detected road marking mark. Similar to the camera 3 looking down the road marking on the road surface, it is a reference for viewing with a perspective as seen from diagonally above. Assume that marks are set in advance.

ステップ307では、上述した前処理により識別した道路標示マークを参照用マークと照合して道路標示マークを認識する。この認識方法として、この一実施の形態では参照用マークと2値化画像とのOCR(Optical Character Recognition)手法を応用し、所定以上の類似性がある場合にその道路標示マークを認識できたものとする。また、この認識を行うときに、参照用マークの回転許容範囲を最少αs1から最大αs2までに制限する。ステップ308で道路標示マークを認識した場合はステップ309へ進み、認識できなかった場合はステップ314へ進む。   In step 307, the road marking mark identified by the pre-processing described above is compared with the reference mark to recognize the road marking mark. As this recognition method, in this embodiment, an OCR (Optical Character Recognition) method between a reference mark and a binarized image is applied, and the road marking mark can be recognized when there is a predetermined similarity or more. And Further, when this recognition is performed, the allowable rotation range of the reference mark is limited from the minimum αs1 to the maximum αs2. If the road marking mark is recognized in step 308, the process proceeds to step 309. If not recognized, the process proceeds to step 314.

横断歩道の道路標示マークを認識できた場合は、ステップ309で道路標示マークの認識回数カウンターDetectStepをインクリメントする。カウンターDetectStepが3になった場合はステップ315へ進み、3未満の場合はステップ310へ進む。ステップ310では、認識した道路標示マークの画面上の位置に基づいて、次に道路標示マークを探索する画像処理領域の位置を次式により求める。
obj_Y=focusV*CAM_h/(Ref_Mark_Center_y−y0)+2.0,
obj_X=obj_Y(Ref_Mark_Center_x−x0)/focusH ・・・(38)
(38)式において、Ref_Mark_Center_yは認識したマークの画面上の垂直方向(上下方向)位置、Ref_Mark_Center_xは認識したマークの画面上の水平方向(左右方向)位置である。
If the road marking mark on the pedestrian crossing can be recognized, in step 309, the road marking mark recognition frequency counter DetectStep is incremented. If the counter DetectStep is 3, the process proceeds to step 315. If it is less than 3, the process proceeds to step 310. In step 310, based on the position of the recognized road marking mark on the screen, the position of the image processing area where the next road marking mark is searched is obtained by the following equation.
obj_Y = focusV * CAM_h / (Ref_Mark_Center_y−y0) +2.0,
obj_X = obj_Y (Ref_Mark_Center_x−x0) / focusH (38)
In equation (38), Ref_Mark_Center_y is the vertical (up and down) position of the recognized mark on the screen, and Ref_Mark_Center_x is the horizontal (left and right) position of the recognized mark on the screen.

ステップ311では、認識した道路標示マークの画面上の大きさに基づいて、次に道路標示マークを探索する画像処理領域の大きさを次式により求める。
ProcessWide=(Rcg_Mark_SizeH*obj_Y/focusH)/2,
ProcessDist=(Rcg_Mark_SizeV*obj_Y/focusV)/2 ・・・(39)
(39)式において、Rcg_Mark_SizeHとRcg_Mark_SizeVは、認識した道路標示マークの水平方向サイズ(単位は画素数)と鉛直方向サイズ(単位は画素数)である。
In step 311, the size of the image processing area to be searched for the next road marking mark is obtained by the following equation based on the recognized size of the road marking mark on the screen.
ProcessWide = (Rcg_Mark_SizeH * obj_Y / focusH) / 2
ProcessDist = (Rcg_Mark_SizeV * obj_Y / focusV) / 2 (39)
In Expression (39), Rcg_Mark_SizeH and Rcg_Mark_SizeV are the horizontal size (unit is the number of pixels) and vertical size (unit is the number of pixels) of the recognized road marking mark.

ステップ312では、認識した横断歩道の道路標示マークの向きに基づいて次のマークを探索するときの参照用マークの傾きを制限する。
αs1=αr−30[deg],
αs2=αr+30[deg] ・・・(40)
ここで、αrとは、認識した際の参照用マークの回転角度であり、αs1とαs2は次のサンプリング周期で探索するときの参照用マークの回転角度を制限する最小角度と最大角度である。
In step 312, the inclination of the reference mark when searching for the next mark is limited based on the recognized direction of the road marking mark on the pedestrian crossing.
αs1 = αr−30 [deg],
αs2 = αr + 30 [deg] (40)
Here, αr is the rotation angle of the reference mark at the time of recognition, and αs1 and αs2 are the minimum angle and the maximum angle that limit the rotation angle of the reference mark when searching in the next sampling period.

なお、この一実施の形態では検出した道路標示マークの向きに応じて参照用マークの向きを傾ける例を示したが、検出した道路標示マークの向きに応じて探索領域(画像処理領域)を傾けてもよい。   In this embodiment, an example in which the direction of the reference mark is tilted according to the detected direction of the road marking mark is shown. However, the search area (image processing area) is tilted according to the detected direction of the road marking mark. May be.

ステップ313では、認識した道路標示マークの画面上の向きに基づいて次に探索する領域の左右方向位置を制限する。

obj_X=obj_Y(Ref_Mark_Center_x−x0)/focusH+2.0tanαr
・・・(41)
In step 313, the horizontal position of the area to be searched next is limited based on the orientation of the recognized road marking mark on the screen.

obj_X = obj_Y (Ref_Mark_Center_x−x0) / focus H + 2.0 tan αr
... (41)

一方、ステップ315では、自車両前方に信号のない横断歩道を検出したので、例えばアクセルペダルの反発力を強めて運転者に情報提供する。ステップ314では車速、操舵角などの自車挙動データの過去値を更新して処理を終了する。   On the other hand, in step 315, since a pedestrian crossing without a signal is detected in front of the host vehicle, for example, the repulsive force of the accelerator pedal is strengthened to provide information to the driver. In step 314, the past values of the vehicle behavior data such as the vehicle speed and the steering angle are updated, and the process is terminated.

このように、道路上の進行方向に連続してペイントされる横断歩道の道路標示を一つずつ部分的に検出するとともに、一つの道路標示の検出結果により次の道路標示の探索領域(画像処理領域)の位置や大きさを設定するようにしたので、画像処理領域を必要最小限の範囲に狭くすることができ、画像処理負荷を低減することができる。   In this way, the road markings of the pedestrian crossing that are continuously painted in the direction of travel on the road are partially detected one by one, and the search area for the next road marking (image processing) is detected based on the detection result of one road marking. Since the position and size of the (region) are set, the image processing region can be narrowed to the minimum necessary range, and the image processing load can be reduced.

《発明の第4の実施の形態》
「せ」→「と」→「落」→「度」→「速」の順序でマークを1文字または1記号ずつ部分的に認識して減速を促す「速度落とせ」の道路標示を検出する第4の実施の形態を説明する。なお、この第4の実施の形態の構成は図1に示す構成と同様であり、説明を省略する。
<< Fourth Embodiment of the Invention >>
The first step is to detect a road marking of “slow down” that promptly decelerates by partially recognizing the mark one character or one symbol at a time in the order of “se” → “to” → “fall” → “degree” → “speed” Embodiment 4 will be described. The configuration of the fourth embodiment is the same as the configuration shown in FIG.

図6は、カメラ3による撮像画像を処理して道路上にペイントされている「速度落とせ」の道路標示を検出する処理を示す。外界認識装置5は、50msecごとに図6に示す道路標示検出処理を繰り返す。ステップ400において、今回のサンプリングでカメラ3により撮像し画像処理装置4で処理した画像を読み込む。続くステップ401では車速検出装置6から車速を、操舵角検出装置7から操舵角を読み込む。ステップ402で、道路標示の文字や記号などのマークを認識した回数を表すカウンターDetectsStepが0、すなわち、まだ道路標示のマークを一つも認識していない状態か否かを確認する。   FIG. 6 shows a process of detecting a “speed reduction” road marking painted on the road by processing an image captured by the camera 3. The external environment recognition device 5 repeats the road marking detection process shown in FIG. 6 every 50 msec. In step 400, an image picked up by the camera 3 in this sampling and processed by the image processing device 4 is read. In the subsequent step 401, the vehicle speed is read from the vehicle speed detection device 6 and the steering angle is read from the steering angle detection device 7. In step 402, it is confirmed whether or not the counter DetectsStep representing the number of times a mark such as a road marking character or symbol has been recognized is 0, that is, no road marking mark has been recognized yet.

道路標示の文字や記号などのマークをまだ一つも認識していない状態の場合はステップ403へ進み、道路標示を検出するための初期条件を以下のように設定する。
obj_Y=20,
obj_X=0,
ProcessWide=1.5,
ProcessDist=10.0
obj_Yf=obj_Y,
obj_Yn=obj_Y ・・・(42)
(42)式において、obj_Yは道路上の画像処理領域の前後方向位置(単位メートル)、obj_Xは道路上の画像処理領域の左右方向位置(単位メートル、自車両の正面が0)である。また、ProcessWideは画像処理領域の横方向範囲の半分の値(単位メートル)、ProcessDistは画像処理領域の前後方向範囲の半分の値(単位メートル)である。
If no mark such as a character or symbol of the road marking has been recognized yet, the process proceeds to step 403, and initial conditions for detecting the road marking are set as follows.
obj_Y = 20,
obj_X = 0,
ProcessWide = 1.5,
ProcessDist = 10.0
obj_Yf = obj_Y,
obj_Yn = obj_Y (42)
In equation (42), obj_Y is the position in the front-rear direction (unit meter) of the image processing area on the road, and obj_X is the position in the left-right direction of the image processing area on the road (unit meter, the front of the host vehicle is 0). Further, ProcessWide is a half value (unit meter) of the horizontal range of the image processing area, and ProcessDist is a half value (unit meter) of the front-rear direction range of the image processing area.

ステップ404において、位置範囲を表す[obj_Yf,obj_Yn,obj_Xl,obj_Xr]を用いてカメラ3の撮像画像の画像処理領域を次のように設定する。
disp_obj_YA=y0+focusV*CAM_h/(obj_Yf+ProcessDist)・・(43)
disp_obj_YB=y0+focusV*CAM_h/(obj_Yn−ProcessDist)・・(44)
disp_obj_XL=x0+focusH*obj_Xl/obj_Y−focusH*ProcessWide/obj_Y ・・・(45)
disp_obj_XR=x0+focusH*obj_Xr/obj_Y+focusH*ProcessWide/obj_Y
・・・(46)
ここで、disp_obj_YAは画像処理領域の上側の座標、disp_obj_YBは画像処理領域の下側の座標、disp_obj_XLは画像処理領域の左側の座標、disp_obj_XRは画像処理領域の右側の座標である。また、y0、x0は消失点の縦方向座標[pix:画素数](カメラ3の取り付け位置と向き(撮影レンズの方向)で決まるパラメーター)である。同様に、focusVとfocusHは鉛直方向と水平方向のカメラ3の焦点距離を画素換算した値[pix](カメラ3の画角と受光素子の解像度で決まるパラメーター)である。CAM_hはカメラ3の取り付け高さ(単位はメートル)である。
In step 404, the image processing area of the captured image of the camera 3 is set as follows using [obj_Yf, obj_Yn, obj_X1, obj_Xr] representing the position range.
disp_obj_YA = y0 + focus V * CAM_h / (obj_Yf + ProcessDist) (43)
disp_obj_YB = y0 + focus V * CAM_h / (obj_Yn-ProcessDist) (44)
disp_obj_XL = x0 + focusH * obj_Xl / obj_Y-focusH * ProcessWide / obj_Y (45)
disp_obj_XR = x0 + focusH * obj_Xr / obj_Y + focusH * ProcessWide / obj_Y
... (46)
Here, disp_obj_YA is the upper coordinate of the image processing area, disp_obj_YB is the lower coordinate of the image processing area, disp_obj_XL is the left coordinate of the image processing area, and disp_obj_XR is the right coordinate of the image processing area. Further, y0 and x0 are the longitudinal coordinates [pix: number of pixels] of the vanishing point (a parameter determined by the mounting position and orientation of the camera 3 (direction of the photographing lens)). Similarly, focus V and focus H are values [pix] (parameters determined by the angle of view of the camera 3 and the resolution of the light receiving element) obtained by converting the focal length of the camera 3 in the vertical and horizontal directions into pixels. CAM_h is the mounting height (unit: meters) of the camera 3.

ステップ405では上記画像処理領域において道路標示の文字や記号などのマークを識別するための前処理を行う。この処理方法としてこの一実施の形態では微分演算と2値化処理を行う。微分演算は、微分画像を求める一般的な手法であるsobelフィルターにより実施する。sobelフィルターとは、ある画素に隣接する画素どうしの輝度変化を求める演算である。2値化処理は、求めた微分画像の輝度についてその平均値Avと分散値Vrを求め、これをしきい値として2値化処理を実施する。なお、2値化とは、各画素の輝度(ここでは微分画像のため輝度変化)がしきい値以下の場合には黒色に、しきい値を超える場合は白色に、微分画像の濃淡を白と黒の2色に分けることである。   In step 405, preprocessing for identifying a mark such as a character or symbol of a road marking in the image processing area is performed. As this processing method, in this embodiment, differentiation operation and binarization processing are performed. The differential operation is performed by a sobel filter which is a general method for obtaining a differential image. The sobel filter is an operation for obtaining a luminance change between pixels adjacent to a certain pixel. In the binarization process, the average value Av and the variance value Vr are obtained for the luminance of the obtained differential image, and the binarization process is performed using these values as threshold values. Note that binarization is black when the luminance of each pixel (in this case, the luminance change for a differential image) is equal to or less than a threshold value, white when the luminance exceeds the threshold value, and white and shade of the differential image. And black.

ステップ406では、道路標示マークを認識した回数を表すカウンターDetectsStepの値に応じて参照用マークを設定する。
DetectsStep=0の場合、Ref_Mark=「せ」、
DetectsStep=1の場合、Ref_Mark=「と」、
DetectsStep=2の場合、Ref_Mark=「落」、
DetectsStep=3の場合、Ref_Mark=「度」、
DetectsStep=4の場合、Ref_Mark=「速」 ・・・(47)
ここで、Ref_Markとは、検出した道路標示マークと照合するために参照するマークであり、カメラ3から路面上の道路標示を見下ろすのと同じように、斜め上から見た遠近感のある参照用マークを予め設定しておくものとする。
In step 406, a reference mark is set according to the value of the counter DetectsStep representing the number of times the road marking mark has been recognized.
If DetectsStep = 0, Ref_Mark = “se”,
If DetectsStep = 1, Ref_Mark = “To”,
If DetectsStep = 2, Ref_Mark = “Fall”,
If DetectsStep = 3, Ref_Mark = “degrees”,
When DetectsStep = 4, Ref_Mark = “Speed” (47)
Here, Ref_Mark is a mark that is referred to in order to collate with the detected road marking mark. Similar to the camera 3 looking down the road marking on the road surface, it is a reference for viewing with a perspective as seen from diagonally above. Assume that marks are set in advance.

ステップ407では、上述した前処理により識別した道路標示マークを参照用マークと照合して道路標示マークを認識する。この認識方法として、この一実施の形態では参照用マークと2値化画像とのOCR(Optical Character Recognition)手法を応用し、所定以上の類似性がある場合にその道路標示マークを認識できたものとする。また、この認識を行うときに、参照用マークの回転許容範囲を最少αs1から最大αs2までに制限する。ステップ408で道路標示マークを認識した場合はステップ409へ進み、認識できなかった場合はステップ414へ進む。   In step 407, the road marking mark identified by the pre-processing described above is compared with the reference mark to recognize the road marking mark. As this recognition method, in this embodiment, an OCR (Optical Character Recognition) method between a reference mark and a binarized image is applied, and the road marking mark can be recognized when there is a predetermined similarity or more. And Further, when this recognition is performed, the allowable rotation range of the reference mark is limited from the minimum αs1 to the maximum αs2. If a road marking mark is recognized in step 408, the process proceeds to step 409. If not recognized, the process proceeds to step 414.

速度落とせの道路標示マークを認識できた場合は、ステップ409で道路標示マークの認識回数カウンターDetectStepをインクリメントする。カウンターDetectStepが5になった場合はステップ415へ進み、5未満の場合はステップ410へ進む。ステップ410では、認識した道路標示マークの画面上の位置に基づいて、次に道路標示マークを探索する画像処理領域の位置を次式により求める。
obj_Y=focusV*CAM_h/(Ref_Mark_Center_y−y0)+2.0,
obj_Yn=obj_Y−func1(DetectStep),
obj_Yf=obj_Y+func1(DetectStep),
obj_Xl=obj_Y(Ref_Mark_Center_x−x0)/focusH−func1(DetectStep),
obj_Xr=obj_Y(Ref_Mark_Center_x−x0)/focusH+func1(DetectStep)
・・・(48)
ここで、Ref_Mark_Center_yは認識したマークの画面上の垂直方向(上下方向)位置、Ref_Mark_Center_xは認識したマークの画面上の水平方向(左右方向)位置である。また、obj_Ynとobj_Yfは探索位置の近距離側と遠距離側の位置を示し、obj_Xlとobj_Xrは探索位置の左側と右側の位置を示す。func1(A)は図8に示すような特性を有する関数である。
If the low speed road marking mark can be recognized, the road marking mark recognition number counter DecetStep is incremented in step 409. If the counter DetectStep is 5, the process proceeds to step 415. If it is less than 5, the process proceeds to step 410. In step 410, based on the position of the recognized road marking mark on the screen, the position of the image processing area where the next road marking mark is searched is obtained by the following equation.
obj_Y = focusV * CAM_h / (Ref_Mark_Center_y−y0) +2.0,
obj_Yn = obj_Y-func1 (DetectStep),
obj_Yf = obj_Y + func1 (DetectStep)
obj_Xl = obj_Y (Ref_Mark_Center_x-x0) / focus H-func1 (DetectStep)
obj_Xr = obj_Y (Ref_Mark_Center_x-x0) / focusH + func1 (DetectStep)
... (48)
Here, Ref_Mark_Center_y is the vertical (up and down) position of the recognized mark on the screen, and Ref_Mark_Center_x is the horizontal (left and right) position of the recognized mark on the screen. Also, obj_Yn and obj_Yf indicate the positions on the short distance side and the far distance side of the search position, and obj_Xl and obj_Xr indicate the positions on the left and right sides of the search position. func1 (A) is a function having the characteristics shown in FIG.

ステップ411では、認識した道路標示マークの画面上の大きさに基づいて、次に道路標示マークを探索する画像処理領域の大きさを次式により求める。
ProcessWide=(Rcg_Mark_SizeH*obj_Y/focusH)/func2(DetectStep),
ProcessDist=(Rcg_Mark_SizeV*obj_Y/focusV)/func2(DetectStep) ・・・(49)
(49)式において、Rcg_Mark_SizeHとRcg_Mark_SizeVは、認識した道路標示マークの水平方向サイズ(単位は画素数)と鉛直方向サイズ(単位は画素数)である。また、func2(A)は図9に示すような特性を有する関数である。
In step 411, the size of the image processing area to be searched for the next road marking mark is obtained based on the size of the recognized road marking mark on the screen by the following equation.
ProcessWide = (Rcg_Mark_SizeH * obj_Y / focusH) / func2 (DetectStep),
ProcessDist = (Rcg_Mark_SizeV * obj_Y / focusV) / func2 (DetectStep) (49)
In equation (49), Rcg_Mark_SizeH and Rcg_Mark_SizeV are the horizontal size (unit is the number of pixels) and vertical size (unit is the number of pixels) of the recognized road marking mark. Further, func2 (A) is a function having characteristics as shown in FIG.

ステップ412では、認識した速度落とせの道路標示マークの向きに基づいて次のマークを探索するときの参照用マークの傾きを制限する。
αs1=αr−func3(DetectStep)[deg],
αs2=αr+func3(DetectStep)[deg] ・・・(50)
ここで、αrとは、認識した際の参照用マークの回転角度であり、αs1とαs2は次のサンプリング周期で探索するときの参照用マークの回転角度を制限する最少角度と最大角度である。また、func3(A)は図10に示すような特性を有する関数である。なお、この一実施の形態では参照用マークの向きを傾ける例を示したが、探索領域を傾けてもよい。
In step 412, the inclination of the reference mark when searching for the next mark is limited based on the recognized direction of the reduced speed road marking mark.
αs1 = αr−func3 (DectectStep) [deg],
αs2 = αr + func3 (DectectStep) [deg] (50)
Here, αr is the rotation angle of the reference mark at the time of recognition, and αs1 and αs2 are the minimum angle and the maximum angle that limit the rotation angle of the reference mark when searching in the next sampling period. Further, func3 (A) is a function having characteristics as shown in FIG. In this embodiment, an example in which the direction of the reference mark is tilted is shown, but the search area may be tilted.

ステップ413では、認識した道路標示マークの画面上の向きに基づいて次に探索する領域の左右方向位置を制限する。
obj_Xl=obj_Y(Ref_Mark_Center_x−x0)/focusH+2.0tan(αr−func4(DetectStep)),
obj_Xr=obj_Y(Ref_Mark_Center_x−x0)/focusH+20.tan(αr−func4(DetectStep)) ・・・(51)
ここで、func4(A)は図11に示すような特性を有する関数である。
In step 413, the horizontal position of the area to be searched next is limited based on the orientation of the recognized road marking mark on the screen.
obj_Xl = obj_Y (Ref_Mark_Center_x-x0) / focus H + 2.0 tan ([alpha] r-func4 (DetectStep)),
obj_Xr = obj_Y (Ref_Mark_Center_x-x0) / focus H + 20. tan (αr-func4 (DectectStep)) (51)
Here, func4 (A) is a function having the characteristics shown in FIG.

一方、ステップ415では、自車両前方に目測を誤りがちな状況があることを示す「速度落とせ」の道路標示を検出したので、運転者への情報提供として例えば0.07Gの制動力を現在の目標駆動力に付加して駆動軸トルクデマンド制御を行い、ステップ414へ進む。ステップ414では車速、操舵角などの自車挙動データの過去値を更新して処理を終了する。   On the other hand, in step 415, since the road marking of “slow down” indicating that there is a situation in which the measurement is likely to be erroneous in front of the host vehicle is detected, a braking force of, for example, 0.07G is used as information provision to the driver. Drive shaft torque demand control is performed in addition to the target drive force, and the process proceeds to step 414. In step 414, the past values of the vehicle behavior data such as the vehicle speed and the steering angle are updated, and the process is terminated.

このように、道路上の進行方向に連続してペイントされる「速度落とせ」の道路標示を1文字または1記号ずつ部分的に検出するとともに、一つの道路標示の検出結果により次の道路標示の探索領域(画像処理領域)の位置や大きさを設定するようにしたので、画像処理領域を必要最小限の範囲まで狭くすることができ、画像処理負荷を低減することができる。   As described above, the “speed reduction” road sign continuously painted in the traveling direction on the road is partially detected one character or one symbol at a time, and the next road sign is detected based on the detection result of one road sign. Since the position and size of the search area (image processing area) are set, the image processing area can be narrowed to the minimum necessary range, and the image processing load can be reduced.

《発明の第5の実施の形態》
初期探索領域(画像処理領域)を自車両の挙動から絞り込むとともに、道路表示を1文字または1記号ずつ部分的に検出する際の探索領域も自車両の挙動から絞り込み、画像処理の演算負荷を低減するようにした第5の実施の形態を説明する。なお、この第5の実施の形態の構成は図1に示す構成と同様であり、説明を省略する。
<< Fifth Embodiment of the Invention >>
The initial search area (image processing area) is narrowed down from the behavior of the host vehicle, and the search area when partially detecting the road display one character or one symbol at a time is also narrowed down from the behavior of the host vehicle, reducing the computational load of image processing. A fifth embodiment configured as described above will be described. The configuration of the fifth embodiment is the same as the configuration shown in FIG.

図7は、カメラ3による撮像画像を処理して道路上にペイントされている「速度落とせ」の道路標示を検出する処理を示す。外界認識装置5は、50msecごとに図7に示す道路標示検出処理を繰り返す。ステップ500において、今回のサンプリングでカメラ3により撮像し画像処理装置4で処理した画像を読み込む。   FIG. 7 shows a process of detecting a “speed reduction” road marking painted on the road by processing an image captured by the camera 3. The outside recognition device 5 repeats the road marking detection process shown in FIG. 7 every 50 msec. In step 500, an image picked up by the camera 3 in the current sampling and processed by the image processing device 4 is read.

ステップ501では車速検出装置6から車速を、操舵角検出装置7から操舵角を読み込み、次式により将来の自車両の進路の曲率半径Row[m]とピッチ角度Pitch_z0[deg]を推定する。
Row=(1+A*Vsp*LWB)/Steer,
Pitch_z0=BPF_B1*mc_z0+BPF_B2*mc_z1+BPF_B3*mc_z2
−BPF_A2*Pitch_z1−BPF_A3*Pitch_z2 ・・・(52)
ここで、Aは車両固有の値であるスタビリティーファクター(車重、ホイールベース長、重心位置、タイヤの横力で決まる定数と見なせる値)を、Vspは自車速度[m/s]を、LWBはホイールベース長[m]を、Steerは操舵角[rad](右切りがプラス)をそれぞれ表す。また、BPF_B1、BPF_B2、BPF_B3、BPF_A2、BPF_A3は所定の微分特性を有するように設定したデジタル微分フィルター(バンドパスフィルター)の係数であり、mc_z0はブレーキのマスターシリンダー圧力の現在値、mc_znはそのnサンプリング過去の値である。Pitch_znも同様であり、下向き(ノーズダイブ方向)を正とする。
In step 501, the vehicle speed is read from the vehicle speed detection device 6 and the steering angle is read from the steering angle detection device 7, and the curvature radius Row [m] and pitch angle Pitch_z0 [deg] of the future course of the host vehicle are estimated by the following equations.
Row = (1 + A * Vsp 2 * LWB) / Steer,
Pitch_z0 = BPF_B1 * mc_z0 + BPF_B2 * mc_z1 + BPF_B3 * mc_z2
-BPF_A2 * Pitch_z1-BPF_A3 * Pitch_z2 (52)
Here, A is a stability factor (a value that can be regarded as a constant determined by the vehicle weight, wheelbase length, center of gravity position, and lateral force of the tire) that is unique to the vehicle, and Vsp is the vehicle speed [m / s], LWB represents the wheel base length [m], and Steer represents the steering angle [rad] (right turn is positive). BPF_B1, BPF_B2, BPF_B3, BPF_A2, and BPF_A3 are coefficients of a digital differential filter (bandpass filter) set to have a predetermined differential characteristic, mc_z0 is the current value of the master cylinder pressure of the brake, and mc_zn is its n Sampling past values. The same applies to Pitch_zn, and the downward direction (nose dive direction) is positive.

ステップ502では、道路標示の文字や記号などのマークを認識した回数を表すカウンターDetectsStepが0、すなわち、まだ道路標示のマークを一つも認識していない状態か否かを確認する。道路標示の文字や記号などのマークをまだ一つも認識していない状態の場合はステップ503へ進み、道路標示を検出するための初期条件を以下のように設定する。
obj_Y=20,
obj_X=func5(Row),
ProcessWide=1,
ProcessDist=10.0
obj_Yf=obj_Y,
obj_Yn=obj_Y ・・・(53)
(53)式において、obj_Yは道路上の画像処理領域の前後方向位置(単位メートル)、obj_Xは道路上の画像処理領域の左右方向位置(単位メートル、自車両の正面が0)である。また、ProcessWideは画像処理領域の横方向範囲の半分の値(単位メートル)、ProcessDistは画像処理領域の前後方向範囲の半分の値(単位メートル)である。func5(Row)は図12に示すような特性の関数である。
上述した第4の実施の形態と比較すると、obj_X=func5(Row)とすることによって、自車両の予測進路で探索領域の初期位置を補正し、さらにProcessWide=1とすることによって探索領域の初期の大きさが絞れる。
In step 502, it is confirmed whether or not the counter DetectsStep representing the number of times a mark such as a road marking character or symbol has been recognized is 0, that is, no road marking mark has been recognized yet. If no mark such as a character or symbol of the road marking has been recognized yet, the process proceeds to step 503, and initial conditions for detecting the road marking are set as follows.
obj_Y = 20,
obj_X = func5 (Row),
ProcessWide = 1
ProcessDist = 10.0
obj_Yf = obj_Y,
obj_Yn = obj_Y (53)
In Expression (53), obj_Y is a position in the front-rear direction (unit meter) of the image processing area on the road, and obj_X is a position in the left-right direction of the image processing area on the road (unit meter, the front of the host vehicle is 0). Further, ProcessWide is a half value (unit meter) of the horizontal range of the image processing area, and ProcessDist is a half value (unit meter) of the front-rear direction range of the image processing area. func5 (Row) is a function of characteristics as shown in FIG.
Compared to the above-described fourth embodiment, by setting obj_X = func5 (Row), the initial position of the search area is corrected by the predicted course of the host vehicle, and by further setting ProcessWide = 1, the initial position of the search area is set. The size of can be squeezed.

ステップ504では、自車両の推定ピッチ角度に基づいてdisp_obj_YAとdisp_obj_YBを補正して画像処理領域を求める。
disp_obj_YA=y0+focusV*CAM_h/(obj_Y+ProcessDist)
+vp/va*Pitch_z0 ・・・(54)
disp_obj_YB=y0+focusV*CAM_h/(obj_Y−ProcessDist)
+vp/va*Pitch_z0 ・・・(55)
disp_obj_XL=x0+focusH*obj_X/obj_Y−focusH*ProcessWide/obj_Y ・・・(56)
disp_obj_XR=x0+focesH*obj_X/obj_Y+focusH*ProcessWide/obj_Y
・・・(57)
ここで、disp_obj_YAは画像処理領域の上側の座標、disp_obj_YBは画像処理領域の下側の座標、disp_obj_XLは画像処理領域の左側の座標、disp_obj_XRは画像処理領域の右側の座標である。また、y0、x0は消失点の縦方向座標[pix:画素数](カメラ3の取り付け位置と向き(撮影レンズの方向)で決まるパラメーター)である。同様に、focusVとfocusHは鉛直方向と水平方向のカメラ3の焦点距離を画素換算した値[pix](カメラ3の画角と受光素子の解像度で決まるパラメーター)である。CAM_hはカメラ3の取り付け高さ(単位はメートル)である。また、vpはCCDカメラ3の鉛直方向の画素数[piz]で、vaはCCDカメラ3の鉛直方向の画角[deg]である。
In step 504, disp_obj_YA and disp_obj_YB are corrected based on the estimated pitch angle of the host vehicle to obtain an image processing area.
disp_obj_YA = y0 + focusV * CAM_h / (obj_Y + ProcessDist)
+ Vp / va * Pitch_z0 (54)
disp_obj_YB = y0 + focusV * CAM_h / (obj_Y-ProcessDist)
+ Vp / va * Pitch_z0 (55)
disp_obj_XL = x0 + focusH * obj_X / obj_Y-focusH * ProcessWide / obj_Y (56)
disp_obj_XR = x0 + focesH * obj_X / obj_Y + focusH * ProcessWide / obj_Y
... (57)
Here, disp_obj_YA is the upper coordinate of the image processing area, disp_obj_YB is the lower coordinate of the image processing area, disp_obj_XL is the left coordinate of the image processing area, and disp_obj_XR is the right coordinate of the image processing area. Further, y0 and x0 are the longitudinal coordinates [pix: number of pixels] of the vanishing point (a parameter determined by the mounting position and orientation of the camera 3 (direction of the photographing lens)). Similarly, focus V and focus H are values [pix] (parameters determined by the angle of view of the camera 3 and the resolution of the light receiving element) obtained by converting the focal length of the camera 3 in the vertical and horizontal directions into pixels. CAM_h is the mounting height (unit: meters) of the camera 3. Further, vp is the number of pixels [piz] in the vertical direction of the CCD camera 3, and va is the angle of view [deg] in the vertical direction of the CCD camera 3.

ステップ505では上記画像処理領域において道路標示の文字や記号などのマークを識別するための前処理を行う。この処理方法としてこの一実施の形態では微分演算と2値化処理を行う。微分演算は、微分画像を求める一般的な手法であるsobelフィルターにより実施する。sobelフィルターとは、ある画素に隣接する画素どうしの輝度変化を求める演算である。2値化処理は、求めた微分画像の輝度についてその平均値Avと分散値Vrを求め、これをしきい値として2値化処理を実施する。なお、2値化とは、各画素の輝度(ここでは微分画像のため輝度変化)がしきい値以下の場合には黒色に、しきい値を超える場合は白色に、微分画像の濃淡を白と黒の2色に分けることである。   In step 505, preprocessing for identifying a mark such as a character or symbol of a road marking in the image processing area is performed. As this processing method, in this embodiment, differentiation and binarization processing are performed. The differential operation is performed by a sobel filter which is a general method for obtaining a differential image. The sobel filter is an operation for obtaining a luminance change between pixels adjacent to a certain pixel. In the binarization process, the average value Av and the variance value Vr are obtained for the luminance of the obtained differential image, and the binarization process is performed using these values as threshold values. Note that binarization is black when the luminance of each pixel (in this case, the luminance change for a differential image) is equal to or less than a threshold value, white when the luminance exceeds the threshold value, and white and shade of the differential image. And black.

ステップ506では、道路標示マークを認識した回数を表すカウンターDetectsStepの値に応じて参照用マークを設定する。
DetectsStep=0の場合、Ref_Mark=「せ」、
DetectsStep=1の場合、Ref_Mark=「と」、
DetectsStep=2の場合、Ref_Mark=「落」、
DetectsStep=3の場合、Ref_Mark=「度」、
DetectsStep=4の場合、Ref_Mark=「速」 ・・・(58)
ここで、Ref_Markとは、検出した道路標示マークと照合するために参照するマークであり、カメラ3から路面上の道路標示を見下ろすのと同じように、斜め上から見た遠近感のある参照用マークを予め設定しておくものとする。
In step 506, a reference mark is set in accordance with the value of the counter DetectsStep representing the number of times the road marking mark has been recognized.
If DetectsStep = 0, Ref_Mark = “se”,
If DetectsStep = 1, Ref_Mark = “To”,
If DetectsStep = 2, Ref_Mark = “Fall”,
If DetectsStep = 3, Ref_Mark = “degrees”,
When DetectsStep = 4, Ref_Mark = “Speed” (58)
Here, Ref_Mark is a mark that is referred to in order to collate with the detected road marking mark. Similar to the camera 3 looking down the road marking on the road surface, it is a reference for viewing with a perspective as seen from diagonally above. Assume that marks are set in advance.

ステップ507では、上述した前処理により識別した道路標示マークを参照用マークと照合して道路標示マークを認識する。この認識方法として、この一実施の形態では参照用マークと2値化画像とのOCR(Optical Character Recognition)手法を応用し、所定以上の類似性がある場合にその道路標示マークを認識できたものとする。また、この認識を行うときに、参照用マークの回転許容範囲を最少αs1から最大αs2までに制限する。ステップ508で道路標示マークを認識した場合はステップ509へ進み、認識できなかった場合はステップ514へ進む。   In step 507, the road marking mark identified by the pre-processing described above is compared with the reference mark to recognize the road marking mark. As this recognition method, in this embodiment, an OCR (Optical Character Recognition) method between a reference mark and a binarized image is applied, and the road marking mark can be recognized when there is a predetermined similarity or more. And Further, when this recognition is performed, the allowable rotation range of the reference mark is limited from the minimum αs1 to the maximum αs2. If the road marking mark is recognized in step 508, the process proceeds to step 509. If not recognized, the process proceeds to step 514.

速度落とせの道路標示マークを認識できた場合は、ステップ509で道路標示マークの認識回数カウンターDetectStepをインクリメントする。カウンターDetectStepが5になった場合はステップ515へ進み、5未満の場合はステップ510へ進む。   If the low speed road marking mark can be recognized, the road marking mark recognition number counter DetectStep is incremented in step 509. If the counter DetectStep is 5, the process proceeds to step 515. If it is less than 5, the process proceeds to step 510.

ステップ510では、認識した道路標示マークの画面上の位置に基づいて、次に道路標示マークを探索する画像処理領域の位置を次式により求める。
obj_Y=focusV*CAM_h/(Ref_Mark_Center_y−y0)+2.0,
obj_Yn=obj_Y−func1(DetectStep),
obj_Yf=obj_Y+func1(DetectStep),
obj_Xl=obj_Y(Ref_Mark_Center_x−x0)/focusH−func1(DetectStep)
+func6(Row),
obj_Xr=obj_Y(Ref_Mark_Center_x−x0)/focusH+func1(DetectStep)
+func6(Row) ・・・(59)
ここで、Ref_Mark_Center_yは認識したマークの画面上の垂直方向(上下方向)位置、Ref_Mark_Center_xは認識したマークの画面上の水平方向(左右方向)位置である。また、obj_Ynとobj_Yfは探索位置の近距離側と遠距離側の位置を示し、obj_Xlとobj_Xrは探索位置の左側と右側の位置を示す。func1(A)は図8に示すような特性を有する関数である。また、func6(Row)は図13に示すような特性を有する関数である。
In step 510, based on the position of the recognized road marking mark on the screen, the position of the image processing area where the next road marking mark is searched is obtained by the following equation.
obj_Y = focusV * CAM_h / (Ref_Mark_Center_y−y0) +2.0,
obj_Yn = obj_Y-func1 (DetectStep),
obj_Yf = obj_Y + func1 (DetectStep)
obj_Xl = obj_Y (Ref_Mark_Center_x-x0) / focus H-func1 (DetectStep)
+ Func6 (Row),
obj_Xr = obj_Y (Ref_Mark_Center_x-x0) / focusH + func1 (DetectStep)
+ Func6 (Row) (59)
Here, Ref_Mark_Center_y is the vertical (up and down) position of the recognized mark on the screen, and Ref_Mark_Center_x is the horizontal (left and right) position of the recognized mark on the screen. Also, obj_Yn and obj_Yf indicate the positions on the short distance side and the far distance side of the search position, and obj_Xl and obj_Xr indicate the positions on the left and right sides of the search position. func1 (A) is a function having the characteristics shown in FIG. Further, func6 (Row) is a function having characteristics as shown in FIG.

ステップ511では、認識した道路標示マークの画面上の大きさに基づいて、次に道路標示マークを探索する画像処理領域の大きさを次式により求める。
ProcessWide=(Rcg_Mark_SizeH*obj_Y/focusH)/func2(DetectStep),
ProcessDist=(Rcg_Mark_SizeV*obj_Y/focusV)/func2(DetectStep) ・・・(60)
(60)式において、Rcg_Mark_SizeHとRcg_Mark_SizeVは、認識した道路標示マークの水平方向サイズ(単位は画素数)と鉛直方向サイズ(単位は画素数)である。また、func2(A)は図9に示すような特性を有する関数である。
In step 511, the size of the image processing area to be searched for the next road marking mark is obtained by the following equation based on the recognized size of the road marking mark on the screen.
ProcessWide = (Rcg_Mark_SizeH * obj_Y / focusH) / func2 (DetectStep),
ProcessDist = (Rcg_Mark_SizeV * obj_Y / focusV) / func2 (DetectStep) (60)
In the equation (60), Rcg_Mark_SizeH and Rcg_Mark_SizeV are the horizontal size (unit: number of pixels) and vertical size (unit: number of pixels) of the recognized road marking mark. Further, func2 (A) is a function having characteristics as shown in FIG.

ステップ512では、認識した速度落とせの道路標示マークの向きに基づいて次のマークを探索するときの参照用マークの傾きを制限する。
αs1=αr−func3(DetectStep)[deg],
αs2=αr+func3(DetectStep)[deg] ・・・(61)
ここで、αrとは、認識した際の参照用マークの回転角度であり、αs1とαs2は次のサンプリング周期で探索するときの参照用マークの回転角度を制限する最少角度と最大角度である。また、func3(A)は図10に示すような特性を有する関数である。なお、この一実施の形態では参照用マークの向きを傾ける例を示したが、探索領域を傾けてもよい。
In step 512, the inclination of the reference mark when searching for the next mark is limited based on the recognized direction of the reduced speed road marking mark.
αs1 = αr−func3 (DectectStep) [deg],
αs2 = αr + func3 (DetectStep) [deg] (61)
Here, αr is the rotation angle of the reference mark at the time of recognition, and αs1 and αs2 are the minimum angle and the maximum angle that limit the rotation angle of the reference mark when searching in the next sampling period. Further, func3 (A) is a function having characteristics as shown in FIG. In this embodiment, an example in which the direction of the reference mark is tilted is shown, but the search area may be tilted.

ステップ513では、認識した道路標示マークの画面上の向きに基づいて次に探索する領域の左右方向位置を制限する。
obj_Xl=obj_Y(Ref_Mark_Center_x−x0)/focusH+2.0tan(αr−func4(DetectStep)),
obj_Xr=obj_Y(Ref_Mark_Center_x−x0)/focusH+20.tan(αr−func4(DetectStep)) ・・・(62)
ここで、func4(A)は図11に示すような特性を有する関数である。
In step 513, the horizontal position of the area to be searched next is limited based on the orientation of the recognized road marking mark on the screen.
obj_Xl = obj_Y (Ref_Mark_Center_x-x0) / focus H + 2.0 tan ([alpha] r-func4 (DetectStep)),
obj_Xr = obj_Y (Ref_Mark_Center_x-x0) / focus H + 20. tan (αr-func4 (DectectStep)) (62)
Here, func4 (A) is a function having the characteristics shown in FIG.

一方、ステップ515では、自車両前方に目測を誤りがちな状況があることを示す「速度落とせ」の道路標示を検出したので、運転者への情報提供として例えば0.07Gの制動力を現在の目標駆動力に付加して駆動軸トルクデマンド制御を行い、ステップ514へ進む。ステップ514では車速、操舵角などの自車挙動データの過去値を更新して処理を終了する。   On the other hand, in step 515, since a road marking of “slow down” indicating that there is a situation in which the measurement is likely to be erroneous in front of the host vehicle is detected, a braking force of, for example, 0.07 G is used as information to the driver. Drive shaft torque demand control is performed in addition to the target drive force, and the process proceeds to step 514. In step 514, the past values of the vehicle behavior data such as the vehicle speed and the steering angle are updated, and the process is terminated.

このように、道路上の進行方向に連続してペイントされる「速度落とせ」の道路標示を1文字または1記号ずつ部分的に検出するとともに、自車の挙動に応じて画像処理領域を絞るようにしたので、画像処理負荷を低減することができる。   As described above, the “speed reduction” road marking continuously painted in the traveling direction on the road is partially detected one character or one symbol at a time, and the image processing area is narrowed according to the behavior of the vehicle. Therefore, the image processing load can be reduced.

特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、カメラ3が撮像手段を、画像処理装置4および外界認識装置5が道路標示検出手段、領域絞り込み手段および道路標示識別手段を、第1の実施の形態のスピーカーとディスプレイ、第2の実施の形態のシートベルト巻き取り装置、第3の実施の形態のアクセルペダル反発力付加装置、および、第4および第5の実施の形態の駆動軸トルクデマンド制御装置が道路標示伝達手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。   The correspondence between the constituent elements of the claims and the constituent elements of the embodiment is as follows. That is, the camera 3 is the imaging means, the image processing device 4 and the external recognition device 5 are the road marking detection means, the area narrowing means and the road marking identification means, the speaker and the display of the first embodiment, and the second embodiment. The seat belt retractor of the embodiment, the accelerator pedal repulsion force adding device of the third embodiment, and the drive shaft torque demand control device of the fourth and fifth embodiments respectively constitute road marking transmission means. In addition, as long as the characteristic function of this invention is not impaired, each component is not limited to the said structure.

このように一実施の形態によれば、自車前方を撮像した撮像画像を処理して道路上の進行方向に連続して描かれる道路標示を1文字または1記号ずつ検出するときに、道路標示の1文字または1記号が検出されるたびにその検出結果に基づいて撮像画像上の画像処理領域を絞り込み、連続して検出された文字または記号に基づいて道路標示を識別するようにしたので、道路標示の検出信頼性を向上させながら画像処理負荷を低減することができる。   As described above, according to an embodiment, when a captured image obtained by capturing the front of the host vehicle is processed and road markings continuously drawn in the traveling direction on the road are detected one character or one symbol at a time, the road markings are detected. Each time one character or one symbol is detected, the image processing area on the captured image is narrowed down based on the detection result, and the road marking is identified based on the continuously detected character or symbol. The image processing load can be reduced while improving the detection reliability of the sign.

また、一実施の形態によれば、検出した道路標示の1文字または1記号の位置に応じて、次の道路標示の1文字または1記号を検出するための画像処理領域の位置を設定するようにしたので、道路標示の1文字または1記号を検出するたびに、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, the position of the image processing area for detecting one character or one symbol of the next road sign is set according to the position of one character or one symbol of the detected road sign. Therefore, every time one character or one symbol of a road sign is detected, the image processing load when detecting one character or one symbol of the next road sign can be reduced.

一実施の形態によれば、道路標示の1文字または1記号が検出されるたびに、画像処理領域の位置の設定範囲を狭くするようにしたので、道路標示の1文字または1記号を検出するたびに、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, each time one character or one symbol of a road sign is detected, the setting range of the position of the image processing area is narrowed, so that one character or one symbol of the road sign is detected. Every time, it is possible to reduce the image processing load when detecting one character or one symbol of the next road marking.

一実施の形態によれば、検出した道路標示の1文字または1記号の大きさに応じて、次の道路標示の1文字または1記号を検出するための画像処理領域の大きさを設定するようにしたので、道路標示の1文字または1記号を検出するたびに、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, the size of the image processing area for detecting one character or one symbol of the next road sign is set according to the size of one character or one symbol of the detected road sign. Therefore, every time one character or one symbol of a road sign is detected, the image processing load when detecting one character or one symbol of the next road sign can be reduced.

一実施の形態によれば、道路標示の1文字または1記号が検出されるたびに、画像処理領域の大きさを狭くするようにしたので、道路標示の1文字または1記号を検出するたびに、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, the size of the image processing area is reduced every time one character or one symbol of a road sign is detected, so that every time one character or one symbol of a road sign is detected. The image processing load when detecting one character or one symbol of the next road marking can be reduced.

一実施の形態によれば、検出した道路標示の1文字または1記号の向きに応じて、次の道路標示の1文字または1記号を検出するための画像処理領域を傾けるようにしたので、道路標示の1文字または1記号を検出するたびに、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, the image processing area for detecting one character or one symbol of the next road sign is inclined according to the direction of the one character or one symbol of the detected road sign. Each time one character or one symbol of a sign is detected, the image processing load when detecting one character or one symbol of the next road sign can be reduced.

一実施の形態によれば、検出した道路標示の1文字または1記号の向きに応じて、次の道路標示の1文字または1記号を検出するための画像処理領域の位置を設定するようにしたので、道路標示の1文字または1記号を検出するたびに、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, the position of the image processing area for detecting one character or one symbol of the next road sign is set according to the direction of one character or one symbol of the detected road sign. Therefore, every time one character or one symbol of a road sign is detected, the image processing load when detecting one character or one symbol of the next road sign can be reduced.

一実施の形態によれば、道路標示の1文字または1記号が検出されるたびに、画像処理領域の左右方向の位置を狭くするようにしたので、道路標示の1文字または1記号を検出するたびに、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, each time a character or symbol of a road sign is detected, the position in the left-right direction of the image processing area is narrowed, so that one character or symbol of the road sign is detected. Every time, it is possible to reduce the image processing load when detecting one character or one symbol of the next road marking.

一実施の形態によれば、検出した道路標示の1文字または1記号に基づいて次に検出される道路標示の1文字または1記号を特定するようにしたので、次の道路標示の1文字または1記号を検出する際の画像処理負荷を低減することができる。   According to one embodiment, since one character or one symbol of the road sign to be detected next is specified based on one character or one symbol of the detected road sign, The image processing load when detecting one symbol can be reduced.

一実施の形態によれば、自車両のピッチ角を検出し、検出したピッチ角に基づいて画像処理領域を補正するようにしたので、最初に道路標示の1文字または1記号を検出するときには画像処理負荷を低減することができ、次の道路標示の1文字または1記号を検出するときには道路形状や自車両の挙動の変化に対して画像処理負荷を増やさずに対応できる。   According to one embodiment, since the pitch angle of the host vehicle is detected and the image processing area is corrected based on the detected pitch angle, an image is first detected when one character or one symbol of a road marking is detected. The processing load can be reduced, and when detecting one character or one symbol of the next road marking, it is possible to cope with a change in the road shape or the behavior of the host vehicle without increasing the image processing load.

一実施の形態によれば、自車両の進路を予測し、予測した自車両の進路に基づいて画像処理領域を補正するようにしたので、最初に道路標示の1文字または1記号を検出するときには画像処理負荷を低減することができ、次の道路標示の1文字または1記号を検出するときには道路形状や自車両の挙動の変化に対して画像処理負荷を増やさずに対応できる。   According to one embodiment, since the course of the host vehicle is predicted and the image processing area is corrected based on the predicted course of the host vehicle, when detecting one character or one symbol of a road sign for the first time, The image processing load can be reduced, and when one character or one symbol of the next road marking is detected, it is possible to cope with a change in the road shape or the behavior of the host vehicle without increasing the image processing load.

第1の実施の形態の構成を示す図である。It is a figure which shows the structure of 1st Embodiment. 第1の実施の形態の道路標示検出処理を示すフローチャートである。It is a flowchart which shows the road marking detection process of 1st Embodiment. 第2の実施の形態の道路標示検出処理を示すフローチャートである。It is a flowchart which shows the road marking detection process of 2nd Embodiment. 図3に続く、第2の実施の形態の道路標示検出処理を示すフローチャートである。It is a flowchart which shows the road marking detection process of 2nd Embodiment following FIG. 第3の実施の形態の道路標示検出処理を示すフローチャートである。It is a flowchart which shows the road marking detection process of 3rd Embodiment. 第4の実施の形態の道路標示検出処理を示すフローチャートである。It is a flowchart which shows the road marking detection process of 4th Embodiment. 第5の実施の形態の道路標示検出処理を示すフローチャートである。It is a flowchart which shows the road marking detection process of 5th Embodiment. 関数func1の特性を示す図である。It is a figure which shows the characteristic of the function func1. 関数func2の特性を示す図である。It is a figure which shows the characteristic of the function func2. 関数func3の特性を示す図である。It is a figure which shows the characteristic of the function func3. 関数func4の特性を示す図である。It is a figure which shows the characteristic of the function func4. 関数func5の特性を示す図である。It is a figure which shows the characteristic of the function func5. 関数func6の特性を示す図である。It is a figure which shows the characteristic of the function func6.

符号の説明Explanation of symbols

1 レーザーレーダー
2 レーダー処理装置
3 CCDカメラ
4 画像処理装置
5 外界認識装置
6 車速検出装置
7 操舵角検出装置
8 自動ブレーキ制御装置
9 負圧ブレーキブースター
DESCRIPTION OF SYMBOLS 1 Laser radar 2 Radar processing device 3 CCD camera 4 Image processing device 5 Outside world recognition device 6 Vehicle speed detection device 7 Steering angle detection device 8 Automatic brake control device 9 Negative pressure brake booster

Claims (10)

自車前方を撮像する撮像手段と、
前記撮像手段の撮像画像を処理して道路上の進行方向に連続して描かれる道路標示を1文字または1記号ずつ検出する道路標示検出手段と、
前記道路標示検出手段により道路標示の1文字または1記号が検出されるたびに、その検出結果に基づいて前記撮像手段の撮像画像上の前記道路標示検出手段の画像処理領域を絞り込む領域絞り込み手段と、
前記道路標示検出手段により連続して検出された文字または記号に基づいて道路標示を識別する道路標示識別手段と、
前記道路標示識別手段による道路標示の識別結果を乗員に伝達する道路標示伝達手段とを備え、前記領域絞り込み手段は、前記道路標示検出手段により検出された道路標示の1文字または1記号の位置に応じて、次の道路標示の1文字または1記号を検出するための前記道路標示検出手段の画像処理領域の位置を設定する
ことを特徴とする車両用道路標示検出装置。
Imaging means for imaging the front of the vehicle;
Road sign detection means for processing a picked-up image of the image pickup means and detecting a road sign continuously drawn in a traveling direction on the road one character or one symbol at a time;
Area narrowing means for narrowing down the image processing area of the road sign detection means on the captured image of the imaging means based on the detection result each time one character or one symbol of the road sign is detected by the road sign detection means; ,
Road marking identifying means for identifying road markings based on characters or symbols continuously detected by the road marking detecting means;
Road marking transmission means for transmitting a road marking identification result by the road marking identification means to an occupant, and the area narrowing means is located at the position of one character or one symbol of the road marking detected by the road marking detection means. In response, the vehicular road marking detection apparatus , wherein the position of the image processing area of the road marking detection means for detecting one character or one symbol of the next road marking is set .
請求項1に記載の車両用道路標示検出装置において、
前記領域絞り込み手段は、前記道路標示検出手段により道路標示の1文字または1記号が検出されるたびに、前記道路標示検出手段の画像処理領域の位置の設定範囲を狭くすることを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection device according to claim 1,
The area narrowing means narrows the setting range of the position of the image processing area of the road marking detection means every time one character or one symbol of the road marking is detected by the road sign detection means. Road sign detection device.
請求項1〜2のいずれかの項に記載の車両用道路標示検出装置において、
前記領域絞り込み手段は、前記道路標示検出手段により検出された道路標示の1文字または1記号の大きさに応じて、次の道路標示の1文字または1記号を検出するための前記道路標示検出手段の画像処理領域の大きさを設定することを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection apparatus according to any one of claims 1 and 2,
The area narrowing-down means detects the road sign detecting means for detecting one character or one symbol of the next road sign in accordance with the size of one character or one symbol of the road sign detected by the road sign detecting means. A vehicular road marking detection apparatus characterized in that the size of the image processing area is set .
請求項3に記載の車両用道路標示検出装置において、
前記領域絞り込み手段は、前記道路標示検出手段により道路標示の1文字または1記号が検出されるたびに、前記道路標示検出手段の画像処理領域の大きさを狭くすることを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection apparatus according to claim 3,
The area narrowing means narrows the size of the image processing area of the road marking detection means each time one character or one symbol of the road marking is detected by the road sign detection means. Sign detection device.
請求項1〜4のいずれかの項に記載の車両用道路標示検出装置において、
前記領域絞り込み手段は、前記道路標示検出手段により検出された道路標示の1文字または1記号の向きに応じて、次の道路標示の1文字または1記号を検出するための前記道路標示検出手段の画像処理領域を傾けることを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection device according to any one of claims 1 to 4,
The area narrowing-down means includes a road sign detection means for detecting one character or one symbol of the next road sign according to the direction of one character or one symbol of the road sign detected by the road sign detection means. A vehicle road marking detection apparatus characterized by tilting an image processing area .
請求項1〜5のいずれかの項に記載の車両用道路標示検出装置において、
前記領域絞り込み手段は、前記道路標示検出手段により検出された道路標示の1文字または1記号の向きに応じて、次の道路標示の1文字または1記号を検出するための前記道路標示検出手段の画像処理領域の位置を設定することを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection apparatus according to any one of claims 1 to 5,
The area narrowing-down means includes a road sign detection means for detecting one character or one symbol of the next road sign according to the direction of one character or one symbol of the road sign detected by the road sign detection means. A road marking detection apparatus for a vehicle , wherein the position of an image processing area is set .
請求項6に記載の車両用道路標示検出装置において、
前記領域絞り込み手段は、前記道路標示検出手段により道路標示の1文字または1記号が検出されるたびに、前記道路標示検出手段の画像処理領域の左右方向の位置を狭くすることを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection apparatus according to claim 6,
The area narrowing means narrows the position in the left-right direction of the image processing area of the road marking detection means each time one character or one symbol of the road marking is detected by the road marking detection means. Road sign detection device.
請求項1〜7のいずれかの項に記載の車両用道路標示検出装置において、
前記領域絞り込み手段は、検出した道路標示の1文字または1記号に基づいて次に検出される道路標示の1文字または1記号を特定することを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection apparatus according to any one of claims 1 to 7,
The area narrowing-down means specifies one character or one symbol of a road sign to be detected next based on one character or one symbol of the detected road sign.
請求項1〜8のいずれかの項に記載の車両用道路標示検出装置において、
自車両のピッチ角を検出するピッチ角検出手段を備え、
前記領域絞り込み手段は、前記ピッチ角検出手段により検出されたピッチ角に基づいて、前記道路標示検出手段の画像処理領域を補正することを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection device according to any one of claims 1 to 8,
Pitch angle detection means for detecting the pitch angle of the host vehicle,
The vehicular road marking detection apparatus , wherein the area narrowing means corrects an image processing area of the road marking detection means based on the pitch angle detected by the pitch angle detection means .
請求項1〜9のいずれかの項に記載の車両用道路標示検出装置において、
自車両の進路を予測する進路予測手段を備え、
前記領域絞り込み手段は、前記進路予測手段により予測された自車両の進路に基づいて、前記道路標示検出手段の画像処理領域を補正することを特徴とする車両用道路標示検出装置。
In the vehicle road marking detection device according to any one of claims 1 to 9,
A route prediction means for predicting the route of the host vehicle is provided,
The vehicular road marking detection apparatus , wherein the area narrowing means corrects an image processing area of the road marking detection means based on the course of the host vehicle predicted by the course prediction means .
JP2004317759A 2004-11-01 2004-11-01 Road marking detection device for vehicles Expired - Fee Related JP4432730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004317759A JP4432730B2 (en) 2004-11-01 2004-11-01 Road marking detection device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004317759A JP4432730B2 (en) 2004-11-01 2004-11-01 Road marking detection device for vehicles

Publications (2)

Publication Number Publication Date
JP2006127358A JP2006127358A (en) 2006-05-18
JP4432730B2 true JP4432730B2 (en) 2010-03-17

Family

ID=36722026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004317759A Expired - Fee Related JP4432730B2 (en) 2004-11-01 2004-11-01 Road marking detection device for vehicles

Country Status (1)

Country Link
JP (1) JP4432730B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5141969B2 (en) * 2007-09-27 2013-02-13 アイシン・エィ・ダブリュ株式会社 Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same
JP4902575B2 (en) 2008-02-27 2012-03-21 日立オートモティブシステムズ株式会社 Road sign recognition device and road sign recognition method
JP2010130133A (en) * 2008-11-26 2010-06-10 Kobe Steel Ltd Radio communication terminal, and radio communication system
JP5561064B2 (en) * 2010-09-24 2014-07-30 トヨタ自動車株式会社 Vehicle object recognition device
JP6062122B2 (en) 2014-08-21 2017-01-18 三菱電機株式会社 Driving support device, driving support method and program
JP6150950B1 (en) 2015-11-20 2017-06-21 三菱電機株式会社 Driving support device, driving support system, driving support method, and driving support program

Also Published As

Publication number Publication date
JP2006127358A (en) 2006-05-18

Similar Documents

Publication Publication Date Title
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
US9626571B2 (en) Method and device for determining a valid lane marking
JP5023872B2 (en) Image display control device and image display control system
JP5401257B2 (en) Far-infrared pedestrian detection device
JP2002197470A (en) Lane detection device
WO2015163078A1 (en) External-environment-recognizing apparatus
JP2002197444A (en) Vehicle travel path recognition device
CN101006464A (en) Diagrammatizing apparatus
JPH11153406A (en) Obstacle detection device for vehicles
JP4951481B2 (en) Road marking recognition device
KR100816377B1 (en) Parking Lot Recognition Method and Apparatus Using Hough Transformation and Parking Assistance System Using the Same
WO2017047282A1 (en) Image processing device, object recognition device, device control system, image processing method, and program
CN107886043A (en) The vehicle front-viewing vehicle and pedestrian anti-collision early warning system and method for visually-perceptible
JP4171501B2 (en) Vehicle periphery monitoring device
JP4967758B2 (en) Object movement detection method and detection apparatus
JP3192616B2 (en) Local position grasping apparatus and method
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP4432730B2 (en) Road marking detection device for vehicles
JP2007179386A (en) Method and apparatus for recognizing white line
JP2007288657A (en) Display device for vehicle and display method for display device for vehicle
JP5434277B2 (en) Driving support device and driving support method
JP2006172262A (en) Road marking detection device for vehicles
CN112364869A (en) Lane line identification method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091214

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees