JP4506573B2 - In-vehicle fog determination device - Google Patents
In-vehicle fog determination device Download PDFInfo
- Publication number
- JP4506573B2 JP4506573B2 JP2005175743A JP2005175743A JP4506573B2 JP 4506573 B2 JP4506573 B2 JP 4506573B2 JP 2005175743 A JP2005175743 A JP 2005175743A JP 2005175743 A JP2005175743 A JP 2005175743A JP 4506573 B2 JP4506573 B2 JP 4506573B2
- Authority
- JP
- Japan
- Prior art keywords
- road
- image
- vehicle
- determined
- far
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、車載カメラによって撮像された画像から霧判定する車載霧判定装置に関する。 The present invention relates to an in-vehicle fog determination device that determines fog from an image captured by an in-vehicle camera.
車載カメラの撮像画像を処理して霧判定を行う装置が知られている(たとえば特許文献1)。特許文献1における霧判定の方法は、画像のぼけ具合に基づいており、霧である場合にはぼけた画像となるので、画像のぼけ具合を推定することにより霧判定を行っている。画像のぼけ具合の推定は、まず、画像全体に対して画素毎に微分演算によって輝度のエッジ量を算出して、そのエッジ量に基づいて、画像のぼけ具合を推定している。画像がぼけているほどエッジ量は全体的に小さくなることから、エッジ量に基づいて画像のぼけ具合が推定できるのである。 There is known an apparatus that performs fog determination by processing a captured image of an in-vehicle camera (for example, Patent Document 1). The fog determination method in Patent Document 1 is based on the degree of blurring of an image, and in the case of fog, the image is blurred. Therefore, the fog determination is performed by estimating the degree of blurring of the image. In estimating the degree of blur of an image, first, an edge amount of luminance is calculated by differential calculation for each pixel with respect to the entire image, and the degree of blur of the image is estimated based on the edge amount. As the image is blurred, the edge amount becomes smaller as a whole. Therefore, the degree of blurring of the image can be estimated based on the edge amount.
この特許文献1の装置は、霧判定の結果を白線認識に利用している。車載カメラによって撮像された画像から白線認識を行う場合、霧であると、画像がぼけてしまい白線認識が困難になることから、白線認識に先立って霧判定を行うのである。そして、霧であると判定した場合には、フォグランプを点灯させることも記載されている。 The apparatus of this patent document 1 uses the result of fog determination for white line recognition. When white line recognition is performed from an image captured by an in-vehicle camera, fog is determined prior to white line recognition because the image is blurred and white line recognition becomes difficult if the image is fog. And when it determines with it being fog, it also describes lighting a fog lamp.
また、特許文献2の装置は、霧のみを判定するものではないが、霧等による視界不良や、フロントガラスの汚れによって画像がぼけると、的確な車外監視(自車と車外の対象物との間の距離の監視など)が困難になるので、画像がぼけているかどうかを判定している。 In addition, the device of Patent Document 2 does not determine only fog, but if the image is blurred due to poor visibility due to fog or dirt on the windshield, it is possible to accurately monitor the outside of the vehicle (the vehicle and the object outside the vehicle). It is difficult to monitor the distance between them, so it is determined whether the image is blurred.
特許文献2における画像ぼけの判定方法は、画像の中央上部に設定された固定領域の画像について輝度のエッジを算出し、そのエッジが所定値を越えた割合に基づいて、画像のぼけ具合を判定している。
特許文献1、2は、いずれも、車載カメラによって撮像された画像がぼけているかを判定することによって、霧判定を行っているのであるが、特許文献1のように、画像全体についてエッジ量を算出することとすると、画像処理の負荷が大きいという問題があった。一方、特許文献2では、エッジを算出するのは画像の中央上部に設定された固定領域のみであるので、画像処理の負荷は特許文献1の場合に比較して少ない。しかし、霧であっても自車から近距離にある物体は、比較的はっきり撮像されることから、その固定領域に自車から近距離に位置する物体が撮像されている場合には、霧判定が精度よく行えないという問題があった。なお、画像の中央上部に設定された固定領域に自車から近距離に位置する物体が撮像される場合としては、たとえば、同じ車線上における先行車が狭い車間距離で走行している場合が考えられるが、それ以外にも、比較的急なカーブを走行中の場合には、固定領域に、比較的近距離に位置する路側の景色が撮像される。 In each of Patent Documents 1 and 2, fog determination is performed by determining whether an image captured by a vehicle-mounted camera is blurred. However, as in Patent Document 1, the edge amount is set for the entire image. If it is calculated, there is a problem that the load of image processing is large. On the other hand, in Patent Document 2, since the edge is calculated only in the fixed region set at the upper center of the image, the load of image processing is less than that in Patent Document 1. However, since an object at a short distance from the own vehicle is captured relatively clearly even if it is fog, if an object located at a short distance from the own vehicle is captured in the fixed area, the fog determination There was a problem that could not be performed accurately. In addition, as a case where an object located at a short distance from the own vehicle is imaged in the fixed area set at the upper center of the image, for example, a case where a preceding vehicle on the same lane is traveling at a narrow inter-vehicle distance is considered. However, in addition to this, when traveling on a relatively steep curve, a roadside scenery located at a relatively short distance is imaged in the fixed area.
本発明は、この事情に基づいて成されたものであり、その目的とするところは、画像が霧がかかった画像であるかどうかを判定するための画像処理の負荷を軽減させつつ、霧判定の精度を確保することにある。 The present invention has been made based on this situation, and the object of the present invention is to determine the fog while reducing the load of image processing for determining whether the image is a foggy image. This is to ensure the accuracy.
その目的を達成するための請求項1記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段と、前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、
前記道路形状決定手段は、前記車載カメラによって撮像された画像から、道路に沿って設けられている道路上標識を検出することによって、前記車両が走行している道路の形状を決定する第1決定手段、前記画像内における前方車両の位置を検出して、その検出した前方車両の位置に基づいて前記車両が走行している道路の形状を決定する第2決定手段、および、操舵角センサによって検出されるステアリングの操舵角およびヨーレートセンサによって検出される前記車両のヨーレートの少なくとも一方に基づいて、前記車両が走行している道路の形状を決定する第3決定手段、のうちの少なくとも2つの決定手段を備え、
前記第1決定手段によって道路の形状が決定可能なときはその第1決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1決定手段によっては道路の形状が決定できないが、前記第2決定手段によって道路の形状が決定可能なときはその第2決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1、第2決定手段によっては道路の形状が決定できないが、前記第3決定手段によって道路の形状が決定できるときはその第3決定手段を用いて前記車両が走行している道路の形状を決定するものである ことを特徴とする。
Invention of claim 1, wherein in order to achieve the object, an image taken by the onboard camera mounted on the vehicle, and the image fog state determining means for determining whether the misty image, the vehicle Based on the road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the camera, and from the vehicle in the image based on the road shape determined by the road shape determining means. A far road area determining means for determining a far road area that is an area on a road at a predetermined far distance, and the image determined by the image fog state determining means is a far distance determined by the far road area determining means An in- vehicle fog determination device that is an image of a road area ,
The road shape determination means determines a shape of a road on which the vehicle is traveling by detecting an on-road sign provided along the road from an image captured by the in-vehicle camera. Means for detecting the position of the preceding vehicle in the image and determining the shape of the road on which the vehicle is traveling based on the detected position of the preceding vehicle; and a steering angle sensor At least two of the third determining means for determining the shape of the road on which the vehicle is traveling based on at least one of the steering angle of the steering wheel and the yaw rate of the vehicle detected by the yaw rate sensor With
When the shape of the road can be determined by the first determining means, the shape of the road on which the vehicle is traveling is determined using the first determining means, and the shape of the road cannot be determined by the first determining means. However, when the shape of the road can be determined by the second determining means, the shape of the road on which the vehicle is traveling is determined using the second determining means, and depending on the first and second determining means, the road The shape of the road cannot be determined, but when the shape of the road can be determined by the third determining means, the shape of the road on which the vehicle is traveling is determined using the third determining means. .
請求項1の発明によれば、画像霧状態判定手段において解析する画像は、車載カメラにより撮像された画像全体ではなく、遠方道路領域決定手段によって決定された遠方道路領域の画像であるので、車載カメラにより撮像された画像全体を解析するのに比較して、画像処理の負荷が軽減する。加えて、霧がかかった画像であるかどうかを解析する領域は、画像内において車両から所定の遠方距離にある道路上の領域である。このように、解析する画像の領域を道路上の領域とすれば、道路は通常、遠方まで続いていることから、その領域には遠方部分が撮像されている可能性が高いので、画像霧状態判定手段における判定が確保される。 According to the invention of claim 1, since the image to be analyzed in the image fog state determination means is an image of the far road area determined by the far road area determination means, not the entire image captured by the in-vehicle camera. Compared to analyzing the entire image captured by the camera, the load of image processing is reduced. In addition, the region for analyzing whether the image is foggy is a region on the road at a predetermined distance from the vehicle in the image. In this way, if the area of the image to be analyzed is an area on the road, since the road usually continues far away, there is a high possibility that the far portion is imaged in that area. The determination in the determination means is ensured.
また、この請求項1記載の発明によれば、第1乃至第3決定手段のうちの一つの手段では道路の形状が決定できない場合であっても、他の決定手段によって道路の形状が決定可能であれば走行中の道路の形状が決定されるので、道路の形状が決定できない可能性が少ない。また、第1乃至第3決定手段を比較すると、第1決定手段は、道路に沿って設けられている道路上標識から道路の形状を決定するものであるので、最も道路の形状を正確に決定することができ、第2決定手段は、実際に前方の道路を走行している車両の位置に基づいて道路の形状を決定するものであることから第1決定手段に次いで正確に道路の形状を決定することができる。従って、上記請求項2記載の発明では、より高い決定精度を有する決定手段を用いて道路の形状を決定するようになっているので、道路の形状を精度よく決定することができる。 Further, according to the invention of claim 1, wherein, in one unit of the first to third determination means even if the shape of the road can not be determined, the shape of the road can be determined by other determination means If so, since the shape of the road on which the vehicle is traveling is determined, there is little possibility that the shape of the road cannot be determined. Further, when comparing the first to third determining means, the first determining means determines the shape of the road from the road signs provided along the road, so the most accurate shape of the road is determined. Since the second determining means determines the shape of the road based on the position of the vehicle actually traveling on the road ahead, the second determining means accurately determines the shape of the road next to the first determining means. Can be determined. Therefore, in the invention according to the second aspect, since the road shape is determined using the determination means having higher determination accuracy, the road shape can be determined with high accuracy.
また、前述の目的を達成するための請求項2記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段と、前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、
前記道路形状決定手段によって決定された道路の形状、および、前記画像内において平坦な地面上で前記車両から所定の遠方距離を示す予め記憶された遠方距離線に基づいて、前記車両が走行している道路上において前記車両から所定の遠方距離にある遠方距離点を決定する遠方距離点決定手段をさらに備え、前記遠方道路領域決定手段は、その遠方距離点決定手段によって決定された遠方距離点を基準として前記遠方道路領域を決定するものである。
According to a second aspect of the invention for achieving the above object, image fog state determination means for determining whether or not an image captured by an in-vehicle camera mounted on a vehicle is a foggy image. In the image based on the road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the in-vehicle camera, and the road shape determined by the road shape determining means A far road area determining means for determining a far road area which is an area on a road at a predetermined far distance from the vehicle, and the image determined by the image fog state determining means is determined by the far road area determining means. In-vehicle fog determination device that is an image of a distant road area,
The vehicle travels based on the road shape determined by the road shape determining means and a pre-stored far distance line indicating a predetermined far distance from the vehicle on the flat ground in the image. A far distance point determining means for determining a far distance point at a predetermined distance from the vehicle on the road, wherein the far road area determining means determines the far distance point determined by the far distance point determining means. The far road area is determined as a reference.
さらに、好ましくは、前記遠方道路領域決定手段は、請求項3記載のように、前記遠方距離点決定手段によって決定された遠方距離点を基準として前記遠方道路領域の外枠を決定し、さらに、その外枠内における道路部分およびその外枠内における前方車両部分の少なくとも一方を除去した領域を、前記遠方道路領域に決定する。遠方道路領域の外枠内における領域から道路部分を除去するのは、道路部分は、通常、輝度変化があるのは白線の境界のみであるので、道路部分の画像から霧であるかどうかを判定するのは比較的困難であるからである。また、前方車両部分を除去するのは、着目したい遠方背景に対し、前方車両の距離が至近距離である可能性があり、またテールランプの影響により輝度変化が大きく出てしまう可能性もあることから、前方車両部分の画像から霧であるかどうかを判定するのは困難な場合もあるからである。これらの霧であるかどうかを判定するのが比較的困難な部分を除去することにより、除去後の領域に基づく判定精度が向上する。 Further, preferably, the far road area determining means determines an outer frame of the far road area on the basis of the far distance point determined by the far distance point determining means as described in claim 3 , A region where at least one of the road portion in the outer frame and the front vehicle portion in the outer frame is removed is determined as the far road region. The road part is usually removed from the area within the outer frame of the far road area. Since the road part usually has a brightness change only at the boundary of the white line, it is determined whether or not it is fog from the road part image. This is because it is relatively difficult to do. In addition, the front vehicle part is removed because the distance of the front vehicle may be close to the distant background that you want to focus on, and the brightness may change greatly due to the influence of the tail lamp. This is because it may be difficult to determine whether or not it is fog from the image of the front vehicle portion. By removing a portion that is relatively difficult to determine whether or not it is fog, determination accuracy based on the area after removal is improved.
また、前述の目的を達成するための請求項4記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段と、前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において、所定の基準強度以下のエッジ強度の割合に基づいて、霧がかかった画像であるかどうかを判定するものであることを特徴とする。 According to a fourth aspect of the present invention for achieving the above object , there is provided an image fog state determination means for determining whether an image captured by an in-vehicle camera mounted on a vehicle is a foggy image. In the image based on the road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the in-vehicle camera, and the road shape determined by the road shape determining means A far road area determining means for determining a far road area which is an area on a road at a predetermined far distance from the vehicle, and the image determined by the image fog state determining means is determined by the far road area determining means. In the in-vehicle fog determination device that is an image of the far road area, the image fog state determination means, in the edge intensity distribution diagram of the luminance of the image of the far road area, Based on the ratio of the constant reference intensity below the edge strength, characterized in that to determine whether the fog took images.
上記のように、前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において、所定の基準強度以下のエッジ強度の割合に基づいて、霧がかかった画像であるかどうかを判定している。霧がかかっている画像の場合には、エッジ強度が全体的に小さくなることから、基準強度以下のエッジ強度の割合に基づいて霧がかかった画像であるかどうかを判定できるのである。 As described above, the image fog state determination means is a fogged image based on a ratio of edge intensity below a predetermined reference intensity in the luminance edge intensity distribution diagram of the image of the far road area. Judgment is made. In the case of a foggy image, since the edge strength is reduced as a whole, it is possible to determine whether the image is foggy based on the ratio of the edge strength below the reference strength.
なお、画像霧状態判定手段における判定の手法としては、画像の輝度のエッジ強度分布に基づく手法以外にも、その画像の輝度の平均値に基づく判定等、他の手法も可能である。画像の輝度の平均値に基づいて霧の判定が可能であるのは、霧である場合には、全体的に明るい画像となるからである。 In addition to the method based on the edge intensity distribution of the luminance of the image, other methods such as determination based on the average value of the luminance of the image are possible as the determination method in the image fog state determination unit. The reason why the fog can be determined based on the average value of the luminance of the image is that the image is bright as a whole when it is fog.
また、前記画像霧状態判定手段は、前記遠方道路領域決定手段によって決定された遠方道路領域の画像のみを解析することによって、その遠方道路領域の画像が、霧がかかったものであるかどうかを判定してもよい。しかし、この場合、遠方道路領域の画像が、平坦な地形を走行中であるためなどの理由により、霧ではないのにも関らず、霧の場合と同様に、エッジ強度が全体的に小さい画像となったり、全体的に明るい画像となったりすることもある。その場合には、霧ではないのに、誤って霧と判定してしまう恐れもある。 In addition, the image fog state determination means analyzes only the image of the far road area determined by the far road area determination means, thereby determining whether the image of the far road area is fogged. You may judge. However, in this case, the edge strength is generally small as in the case of fog because the image of the far road area is not fog because of traveling on flat terrain. It may be an image or an overall bright image. In that case, there is a possibility that it may be erroneously determined as fog although it is not fog.
そこで、請求項5記載の発明では、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段と、前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、
前記画像霧状態判定手段は、前記遠方道路領域決定手段によって決定された遠方道路領域の画像と、前記画像内において車両近くの路辺を撮像している範囲として予め設定された至近路辺領域の画像とを比較することによって、前記遠方道路領域の画像が、霧がかかった画像であるかどうかを判定する。
Therefore, in the invention 請 Motomeko 5, wherein the image taken by the onboard camera mounted on the vehicle, and the image fog state determining means for determining whether the misty image, captured by the onboard camera A road shape determining means for determining a shape of a road on which the vehicle is traveling in the image, and a predetermined far distance from the vehicle in the image based on the shape of the road determined by the road shape determining means. A far road area determining means for determining a far road area that is an area on the road in which the image fog state determining means determines the image of the far road area determined by the far road area determining means. In-vehicle fog determination device,
The image fog state determination means includes an image of a distant road area determined by the distant road area determination means, and a close road area that is preset as a range in which a roadside near the vehicle is imaged in the image. by comparing the images, the image of the distant road area, determine whether the fog took images.
このように、画像内の予め設定された至近路辺領域の画像と遠方道路領域の画像とを比較する場合、至近路辺距離の画像は、霧の影響を受けにくく、霧であっても比較的はっきり撮像されるので、霧でない場合には、遠方道路領域の画像は至近路辺領域の画像と同様の輝度あるいは輝度のエッジ強度分布を示す。一方、霧である場合には、遠方道路領域の画像は至近路辺領域の画像とは輝度やそのエッジ強度分布が異なる。従って、遠方道路領域の画像と至近路辺領域の画像とを比較すると、霧判定の精度が向上する。 In this way, when comparing the image of the preset close road area and the image of the far road area in the image, the image of the close road distance is not easily affected by fog and is compared even if it is fog. Since the image is clearly captured, when it is not foggy, the image of the far road area shows the same luminance or edge intensity distribution as the image of the close road area. On the other hand, in the case of fog, the image of the far road area is different in brightness and edge intensity distribution from the image of the closest road area. Therefore, comparing the image of the far road area and the image of the closest road area improves the accuracy of fog determination.
請求項5記載のように、遠方道路領域の画像と至近路辺領域の画像とを比較して霧判定を行う場合、たとえば、請求項6記載のように、至近路辺領域の画像のエッジ強度分布に基づいて判定のしきい値を定めるようにする。すなわち、請求項6記載の発明は、請求項5に記載の車載霧判定装置において、前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において所定の基準強度以上の割合である強エッジ量を算出するとともに、前記至近路辺領域の画像の輝度のエッジ強度分布図に基づいてしきい値を算出し、前記強エッジ量としきい値との比較に基づいて、霧がかかった画像であるかどうかを判定するものである。 When the fog determination is performed by comparing the image of the distant road area and the image of the close road area as described in claim 5 , for example, the edge strength of the image of the close road area is described in claim 6. A threshold value for determination is determined based on the distribution. That is, the invention according to claim 6 is the in-vehicle fog determination device according to claim 5 , wherein the image fog state determination means is equal to or higher than a predetermined reference intensity in the edge intensity distribution diagram of the luminance of the image of the far road area. A strong edge amount that is a ratio is calculated, a threshold value is calculated based on an edge intensity distribution map of luminance of the image of the closest road area, and a fog is calculated based on a comparison between the strong edge amount and the threshold value. It is determined whether or not the image is covered.
また、画像霧状態判定手段は、一時点において撮像された画像のみを用いて霧判定を行ってもよいが、一時点の画像のみを用いる場合、たまたまその画像が誤判定をしてしまうような画像であることもある。そこで、好ましくは、請求項7記載のように、前記車載カメラによって撮像された複数の時点における遠方道路領域の画像に基づいて、その画像が霧がかかった画像であるか否かを判定するようにする。このようにすれば、霧判定の精度が向上する。 The image fog state determination means may perform the fog determination using only the image picked up at the temporary point. However, when only the temporary point image is used, the image happens to be erroneously determined. It may be an image. Therefore, preferably, as described in claim 7, it is determined whether or not the image is a fogged image based on the images of the distant road area at a plurality of time points captured by the in-vehicle camera. To. In this way, the accuracy of fog determination is improved.
また、好ましくは、請求項8記載のように、前記画像霧状態判定手段は、前記画像が、霧がかかった画像であるかどうかを繰り返し判定するものであり、且つ、前回の判定において霧がかかった画像であると判定されている場合には、前回の判定で霧がかかった画像でないと判定されている場合よりも、霧がかかった画像であると判定されやすくなっているようにする。 Preferably, as described in claim 8 , the image fog state determination means repeatedly determines whether or not the image is a fogged image, and the fog has not been detected in the previous determination. When it is determined that the image is fogged, it is easier to determine that the image is fogged than when the previous determination determines that the image is not fogged. .
霧がかかった画像であるかどうかを繰り返し判定する場合において、前回の判定結果に関係なく同一判定基準を用いるとすると、比較的薄い霧のときは、判定結果が短時間のうちに変動してしまうことも考えられるが、それでは、判定結果をその後の制御(たとえば、フォグランプの自動点灯など)に利用する場合に不都合が生じる。それに対して、請求項10のようにすれば、比較的薄い霧のときにも、判定結果が変動してしまうことが少なくなるので、判定結果に基づいてさらに制御を行う場合の上記不都合が解消される。 In the case of repeatedly determining whether or not the image is foggy, if the same criterion is used regardless of the previous determination result, the determination result fluctuates within a short time when the fog is relatively thin. However, this causes inconvenience when the determination result is used for subsequent control (for example, automatic lighting of a fog lamp). On the other hand, according to the tenth aspect, since the determination result is less likely to fluctuate even when the mist is relatively thin, the inconvenience in the case where the control is further performed based on the determination result is solved. Is done.
以下、本発明の車載霧判定装置の実施の形態を、図面に基づいて説明する。図1は、本発明が適用された車載霧判定装置10の構成を示すブロック図である。
Hereinafter, an embodiment of an in-vehicle fog determination device according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an in-vehicle
車載霧判定装置10は、車載カメラ12、画像処理ECU14、ヨーレートセンサ16、ステアリングセンサ18、ミリ波レーダ20、車速センサ22を備えており、それらが車内LAN24によって相互に接続されている。また、この車内LAN24には、運転支援制御ECU26およびライト制御ECU28も接続されている。
The in-vehicle
上記車載カメラ12は、CCDカメラによって構成されており、その取り付け位置は、車両の内部、たとえば運転席近傍の天井とされている。この車載カメラ12によって、車両前方の画像が連続的に撮像され、撮像された画像のデータは、画像処理ECU14において処理される。
The in-
画像処理ECU14は、図示しない内部にCPU、ROM、RAM等を備えたコンピュータであり、そのRAMには、車載カメラ12によって連続的に撮像される一定時間分の画像のデータが一時的に記憶される。そして、CPUは、ROMに記憶されたプログラムに従って、そのRAMに記憶された画像データに対して図2に示す処理を実行する。このCPUの処理については後述する。
The
ヨーレートセンサ16は車両のヨーレートを逐次検出し、ステアリングセンサ18は、ステアリングの操舵角を逐次検出する。また、ミリ波レーダ20は、車両前方に向けて所定周波数のミリ波を出力し、且つ、対象物からの反射波を受信する。運転支援ECU26は、前方車両検出手段としても機能しており、上記ミリ波レーダ20によって受信された反射波に基づいて、前方車両(自車と同一車線において前方を走行している車両)の有無を連続的に判定し、前方車両を検出した場合にはその前方車両との間の距離、相対方位および相対速度を算出する。さらに、算出したそれらの情報に基づいて、車速制御などの運転支援制御を実行する。
The
ライト制御ECU28は、画像処理ECU14において霧であると判定された場合に、図示しないフォグランプの点灯・消灯の制御を実行する。
The
図2は、上記画像処理ECU14の制御機能の要部を示すフローチャートである。図2に示す制御は、走行中に所定の周期で実行するものであり、この制御の実行中には、車載カメラ12によって車両前方の画像が連続的に撮像されている。図3、図4は、車載カメラ12によって撮像されている画像例である。
FIG. 2 is a flowchart showing a main part of the control function of the
図2に示すように、上記画像処理ECU14は、まず、道路形状決定手段に相当する道路形状決定処理を実行し(ステップS100)、次いで、遠方道路領域決定手段に相当する遠方道路領域決定処理を実行し(ステップS200)、その後、画像霧状態判定手段に相当する霧判定画像処理(ステップS300)を実行する。
As shown in FIG. 2, the
上記ステップS100の道路形状決定処理は、図5に詳しく示されている。図5において、まず、ステップS110では、車載カメラ12によって連続的に撮像される画像に基づいて、道路に沿って設けられている道路上標識である白線を認識する白線認識処理を実行する。この白線認識処理としては、公知の様々な処理手法を用いることができるが、たとえば、車載カメラ12によって撮像された画像を二値化処理し、二値化処理後の画像から白色部分を抽出することによって白線を認識する。なお、ここにおける白線は、通常の白線認識処理と同様に、白線のみでなく黄線も含むものである。
The road shape determination process in step S100 is shown in detail in FIG. In FIG. 5, first, in step S <b> 110, white line recognition processing for recognizing a white line that is a road sign provided along the road is executed based on images continuously captured by the in-
上記ステップS110における白線認識処理においては、常に白線が認識できるとは限らず、たとえば、道路に白線が描かれていない等の理由により、白線の認識ができないこともある。そこで、続くステップS120では、白線が認識できたか否かを判断する。ここでの判断は、続くステップS130において道路形状を決定できる程度に白線が認識できたかどうかを判断するものであり、両側の白線が認識される必要はなく、また、自車位置から消失点まで連続的に白線が認識できる必要もない。すなわち、ステップS120では、少なくとも一方の白線が、所定長さ連続して、或いは、断続的に認識できたか否かを判断する。 In the white line recognition process in step S110, the white line cannot always be recognized. For example, the white line may not be recognized because the white line is not drawn on the road. Therefore, in the subsequent step S120, it is determined whether or not the white line has been recognized. The determination here is to determine whether or not the white line has been recognized to the extent that the road shape can be determined in the subsequent step S130, and it is not necessary to recognize the white line on both sides, and from the vehicle position to the vanishing point. There is no need to be able to recognize white lines continuously. That is, in step S120, it is determined whether or not at least one white line can be recognized continuously for a predetermined length or intermittently.
上記ステップ120の判断が肯定された場合には、続くステップS130において、道路形状を決定する。ここでの道路形状とは、自車から前方に延びる道路の曲がり具合(形状)を示す一本の線であり、たとえば、図3、図4に示す一点鎖線である。なお、図3および図4に示す一点鎖線は、自車が走行している車線の幅方向中心線となっているが、それに代えて、自車が走行している車線の左右いずれか一方の白線をそのまま道路形状としてもよいし、また、車線が複数ある場合には道路全体の幅方向中心線を道路形状としてもよい。上記ステップS110乃至ステップS130が第1決定手段に相当する。 If the determination in step 120 is affirmed, the road shape is determined in the subsequent step S130. The road shape here is a single line indicating the degree of bending (shape) of the road extending forward from the host vehicle, for example, a one-dot chain line shown in FIGS. Note that the alternate long and short dash line shown in FIGS. 3 and 4 is the center line in the width direction of the lane in which the host vehicle is traveling, but instead of either the left or right side of the lane in which the host vehicle is traveling. The white line may be used as the road shape as it is, and when there are a plurality of lanes, the center line in the width direction of the entire road may be used as the road shape. The above steps S110 to S130 correspond to the first determining means.
一方、ステップS120の判断が否定された場合には、ステップS140において、運転支援ECU26において前方車両が検出されているか否かを判断する。この判断が肯定された場合には、運転支援ECU26ではその前方車両との間の距離、相対方位が算出されているので、ステップS150において、運転支援ECU26において算出されている前方車両との間の距離および相対方位に基づいて、その前方車両の画像内における位置を決定する。
On the other hand, if the determination in step S120 is negative, it is determined in step S140 whether or not a forward vehicle is detected in the
続くステップS160では、ステアリングセンサ18からの信号に基づいて操舵角を検出する。そして、ステップS170では、道路形状を示す線の自車側の端点として予め定められている画像内の所定点(たとえば、画像内におけるボンネットの境界線の車両幅方向中心点)とステップS150で決定した画像内における前方車両の位置とを、ステップS160で決定した操舵角を曲率半径とする円弧で連結することによって、道路形状を決定する。上記ステップS140乃至S170が第2決定手段に相当する。
In the subsequent step S160, the steering angle is detected based on the signal from the
前述のステップS140の判断も否定された場合には、第3決定手段に相当するステップS180乃至S190を実行して道路形状を決定する。まず、ステップS180では、ステアリングセンサ18からの信号に基づいて操舵角を検出し、続くステップS190では、道路形状を示す線の自車側の端点として予め定められている画像内の所定点において、接線が車両前後方向に対して平行となるような円弧を、道路形状を示す線に決定する。なお、前述のステップS160およびステップS180のいずれか一方、あるいはその両方において、操舵角を検出することに代えて、ヨーレートセンサ16からヨーレートを検出してもよい。
When the above-described determination in step S140 is also denied, steps S180 to S190 corresponding to the third determination unit are executed to determine the road shape. First, in step S180, the steering angle is detected based on the signal from the
上記ステップS130、S170、S190においてそれぞれ決定される道路形状を比較すると、ステップS130は道路に沿って設けられている白線に基づいて道路形状を決定するため、最も道路形状を正確に決定することができ、また、ステップS170は、操舵角に加えて前方車両の位置を用いていることから、操舵角のみに基づいているステップS190よりも道路形状を正確に決定することができる。その一方で、ステップS130は白線が認識できない場合には道路形状が決定できず、また、ステップS170は前方車両が検出されない場合には道路形状が決定できないが、ステップS190は、確実に道路形状を決定することができる。 When the road shapes determined in steps S130, S170, and S190 are compared, step S130 determines the road shape based on the white line provided along the road. Therefore, the road shape can be determined most accurately. Moreover, since step S170 uses the position of the preceding vehicle in addition to the steering angle, the road shape can be determined more accurately than step S190 based only on the steering angle. On the other hand, step S130 cannot determine the road shape when the white line cannot be recognized, and step S170 cannot determine the road shape when the preceding vehicle is not detected. However, step S190 reliably determines the road shape. Can be determined.
このようにして道路形状を決定したら遠方道路領域決定処理(図2のステップS200)を実行する。この遠方道路領域決定処理は、図6に詳しく示す処理である。 When the road shape is determined in this way, the far road area determination process (step S200 in FIG. 2) is executed. This far road area determination process is a process shown in detail in FIG.
図6において、まず、ステップS210では、自車が走行している道路上において自車から所定の遠方距離にある画像内の遠方距離点を決定する。このステップS210が遠方距離点決定手段に相当する。上記所定の遠方距離は、ここでは100mに設定されていることとするが、100mに限定されるものではなく、ある程度の濃さの霧の時に画像がぼやける程度に遠方であればよい。 In FIG. 6, first, in step S210, a far distance point in an image at a predetermined far distance from the own vehicle on the road on which the own vehicle is traveling is determined. This step S210 corresponds to a long distance point determination means. Here, the predetermined far distance is set to 100 m here, but is not limited to 100 m, and may be far enough that the image is blurred in the case of fog of a certain degree of density.
車載カメラ12は車両に固定されていることから、平坦な地面上のある地点までの実距離と、画像内においてその地点がどこに位置するかは予め決定することができる。従って、画像内において平坦な地面上で自車から100m先の地点が位置する100m線は予め決定することができる。図7は、画像内における上記100m線Lfを示している。本実施形態では、この100m線Lfが遠方距離線であり、この100m線Lfが画像処理ECU14内のROMあるいは他の記憶装置に記憶されている。そして、ステップS210では、その100m線LfとステップS100で決定した道路形状を示す線との交点を、自車が走行している道路上における遠方距離点(すなわち、ここでは100m先の点)に決定する。
Since the in-
続くステップS220では、上記ステップS210で決定した遠方距離点を基準として遠方道路領域の外枠OFを決定する。図3、図4に示されている遠方道路領域の外枠OFは、ステップS210で決定した遠方距離点が外枠OFの下辺の中心となるようにして設定したものである。また、この外枠OFの大きさは、車載カメラ12によって撮像される画像全体の大きさに対して十分小さ大きさに設定されている。
In subsequent step S220, the outer frame OF of the far road area is determined based on the far distance point determined in step S210. The outer frame OF of the far road area shown in FIGS. 3 and 4 is set so that the far distance point determined in step S210 is the center of the lower side of the outer frame OF. Further, the size of the outer frame OF is set to a sufficiently small size with respect to the size of the entire image captured by the in-
なお、図3、図4の例に限らず、上記遠方距離点が遠方道路領域の中心となるように外枠OFの位置を決定してもよい。また、道路形状を、走行車線の幅方向中心線としているか、道路全体の幅方向中心線としているか、走行車線の左右いずれかの白線としているかによって、遠方道路領域の外枠OFに対する遠方距離点の位置を変更してもよい。たとえば、道路形状(を示す線)を走行車線の右側白線としている場合には、遠方道路領域の外枠OFの下辺の右から1/4の点が遠方距離点となるように外枠OFの位置を決定してもよい。 Note that the position of the outer frame OF may be determined so that the far distance point is the center of the far road region, not limited to the examples of FIGS. 3 and 4. Further, depending on whether the road shape is the center line in the width direction of the traveling lane, the center line in the width direction of the entire road, or the white line on the left or right of the traveling lane, the far distance point of the far road area with respect to the outer frame OF of the far road area The position may be changed. For example, when the road shape (the line indicating the road) is the white line on the right side of the traveling lane, the outer frame OF of the outer road OF is set so that a point ¼ from the right of the lower side of the outer frame OF of the far road area becomes a far distance point. The position may be determined.
続くステップS230では、上記ステップS220で決定した遠方道路領域の外枠OF内の領域から道路部分を除去する。本実施形態では、図8に示す予め設定された固定の道路部分30を除去する。この道路部分は、外枠OFの中心Oを頂点とし、外枠OFの下辺を底辺とする三角形部分である。
In the subsequent step S230, the road portion is removed from the area within the outer frame OF of the far road area determined in step S220. In the present embodiment, the preset fixed
外枠OF内に実際に撮像されている道路部分は、走行中の道路の幅や、直線道路であるかカーブ形状の道路であるかなどによってその形状が異なることを考えると、このように道路部分30が固定された領域となっていると、外枠OF内において実際に撮像されている画像から道路部分を正確に除去することは困難である。しかし、道路形状がどのようなものであっても、遠方道路領域内においては、道路部分は下辺から上方へ向かうに従って狭くなるので、このように除去する道路部分30を固定しても、大半の道路部分を除去することは可能であり、また、このように道路部分30を固定することによって演算処理負荷を軽減させることができる。上記ステップS230で道路部分が除去されると、除去後の領域は、路側部分の割合が相対的に多くなる。
Considering that the road portion actually imaged in the outer frame OF differs in shape depending on the width of the road being traveled, whether it is a straight road or a curved road, and so on. If the
なお、道路部分30を固定せずに、ステップS100で決定した道路形状に基づいて道路部分を決定することも可能である。この場合には、たとえば、道路形状を示す線と遠方道路領域の外枠OFとが一点でしか交わっていない場合(図3参照)には、消失点を頂点として外枠OFの下辺を底辺とする三角形を道路部分とし、道路形状を示す線と遠方道路領域の外枠OFとが二点で交わっている場合(図4参照)には、その2つの交点のうち外枠OFの下辺ではない部分において交わっている側の交点(またはそれよりも所定座標だけ上側の点)を頂点として、外枠OFの下辺を底辺とする直角三角形を道路部分とすればよい。また、画像処理によって白線を認識してその白線に基づいて道路部分を決定してもよい。
In addition, it is also possible to determine a road part based on the road shape determined by step S100, without fixing the
続くステップS240では、上記ステップS220で決定した遠方道路領域の外枠OF内に車両部分があるか否かを判断する。この判断を行うのは、遠方道路領域として決定する画像に、近距離に位置する車両が含まれていると霧判定が困難となることから、そのような近距離に位置する車両を遠方道路領域内の画像から除去するためである。従って、ステップS240では、運転支援ECU26によって前方車両の存在が検出されているかをまず判断する。そして、前方車両の存在が検出されている場合には、運転支援ECU26によって特定されている前方車両の位置および相対距離に基づいて車両が含まれると考えられる画像処理範囲を決定し、その画像処理範囲に対して、たとえば輝度変化に基づいて車両輪郭線を決定する等の公知の画像処理を実行することにより車両部分を決定し、その決定した車両部分を、上記ステップS220で決定した遠方道路領域の外枠OFと比較する。
In the subsequent step S240, it is determined whether or not there is a vehicle portion in the outer frame OF of the far road area determined in step S220. This determination is made because if the image determined as the far road area includes a vehicle located at a short distance, fog determination becomes difficult. It is for removing from the image inside. Therefore, in step S240, it is first determined whether or not the presence of the forward vehicle is detected by the driving
上記ステップS240の判断が否定された場合には、そのまま図6に示すルーチンを終了する。この場合には、ステップS220で決定した外枠OF内の領域から道路部分30を除去した領域が遠方道路領域となる。一方、ステップS240の判断が肯定された場合には、ステップS250において、ステップS220で決定した外枠OF内の領域から、前述のステップS240の判断において決定した車両部分を除去した領域を、遠方道路領域に決定する。
If the determination in step S240 is negative, the routine shown in FIG. In this case, the area obtained by removing the
以上のようにして決定した遠方道路領域に対して、ステップS300において霧判定画像処理を実行する。従って、遠方道路領域は、霧判定画像処理が行われる画像処理領域であるということもできる。 In step S300, fog determination image processing is performed on the far road area determined as described above. Therefore, it can be said that the far road region is an image processing region in which fog determination image processing is performed.
ステップS300の霧判定画像処理は図9に詳しく示す処理である。図9において、まず、ステップS310では、ステップS200で決定した遠方道路領域の画像に対して、輝度値をX方向およびY方向に連続的に微分処理することにより、エッジ強度の二次元分布図を作成する。そして、ステップS320では、上記ステップS310で作成した二次元分布図において、所定のエッジ強度(基準強度)を超えた割合を意味する強エッジ量を算出する。 The fog determination image processing in step S300 is processing shown in detail in FIG. In FIG. 9, first, in step S310, the edge value two-dimensional distribution map is obtained by continuously differentiating the luminance value in the X direction and the Y direction with respect to the image of the far road area determined in step S200. create. In step S320, a strong edge amount that means a ratio exceeding a predetermined edge strength (reference strength) in the two-dimensional distribution chart created in step S310 is calculated.
続くステップS330では、車速センサ22から車速を検出し、ステップS340では、その検出した車速に基づいて、遠方道路領域にあった路辺部分が予め設定された至近路辺領域32まで移動するのに必要な移動時間を算出する。ここで、至近路辺領域32は、霧であっても画像がそれほどぼやけない程度に近距離の路辺が撮像される領域として設定された固定の領域であり、たとえば、図3、図4に示すように、車載カメラ12によって撮像される画像の左右一方の端部であって、その画像の上下方向の中央に位置する所定の大きさの矩形領域である。
In the subsequent step S330, the vehicle speed is detected from the
上述のように至近路辺領域32は固定領域であり、また、遠方道路領域は、自車からの距離が定まっているので、遠方道路領域にあった路辺部分の物体が至近路辺領域32まで移動する移動距離は予め決定しておくことができる。従って、ステップS340では、この予め決定した移動距離とステップS330で検出した車速から、遠方道路領域にあった路辺部分が予め設定された至近路辺領域32まで移動するのに必要な移動時間を算出する。
As described above, the
続くステップS350では、ステップS310でエッジ強度の二次元分布図の作成に用いた画像が撮像されてから、上記ステップS340で算出した移動時間を経過した後の至近路辺領域の画像に対して、輝度のエッジ強度の二次元分布図をステップS310と同様にして作成する。 In subsequent step S350, after the image used to create the two-dimensional distribution map of the edge strength in step S310 is captured, the image of the closest road area after the movement time calculated in step S340 has elapsed, A two-dimensional distribution map of luminance edge strength is created in the same manner as in step S310.
そして、続くステップS360では、上記ステップS350で作成した二次元分布図に対して、ステップS320と同様に、強エッジ量を算出し、さらに、ステップS370において、上記ステップS360で算出した至近路辺領域の画像の強エッジ量に基づいて、次述するステップS380において用いるしきい値を決定する。たとえば、上記ステップS360で算出した強エッジ量に1よりも小さい所定値α(たとえば0.7)を乗じた数値をしきい値に決定する。ただし、前回の霧判定、すなわち、繰り返し実行するこの図9のルーチンを前回実行したときに、後述するステップS395において霧と判定したか否かによって、上記しきい値を変更するようになっており、たとえば、前回の判定において霧でないと判定している場合には上記所定値αを0.7とするが、前回の判定において霧と判定している場合には上記所定値を0.6とする。 Then, in step S360, a strong edge amount is calculated for the two-dimensional distribution map created in step S350, as in step S320, and in step S370, the closest road area calculated in step S360 is calculated. Based on the strong edge amount of the image, a threshold value used in step S380 described below is determined. For example, the threshold value is determined by multiplying the strong edge amount calculated in step S360 by a predetermined value α (for example, 0.7) smaller than 1. However, when the previous fog determination, that is, when the routine of FIG. 9 that is repeatedly executed is executed last time, the threshold value is changed depending on whether or not the fog is determined in step S395 described later. For example, if it is determined that it is not fog in the previous determination, the predetermined value α is set to 0.7, but if it is determined to be fog in the previous determination, the predetermined value is set to 0.6. To do.
続くステップS380では、前述のステップS320で算出した遠方道路領域の画像の強エッジ量を、上記ステップS370で決定したしきい値と比較して、ステップS320で算出した強エッジ量が上記しきい値よりも大きい場合には、霧がかかった画像でないと判定し、ステップS320で算出した強エッジ量が上記しきい値以下の場合には、霧がかかった画像であると判定する。なお、上記しきい値は、前述のように、前回の判定結果に基づいて変更されるようになっているため、前回の判定において霧と判定している場合には、前回の判定において霧でないと判定されている場合よりも、霧と判定されやすい。従って、薄い霧の場合であっても、短い期間内における判定結果の変動が防止される。 In the subsequent step S380, the strong edge amount calculated in step S320 is compared with the threshold value determined in step S370 by comparing the strong edge amount of the image of the far road area calculated in step S320 described above. If it is greater than the threshold value, it is determined that the image is not fogged. If the strong edge amount calculated in step S320 is equal to or smaller than the threshold value, it is determined that the image is fogged. In addition, since the threshold value is changed based on the previous determination result as described above, if it is determined as fog in the previous determination, it is not fog in the previous determination. It is easier to determine as fog than when it is determined. Therefore, even in the case of a thin mist, fluctuations in the determination result within a short period are prevented.
そして、続くステップS390では、初回の霧判定(S380)の実行時を計時開始時点として、最終判定時期となったか否かを判定する。この最終判定時期は、たとえば、1分間に設定されている。この判断が否定された場合には、前述のステップS310以下を繰り返す。 Then, in the subsequent step S390, it is determined whether or not the final determination timing has been reached with the time when the first fog determination (S380) is executed as the timing start point. This final determination time is set to 1 minute, for example. If this determination is negative, the above steps S310 and after are repeated.
一方、ステップS390の判断が肯定された場合には、ステップS395において、最終的な霧判定を実行する。ここでの最終的な霧判定は、ステップS310乃至390を繰り返すことによってステップS380で決定した複数の判定結果のうち、霧であると判定している割合が予め設定された所定割合以上であれば、霧であると判定する一方、霧でないと判定している割合が上記所定割合以上であれば、霧でないと判定する。このように、ステップS380における複数回の判定結果を用いて、最終的な判定を行うようにすれば、たまたま一時点の画像が誤判定をしてしまうような画像であったとしても、最終的な判定としては誤判定を防止できるので、判定の精度が向上する。 On the other hand, if the determination in step S390 is affirmed, final fog determination is executed in step S395. The final fog determination here is that if the ratio determined to be fog among the plurality of determination results determined in step S380 by repeating steps S310 to 390 is equal to or greater than a predetermined ratio set in advance. On the other hand, if it is determined that it is fog, if it is determined that the ratio is not fog, the ratio is determined not to be fog. As described above, if the final determination is performed using the determination results obtained in a plurality of times in step S380, even if the temporary image is erroneously determined, the final determination is made. As an incorrect determination, an erroneous determination can be prevented, so that the determination accuracy is improved.
なお、上記所定割合が5割とされている場合には、必ず、霧または霧でないと判定することになるが、上記所定割合が5割以外であってもよい。この場合には、霧であるとも、霧でないとも判定されないこともあるが、その場合には、前回の判定結果が維持されることになる。 In addition, when the predetermined ratio is 50%, it is always determined that it is not fog or mist, but the predetermined ratio may be other than 50%. In this case, it may not be determined whether it is fog or not, but in this case, the previous determination result is maintained.
以上、説明した本実施形態によれば、ステップS300(画像霧状態判定手段)において解析する画像は、車載カメラ12により撮像された画像全体ではなく、ステップS200(遠方道路領域決定手段)において決定した遠方道路領域画像であるので、車載カメラ12により撮像された画像全体を解析するのに比較して、画像処理の負荷が軽減する。加えて、霧がかかった画像であるかどうかを解析する遠方道路領域は、画像内において車両から所定の遠方距離にある道路上の領域である。このように、解析する画像の領域を道路上の領域とすれば、通常、道路は遠方まで続いていることから、その領域には遠方部分が撮像されている可能性が高いので、ステップS300(画像霧状態判定手段)における判定が確保される。
As described above, according to the present embodiment described above, the image to be analyzed in step S300 (image fog state determination unit) is determined in step S200 (far road area determination unit), not the entire image captured by the in-
また、本実施形態によれば、画像内の予め設定された至近路辺領域32の画像と、遠方道路領域の画像とを比較して、遠方道路領域の画像が、霧がかかった画像であるかどうかを判定していることから、霧ではないが、平坦な地形を走行中であるために遠方道路領域の画像のみからでは霧と判定されてしまうような場合であっても、誤って霧と判定されてしまうことが防止される。
Further, according to the present embodiment, the image of the far road area is a fogged image by comparing the image of the preset
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の実施形態も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。 As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, The following embodiment is also contained in the technical scope of this invention, and also the summary other than the following is also included. Various modifications can be made without departing from the scope.
たとえば、前述の実施形態では、道路の形状を決定するための道路上標識として白線を認識していたが、道路上標識としては、白線以外に、白線と同様に車線を区画するために連続的に配置されている突起物(半球状のものや、棒状のものなど)、中央分離帯、路側の側溝、轍等があり、それらを認識して道路の形状を決定してもよい。 For example, in the above-described embodiment, a white line is recognized as a road sign for determining the shape of the road. However, in addition to the white line, the road sign is a continuous line for dividing the lane in the same manner as the white line. There are protrusions (such as hemispherical or rod-shaped), median strips, roadside gutters, ridges, etc., which may be recognized to determine the shape of the road.
また、前述の実施形態では、遠方道路領域にあった路辺部分が至近路辺領域まで移動する移動時間を算出しており、遠方道路領域の画像と比較する至近路辺領域の画像は、遠方道路領域の画像が撮像されてからその移動時間だけ後の時点で撮像された画像とされていたが、遠方道路領域の画像と比較する至近路辺領域の画像として、遠方道路領域の画像と同一時点の画像を用いてもよい。この場合には、同じ部分(風景)を比較することにはならないが、同じ部分を比較しなくても、平坦な地形を走行している場合に生じる可能性のある前述の誤判定を防止することはできる。 In the above-described embodiment, the travel time for the roadside portion that was in the far road area to move to the close road area is calculated, and the image of the close road area compared with the image of the far road area is The image was taken at the time point after the moving time since the image of the road area was taken, but it is the same as the image of the far road area as the image of the close road area compared with the image of the far road area A point-in-time image may be used. In this case, the same part (landscape) is not compared, but the above-described erroneous determination that may occur when traveling on flat terrain is prevented without comparing the same part. I can.
また、前述の実施形態では、一時点の遠方道路領域の画像毎に強エッジ量を算出し(S320)、その強エッジ量に基づいて一時点の遠方道路画像毎に霧判定を行い(S380)、その判定結果を複数用いて最終的な判定を行っていたが(S395)、一時点の画像毎に算出した強エッジ量を平均し、その平均した強エッジ量に基づいて一つの判定結果(最終的な判定)を決定してもよい。 In the above-described embodiment, a strong edge amount is calculated for each image of the distant road area at the temporary point (S320), and fog determination is performed for each distant road image at the temporary point based on the strong edge amount (S380). The final determination is performed using a plurality of the determination results (S395). The strong edge amount calculated for each temporary image is averaged, and one determination result (based on the average strong edge amount ( Final determination) may be determined.
また、前述の実施形態では、遠方道路領域の外枠OFから道路部分を除去し、さらに、車両部分がある場合にはその車両部分も除去した領域を遠方道路領域としていたが、道路部分や車両部分を除去する処理は必須ではなく、遠方道路領域の外枠OF内の画像を全て用いて霧判定を行ってもよいし、道路部分および車両部分のいずれか一方を除去しなくてもよい。 In the above-described embodiment, the road portion is removed from the outer frame OF of the far road region, and if there is a vehicle portion, the region from which the vehicle portion is also removed is the far road region. The process of removing the part is not essential, and the fog determination may be performed using all the images in the outer frame OF of the far road area, or one of the road part and the vehicle part may not be removed.
また、前述の実施形態の第2決定手段(S140乃至S170)では、画像内における自車側の所定の端点と前方車両の位置とを、操舵角を曲率半径とする円弧で連結することによって道路形状を決定していたが、ミリ波レーダ20が車両前後方向線に対して比較的狭い範囲の車両のみを検出するようになっている場合には、自車側の所定の端点と前方車両とを直線で連結して道路形状を決定してもよい。この場合には、ステップS160(操舵角の検出)は不要となる。なお、前方車両を検出するために、ミリ波レーダ20に代えて、レーザレーダーを備えていてもよいし、また、画像からテールランプやナンバープレート等の車両に特徴的な形状を検出することによって前方車両を検出するようにしてもよい。
In the second determining means (S140 to S170) of the above-described embodiment, a road is obtained by connecting a predetermined end point on the vehicle side in the image and the position of the preceding vehicle with an arc having a steering angle as a curvature radius. Although the shape has been determined, when the
また、前述の実施形態では、遠方道路領域の外枠OFおよび至近路辺領域32はいずれも矩形であったが、これらは矩形である必要はなく、円形等の他の形状であってもよい。
In the above-described embodiment, the outer frame OF of the far road area and the
10:車載霧判定装置
12:車載カメラ
16:ヨーレートセンサ
18:ステアリングセンサ
32:至近路辺領域
Lf:100m線(遠方距離線)
OF:遠方道路領域の外枠
10: Vehicle-mounted fog determination device 12: Vehicle-mounted camera 16: Yaw rate sensor 18: Steering sensor 32: Closest road area Lf: 100m line (far distance line)
OF: Outer frame of far road area
Claims (8)
前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、
その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、
前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、
前記道路形状決定手段は、
前記車載カメラによって撮像された画像から、道路に沿って設けられている道路上標識を検出することによって、前記車両が走行している道路の形状を決定する第1決定手段、
前記画像内における前方車両の位置を検出して、その検出した前方車両の位置に基づいて前記車両が走行している道路の形状を決定する第2決定手段、
および、操舵角センサによって検出されるステアリングの操舵角およびヨーレートセンサによって検出される前記車両のヨーレートの少なくとも一方に基づいて、前記車両が走行している道路の形状を決定する第3決定手段、のうちの少なくとも2つの決定手段を備え、
前記第1決定手段によって道路の形状が決定可能なときはその第1決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1決定手段によっては道路の形状が決定できないが、前記第2決定手段によって道路の形状が決定可能なときはその第2決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1、第2決定手段によっては道路の形状が決定できないが、前記第3決定手段によって道路の形状が決定できるときはその第3決定手段を用いて前記車両が走行している道路の形状を決定するものである ことを特徴とする車載霧判定装置。 Image captured by the vehicle-mounted camera that is mounted on the vehicle, and the image fog state determining means for determining whether the fog took images,
Road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the in-vehicle camera;
Far road area determining means for determining a far road area that is an area on the road at a predetermined far distance from the vehicle in the image based on the shape of the road determined by the road shape determining means,
The image foggy state determining means determines an image, an image der Ru car Nokiri determination apparatus of the distant road area distant road area determined by the determining means,
The road shape determining means is
First determining means for determining a shape of a road on which the vehicle is traveling by detecting a road sign provided along the road from an image captured by the in-vehicle camera;
Second determining means for detecting a position of a preceding vehicle in the image and determining a shape of a road on which the vehicle is traveling based on the detected position of the preceding vehicle;
And third determining means for determining the shape of the road on which the vehicle is traveling based on at least one of the steering angle of the steering detected by the steering angle sensor and the yaw rate of the vehicle detected by the yaw rate sensor, With at least two of these decision means,
When the shape of the road can be determined by the first determining means, the shape of the road on which the vehicle is traveling is determined using the first determining means, and the shape of the road cannot be determined by the first determining means. However, when the shape of the road can be determined by the second determining means, the shape of the road on which the vehicle is traveling is determined using the second determining means, and depending on the first and second determining means, the road The shape of the road cannot be determined, but when the shape of the road can be determined by the third determining means, the shape of the road on which the vehicle is traveling is determined using the third determining means. In-vehicle fog determination device .
前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、 Road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the in-vehicle camera;
その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、 Far road area determining means for determining a far road area that is an area on the road at a predetermined far distance from the vehicle in the image based on the shape of the road determined by the road shape determining means,
前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、 The image determined by the image fog state determination means is an in-vehicle fog determination device that is an image of a far road area determined by the far road area determination means,
前記道路形状決定手段によって決定された道路の形状、および、前記画像内において平坦な地面上で前記車両から所定の遠方距離を示す予め記憶された遠方距離線に基づいて、前記車両が走行している道路上において前記車両から所定の遠方距離にある遠方距離点を決定する遠方距離点決定手段をさらに備え、 The vehicle travels based on the road shape determined by the road shape determining means and a pre-stored far distance line indicating a predetermined far distance from the vehicle on the flat ground in the image. Further comprising a long distance point determination means for determining a long distance point at a predetermined long distance from the vehicle on the road,
前記遠方道路領域決定手段は、その遠方距離点決定手段によって決定された遠方距離点を基準として前記遠方道路領域を決定するものであることを特徴とする車載霧判定装置。 The in-vehicle fog determination device characterized in that the far road area determining means determines the far road area on the basis of the far distance point determined by the far distance point determining means.
前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、
その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、
前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、
前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において、所定の基準強度以下のエッジ強度の割合に基づいて、霧がかかった画像であるかどうかを判定するものであることを特徴とする車載霧判定装置。 Image fog state determination means for determining whether an image captured by a vehicle-mounted camera mounted on a vehicle is a foggy image;
Road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the in-vehicle camera;
Far road area determining means for determining a far road area that is an area on the road at a predetermined far distance from the vehicle in the image based on the shape of the road determined by the road shape determining means,
The image determined by the image fog state determination means is an in-vehicle fog determination device that is an image of a far road area determined by the far road area determination means,
The image fog state determination means determines whether or not the image is fogged based on a ratio of edge intensity below a predetermined reference intensity in the luminance edge intensity distribution diagram of the image of the far road area. A vehicle-mounted fog determination device characterized by being .
前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、 Road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the in-vehicle camera;
その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、 Far road area determining means for determining a far road area that is an area on the road at a predetermined far distance from the vehicle in the image based on the shape of the road determined by the road shape determining means,
前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像である車載霧判定装置であって、 The image determined by the image fog state determination means is an in-vehicle fog determination device that is an image of a far road area determined by the far road area determination means,
前記画像霧状態判定手段は、前記遠方道路領域決定手段によって決定された遠方道路領域の画像と、前記画像内において車両近くの路辺を撮像している範囲として予め設定された至近路辺領域の画像とを比較することによって、前記遠方道路領域の画像が、霧がかかった画像であるかどうかを判定するものであることを特徴とする車載霧判定装置。The image fog state determination means includes an image of a distant road area determined by the distant road area determination means, and a close road area that is preset as a range in which a roadside near the vehicle is imaged in the image. A vehicle-mounted fog determination device characterized by determining whether or not the image of the far road area is a foggy image by comparing with an image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005175743A JP4506573B2 (en) | 2005-06-15 | 2005-06-15 | In-vehicle fog determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005175743A JP4506573B2 (en) | 2005-06-15 | 2005-06-15 | In-vehicle fog determination device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006349492A JP2006349492A (en) | 2006-12-28 |
JP4506573B2 true JP4506573B2 (en) | 2010-07-21 |
Family
ID=37645511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005175743A Expired - Fee Related JP4506573B2 (en) | 2005-06-15 | 2005-06-15 | In-vehicle fog determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4506573B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008070979A (en) * | 2006-09-12 | 2008-03-27 | Denso Corp | Onboard fog decision unit |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4321591B2 (en) | 2007-01-11 | 2009-08-26 | 株式会社デンソー | In-vehicle fog determination device |
JP4241834B2 (en) | 2007-01-11 | 2009-03-18 | 株式会社デンソー | In-vehicle fog determination device |
JP4776587B2 (en) | 2007-06-13 | 2011-09-21 | 国立大学法人北海道大学 | Image processing device, driving support device |
JP5805619B2 (en) * | 2012-12-26 | 2015-11-04 | 株式会社日本自動車部品総合研究所 | Boundary line recognition device |
US10002433B2 (en) | 2012-12-26 | 2018-06-19 | Nippon Soken, Inc. | Boundary line recognition apparatus and branch road determination apparatus |
CN105629333A (en) * | 2015-12-27 | 2016-06-01 | 安徽皖通科技股份有限公司 | Road weather detection method based on video |
KR101748524B1 (en) * | 2016-01-26 | 2017-06-27 | (주)스마트테크놀로지 | Apparatus and method for fog detection using visibility estimation |
KR101889645B1 (en) * | 2017-02-06 | 2018-08-20 | 부산대학교 산학협력단 | Apparatus and method for providing road weather information |
US10803570B2 (en) | 2018-05-10 | 2020-10-13 | Eagle Technology, Llc | Method and system for a measure of visibility from a single daytime image |
KR102257078B1 (en) * | 2018-12-18 | 2021-05-27 | 허병도 | Fog detection device using coordinate system and method thereof |
JP7515983B2 (en) | 2020-12-02 | 2024-07-16 | アルプスアルパイン株式会社 | Fog condition detection system, image processing system, and fog condition detection method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259998A (en) * | 1999-03-12 | 2000-09-22 | Yazaki Corp | Back monitoring device for vehicle |
JP2001028746A (en) * | 1999-07-14 | 2001-01-30 | Fuji Heavy Ind Ltd | Outside monitoring device with fail-safe function |
JP2001167396A (en) * | 1999-12-10 | 2001-06-22 | Mitsubishi Electric Corp | On-vehicle forward monitoring device |
JP2004249891A (en) * | 2003-02-21 | 2004-09-09 | Nissan Motor Co Ltd | Driving operation auxiliary device for vehicle and vehicle equipped with the device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0737064A (en) * | 1993-07-22 | 1995-02-07 | Babcock Hitachi Kk | Method and device for detecting intruding object |
JP2817594B2 (en) * | 1993-11-15 | 1998-10-30 | トヨタ自動車株式会社 | Headlight device for vehicles |
JPH0973545A (en) * | 1995-09-07 | 1997-03-18 | Fujitsu Ten Ltd | White line recognition device |
JP3444192B2 (en) * | 1998-05-21 | 2003-09-08 | 日産自動車株式会社 | Imaging environment estimation device |
-
2005
- 2005-06-15 JP JP2005175743A patent/JP4506573B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259998A (en) * | 1999-03-12 | 2000-09-22 | Yazaki Corp | Back monitoring device for vehicle |
JP2001028746A (en) * | 1999-07-14 | 2001-01-30 | Fuji Heavy Ind Ltd | Outside monitoring device with fail-safe function |
JP2001167396A (en) * | 1999-12-10 | 2001-06-22 | Mitsubishi Electric Corp | On-vehicle forward monitoring device |
JP2004249891A (en) * | 2003-02-21 | 2004-09-09 | Nissan Motor Co Ltd | Driving operation auxiliary device for vehicle and vehicle equipped with the device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008070979A (en) * | 2006-09-12 | 2008-03-27 | Denso Corp | Onboard fog decision unit |
Also Published As
Publication number | Publication date |
---|---|
JP2006349492A (en) | 2006-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7693629B2 (en) | Onboard fog determining apparatus | |
JP4784452B2 (en) | In-vehicle fog determination device | |
JP4730267B2 (en) | Visibility state determination device for vehicle | |
JP4321591B2 (en) | In-vehicle fog determination device | |
JP4241834B2 (en) | In-vehicle fog determination device | |
US9773177B2 (en) | Surrounding environment recognition device | |
CN109982909B (en) | Vehicle control device | |
JP4775391B2 (en) | Obstacle detection device | |
US9415718B2 (en) | Vehicular headlight apparatus | |
JP4420011B2 (en) | Object detection device | |
JP5022609B2 (en) | Imaging environment recognition device | |
US9821706B2 (en) | Illuminating device, illuminating method, program, and medium | |
US9360332B2 (en) | Method for determining a course of a traffic lane for a vehicle | |
CN107161076A (en) | Vehicular illumination system | |
JP4506573B2 (en) | In-vehicle fog determination device | |
JP2005148817A (en) | Image processor for vehicle | |
JP2012089114A (en) | Obstacle recognition device | |
CN111052201B (en) | Collision prediction device, collision prediction method, and storage medium | |
JP5233696B2 (en) | Lane boundary detection device, boundary detection program, and departure warning device | |
JP2009252198A (en) | Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus | |
JP4913101B2 (en) | Road shape detection device for vehicles | |
JP2007057331A (en) | In-vehicle system for determining fog | |
JPH05113482A (en) | Rear end collision prevention device mounted on car | |
JP5742676B2 (en) | Lane boundary recognition device | |
JP2008279842A (en) | Dead angle zone estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100419 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4506573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140514 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |