JP7210208B2 - Providing device - Google Patents
Providing device Download PDFInfo
- Publication number
- JP7210208B2 JP7210208B2 JP2018183949A JP2018183949A JP7210208B2 JP 7210208 B2 JP7210208 B2 JP 7210208B2 JP 2018183949 A JP2018183949 A JP 2018183949A JP 2018183949 A JP2018183949 A JP 2018183949A JP 7210208 B2 JP7210208 B2 JP 7210208B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- sensors
- weather condition
- weather
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、提供装置および提供方法に関する。 The present invention relates to a provision device and a provision method.
従来、例えば、物標等といった周囲の状況をセンサで検出し、検出結果に基づいた車両制御を実行したり、検出した物標を運転者へ通知したりする等の技術がある。上記のセンサの例として、カメラ、レーダおよびライダー(LiDAR:Laser Imaging Detection and Ranging)等がある。 2. Description of the Related Art Conventionally, for example, there are techniques for detecting surrounding conditions such as a target with a sensor, executing vehicle control based on the detection result, and notifying the driver of the detected target. Examples of such sensors include cameras, radars and lidars (LiDAR: Laser Imaging Detection and Ranging).
ところで、上記したセンサは、天候の影響を受けて検出結果の精度が低下するおそれがある。また、上記したセンサを搭載していない車両の運転者にとっては、天候が急変した場合に、かかる急変に即座に対応することは容易ではない。 By the way, the above-described sensor may be affected by the weather and the accuracy of the detection result may be deteriorated. In addition, it is not easy for the driver of a vehicle not equipped with the above-described sensor to immediately respond to a sudden change in weather.
本発明は、上記に鑑みてなされたものであって、高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above, and an object of the present invention is to provide a provision device and a provision method capable of detecting the weather with high precision and alerting the surroundings.
上述した課題を解決し、目的を達成するために、本発明に係る提供装置は、センサ検出結果取得部と、天候状況判定部と、提供部とを備える。前記センサ検出結果取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。前記天候状況判定部は、前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する。前記提供部は、前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する。 In order to solve the above-described problems and achieve the object, the provision device according to the present invention includes a sensor detection result acquisition section, a weather condition determination section, and a provision section. The sensor detection result acquisition unit acquires detection results of a plurality of sensors that detect surrounding conditions. The weather condition determination unit determines weather conditions based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit. The providing unit provides the weather condition information, which is information about the weather condition determined by the weather condition determining unit, to the outside.
本発明によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。 ADVANTAGE OF THE INVENTION According to this invention, while detecting a weather with high precision, it can call attention to surroundings.
以下、添付図面を参照して、本願の開示する提供装置および提供方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the provision device and the provision method disclosed in the present application will be described in detail with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment.
まず、図1を用いて、実施形態に係る提供方法の概要について説明する。図1は、実施形態に係る提供方法の概要を示す図である。図1では、実施形態に係る提供装置1は、車両Cに搭載され、実施形態に係る提供方法を実行する。なお、提供装置1の搭載対象は、車両に限らず、バイクや、自転車、船舶、航空機等といった他の移動体であってもよい。あるいは、提供装置1は、移動体に限らず、例えば、街灯や道路側方物(ガードレールや、信号機等)といった静止物に搭載されてもよい。
First, with reference to FIG. 1, an overview of the provision method according to the embodiment will be described. FIG. 1 is a diagram showing an overview of a provision method according to an embodiment. In FIG. 1, the
また、車両Cは、周囲の状況を検出する複数のセンサの検出結果を総合して周囲に存在する物標を検出する物標検出装置(図示せず)を備えていることとする。なお、複数のセンサには、例えば、カメラ、レーダおよびLiDAR(Laser Imaging Detection and Ranging)等がある。 The vehicle C is also equipped with a target detection device (not shown) that integrates the detection results of a plurality of sensors for detecting surrounding conditions and detects targets existing in the surroundings. Note that the plurality of sensors include, for example, cameras, radar, and LiDAR (Laser Imaging Detection and Ranging).
また、図1では、実施形態に係る提供装置1は、車両Cの前方に発生した濃霧を検出し、検出した濃霧に対する注意喚起の情報である天候状況情報を外部へ提供する提供方法について説明する。
In addition, in FIG. 1, the providing
具体的には、実施形態に係る提供装置1は、まず、上記した複数のセンサの検出結果を取得する(ステップS1)。つづいて、提供装置1は、取得した複数のセンサの検出結果に基づいて車両Cの周囲で発生する天候状況を判定する(ステップS2)。
Specifically, the
なお、ここでいう天候とは、濃霧や、雨、雪等といった悪天候を指す。換言すれば、提供装置1が検出する天候とは、上記したセンサの検出結果の精度を低下させる天候である。なお、天候は、昼と夜とで区別されてもよい。すなわち、提供装置1は、昼の雨および夜の雨等のように、雨という天候を昼と夜とに細分化された天候状況を判定してもよい。
The weather here refers to bad weather such as heavy fog, rain, and snow. In other words, the weather detected by the
このように、実施形態に係る提供装置1は、本来、物標の検出に用いるセンサの検出結果を利用して天候状況を判定する。なお、詳細な天候状況の判定方法については後述する。
In this way, the
つづいて、実施形態に係る提供装置1は、判定した天候状況に関する天候状況情報を道路管理者が扱う道路管理端末(道路管理サーバSV)または周辺車両OC1に搭載された車載機へ提供する(ステップS3-1,S3-2)。
Subsequently, the
具体的には、実施形態に係る提供装置1は、車両Cが走行する道路を管理する道路管理端末に対して、例えば、天候コード等の天候状況を示す情報、車両Cの位置および現在時刻等を含む天候状況情報を提供する(ステップS2-1)。
Specifically, the
これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に「この先濃霧注意!」等といった注意喚起の表示を行うことができる。そして、かかる表示を見た後方の周辺車両OC2の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。 As a result, for example, the road administrator can display a warning such as "Watch out for heavy fog ahead!" Then, the driver of the surrounding vehicle OC2 behind who sees such a display can prepare for the dense fog in advance, so that he/she can deal with the dense fog that has occurred without hesitation.
また、実施形態に係る提供装置1は、上記した物標検出装置が用いる複数のセンサそれぞれの検出結果に付与する重みを、判定した天候に応じて変更するとともに、車両Cの後方を走行する周辺車両OC1の物標検出装置に対して、かかる重みに関する情報(以下、重み情報と記載する場合がある)を含む天候状況情報(出願時削除※以下は、赤字下線を省略しています。)を提供する(ステップS2-2)。
Further, the
これにより、例えば、周辺車両OC1に搭載された物標検出装置において、複数のセンサそれぞれの検出結果の重みを天候に合わせて変更できる。例えば、濃霧の場合には、カメラの検出結果の重みを軽くし、レーダ装置の検出結果の重みを重くする。従って、周辺車両OC1が濃霧に進入した場合であっても、濃霧に合わせて最適な重みを付与して物標検出を行うことができるため、濃霧により物標検出の精度が低下することを防ぐことができる。 Thereby, for example, in the target object detection device mounted on the surrounding vehicle OC1, the weight of each detection result of the plurality of sensors can be changed according to the weather. For example, in the case of dense fog, the weight of the detection result of the camera is lightened, and the weight of the detection result of the radar device is weighted. Therefore, even if the surrounding vehicle OC1 enters into thick fog, it is possible to detect the target object by assigning an optimum weight according to the thick fog. be able to.
なお、周辺車両OC1が物標検出装置を備えない場合、実施形態に係る提供装置1は、重み情報に代えて、濃霧の発生を示す天候状況情報を周辺車両OC1のナビゲーション装置等へ提供することもできる。これにより、周辺車両OC1の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。
Note that if the surrounding vehicle OC1 does not have a target object detection device, the providing
上述したように、実施形態に係る提供方法では、複数のセンサの検出結果を用いて天候状況を判定し、天候状況情報を外部へ提供する。従って、実施形態に係る提供方法によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。 As described above, in the provision method according to the embodiment, the weather conditions are determined using the detection results of a plurality of sensors, and the weather condition information is provided to the outside. Therefore, according to the provision method according to the embodiment, it is possible to detect the weather with high precision and to call attention to the surroundings.
次に、図2を参照して、実施形態に係る提供装置1の構成について詳細に説明する。図2は、実施形態に係る提供装置1を備えた車両Cの構成を示すブロック図である。図2に示すように、実施形態に係る車両Cは、提供装置1と、物標検出装置100とを備える。提供装置1および物標検出装置100は、所定の車内ネットワークによって通信可能に接続され、互いに情報の送受信を行うことができる。なお、図2では、物標検出装置100と提供装置1とが別体で構成される場合を示したが、物標検出装置100と提供装置1とが一体的に1つの装置として構成されてもよい。
Next, the configuration of the
物標検出装置100は、複数のセンサである、カメラ10、レーダ装置11およびLiDAR12を備える。カメラ10は、車両Cの外部状況を撮像する撮像装置である。カメラ10は、例えば、車両Cのフロントガラスに設けられ、車両Cの前方を撮像する。なお、カメラ10は、車両Cの左右側面を撮像する位置および車両Cの後方を撮像する位置に設けられていてもよい。物標検出装置100は、カメラ10の画像を解析することで、車両Cの周囲に存在する物標を検出する。
The
レーダ装置11は、ミリ波等の電波を利用して車両Cの周辺の物標を検出する。具体的には、レーダ装置11は、電波を車両Cの周辺に送信し、物標で反射した反射波を受信することで物標を検出する。 The radar device 11 detects targets around the vehicle C using radio waves such as millimeter waves. Specifically, the radar device 11 detects a target by transmitting radio waves to the vicinity of the vehicle C and receiving reflected waves reflected by the target.
LiDAR12は、レーザー光を利用して車両Cの周囲の物標を検出する。具体的には、LiDAR12は、レーザー光を車両Cの周辺に送信し、物標で反射された反射光を受信することで物標を検出する。
The
物標検出装置100は、カメラ10、レーダ装置11およびLiDAR12それぞれの検出結果を総合して最終的な物標を検出する。具体的には、物標検出装置100は、各センサの検出結果に所定の重みを付与した結果に基づいて最終的な物標を検出する。なお、かかる重みは、提供装置1により提供されるが、詳細については後述する。
The
実施形態に係る提供装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部20(センサ検出結果取得部の一例)、判定部21(天候状況判定部の一例)、決定部22および提供部23を備える。記憶部3は、重み情報31を記憶する。
A
ここで、提供装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
Here, the providing
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部20、判定部21、決定部22および提供部23として機能する。
The CPU of the computer functions as an
また、制御部2の取得部20、判定部21、決定部22および提供部23の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
Further, at least one or all of the
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、重み情報31や、各種プログラムの情報等を記憶することができる。なお、提供装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
Also, the storage unit 3 corresponds to, for example, a RAM or a data flash. The RAM and data flash can store the
重み情報31は、物標検出装置100の物標検出処理に用いる重みに関する情報である。重み情報31には、複数のセンサそれぞれに割り当てられた重みに関する情報が含まれる。図3は、重み情報31の一例を示す図である。
The
図3に示すように、重み情報31は、「センサID」、「センサ名」および「重み」といった項目が対応付けられる。「センサID」は、各センサを識別する識別情報である。「センサ名」は、センサの名称である。「重み」は、物標検出処理の際にセンサの検出結果に付与する重みを示す情報である。「重み」は、後述の提供部23によって、天候に応じて決定された重みが入力される。
As shown in FIG. 3, the
なお、図3では、それぞれのセンサが1つの場合について示したが、例えば、同じセンサ名のセンサが複数搭載される場合には、各センサにセンサIDが割り当てられてもよい。つまり、複数のカメラが搭載される場合、複数のカメラそれぞれにセンサIDおよび重みが割り当てられてもよい。 Note that FIG. 3 shows the case where each sensor is one, but when multiple sensors with the same sensor name are mounted, for example, a sensor ID may be assigned to each sensor. That is, when multiple cameras are mounted, each of the multiple cameras may be assigned a sensor ID and a weight.
制御部2は、周囲の状況を検出する複数のセンサ(例えば、カメラ10、レーダ装置11およびLiDAR12)の検出結果に基づいて天候状況を判定し、判定した天候状況に関する情報である天候状況情報を提供する。
The control unit 2 determines the weather conditions based on the detection results of a plurality of sensors (for example, the
取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。例えば、取得部20は、カメラ10、レーダ装置11およびLiDAR12それぞれから検出結果を取得する。検出結果は、例えば、物標に関する情報(物標の有無、相対速度や位置等の情報)であってもよく、あるいは、カメラ10の画像等のような物標検出に用いられる元データであってもよい。
判定部21(出願時削除※以下は、赤字下線を省略しています。)は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。具体的には、判定部21は、複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定する。
The determination unit 21 (deleted at the time of filing * red underlines are omitted below) determines the weather conditions based on the detection results of the plurality of sensors acquired by the
例えば、判定部21は、同一の物標について、カメラ10の画像およびLiDAR12からは物標が検出されず、レーダ装置11からは物標が検出された場合、天候状況が悪天候であることと判定する。かかる場合、さらに、判定部21は、例えば、カメラ10のレンズに付着した付着物に基づいて悪天候の種別を判別する。
For example, for the same target, if the target is not detected by the image of the
すなわち、判定部21は、カメラ10の画像に基づいてレンズに雨滴が付着していた場合、かかる悪天候は雨であると判定する。また、判定部21は、カメラ10の画像に基づいてカメラ10のレンズが雪埋もれであることを検出した場合、悪天候は雪であると判定する。そして、判定部21は、レンズに付着物が付着していない、または、霧状の水滴が付着していた場合、悪天候が濃霧であると判定する。
That is, when raindrops adhere to the lens based on the image of the
なお、判定部21は、カメラ10、レーダ装置11およびLiDAR12それぞれで同一の物標が検出された場合、天候状況が晴れであると判定する。このように、物標の検出結果に基づいて天候状況を判定することで、精度良く天候を検出することができる。
Note that the determination unit 21 determines that the weather condition is fine when the same target is detected by the
また、判定部21は、物標として例えば、白線等の車両Cが走行する道路を区画する区画線の検出結果に基づいて天候状況を判定することができる。かかる点について、図4を用いて説明する。 In addition, the determination unit 21 can determine the weather conditions based on the detection result of marking lines, such as white lines, that mark the road on which the vehicle C travels as targets. This point will be described with reference to FIG.
図4は、判定部21による白線検出を用いた天候状況判定の処理内容を示す図である。図4では、車両Cが直進走行(操舵角が略ゼロ)する道路の左右を区画する実線の区画線Lを示している。なお、区画線Lは、実線に限らず、破線等の断続的な区画線であってもよい。また、区画線Lは、白線であってもよく、黄線であってもよい。また、図4では、区画線Lの白線(あるいは黄線)の劣化度合いが等しく、区画線Lのかすれや汚れは同一であることとする。 FIG. 4 is a diagram showing details of weather condition determination processing by the determination unit 21 using white line detection. In FIG. 4, a solid line marking line L that divides the left and right sides of the road on which the vehicle C travels straight (the steering angle is substantially zero) is shown. Note that the demarcation line L is not limited to a solid line, and may be an intermittent demarcation line such as a broken line. Also, the demarcation line L may be a white line or a yellow line. Also, in FIG. 4, it is assumed that the degree of deterioration of the white lines (or yellow lines) of the demarcation lines L is the same, and that the demarcation lines L are the same in blurring and staining.
なお、区画線Lの存在は、各センサの検知データに基づく画像認識処理や、ナビゲーション装置の地図データ(地図データに含まれる区画線データ)と自車位置データによる区画線位置判定処理等により判定できる。 The existence of the lane marking L is determined by image recognition processing based on the detection data of each sensor, and lane marking position determination processing based on the map data of the navigation device (the lane marking data included in the map data) and the vehicle position data. can.
図4に示すように、判定部21は、まず、複数のセンサそれぞれで検出された区画線Lの検出結果を取得する。つづいて、判定部21は、複数のセンサそれぞれで検出された区画線Lに基づいて天候状況を判定する。 As shown in FIG. 4, the determination unit 21 first acquires the detection results of the lane marking L detected by each of the plurality of sensors. Subsequently, the determination unit 21 determines weather conditions based on the lane markings L detected by each of the plurality of sensors.
具体的には、図4に示すように、判定部21は、複数のセンサそれぞれについて、車両Cから所定距離以上である遠距離に存在する区画線Lと、車両Cから所定距離未満である近距離に存在する区画線Lとの検出結果を比較した結果に基づいて天候を検出する。 Specifically, as shown in FIG. 4 , the determination unit 21 determines a lane marking L that exists at a distance of at least a predetermined distance from the vehicle C and a lane line L that exists at a distance of less than a predetermined distance from the vehicle C for each of the plurality of sensors. The weather is detected based on the result of comparing the detection result with the division line L existing in the distance.
例えば、判定部21は、カメラ10およびLiDAR12については近距離の区画線Lのみ検出、あるいは、遠距離の区画線Lの検出精度が所定の閾値以下で著しく低い、一方で、レーダ装置11については近距離および遠距離双方の区画線Lが検出された場合、天候状況が濃霧であると判定する。これは、濃霧が発生した場合、遠距離の視認性が低下することを利用した判定方法である。このような判定方法により、濃霧を精度良く判定することができる。
For example, for the
なお、区画線Lの検出精度は、区画線の画像処理で得られるエッジ(コントラストが急変する部分(物体境界における画像の区切れ部分))の連続性(区画線存在位置におけるエッジ直線の長さ:直線路の区画線の場合、精度が高いと長い直線となり、精度が低いと細かく分断された直線となる)やエッジ強度(コントラスト強度)の変化(直線路の区画線の場合、精度が高いとエッジ強度が高く安定した直線となり、精度が低いとエッジ強度が低く不安定な直線となる)、等により検出できる。 Note that the detection accuracy of the marking line L is determined by the continuity of the edge (the part where the contrast suddenly changes (the part where the image is separated at the object boundary) obtained by the image processing of the marking line (the length of the edge straight line at the position where the marking line exists) : In the case of straight lane markings, if the accuracy is high, the straight line will be long, and if the accuracy is low, the straight line will be finely divided) and changes in edge strength (contrast intensity) (In the case of straight lane markings, the accuracy is high If the accuracy is low, the edge strength becomes a stable straight line, and if the accuracy is low, the edge strength becomes an unstable straight line).
また、例えば、判定部21は、カメラ10およびLiDAR12について近距離の区画線Lの認識精度よりも遠距離の区画線Lの認識精度が低く、一方で、レーダ装置11について近距離および遠距離双方の区画線Lの認識精度が同程度である場合、天候状況が雨であると判定する。これは、雨が降っている場合、濃霧のように遠距離の区画線Lが検出できない状況とは異なり、遠距離の区画線Lについてもある程度は検出できることを利用した判定方法である。このような判定方法により、雨を精度良く検出することができる。
Further, for example, the determination unit 21 has a lower recognition accuracy for the long-distance lane marking L than for the short-range lane marking L for the
また、例えば、判定部21は、カメラ10について近距離および遠距離双方の区画線Lが検出されず、レーダ装置11およびLiDAR12について近距離および遠距離双方の区画線Lが検出された場合、天候状況は晴れでかつ逆光である、あるいは夜であることを判定する。なお、晴れの逆光か夜かは、時刻情報を取得することで判別可能である。これは、逆光や夜では、カメラ10の画像が白または黒の画像となってしまい、物標を検出できないことを利用した判定方法である。これにより、晴れの逆光および夜を精度良く検出することができる。
Further, for example, when both the near-distance and long-distance lane markings L are not detected for the
このような天候判別は各センサの出力状態と天候の関係を示すテーブルを用いた処理により実現することができ、また天候の判別種別は提供する天候情報種別や天候情報を用いる処理装置等に応じて設定すれば良い。 Such weather discrimination can be realized by processing using a table showing the relationship between the output state of each sensor and the weather. should be set.
なお、判定部21は、例えば、夜の場合には、車両Cのライトが点灯するため、かかるライトによる影響を加味して上記の判定方法を実行することが好ましい。このように、複数のセンサそれぞれの検出結果について、近距離の区画線Lと遠距離の区画線Lとの検出結果を比較することで、天候状況を精度良く判定することができる。 In addition, since the lights of the vehicle C are turned on at night, for example, the determination unit 21 preferably executes the above determination method taking into consideration the influence of such lights. In this manner, the weather conditions can be accurately determined by comparing the detection results of the near-distance marking line L and the long-distance marking line L with respect to the detection results of each of the plurality of sensors.
また、図4では、区画線Lの検出結果を2種類(近距離および遠距離)に分けて比較したが、所定距離毎に分ける、つまり、検出結果を3種類以上に分けて比較してもよい。 In FIG. 4, the detection results of the marking line L are divided into two types (short range and long range) and compared. good.
図2に戻って決定部22について説明する。決定部22は、判定部21によって判定された天候状況に基づいて物標検出装置100の物標検出処理における複数のセンサそれぞれに割り当てる重みを決定する。
Returning to FIG. 2, the
例えば、決定部22は、判定部21によって濃霧が判定された場合、物標検出処理におけるカメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、濃霧が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。
For example, when the determination unit 21 determines that there is dense fog, the
また、決定部22は、判定部21によって雨または雪が判定された場合、カメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、雨または雪が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。
Further, when the determination unit 21 determines rain or snow, the
決定部22は、決定した各センサの重みに関する情報を重み情報31として記憶部3に記憶するとともに、かかる重みに関する情報を提供部23へ出力する。
The
提供部23は、判定部21によって検出された天候状況に関する天候状況情報天候状況情報を外部へ提供する。
The
例えば、提供部23は、車両Cの周辺に存在する周辺車両OC1へ天候状況情報を提供する。具体的には、提供部23は、車両Cがいる位置(悪天候発生位置)をこれから通過する予定の周辺車両OC1へ天候状況情報を提供する。
For example, the providing
なお、かかる場合の天候状況情報は、周辺車両OC1が物標検出装置101を搭載しているか否かで内容を変えることが好ましい。具体的には、周辺車両OC1が物標検出装置101を搭載している場合、提供部23は、決定部22によって決定された重み情報31を含む天候状況情報を周辺車両OC1へ提供する。
In addition, it is preferable that the content of the weather condition information in such a case be changed depending on whether the surrounding vehicle OC1 is equipped with the target
これにより、周辺車両OC1の物標検出装置101は、予め濃霧に対応した重みに設定変更できるため、濃霧進入時において物標の検出精度が低下することを防止できる。
As a result, the
なお、提供部23は、周辺車両OC1へ重み情報31を提供する場合に限らず、例えば、悪天候を検出した際の各センサの検出結果をそのまま天候状況情報として提供してもよい。かかる場合、周辺車両OC1の物標検出装置101は、天候状況情報に含まれる各センサの検出結果に基づいて、自己のセンサそれぞれに割り当てる重みを決定することができる。
The providing
一方、周辺車両OC1が物標検出装置101を搭載していない場合、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、天候状況情報を受信した周辺車両OC1の運転者は、予め悪天候に対する準備を行うことができるため、悪天候の発生に戸惑うことなく対応することができる。
On the other hand, when the surrounding vehicle OC1 is not equipped with the target
また、提供部23は、周辺車両OC1以外に、例えば、車両Cが走行する道路を管理する道路管理者が扱う道路管理端末(道路管理サーバSV)へ天候状況情報を提供してもよい。具体的には、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に悪天候に対する注意喚起の表示を行うことができる。
In addition to the surrounding vehicle OC1, the providing
次に、図5を用いて、実施形態に係る提供装置1が実行する処理の処理手順について説明する。図5は、実施形態に係る提供装置1が実行する処理の処理手順を示すフローチャートである。
Next, a processing procedure of processing executed by the providing
図5に示すように、まず、取得部20は、物標検出装置100から周囲の状況を検出する複数のセンサの検出結果を取得する(ステップS101)。つづいて、判定部21は、取得した検出結果に基づいて天候状況を判定する(ステップS102)。
As shown in FIG. 5, first, the
つづいて、提供部23は、判定部21によって判定された天候状況が悪天候であるか否かを判定する(ステップS103)。提供部23は、判定部21によって判定された天候状況が悪天候である場合(ステップS103,Yes)、周辺車両OC1へ天候状況情報の提供を行うか否かを判定する(ステップS104)。
Subsequently, the
提供部23は、周辺車両OC1へ天候状況情報の提供を行う場合(ステップS104,Yes)、決定部22によって決定された各センサの重みに関する重み情報31を含む天候状況情報を周辺車両OC1へ提供する(ステップS105)。つづいて、提供部23は、天候の種別や、車両Cの位置、現在時刻等を含む天候状況情報を道路管理サーバSVへ提供し(ステップS106)、処理を終了する。
When the weather condition information is to be provided to the surrounding vehicle OC1 (step S104, Yes), the providing
一方、ステップS103において、提供部23は、判定部21によって判定された天候状況が悪天候ではない場合(ステップS103,No)、すなわち天候が晴れである場合、外部へ天候状況情報の提供を行わず、処理を終了する。
On the other hand, in step S103, the
また、ステップS104において、提供部23は、周辺車両OC1へ天候状況情報の提供を行わない場合(ステップS104,No)、ステップS106へ移行する。
Moreover, in step S104, when the
上述してきたように、実施形態に係る提供装置1は、取得部20と、判定部21と、提供部23とを備える。取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部21は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部23は、判定部21によって判定された天候状況に関する天候状況情報を外部へ提供する。これにより、高精度に天候を検出するとともに、周囲に注意を促すことができる。
As described above, the
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.
1 提供装置
2 制御部
3 記憶部
10 カメラ
11 レーダ装置
12 LiDAR
20 取得部
21 判定部
22 決定部
23 提供部
31 重み情報
100、101 物標検出装置
C 車両
L 区画線
OC1、OC2 周辺車両
1 Provision Device 2 Control Unit 3
20 acquisition unit 21
Claims (4)
周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得部と、
前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定部と、
前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供部と
を備え、
前記複数のセンサは、
前記周囲に存在する物標を検出するセンサであって、前記車両が走行する道路を区画する区画線を前記物標として検出するように構成され、
前記天候状況判定部は、
前記複数のセンサそれぞれで検出された前記物標の検出結果に基づいて前記天候状況を判定するものであって、前記複数のセンサそれぞれで検出された前記区画線に基づいて前記天候状況を判定するように構成されるとともに、
前記複数のセンサそれぞれについて、前記車両から所定距離以上である遠距離に存在する前記区画線と、前記所定距離未満である近距離に存在する前記区画線との検出結果を比較した結果に基づいて前記天候状況を判定するように構成された、
提供装置。 A providing device mounted on a vehicle,
a sensor detection result acquisition unit that acquires detection results of a plurality of sensors that detect surrounding conditions;
a weather condition determination unit that determines weather conditions based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit;
a providing unit that provides the weather condition information, which is information about the weather conditions determined by the weather condition determining unit, to the outside ;
The plurality of sensors are
A sensor for detecting targets existing in the surroundings, the sensor being configured to detect, as the target, a marking line that divides a road on which the vehicle travels,
The weather condition determination unit
The weather condition is determined based on the detection results of the target detected by each of the plurality of sensors, and the weather condition is determined based on the lane marking detected by each of the plurality of sensors. is configured as
Based on the result of comparing the detection results of the marking line that exists at a long distance of a predetermined distance or more from the vehicle and the marking line that exists at a short distance of less than the predetermined distance from the vehicle for each of the plurality of sensors. configured to determine the weather conditions;
delivery device.
前記車両の周辺に存在する周辺車両搭載の車載機、または、前記車両が走行する道路を管理する道路管理端末へ、前記天候状況情報を提供するように構成された、
請求項1に記載の提供装置。 The providing unit
Configured to provide the weather condition information to an in-vehicle device mounted on a peripheral vehicle that exists in the vicinity of the vehicle, or a road management terminal that manages the road on which the vehicle travels,
2. The providing device of claim 1 .
前記複数のセンサの各センサの検出結果に付与する重みに関する重み情報を含む前記天候状況情報を前記周辺車両へ提供するように構成された、
請求項2に記載の提供装置。 The providing unit
configured to provide the surrounding vehicle with the weather condition information including weight information regarding a weight assigned to the detection result of each of the plurality of sensors ;
3. A providing device according to claim 2 .
周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得部と、 a sensor detection result acquisition unit that acquires detection results of a plurality of sensors that detect surrounding conditions;
前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定部と、 a weather condition determination unit that determines weather conditions based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit;
前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供部と a providing unit that provides to the outside weather condition information, which is information about the weather conditions determined by the weather condition determination unit;
を備え、 with
前記複数のセンサは、 The plurality of sensors are
前記周囲に存在する物標を検出するセンサであって、前記車両が走行する道路を区画する区画線を前記物標として検出するように構成され、 A sensor for detecting targets existing in the surroundings, the sensor being configured to detect, as the target, a marking line that divides a road on which the vehicle travels,
前記天候状況判定部は、 The weather condition determination unit
前記複数のセンサそれぞれで検出された前記物標の検出結果に基づいて前記天候状況を判定するものであって、前記複数のセンサそれぞれで検出された前記区画線に基づいて前記天候状況を判定するように構成され、 The weather condition is determined based on the detection results of the target detected by each of the plurality of sensors, and the weather condition is determined based on the lane marking detected by each of the plurality of sensors. configured as
前記提供部は、 The providing unit
前記車両の周辺に存在する周辺車両搭載の車載機へ、前記天候状況情報を提供するように構成され、 configured to provide the weather condition information to an on-vehicle device mounted on a peripheral vehicle existing in the vicinity of the vehicle;
更に、前記周辺車両が前記複数のセンサの検出結果に基づいて周囲に存在する前記物標を検出する物標検出装置を搭載している搭載車両の場合には、当該搭載車両の前記車載機に対して、前記天候状況情報として、前記複数のセンサの各センサの検出結果に付与する重みに関する重み情報を含む情報を提供するように構成されるとともに、 Furthermore, in the case where the surrounding vehicle is a vehicle equipped with a target object detection device that detects the target existing in the surroundings based on the detection results of the plurality of sensors, the on-vehicle device of the vehicle equipped with On the other hand, it is configured to provide, as the weather condition information, information including weight information relating to the weight given to the detection result of each sensor of the plurality of sensors,
前記周辺車両が前記物標検出装置を搭載していない非搭載車両の場合には、当該非搭載車両の前記車載機に対して、前記搭載車両に提供する情報とは異なる、天候の種別と前記車両の位置と現在時刻とを含む情報を提供するように構成された、 When the surrounding vehicle is a non-equipped vehicle that is not equipped with the target object detection device, the type of weather and the above configured to provide information including the location of the vehicle and the current time;
提供装置。delivery device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018183949A JP7210208B2 (en) | 2018-09-28 | 2018-09-28 | Providing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018183949A JP7210208B2 (en) | 2018-09-28 | 2018-09-28 | Providing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052909A JP2020052909A (en) | 2020-04-02 |
JP7210208B2 true JP7210208B2 (en) | 2023-01-23 |
Family
ID=69997404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018183949A Active JP7210208B2 (en) | 2018-09-28 | 2018-09-28 | Providing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7210208B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7595465B2 (en) | 2019-02-08 | 2024-12-06 | 株式会社Ihi | Learning device and boiler control system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102693851B1 (en) * | 2019-10-25 | 2024-08-13 | 현대모비스 주식회사 | Automotive sensor integration module |
JP2022014729A (en) * | 2020-07-07 | 2022-01-20 | 株式会社デンソー | Adverse environment determination device, and adverse environment determination method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005174059A (en) | 2003-12-12 | 2005-06-30 | Matsushita Electric Ind Co Ltd | Navigation information providing system |
JP2007057331A (en) | 2005-08-23 | 2007-03-08 | Denso Corp | In-vehicle system for determining fog |
JP2007255979A (en) | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
JP2008070979A (en) | 2006-09-12 | 2008-03-27 | Denso Corp | Onboard fog decision unit |
WO2010029707A3 (en) | 2008-09-12 | 2010-05-06 | 株式会社 東芝 | Image projection system and image projection method |
JP2016522886A (en) | 2013-04-11 | 2016-08-04 | グーグル インコーポレイテッド | Method and system for detecting weather conditions using in-vehicle sensors |
JP2017062539A (en) | 2015-09-24 | 2017-03-30 | 三菱自動車工業株式会社 | Travel control device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11223674A (en) * | 1998-02-06 | 1999-08-17 | Honda Motor Co Ltd | Weather condition detecting system |
JP6988190B2 (en) * | 2017-06-20 | 2022-01-05 | 凸版印刷株式会社 | Films for packaging materials, and packaging materials and packaging materials using them. |
-
2018
- 2018-09-28 JP JP2018183949A patent/JP7210208B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005174059A (en) | 2003-12-12 | 2005-06-30 | Matsushita Electric Ind Co Ltd | Navigation information providing system |
JP2007057331A (en) | 2005-08-23 | 2007-03-08 | Denso Corp | In-vehicle system for determining fog |
JP2007255979A (en) | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
JP2008070979A (en) | 2006-09-12 | 2008-03-27 | Denso Corp | Onboard fog decision unit |
WO2010029707A3 (en) | 2008-09-12 | 2010-05-06 | 株式会社 東芝 | Image projection system and image projection method |
JP2016522886A (en) | 2013-04-11 | 2016-08-04 | グーグル インコーポレイテッド | Method and system for detecting weather conditions using in-vehicle sensors |
JP2017062539A (en) | 2015-09-24 | 2017-03-30 | 三菱自動車工業株式会社 | Travel control device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7595465B2 (en) | 2019-02-08 | 2024-12-06 | 株式会社Ihi | Learning device and boiler control system |
Also Published As
Publication number | Publication date |
---|---|
JP2020052909A (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9827956B2 (en) | Method and device for detecting a braking situation | |
US8988276B2 (en) | Vehicle surroundings monitoring device | |
US9323992B2 (en) | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications | |
US10569768B2 (en) | Information processing apparatus, information processing method, and non-transitory recording medium | |
US20090122136A1 (en) | Object detection device | |
US20080007429A1 (en) | Visibility condition determining device for vehicle | |
US10423841B2 (en) | Abnormality detection device and abnormality detection method | |
US20190171224A1 (en) | Method and Device for Self-Positioning a Vehicle | |
US10229505B2 (en) | Motion determination system and method thereof | |
US11738747B2 (en) | Server device and vehicle | |
JP2017005678A (en) | On-vehicle camera system and image processing apparatus | |
CN113012445A (en) | Intelligent traffic control system and control method thereof | |
JP2011118482A (en) | In-vehicle device and recognition support system | |
CN108859952B (en) | Vehicle lane change early warning method and device and radar | |
JP7210208B2 (en) | Providing device | |
US11423661B2 (en) | Object recognition apparatus | |
JPWO2010050095A1 (en) | Headlight control device | |
US20210097324A1 (en) | APPARATUS AND METHOD FOR DETECTING TILT OF LiDAR APPARATUS MOUNTED TO VEHICLE | |
JP2019146012A (en) | Imaging apparatus | |
JP2008056163A (en) | Obstacle detecting device for vehicle | |
JP6500607B2 (en) | Vehicle position determination device and vehicle position determination method | |
KR102298869B1 (en) | Apparatus for preventing car collision and method thereof | |
US20200393264A1 (en) | Information display device, control method, and storage medium | |
US20220082407A1 (en) | Map system, map generating program, storage medium, on-vehicle apparatus, and server | |
US20220036730A1 (en) | Dangerous driving detection device, dangerous driving detection system, dangerous driving detection method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20181030 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20181030 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210906 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20211018 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211115 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7210208 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |