[go: up one dir, main page]

JP7210208B2 - Providing device - Google Patents

Providing device Download PDF

Info

Publication number
JP7210208B2
JP7210208B2 JP2018183949A JP2018183949A JP7210208B2 JP 7210208 B2 JP7210208 B2 JP 7210208B2 JP 2018183949 A JP2018183949 A JP 2018183949A JP 2018183949 A JP2018183949 A JP 2018183949A JP 7210208 B2 JP7210208 B2 JP 7210208B2
Authority
JP
Japan
Prior art keywords
vehicle
sensors
weather condition
weather
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018183949A
Other languages
Japanese (ja)
Other versions
JP2020052909A (en
Inventor
裕一 杉山
幸太郎 石本
利裕 松元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Japan Automobile Research Institute Inc
Original Assignee
Denso Corp
Japan Automobile Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Japan Automobile Research Institute Inc filed Critical Denso Corp
Priority to JP2018183949A priority Critical patent/JP7210208B2/en
Publication of JP2020052909A publication Critical patent/JP2020052909A/en
Application granted granted Critical
Publication of JP7210208B2 publication Critical patent/JP7210208B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、提供装置および提供方法に関する。 The present invention relates to a provision device and a provision method.

従来、例えば、物標等といった周囲の状況をセンサで検出し、検出結果に基づいた車両制御を実行したり、検出した物標を運転者へ通知したりする等の技術がある。上記のセンサの例として、カメラ、レーダおよびライダー(LiDAR:Laser Imaging Detection and Ranging)等がある。 2. Description of the Related Art Conventionally, for example, there are techniques for detecting surrounding conditions such as a target with a sensor, executing vehicle control based on the detection result, and notifying the driver of the detected target. Examples of such sensors include cameras, radars and lidars (LiDAR: Laser Imaging Detection and Ranging).

特開2017-159789号公報JP 2017-159789 A

ところで、上記したセンサは、天候の影響を受けて検出結果の精度が低下するおそれがある。また、上記したセンサを搭載していない車両の運転者にとっては、天候が急変した場合に、かかる急変に即座に対応することは容易ではない。 By the way, the above-described sensor may be affected by the weather and the accuracy of the detection result may be deteriorated. In addition, it is not easy for the driver of a vehicle not equipped with the above-described sensor to immediately respond to a sudden change in weather.

本発明は、上記に鑑みてなされたものであって、高精度に天候を検出するとともに、周囲に注意を促すことができる提供装置および提供方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above, and an object of the present invention is to provide a provision device and a provision method capable of detecting the weather with high precision and alerting the surroundings.

上述した課題を解決し、目的を達成するために、本発明に係る提供装置は、センサ検出結果取得部と、天候状況判定部と、提供部とを備える。前記センサ検出結果取得部は、周囲の状況を検出する複数のセンサの検出結果を取得する。前記天候状況判定部は、前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する。前記提供部は、前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する。 In order to solve the above-described problems and achieve the object, the provision device according to the present invention includes a sensor detection result acquisition section, a weather condition determination section, and a provision section. The sensor detection result acquisition unit acquires detection results of a plurality of sensors that detect surrounding conditions. The weather condition determination unit determines weather conditions based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit. The providing unit provides the weather condition information, which is information about the weather condition determined by the weather condition determining unit, to the outside.

本発明によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。 ADVANTAGE OF THE INVENTION According to this invention, while detecting a weather with high precision, it can call attention to surroundings.

図1は、実施形態に係る提供方法の概要を示す図である。FIG. 1 is a diagram showing an overview of a provision method according to an embodiment. 図2は、実施形態に係る提供装置を備えた車両の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a vehicle provided with the provision device according to the embodiment. 図3は、重み情報の一例を示す図である。FIG. 3 is a diagram showing an example of weight information. 図4は、判定部による白線検出を用いた天候検出の処理内容を示す図である。FIG. 4 is a diagram showing details of processing of weather detection using white line detection by the determination unit. 図5は、実施形態に係る提供装置が実行する処理の処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure of processing executed by the providing apparatus according to the embodiment;

以下、添付図面を参照して、本願の開示する提供装置および提供方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the provision device and the provision method disclosed in the present application will be described in detail with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment.

まず、図1を用いて、実施形態に係る提供方法の概要について説明する。図1は、実施形態に係る提供方法の概要を示す図である。図1では、実施形態に係る提供装置1は、車両Cに搭載され、実施形態に係る提供方法を実行する。なお、提供装置1の搭載対象は、車両に限らず、バイクや、自転車、船舶、航空機等といった他の移動体であってもよい。あるいは、提供装置1は、移動体に限らず、例えば、街灯や道路側方物(ガードレールや、信号機等)といった静止物に搭載されてもよい。 First, with reference to FIG. 1, an overview of the provision method according to the embodiment will be described. FIG. 1 is a diagram showing an overview of a provision method according to an embodiment. In FIG. 1, the provision device 1 according to the embodiment is mounted on a vehicle C and executes the provision method according to the embodiment. It should be noted that the provision device 1 is not limited to vehicles, and may be other moving objects such as motorcycles, bicycles, ships, and aircraft. Alternatively, the providing device 1 may be mounted on a stationary object such as a streetlight or a roadside object (guardrail, traffic light, etc.), not limited to a mobile object.

また、車両Cは、周囲の状況を検出する複数のセンサの検出結果を総合して周囲に存在する物標を検出する物標検出装置(図示せず)を備えていることとする。なお、複数のセンサには、例えば、カメラ、レーダおよびLiDAR(Laser Imaging Detection and Ranging)等がある。 The vehicle C is also equipped with a target detection device (not shown) that integrates the detection results of a plurality of sensors for detecting surrounding conditions and detects targets existing in the surroundings. Note that the plurality of sensors include, for example, cameras, radar, and LiDAR (Laser Imaging Detection and Ranging).

また、図1では、実施形態に係る提供装置1は、車両Cの前方に発生した濃霧を検出し、検出した濃霧に対する注意喚起の情報である天候状況情報を外部へ提供する提供方法について説明する。 In addition, in FIG. 1, the providing device 1 according to the embodiment detects dense fog that has occurred in front of the vehicle C, and provides a providing method for providing weather condition information, which is information calling attention to the detected dense fog, to the outside. .

具体的には、実施形態に係る提供装置1は、まず、上記した複数のセンサの検出結果を取得する(ステップS1)。つづいて、提供装置1は、取得した複数のセンサの検出結果に基づいて車両Cの周囲で発生する天候状況を判定する(ステップS2)。 Specifically, the provision device 1 according to the embodiment first acquires the detection results of the plurality of sensors described above (step S1). Subsequently, the providing device 1 determines weather conditions occurring around the vehicle C based on the detection results of the plurality of acquired sensors (step S2).

なお、ここでいう天候とは、濃霧や、雨、雪等といった悪天候を指す。換言すれば、提供装置1が検出する天候とは、上記したセンサの検出結果の精度を低下させる天候である。なお、天候は、昼と夜とで区別されてもよい。すなわち、提供装置1は、昼の雨および夜の雨等のように、雨という天候を昼と夜とに細分化された天候状況を判定してもよい。 The weather here refers to bad weather such as heavy fog, rain, and snow. In other words, the weather detected by the provision device 1 is weather that lowers the accuracy of the detection result of the sensor described above. Note that the weather may be distinguished between daytime and nighttime. That is, the providing apparatus 1 may determine the weather conditions by subdividing the rain weather into day and night, such as daytime rain and nighttime rain.

このように、実施形態に係る提供装置1は、本来、物標の検出に用いるセンサの検出結果を利用して天候状況を判定する。なお、詳細な天候状況の判定方法については後述する。 In this way, the provision device 1 according to the embodiment originally determines the weather conditions using the detection results of the sensors used for target detection. A detailed weather condition determination method will be described later.

つづいて、実施形態に係る提供装置1は、判定した天候状況に関する天候状況情報を道路管理者が扱う道路管理端末(道路管理サーバSV)または周辺車両OC1に搭載された車載機へ提供する(ステップS3-1,S3-2)。 Subsequently, the provision device 1 according to the embodiment provides the determined weather condition information about the weather condition to the road management terminal (road management server SV) handled by the road administrator or the in-vehicle device mounted on the peripheral vehicle OC1 (step S3-1, S3-2).

具体的には、実施形態に係る提供装置1は、車両Cが走行する道路を管理する道路管理端末に対して、例えば、天候コード等の天候状況を示す情報、車両Cの位置および現在時刻等を含む天候状況情報を提供する(ステップS2-1)。 Specifically, the provision device 1 according to the embodiment sends information indicating weather conditions such as weather codes, the position of the vehicle C, the current time, etc. to the road management terminal that manages the road on which the vehicle C travels. (step S2-1).

これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に「この先濃霧注意!」等といった注意喚起の表示を行うことができる。そして、かかる表示を見た後方の周辺車両OC2の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。 As a result, for example, the road administrator can display a warning such as "Watch out for heavy fog ahead!" Then, the driver of the surrounding vehicle OC2 behind who sees such a display can prepare for the dense fog in advance, so that he/she can deal with the dense fog that has occurred without hesitation.

また、実施形態に係る提供装置1は、上記した物標検出装置が用いる複数のセンサそれぞれの検出結果に付与する重みを、判定した天候に応じて変更するとともに、車両Cの後方を走行する周辺車両OC1の物標検出装置に対して、かかる重みに関する情報(以下、重み情報と記載する場合がある)を含む天候状況情報(出願時削除※以下は、赤字下線を省略しています。)を提供する(ステップS2-2)。 Further, the provision device 1 according to the embodiment changes the weight given to the detection result of each of the plurality of sensors used by the above-described target object detection device according to the determined weather, and Weather condition information (deleted at the time of application *The red underline is omitted below.) including information on the weight (hereinafter sometimes referred to as weight information) to the target detection device of the vehicle OC1. provided (step S2-2).

これにより、例えば、周辺車両OC1に搭載された物標検出装置において、複数のセンサそれぞれの検出結果の重みを天候に合わせて変更できる。例えば、濃霧の場合には、カメラの検出結果の重みを軽くし、レーダ装置の検出結果の重みを重くする。従って、周辺車両OC1が濃霧に進入した場合であっても、濃霧に合わせて最適な重みを付与して物標検出を行うことができるため、濃霧により物標検出の精度が低下することを防ぐことができる。 Thereby, for example, in the target object detection device mounted on the surrounding vehicle OC1, the weight of each detection result of the plurality of sensors can be changed according to the weather. For example, in the case of dense fog, the weight of the detection result of the camera is lightened, and the weight of the detection result of the radar device is weighted. Therefore, even if the surrounding vehicle OC1 enters into thick fog, it is possible to detect the target object by assigning an optimum weight according to the thick fog. be able to.

なお、周辺車両OC1が物標検出装置を備えない場合、実施形態に係る提供装置1は、重み情報に代えて、濃霧の発生を示す天候状況情報を周辺車両OC1のナビゲーション装置等へ提供することもできる。これにより、周辺車両OC1の運転者は、予め濃霧に対する準備を行うことができるため、発生した濃霧に対して戸惑うことなく対応することができる。 Note that if the surrounding vehicle OC1 does not have a target object detection device, the providing device 1 according to the embodiment provides weather condition information indicating the occurrence of dense fog to the navigation device or the like of the surrounding vehicle OC1 instead of the weight information. can also As a result, the driver of the surrounding vehicle OC1 can prepare for the dense fog in advance, and can deal with the dense fog that has occurred without being confused.

上述したように、実施形態に係る提供方法では、複数のセンサの検出結果を用いて天候状況を判定し、天候状況情報を外部へ提供する。従って、実施形態に係る提供方法によれば、高精度に天候を検出するとともに、周囲に注意を促すことができる。 As described above, in the provision method according to the embodiment, the weather conditions are determined using the detection results of a plurality of sensors, and the weather condition information is provided to the outside. Therefore, according to the provision method according to the embodiment, it is possible to detect the weather with high precision and to call attention to the surroundings.

次に、図2を参照して、実施形態に係る提供装置1の構成について詳細に説明する。図2は、実施形態に係る提供装置1を備えた車両Cの構成を示すブロック図である。図2に示すように、実施形態に係る車両Cは、提供装置1と、物標検出装置100とを備える。提供装置1および物標検出装置100は、所定の車内ネットワークによって通信可能に接続され、互いに情報の送受信を行うことができる。なお、図2では、物標検出装置100と提供装置1とが別体で構成される場合を示したが、物標検出装置100と提供装置1とが一体的に1つの装置として構成されてもよい。 Next, the configuration of the provision device 1 according to the embodiment will be described in detail with reference to FIG. FIG. 2 is a block diagram showing the configuration of a vehicle C equipped with the provision device 1 according to the embodiment. As shown in FIG. 2, the vehicle C according to the embodiment includes a providing device 1 and a target detection device 100. As shown in FIG. The providing device 1 and the target detection device 100 are communicably connected via a predetermined in-vehicle network, and can transmit and receive information to and from each other. Note that FIG. 2 shows a case where the target detection device 100 and the provision device 1 are configured separately, but the target detection device 100 and the provision device 1 are integrally configured as one device. good too.

物標検出装置100は、複数のセンサである、カメラ10、レーダ装置11およびLiDAR12を備える。カメラ10は、車両Cの外部状況を撮像する撮像装置である。カメラ10は、例えば、車両Cのフロントガラスに設けられ、車両Cの前方を撮像する。なお、カメラ10は、車両Cの左右側面を撮像する位置および車両Cの後方を撮像する位置に設けられていてもよい。物標検出装置100は、カメラ10の画像を解析することで、車両Cの周囲に存在する物標を検出する。 The target detection device 100 includes a camera 10, a radar device 11 and a LiDAR 12, which are multiple sensors. The camera 10 is an imaging device that captures an image of the external situation of the vehicle C. As shown in FIG. The camera 10 is provided in the windshield of the vehicle C, for example, and images the front of the vehicle C. As shown in FIG. In addition, the camera 10 may be provided at a position for imaging the left and right sides of the vehicle C and a position for imaging the rear of the vehicle C. As shown in FIG. The target detection device 100 detects targets existing around the vehicle C by analyzing the image of the camera 10 .

レーダ装置11は、ミリ波等の電波を利用して車両Cの周辺の物標を検出する。具体的には、レーダ装置11は、電波を車両Cの周辺に送信し、物標で反射した反射波を受信することで物標を検出する。 The radar device 11 detects targets around the vehicle C using radio waves such as millimeter waves. Specifically, the radar device 11 detects a target by transmitting radio waves to the vicinity of the vehicle C and receiving reflected waves reflected by the target.

LiDAR12は、レーザー光を利用して車両Cの周囲の物標を検出する。具体的には、LiDAR12は、レーザー光を車両Cの周辺に送信し、物標で反射された反射光を受信することで物標を検出する。 The LiDAR 12 detects targets around the vehicle C using laser light. Specifically, the LiDAR 12 detects the target by transmitting laser light around the vehicle C and receiving reflected light reflected by the target.

物標検出装置100は、カメラ10、レーダ装置11およびLiDAR12それぞれの検出結果を総合して最終的な物標を検出する。具体的には、物標検出装置100は、各センサの検出結果に所定の重みを付与した結果に基づいて最終的な物標を検出する。なお、かかる重みは、提供装置1により提供されるが、詳細については後述する。 The target detection device 100 integrates detection results of the camera 10, the radar device 11 and the LiDAR 12 to finally detect the target. Specifically, the target detection device 100 detects the final target based on the result of assigning a predetermined weight to the detection result of each sensor. Such weights are provided by the providing device 1, and the details will be described later.

実施形態に係る提供装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部20(センサ検出結果取得部の一例)、判定部21(天候状況判定部の一例)、決定部22および提供部23を備える。記憶部3は、重み情報31を記憶する。 A provision device 1 according to the embodiment includes a control unit 2 and a storage unit 3 . The control unit 2 includes an acquisition unit 20 (an example of a sensor detection result acquisition unit), a determination unit 21 (an example of a weather condition determination unit), a determination unit 22 and a provision unit 23 . The storage unit 3 stores weight information 31 .

ここで、提供装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。 Here, the providing device 1 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a data flash, an input/output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部20、判定部21、決定部22および提供部23として機能する。 The CPU of the computer functions as an acquisition unit 20, a determination unit 21, a determination unit 22, and a provision unit 23 of the control unit 2 by reading and executing programs stored in the ROM, for example.

また、制御部2の取得部20、判定部21、決定部22および提供部23の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 Further, at least one or all of the acquisition unit 20, the determination unit 21, the determination unit 22, and the provision unit 23 of the control unit 2 are implemented by hardware such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array). Can also be configured.

また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、重み情報31や、各種プログラムの情報等を記憶することができる。なお、提供装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Also, the storage unit 3 corresponds to, for example, a RAM or a data flash. The RAM and data flash can store the weight information 31, various program information, and the like. Note that the providing apparatus 1 may acquire the above-described programs and various types of information via another computer or portable recording medium connected via a wired or wireless network.

重み情報31は、物標検出装置100の物標検出処理に用いる重みに関する情報である。重み情報31には、複数のセンサそれぞれに割り当てられた重みに関する情報が含まれる。図3は、重み情報31の一例を示す図である。 The weight information 31 is information about weights used in target detection processing of the target detection device 100 . The weight information 31 includes information on weights assigned to each of a plurality of sensors. FIG. 3 is a diagram showing an example of the weight information 31. As shown in FIG.

図3に示すように、重み情報31は、「センサID」、「センサ名」および「重み」といった項目が対応付けられる。「センサID」は、各センサを識別する識別情報である。「センサ名」は、センサの名称である。「重み」は、物標検出処理の際にセンサの検出結果に付与する重みを示す情報である。「重み」は、後述の提供部23によって、天候に応じて決定された重みが入力される。 As shown in FIG. 3, the weight information 31 is associated with items such as "sensor ID", "sensor name", and "weight". “Sensor ID” is identification information for identifying each sensor. "Sensor name" is the name of the sensor. "Weight" is information indicating the weight given to the detection result of the sensor during target detection processing. As for the "weight", the weight determined according to the weather is input by the provision unit 23, which will be described later.

なお、図3では、それぞれのセンサが1つの場合について示したが、例えば、同じセンサ名のセンサが複数搭載される場合には、各センサにセンサIDが割り当てられてもよい。つまり、複数のカメラが搭載される場合、複数のカメラそれぞれにセンサIDおよび重みが割り当てられてもよい。 Note that FIG. 3 shows the case where each sensor is one, but when multiple sensors with the same sensor name are mounted, for example, a sensor ID may be assigned to each sensor. That is, when multiple cameras are mounted, each of the multiple cameras may be assigned a sensor ID and a weight.

制御部2は、周囲の状況を検出する複数のセンサ(例えば、カメラ10、レーダ装置11およびLiDAR12)の検出結果に基づいて天候状況を判定し、判定した天候状況に関する情報である天候状況情報を提供する。 The control unit 2 determines the weather conditions based on the detection results of a plurality of sensors (for example, the camera 10, the radar device 11, and the LiDAR 12) that detect the surrounding conditions, and outputs weather condition information, which is information about the determined weather conditions. offer.

取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。例えば、取得部20は、カメラ10、レーダ装置11およびLiDAR12それぞれから検出結果を取得する。検出結果は、例えば、物標に関する情報(物標の有無、相対速度や位置等の情報)であってもよく、あるいは、カメラ10の画像等のような物標検出に用いられる元データであってもよい。 Acquisition unit 20 acquires detection results of a plurality of sensors that detect surrounding conditions. For example, the acquisition unit 20 acquires detection results from the camera 10, the radar device 11, and the LiDAR 12, respectively. The detection result may be, for example, information on the target (information on the presence or absence of the target, relative speed, position, etc.), or original data used for target detection, such as the image of the camera 10. may

判定部21(出願時削除※以下は、赤字下線を省略しています。)は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。具体的には、判定部21は、複数のセンサそれぞれで検出された物標の検出結果に基づいて天候状況を判定する。 The determination unit 21 (deleted at the time of filing * red underlines are omitted below) determines the weather conditions based on the detection results of the plurality of sensors acquired by the acquisition unit 20 . Specifically, the determination unit 21 determines the weather conditions based on the target detection results detected by each of the plurality of sensors.

例えば、判定部21は、同一の物標について、カメラ10の画像およびLiDAR12からは物標が検出されず、レーダ装置11からは物標が検出された場合、天候状況が悪天候であることと判定する。かかる場合、さらに、判定部21は、例えば、カメラ10のレンズに付着した付着物に基づいて悪天候の種別を判別する。 For example, for the same target, if the target is not detected by the image of the camera 10 and the LiDAR 12 but is detected by the radar device 11, the determination unit 21 determines that the weather conditions are bad. do. In such a case, the determination unit 21 further determines the type of bad weather based on, for example, deposits adhering to the lens of the camera 10 .

すなわち、判定部21は、カメラ10の画像に基づいてレンズに雨滴が付着していた場合、かかる悪天候は雨であると判定する。また、判定部21は、カメラ10の画像に基づいてカメラ10のレンズが雪埋もれであることを検出した場合、悪天候は雪であると判定する。そして、判定部21は、レンズに付着物が付着していない、または、霧状の水滴が付着していた場合、悪天候が濃霧であると判定する。 That is, when raindrops adhere to the lens based on the image of the camera 10, the determination unit 21 determines that the bad weather is rain. Further, when the determination unit 21 detects that the lens of the camera 10 is buried in snow based on the image of the camera 10, the determination unit 21 determines that the bad weather is snow. Then, the determining unit 21 determines that the bad weather is dense fog when there is no attached matter on the lens or when fog-like water droplets are attached to the lens.

なお、判定部21は、カメラ10、レーダ装置11およびLiDAR12それぞれで同一の物標が検出された場合、天候状況が晴れであると判定する。このように、物標の検出結果に基づいて天候状況を判定することで、精度良く天候を検出することができる。 Note that the determination unit 21 determines that the weather condition is fine when the same target is detected by the camera 10, the radar device 11, and the LiDAR 12 respectively. Thus, by determining the weather conditions based on the target detection results, it is possible to accurately detect the weather.

また、判定部21は、物標として例えば、白線等の車両Cが走行する道路を区画する区画線の検出結果に基づいて天候状況を判定することができる。かかる点について、図4を用いて説明する。 In addition, the determination unit 21 can determine the weather conditions based on the detection result of marking lines, such as white lines, that mark the road on which the vehicle C travels as targets. This point will be described with reference to FIG.

図4は、判定部21による白線検出を用いた天候状況判定の処理内容を示す図である。図4では、車両Cが直進走行(操舵角が略ゼロ)する道路の左右を区画する実線の区画線Lを示している。なお、区画線Lは、実線に限らず、破線等の断続的な区画線であってもよい。また、区画線Lは、白線であってもよく、黄線であってもよい。また、図4では、区画線Lの白線(あるいは黄線)の劣化度合いが等しく、区画線Lのかすれや汚れは同一であることとする。 FIG. 4 is a diagram showing details of weather condition determination processing by the determination unit 21 using white line detection. In FIG. 4, a solid line marking line L that divides the left and right sides of the road on which the vehicle C travels straight (the steering angle is substantially zero) is shown. Note that the demarcation line L is not limited to a solid line, and may be an intermittent demarcation line such as a broken line. Also, the demarcation line L may be a white line or a yellow line. Also, in FIG. 4, it is assumed that the degree of deterioration of the white lines (or yellow lines) of the demarcation lines L is the same, and that the demarcation lines L are the same in blurring and staining.

なお、区画線Lの存在は、各センサの検知データに基づく画像認識処理や、ナビゲーション装置の地図データ(地図データに含まれる区画線データ)と自車位置データによる区画線位置判定処理等により判定できる。 The existence of the lane marking L is determined by image recognition processing based on the detection data of each sensor, and lane marking position determination processing based on the map data of the navigation device (the lane marking data included in the map data) and the vehicle position data. can.

図4に示すように、判定部21は、まず、複数のセンサそれぞれで検出された区画線Lの検出結果を取得する。つづいて、判定部21は、複数のセンサそれぞれで検出された区画線Lに基づいて天候状況を判定する。 As shown in FIG. 4, the determination unit 21 first acquires the detection results of the lane marking L detected by each of the plurality of sensors. Subsequently, the determination unit 21 determines weather conditions based on the lane markings L detected by each of the plurality of sensors.

具体的には、図4に示すように、判定部21は、複数のセンサそれぞれについて、車両Cから所定距離以上である遠距離に存在する区画線Lと、車両Cから所定距離未満である近距離に存在する区画線Lとの検出結果を比較した結果に基づいて天候を検出する。 Specifically, as shown in FIG. 4 , the determination unit 21 determines a lane marking L that exists at a distance of at least a predetermined distance from the vehicle C and a lane line L that exists at a distance of less than a predetermined distance from the vehicle C for each of the plurality of sensors. The weather is detected based on the result of comparing the detection result with the division line L existing in the distance.

例えば、判定部21は、カメラ10およびLiDAR12については近距離の区画線Lのみ検出、あるいは、遠距離の区画線Lの検出精度が所定の閾値以下で著しく低い、一方で、レーダ装置11については近距離および遠距離双方の区画線Lが検出された場合、天候状況が濃霧であると判定する。これは、濃霧が発生した場合、遠距離の視認性が低下することを利用した判定方法である。このような判定方法により、濃霧を精度良く判定することができる。 For example, for the camera 10 and the LiDAR 12, the determination unit 21 detects only the marking line L at a short distance, or the detection accuracy of the marking line L at a long distance is a predetermined threshold or less and is extremely low. When both the near-distance and long-distance lane markings L are detected, it is determined that the weather condition is heavy fog. This is a determination method that utilizes the fact that long-distance visibility is reduced when dense fog occurs. With such a determination method, dense fog can be determined with high accuracy.

なお、区画線Lの検出精度は、区画線の画像処理で得られるエッジ(コントラストが急変する部分(物体境界における画像の区切れ部分))の連続性(区画線存在位置におけるエッジ直線の長さ:直線路の区画線の場合、精度が高いと長い直線となり、精度が低いと細かく分断された直線となる)やエッジ強度(コントラスト強度)の変化(直線路の区画線の場合、精度が高いとエッジ強度が高く安定した直線となり、精度が低いとエッジ強度が低く不安定な直線となる)、等により検出できる。 Note that the detection accuracy of the marking line L is determined by the continuity of the edge (the part where the contrast suddenly changes (the part where the image is separated at the object boundary) obtained by the image processing of the marking line (the length of the edge straight line at the position where the marking line exists) : In the case of straight lane markings, if the accuracy is high, the straight line will be long, and if the accuracy is low, the straight line will be finely divided) and changes in edge strength (contrast intensity) (In the case of straight lane markings, the accuracy is high If the accuracy is low, the edge strength becomes a stable straight line, and if the accuracy is low, the edge strength becomes an unstable straight line).

また、例えば、判定部21は、カメラ10およびLiDAR12について近距離の区画線Lの認識精度よりも遠距離の区画線Lの認識精度が低く、一方で、レーダ装置11について近距離および遠距離双方の区画線Lの認識精度が同程度である場合、天候状況が雨であると判定する。これは、雨が降っている場合、濃霧のように遠距離の区画線Lが検出できない状況とは異なり、遠距離の区画線Lについてもある程度は検出できることを利用した判定方法である。このような判定方法により、雨を精度良く検出することができる。 Further, for example, the determination unit 21 has a lower recognition accuracy for the long-distance lane marking L than for the short-range lane marking L for the camera 10 and the LiDAR 12, and on the other hand, the radar device 11 has a low recognition accuracy for both the short-range and long-range lane markings. If the recognition accuracies of the lane markings L are the same, it is determined that the weather condition is rainy. This is a determination method that utilizes the fact that when it is raining, even the long-distance lane L can be detected to some extent, unlike the situation where the long-distance lane L can not be detected, such as heavy fog. With such a determination method, rain can be detected with high accuracy.

また、例えば、判定部21は、カメラ10について近距離および遠距離双方の区画線Lが検出されず、レーダ装置11およびLiDAR12について近距離および遠距離双方の区画線Lが検出された場合、天候状況は晴れでかつ逆光である、あるいは夜であることを判定する。なお、晴れの逆光か夜かは、時刻情報を取得することで判別可能である。これは、逆光や夜では、カメラ10の画像が白または黒の画像となってしまい、物標を検出できないことを利用した判定方法である。これにより、晴れの逆光および夜を精度良く検出することができる。 Further, for example, when both the near-distance and long-distance lane markings L are not detected for the camera 10 and both the near-distance and long-distance lane markings L are detected for the radar device 11 and the LiDAR 12, the determination unit 21 determines that the weather It is determined that the situation is sunny and backlit, or that it is night. It should be noted that whether the backlight is sunny or night can be determined by acquiring the time information. This is a determination method that utilizes the fact that the image captured by the camera 10 becomes a white or black image under backlight or at night, making it impossible to detect a target. As a result, it is possible to accurately detect sunny backlight and night.

このような天候判別は各センサの出力状態と天候の関係を示すテーブルを用いた処理により実現することができ、また天候の判別種別は提供する天候情報種別や天候情報を用いる処理装置等に応じて設定すれば良い。 Such weather discrimination can be realized by processing using a table showing the relationship between the output state of each sensor and the weather. should be set.

なお、判定部21は、例えば、夜の場合には、車両Cのライトが点灯するため、かかるライトによる影響を加味して上記の判定方法を実行することが好ましい。このように、複数のセンサそれぞれの検出結果について、近距離の区画線Lと遠距離の区画線Lとの検出結果を比較することで、天候状況を精度良く判定することができる。 In addition, since the lights of the vehicle C are turned on at night, for example, the determination unit 21 preferably executes the above determination method taking into consideration the influence of such lights. In this manner, the weather conditions can be accurately determined by comparing the detection results of the near-distance marking line L and the long-distance marking line L with respect to the detection results of each of the plurality of sensors.

また、図4では、区画線Lの検出結果を2種類(近距離および遠距離)に分けて比較したが、所定距離毎に分ける、つまり、検出結果を3種類以上に分けて比較してもよい。 In FIG. 4, the detection results of the marking line L are divided into two types (short range and long range) and compared. good.

図2に戻って決定部22について説明する。決定部22は、判定部21によって判定された天候状況に基づいて物標検出装置100の物標検出処理における複数のセンサそれぞれに割り当てる重みを決定する。 Returning to FIG. 2, the determination unit 22 will be described. The determination unit 22 determines weights to be assigned to each of the plurality of sensors in the target detection process of the target detection device 100 based on the weather conditions determined by the determination unit 21 .

例えば、決定部22は、判定部21によって濃霧が判定された場合、物標検出処理におけるカメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、濃霧が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。 For example, when the determination unit 21 determines that there is dense fog, the determination unit 22 weights the detection results of the camera 10 and the LiDAR 12 less than the weight of the detection results of the radar device 11 in the target detection process. As a result, when dense fog occurs, the detection results of the radar device 11 are more important than the detection results of the camera 10 and the LiDAR 12, so target detection accuracy can be prevented from deteriorating.

また、決定部22は、判定部21によって雨または雪が判定された場合、カメラ10およびLiDAR12の検出結果の重みをレーダ装置11の検出結果の重みよりも軽くする。これにより、雨または雪が発生時には、レーダ装置11の検出結果をカメラ10およびLiDAR12の検出結果よりも重視した物標検出処理を行うため、物標の検出精度が低下することを防ぐことができる。 Further, when the determination unit 21 determines rain or snow, the determination unit 22 weights the detection result of the camera 10 and the LiDAR 12 less than the weight of the detection result of the radar device 11 . As a result, when it rains or snows, target detection processing is performed with more emphasis placed on the detection results of the radar device 11 than the detection results of the camera 10 and the LiDAR 12, so that the target detection accuracy can be prevented from deteriorating.

決定部22は、決定した各センサの重みに関する情報を重み情報31として記憶部3に記憶するとともに、かかる重みに関する情報を提供部23へ出力する。 The determination unit 22 stores the determined information regarding the weight of each sensor as the weight information 31 in the storage unit 3 and outputs the information regarding the weight to the providing unit 23 .

提供部23は、判定部21によって検出された天候状況に関する天候状況情報天候状況情報を外部へ提供する。 The provision unit 23 provides the weather condition information weather condition information regarding the weather conditions detected by the determination unit 21 to the outside.

例えば、提供部23は、車両Cの周辺に存在する周辺車両OC1へ天候状況情報を提供する。具体的には、提供部23は、車両Cがいる位置(悪天候発生位置)をこれから通過する予定の周辺車両OC1へ天候状況情報を提供する。 For example, the providing unit 23 provides the surrounding vehicle OC1 existing around the vehicle C with the weather condition information. Specifically, the providing unit 23 provides the weather condition information to the surrounding vehicle OC1 that is scheduled to pass through the position where the vehicle C is present (position where bad weather occurs).

なお、かかる場合の天候状況情報は、周辺車両OC1が物標検出装置101を搭載しているか否かで内容を変えることが好ましい。具体的には、周辺車両OC1が物標検出装置101を搭載している場合、提供部23は、決定部22によって決定された重み情報31を含む天候状況情報を周辺車両OC1へ提供する。 In addition, it is preferable that the content of the weather condition information in such a case be changed depending on whether the surrounding vehicle OC1 is equipped with the target object detection device 101 or not. Specifically, when the surrounding vehicle OC1 is equipped with the target detection device 101, the providing unit 23 provides weather condition information including the weight information 31 determined by the determining unit 22 to the surrounding vehicle OC1.

これにより、周辺車両OC1の物標検出装置101は、予め濃霧に対応した重みに設定変更できるため、濃霧進入時において物標の検出精度が低下することを防止できる。 As a result, the target detection device 101 of the surrounding vehicle OC1 can be changed in advance to a weight corresponding to dense fog, so that it is possible to prevent the target detection accuracy from deteriorating when the vehicle enters dense fog.

なお、提供部23は、周辺車両OC1へ重み情報31を提供する場合に限らず、例えば、悪天候を検出した際の各センサの検出結果をそのまま天候状況情報として提供してもよい。かかる場合、周辺車両OC1の物標検出装置101は、天候状況情報に含まれる各センサの検出結果に基づいて、自己のセンサそれぞれに割り当てる重みを決定することができる。 The providing unit 23 is not limited to providing the weight information 31 to the surrounding vehicle OC1. For example, the detection result of each sensor when bad weather is detected may be provided as the weather condition information. In such a case, the target detection device 101 of the surrounding vehicle OC1 can determine the weight to be assigned to each of its own sensors based on the detection results of each sensor included in the weather condition information.

一方、周辺車両OC1が物標検出装置101を搭載していない場合、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、天候状況情報を受信した周辺車両OC1の運転者は、予め悪天候に対する準備を行うことができるため、悪天候の発生に戸惑うことなく対応することができる。 On the other hand, when the surrounding vehicle OC1 is not equipped with the target object detection device 101, the provision unit 23 provides weather condition information including the type of weather (for example, heavy fog, rain, snow, etc.), the position of the vehicle C, the current time, and the like. I will provide a. As a result, the driver of the surrounding vehicle OC1 that has received the weather condition information can prepare for bad weather in advance, so that he/she can cope with the occurrence of bad weather without being confused.

また、提供部23は、周辺車両OC1以外に、例えば、車両Cが走行する道路を管理する道路管理者が扱う道路管理端末(道路管理サーバSV)へ天候状況情報を提供してもよい。具体的には、提供部23は、天候の種別(例えば、濃霧や雨、雪等)、車両Cの位置、現在時刻等を含む天候状況情報を提供する。これにより、例えば、道路管理者は、車両Cよりも後方に設置された電光掲示板等に悪天候に対する注意喚起の表示を行うことができる。 In addition to the surrounding vehicle OC1, the providing unit 23 may provide the weather condition information to, for example, a road management terminal (road management server SV) managed by a road administrator who manages the road on which the vehicle C travels. Specifically, the providing unit 23 provides weather condition information including types of weather (for example, heavy fog, rain, snow, etc.), the position of the vehicle C, the current time, and the like. As a result, for example, the road administrator can display a warning against bad weather on an electric bulletin board installed behind the vehicle C or the like.

次に、図5を用いて、実施形態に係る提供装置1が実行する処理の処理手順について説明する。図5は、実施形態に係る提供装置1が実行する処理の処理手順を示すフローチャートである。 Next, a processing procedure of processing executed by the providing apparatus 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing a processing procedure of processing executed by the providing device 1 according to the embodiment.

図5に示すように、まず、取得部20は、物標検出装置100から周囲の状況を検出する複数のセンサの検出結果を取得する(ステップS101)。つづいて、判定部21は、取得した検出結果に基づいて天候状況を判定する(ステップS102)。 As shown in FIG. 5, first, the acquisition unit 20 acquires the detection results of a plurality of sensors for detecting surrounding conditions from the target detection device 100 (step S101). Subsequently, the determination unit 21 determines weather conditions based on the acquired detection results (step S102).

つづいて、提供部23は、判定部21によって判定された天候状況が悪天候であるか否かを判定する(ステップS103)。提供部23は、判定部21によって判定された天候状況が悪天候である場合(ステップS103,Yes)、周辺車両OC1へ天候状況情報の提供を行うか否かを判定する(ステップS104)。 Subsequently, the provision unit 23 determines whether the weather condition determined by the determination unit 21 is bad weather (step S103). When the weather condition determined by the determination unit 21 is bad weather (step S103, Yes), the provision unit 23 determines whether or not to provide the surrounding vehicle OC1 with the weather condition information (step S104).

提供部23は、周辺車両OC1へ天候状況情報の提供を行う場合(ステップS104,Yes)、決定部22によって決定された各センサの重みに関する重み情報31を含む天候状況情報を周辺車両OC1へ提供する(ステップS105)。つづいて、提供部23は、天候の種別や、車両Cの位置、現在時刻等を含む天候状況情報を道路管理サーバSVへ提供し(ステップS106)、処理を終了する。 When the weather condition information is to be provided to the surrounding vehicle OC1 (step S104, Yes), the providing unit 23 provides the surrounding vehicle OC1 with the weather condition information including the weight information 31 regarding the weight of each sensor determined by the determination unit 22. (step S105). Subsequently, the providing unit 23 provides the road management server SV with weather condition information including the type of weather, the position of the vehicle C, the current time, etc. (step S106), and ends the process.

一方、ステップS103において、提供部23は、判定部21によって判定された天候状況が悪天候ではない場合(ステップS103,No)、すなわち天候が晴れである場合、外部へ天候状況情報の提供を行わず、処理を終了する。 On the other hand, in step S103, the provision unit 23 does not provide the weather condition information to the outside when the weather condition determined by the determination unit 21 is not bad weather (step S103, No), that is, when the weather is fine. , terminate the process.

また、ステップS104において、提供部23は、周辺車両OC1へ天候状況情報の提供を行わない場合(ステップS104,No)、ステップS106へ移行する。 Moreover, in step S104, when the provision part 23 does not provide weather condition information to surrounding vehicle OC1 (step S104, No), it transfers to step S106.

上述してきたように、実施形態に係る提供装置1は、取得部20と、判定部21と、提供部23とを備える。取得部20は、周囲の状況を検出する複数のセンサの検出結果を取得する。判定部21は、取得部20が取得した複数のセンサの検出結果に基づいて天候状況を判定する。提供部23は、判定部21によって判定された天候状況に関する天候状況情報を外部へ提供する。これにより、高精度に天候を検出するとともに、周囲に注意を促すことができる。 As described above, the provision device 1 according to the embodiment includes the acquisition unit 20 , the determination unit 21 and the provision unit 23 . Acquisition unit 20 acquires detection results of a plurality of sensors that detect surrounding conditions. The determination unit 21 determines weather conditions based on the detection results of the plurality of sensors acquired by the acquisition unit 20 . The provision unit 23 provides the weather condition information regarding the weather conditions determined by the determination unit 21 to the outside. As a result, the weather can be detected with high accuracy and the surroundings can be alerted.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 提供装置
2 制御部
3 記憶部
10 カメラ
11 レーダ装置
12 LiDAR
20 取得部
21 判定部
22 決定部
23 提供部
31 重み情報
100、101 物標検出装置
C 車両
L 区画線
OC1、OC2 周辺車両
1 Provision Device 2 Control Unit 3 Storage Unit 10 Camera 11 Radar Device 12 LiDAR
20 acquisition unit 21 determination unit 22 determination unit 23 provision unit 31 weight information 100, 101 target detection device C vehicle L lane marking OC1, OC2 surrounding vehicles

Claims (4)

車両に搭載される提供装置であって、
周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得部と、
前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定部と、
前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供部と
を備え
前記複数のセンサは、
前記周囲に存在する物標を検出するセンサであって、前記車両が走行する道路を区画する区画線を前記物標として検出するように構成され、
前記天候状況判定部は、
前記複数のセンサそれぞれで検出された前記物標の検出結果に基づいて前記天候状況を判定するものであって、前記複数のセンサそれぞれで検出された前記区画線に基づいて前記天候状況を判定するように構成されるとともに、
前記複数のセンサそれぞれについて、前記車両から所定距離以上である遠距離に存在する前記区画線と、前記所定距離未満である近距離に存在する前記区画線との検出結果を比較した結果に基づいて前記天候状況を判定するように構成された、
提供装置。
A providing device mounted on a vehicle,
a sensor detection result acquisition unit that acquires detection results of a plurality of sensors that detect surrounding conditions;
a weather condition determination unit that determines weather conditions based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit;
a providing unit that provides the weather condition information, which is information about the weather conditions determined by the weather condition determining unit, to the outside ;
The plurality of sensors are
A sensor for detecting targets existing in the surroundings, the sensor being configured to detect, as the target, a marking line that divides a road on which the vehicle travels,
The weather condition determination unit
The weather condition is determined based on the detection results of the target detected by each of the plurality of sensors, and the weather condition is determined based on the lane marking detected by each of the plurality of sensors. is configured as
Based on the result of comparing the detection results of the marking line that exists at a long distance of a predetermined distance or more from the vehicle and the marking line that exists at a short distance of less than the predetermined distance from the vehicle for each of the plurality of sensors. configured to determine the weather conditions;
delivery device.
前記提供部は、
前記車両の周辺に存在する周辺車両搭載の車載機、または、前記車両が走行する道路を管理する道路管理端末へ、前記天候状況情報を提供するように構成された、
請求項に記載の提供装置。
The providing unit
Configured to provide the weather condition information to an in-vehicle device mounted on a peripheral vehicle that exists in the vicinity of the vehicle, or a road management terminal that manages the road on which the vehicle travels,
2. The providing device of claim 1 .
前記提供部は、
前記複数のセンサの各センサの検出結果に付与する重みに関する重み情報を含む前記天候状況情報を前記周辺車両へ提供するように構成された、
請求項に記載の提供装置。
The providing unit
configured to provide the surrounding vehicle with the weather condition information including weight information regarding a weight assigned to the detection result of each of the plurality of sensors ;
3. A providing device according to claim 2 .
車両に搭載される提供装置であって、A providing device mounted on a vehicle,
周囲の状況を検出する複数のセンサの検出結果を取得するセンサ検出結果取得部と、 a sensor detection result acquisition unit that acquires detection results of a plurality of sensors that detect surrounding conditions;
前記センサ検出結果取得部が取得した前記複数のセンサの検出結果に基づいて天候状況を判定する天候状況判定部と、 a weather condition determination unit that determines weather conditions based on the detection results of the plurality of sensors acquired by the sensor detection result acquisition unit;
前記天候状況判定部によって判定された前記天候状況に関する情報である天候状況情報を外部へ提供する提供部と a providing unit that provides to the outside weather condition information, which is information about the weather conditions determined by the weather condition determination unit;
を備え、 with
前記複数のセンサは、 The plurality of sensors are
前記周囲に存在する物標を検出するセンサであって、前記車両が走行する道路を区画する区画線を前記物標として検出するように構成され、 A sensor for detecting targets existing in the surroundings, the sensor being configured to detect, as the target, a marking line that divides a road on which the vehicle travels,
前記天候状況判定部は、 The weather condition determination unit
前記複数のセンサそれぞれで検出された前記物標の検出結果に基づいて前記天候状況を判定するものであって、前記複数のセンサそれぞれで検出された前記区画線に基づいて前記天候状況を判定するように構成され、 The weather condition is determined based on the detection results of the target detected by each of the plurality of sensors, and the weather condition is determined based on the lane marking detected by each of the plurality of sensors. configured as
前記提供部は、 The providing unit
前記車両の周辺に存在する周辺車両搭載の車載機へ、前記天候状況情報を提供するように構成され、 configured to provide the weather condition information to an on-vehicle device mounted on a peripheral vehicle existing in the vicinity of the vehicle;
更に、前記周辺車両が前記複数のセンサの検出結果に基づいて周囲に存在する前記物標を検出する物標検出装置を搭載している搭載車両の場合には、当該搭載車両の前記車載機に対して、前記天候状況情報として、前記複数のセンサの各センサの検出結果に付与する重みに関する重み情報を含む情報を提供するように構成されるとともに、 Furthermore, in the case where the surrounding vehicle is a vehicle equipped with a target object detection device that detects the target existing in the surroundings based on the detection results of the plurality of sensors, the on-vehicle device of the vehicle equipped with On the other hand, it is configured to provide, as the weather condition information, information including weight information relating to the weight given to the detection result of each sensor of the plurality of sensors,
前記周辺車両が前記物標検出装置を搭載していない非搭載車両の場合には、当該非搭載車両の前記車載機に対して、前記搭載車両に提供する情報とは異なる、天候の種別と前記車両の位置と現在時刻とを含む情報を提供するように構成された、 When the surrounding vehicle is a non-equipped vehicle that is not equipped with the target object detection device, the type of weather and the above configured to provide information including the location of the vehicle and the current time;
提供装置。delivery device.
JP2018183949A 2018-09-28 2018-09-28 Providing device Active JP7210208B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018183949A JP7210208B2 (en) 2018-09-28 2018-09-28 Providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018183949A JP7210208B2 (en) 2018-09-28 2018-09-28 Providing device

Publications (2)

Publication Number Publication Date
JP2020052909A JP2020052909A (en) 2020-04-02
JP7210208B2 true JP7210208B2 (en) 2023-01-23

Family

ID=69997404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018183949A Active JP7210208B2 (en) 2018-09-28 2018-09-28 Providing device

Country Status (1)

Country Link
JP (1) JP7210208B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7595465B2 (en) 2019-02-08 2024-12-06 株式会社Ihi Learning device and boiler control system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102693851B1 (en) * 2019-10-25 2024-08-13 현대모비스 주식회사 Automotive sensor integration module
JP2022014729A (en) * 2020-07-07 2022-01-20 株式会社デンソー Adverse environment determination device, and adverse environment determination method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174059A (en) 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd Navigation information providing system
JP2007057331A (en) 2005-08-23 2007-03-08 Denso Corp In-vehicle system for determining fog
JP2007255979A (en) 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2008070979A (en) 2006-09-12 2008-03-27 Denso Corp Onboard fog decision unit
WO2010029707A3 (en) 2008-09-12 2010-05-06 株式会社 東芝 Image projection system and image projection method
JP2016522886A (en) 2013-04-11 2016-08-04 グーグル インコーポレイテッド Method and system for detecting weather conditions using in-vehicle sensors
JP2017062539A (en) 2015-09-24 2017-03-30 三菱自動車工業株式会社 Travel control device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11223674A (en) * 1998-02-06 1999-08-17 Honda Motor Co Ltd Weather condition detecting system
JP6988190B2 (en) * 2017-06-20 2022-01-05 凸版印刷株式会社 Films for packaging materials, and packaging materials and packaging materials using them.

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174059A (en) 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd Navigation information providing system
JP2007057331A (en) 2005-08-23 2007-03-08 Denso Corp In-vehicle system for determining fog
JP2007255979A (en) 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2008070979A (en) 2006-09-12 2008-03-27 Denso Corp Onboard fog decision unit
WO2010029707A3 (en) 2008-09-12 2010-05-06 株式会社 東芝 Image projection system and image projection method
JP2016522886A (en) 2013-04-11 2016-08-04 グーグル インコーポレイテッド Method and system for detecting weather conditions using in-vehicle sensors
JP2017062539A (en) 2015-09-24 2017-03-30 三菱自動車工業株式会社 Travel control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7595465B2 (en) 2019-02-08 2024-12-06 株式会社Ihi Learning device and boiler control system

Also Published As

Publication number Publication date
JP2020052909A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
US9827956B2 (en) Method and device for detecting a braking situation
US8988276B2 (en) Vehicle surroundings monitoring device
US9323992B2 (en) Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
US10569768B2 (en) Information processing apparatus, information processing method, and non-transitory recording medium
US20090122136A1 (en) Object detection device
US20080007429A1 (en) Visibility condition determining device for vehicle
US10423841B2 (en) Abnormality detection device and abnormality detection method
US20190171224A1 (en) Method and Device for Self-Positioning a Vehicle
US10229505B2 (en) Motion determination system and method thereof
US11738747B2 (en) Server device and vehicle
JP2017005678A (en) On-vehicle camera system and image processing apparatus
CN113012445A (en) Intelligent traffic control system and control method thereof
JP2011118482A (en) In-vehicle device and recognition support system
CN108859952B (en) Vehicle lane change early warning method and device and radar
JP7210208B2 (en) Providing device
US11423661B2 (en) Object recognition apparatus
JPWO2010050095A1 (en) Headlight control device
US20210097324A1 (en) APPARATUS AND METHOD FOR DETECTING TILT OF LiDAR APPARATUS MOUNTED TO VEHICLE
JP2019146012A (en) Imaging apparatus
JP2008056163A (en) Obstacle detecting device for vehicle
JP6500607B2 (en) Vehicle position determination device and vehicle position determination method
KR102298869B1 (en) Apparatus for preventing car collision and method thereof
US20200393264A1 (en) Information display device, control method, and storage medium
US20220082407A1 (en) Map system, map generating program, storage medium, on-vehicle apparatus, and server
US20220036730A1 (en) Dangerous driving detection device, dangerous driving detection system, dangerous driving detection method, and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211018

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150