JP4986135B2 - Database creation device and database creation program - Google Patents
Database creation device and database creation program Download PDFInfo
- Publication number
- JP4986135B2 JP4986135B2 JP2007074427A JP2007074427A JP4986135B2 JP 4986135 B2 JP4986135 B2 JP 4986135B2 JP 2007074427 A JP2007074427 A JP 2007074427A JP 2007074427 A JP2007074427 A JP 2007074427A JP 4986135 B2 JP4986135 B2 JP 4986135B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- image
- miss
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 51
- 230000008859 change Effects 0.000 claims description 33
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000000034 method Methods 0.000 description 60
- 238000006243 chemical reaction Methods 0.000 description 59
- 238000012545 processing Methods 0.000 description 35
- 239000000523 sample Substances 0.000 description 33
- 230000010365 information processing Effects 0.000 description 28
- 230000008569 process Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 17
- 230000007613 environmental effect Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 3
- 230000009191 jumping Effects 0.000 description 3
- 230000035900 sweating Effects 0.000 description 3
- 230000000994 depressogenic effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、例えば、車両の走行中に発生したイベントに関するデータベースを作成するデータベース作成装置及びデータベース作成プログラムに関する。 The present invention relates to a database creation apparatus and a database creation program for creating a database related to an event that occurs while a vehicle is running, for example.
ブレーキ、アクセル、ハンドルの操作量などの車両操作情報や、心拍や発汗などの運転者の生体情報に基づいて、運転者の危険反応を検知する技術が存在する。
例えば、特許文献1には、「歩行者の飛び出し」や「死角に入った他車両の見落とし」など、運転者が危険反応(ヒヤリ・ハット)を感じた地点の情報を、データベースに記録する技術が提案されている。
For example, Patent Document 1 discloses a technique for recording information on a point where a driver feels a dangerous reaction (a near miss) such as “a pedestrian jumps out” or “an oversight of another vehicle in a blind spot” in a database. Has been proposed.
特許文献1に記載の記録システムでは、運転者が危険反応を感じた時の状況情報として、例えば、『横断歩道 直進時 30km/h 歩行者飛び出し』のような文字情報がデータベースに記録されている。
しかし、このような文字情報を参照しても、データベースの閲覧者は、運転者が危険反応を感じた時の状況を容易に把握することができない。
一方、危険な運転操作を行った運転者は、自分が危険な運転操作を行ったこと自体を認識していない。
In the recording system described in Patent Document 1, for example, character information such as “30 km / h pedestrian jumping out of a pedestrian crossing straight” is recorded in the database as situation information when the driver feels a dangerous reaction. .
However, even if such character information is referred to, the viewer of the database cannot easily grasp the situation when the driver feels a dangerous reaction.
On the other hand, a driver who has performed a dangerous driving operation does not recognize that he has performed a dangerous driving operation.
そこで本発明は、危険な運転操作を行った運転者に対して危険な運転操作状況を客観的に容易に認識させることを目的とする。
また運転者の生体情報の変化が検知された時の状況を容易に把握することができる情報を作成することを目的とする。
Accordingly , an object of the present invention is to make a driver who has performed a dangerous driving operation easily and objectively recognize a dangerous driving operation situation .
It is another object of the present invention to create information that can easily grasp the situation when a change in the driver's biological information is detected.
(1)請求項1に記載の発明では、特定の原因車両に基づくイベントを起因とする運転者の生体情報の変化を検知した車両から、該生体情報の変化を検知した検知時刻、及び車両位置を含む検知情報を取得する検知情報取得手段と、前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定手段と、前記特定した各関連車両の周囲画像を取得する画像取得手段と、前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成手段と、前記原因車両を特定する原因車両特定手段と、前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信手段と、を具備したことを特徴とするデータベース作成装置を提供する。
(2)請求項2に記載の発明では、前記原因車両特定手段は、前記取得した各関連車両の周囲画像から、前記原因車両を特定することを特徴とする請求項1記載のデータベース作成装置を提供する。
(3)請求項3に記載の発明では、前記画像取得手段は、前記関連車両の周囲画像として、前記検知情報を取得した車両から、運転者の生体情報の変化の検知時前後における該車両の周囲の動画像を取得し、前記再現画像作成手段は、前記取得した動画像に基づいて、各イベントの再現画像を作成することを特徴とする請求項1、又は請求項2記載のデータベース作成装置を提供する。
(4)請求項4に記載の発明では、前記アクセス情報送信手段は、更に、前記特定した関連車両のうちの少なくとも1つに、前記作成した再現画像を閲覧するためのアクセス情報を送信することを特徴とする請求項1、請求項2、又は請求項3記載のデータベース作成装置を提供する。
(5)請求項5に記載の発明では、前記再現画像作成手段は、前記イベントの再現画像として、原因車両の挙動の再現画像を作成することを特徴とする請求項1、請求項2、請求項3、又は請求項4記載のデータベース作成装置を提供する。
(6)請求項6に記載の発明では、検知情報取得手段と、関連車両特定手段と、画像取得手段と、再現画像作成手段と、原因車両特定手段と、アクセス情報送信手段とを具備したデータベース作成装置に、前記検知情報取得手段が、特定の原因車両に基づくイベントを起因とする運転者の生体情報の変化を検知した車両から、該生体情報の変化を検知した検知時刻、及び車両位置を含む検知情報を取得する検知情報取得機能と、前記関連車両特定手段が、前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定機能と、前記画像取得手段が、前記特定した各関連車両の周囲画像を取得する画像取得機能と、前記再現画像作成手段が、前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成機能と、前記原因車両特定手段が、前記原因車両を特定する原因車両特定機能と、前記アクセス情報送信手段が、前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信機能と、を実現させるためのコンピュータ読み取り可能なデータベース作成プログラムを提供する。
(1) In the first aspect of the invention, from the vehicle in which the change in the biological information of the driver due to the event based on the specific cause vehicle is detected, the detection time at which the change in the biological information is detected, and the vehicle position Detection information acquisition means for acquiring detection information including: related vehicle specification means for specifying related vehicles related to each event based on the acquired detection information; and acquiring surrounding images of the specified related vehicles Based on the acquired image, reproduced image creating means for creating a reproduced image of each event, causal vehicle identifying means for identifying the cause vehicle, and the created reproduction on the identified cause vehicle There is provided a database creating apparatus comprising access information transmitting means for transmitting access information for browsing images .
(2) In the invention according to
(3) In the invention according to
(4) In the invention described in claim 4, the access information transmitting means further transmits access information for viewing the created reproduction image to at least one of the specified related vehicles. A database creation device according to
(5) In the invention according to claim 5, the reproduction image creating means creates a reproduction image of the behavior of the cause vehicle as the reproduction image of the event. A database creation device according to
(6) In the invention described in claim 6, a database including detection information acquisition means, related vehicle identification means, image acquisition means, reproduction image creation means, cause vehicle identification means, and access information transmission means In the creation device, the detection information acquisition means detects the detection time and vehicle position at which the change in the biological information is detected from the vehicle in which the change in the biological information of the driver due to the event based on the specific cause vehicle is detected. A detection information acquisition function for acquiring detection information including the related vehicle specifying means, a related vehicle specifying function for specifying a related vehicle related to each event based on the acquired detection information, and the image acquisition means, An image acquisition function for acquiring the surrounding image of each identified related vehicle, and a reproduction image in which the reproduction image creation means creates a reproduction image of each event based on the acquired image And forming function, the cause vehicle identification means, causing the vehicle specifying function for specifying the cause vehicle, the access information transmitting means, the specified reason vehicle, the access information for browsing reproduced image above prepared A computer-readable database creation program for realizing an access information transmission function for transmission is provided.
本発明によれば、運転者の生体情報の変化の原因となったイベントの再現画像を作成し、原因車両に、作成した再現画像を閲覧するためのアクセス情報を送信するので、原因車両の運転者に対して危険な運転操作状況を客観的に容易に認識させることができる。
また、原因となったイベントの再現画像を作成することで、運転者の生体情報の変化が検知された時の状況を容易に把握することができる。
According to the present invention, a reproduction image of an event that causes a change in the driver's biological information is created, and access information for viewing the created reproduction image is transmitted to the cause vehicle. It is possible to make a person easily recognize a dangerous driving operation situation objectively.
In addition, by creating a reproduction image of the event that caused the cause, it is possible to easily grasp the situation when a change in the biological information of the driver is detected.
以下、本発明のデータベース作成装置及びデータベース作成プログラムにおける好適な実施の形態について、図1から図16参照して詳細に説明する。
(1)実施形態の概要
運転者が走行中に何らかの危険を感じた場合、その緊張感から運転者の生体情報(心拍数や皮膚インピーダンス)は変化する。この特性を利用して、プローブカーでは、運転者の生体情報の変化などから、運転者の危険反応(ヒヤリ・ハット反応)を検出する。
そして、プローブカーは、運転者の危険反応の検出時における、車両の位置情報、時刻情報、車両の操作情報、運転者の危険反応の検出時前後における車両の周囲を撮像した画像情報など、運転者が危険反応を示したイベントに関する情報をヒヤリ・ハット情報としてデータセンタへ送信する。
データセンタでは、プローブカーから集められたヒヤリ・ハット情報を、位置情報および時刻情報に基づいて、イベント単位の関連する情報グループに振り分ける(群分けする)。
Hereinafter, preferred embodiments of a database creation apparatus and a database creation program according to the present invention will be described in detail with reference to FIGS.
(1) Outline of Embodiment When the driver feels some danger during traveling, the driver's biometric information (heart rate and skin impedance) changes from the sense of tension. Using this characteristic, the probe car detects a driver's dangerous reaction (near-hat reaction) from changes in the driver's biological information.
The probe car is used for driving information such as vehicle position information, time information, vehicle operation information, and image information captured around the vehicle before and after detection of a driver's dangerous reaction. Information about the event that the person showed a dangerous reaction is transmitted to the data center as near-miss information.
In the data center, the near-miss information collected from the probe cars is distributed (grouped) into related information groups in units of events based on the position information and time information.
そして、データセンタでは、同一の情報グループにまとめられたヒヤリ・ハット情報の内容(画像情報や車両情報など)を解析し、ヒヤリ・ハット情報の発信元の車両が遭遇したヒヤリ・ハットイベントの原因車両を特定する。即ち、運転者が危険反応を起こすきっかけとなったイベントの原因車両を特定する。
データセンタでは、特定した原因車両の情報や、該ヒヤリ・ハットイベントに関連する車両の画像情報などに基づいて、ヒヤリ・ハットイベントの再現動画を作成(作製)する。そして、ヒヤリ・ハットイベントの再現動画をデータベースに格納する。
利用者は、ネットワークを介してデータベースにアクセスすることにより、携帯電話やPCなどの端末装置において、ヒヤリ・ハットイベントの再現動画を後から閲覧することができる。
Then, the data center analyzes the content of the near-miss information (image information, vehicle information, etc.) collected in the same information group, and causes the near-miss event that the vehicle from which the near-hat information was transmitted encounters. Identify the vehicle. That is, the cause vehicle of the event that triggered the driver's dangerous reaction is specified.
The data center creates (produces) a reproduced moving image of the near-miss event based on the information on the identified cause vehicle, the image information on the vehicle related to the near-miss event, and the like. Then, the reproduction video of the near-miss event is stored in the database.
A user can view a reproduced moving image of a near-miss event later on a terminal device such as a mobile phone or a PC by accessing the database via the network.
(2)実施形態の詳細
図1は、本実施形態におけるデータベース作成システムの構成を表した図である。
この図1に示すように、データベース作成システムは、情報処理装置を搭載したプローブカー1、及びデータベース作成装置を有するデータセンタ2を備えており、プローブカー1(情報処理装置)とデータセンタ2は、無線ネットワークを介して接続されている。
また、プローブカー1間においても無線ネットワークを介して、各種データの送受信が可能となっている。
データセンタ2は、ネットワーク6を介して、ネットワーク接続機能を有するPC(パーソナル・コンピュータ)3、携帯電話4、車両5と接続可能に設けられている。即ち、PC3、携帯電話4、車両5は、ネットワーク6を介してデータセンタ2にアクセスすることにより、データセンタ2に格納されている情報を閲覧することができる。
(2) Details of Embodiment FIG. 1 is a diagram showing the configuration of a database creation system according to this embodiment.
As shown in FIG. 1, the database creation system includes a probe car 1 equipped with an information processing device and a
In addition, various data can be transmitted and received between the probe cars 1 via the wireless network.
The
図2は、データセンタ2の概略構成を示した図である。
データセンタ2は、データベース作成システムの中心的役割をする中央サーバとしての機能を備え、複数のプローブカー1から送信されるヒヤリ・ハット情報などを収集(集積)し、これらの情報の解析を行う。
図2に示すように、データセンタ2は、CPU21、ROM22、RAM23、入力装置24、出力装置25、通信装置26,記憶部27、データベース28を備えている。
CPU21は、各種プログラムやデータに従ってデータセンタ2を制御する中央演算処理装置であり、データベース作成に関する種々の演算処理を行う。
FIG. 2 is a diagram showing a schematic configuration of the
The
As shown in FIG. 2, the
The
ROM22には、データベース作成に関する種々のプログラム、例えば、画像解析プログラム、原因車両特定プログラム、再現動画作成プログラムなどが格納されている。
RAM23は、CPU21の作業領域として機能する記憶領域であり、処理中のデータを一時的に記憶する。
入力装置24は、データセンタ2へコマンドやデータを入力する装置であり、キーボードやマウスがなどで構成されている。
出力装置25は、データセンタ2の処理した結果を外部出力する装置であり、ディスプレイやプリンタなどで構成されている。
通信装置26は、有線ネットワークや無線ネットワークと接続して、プローブカー1や外部の端末装置(PC3、携帯電話4)との各種データの送信及び受信を行う。
The
The
The
The
The
記憶部27には、データテーブル格納部271、ヒヤリ・ハット情報格納部272、原因車両情報格納部273など各種情報の格納部を備えている。
データテーブル格納部271は、データセンタ2に登録されているプローブカー1の識別情報と該プローブカー1に搭載されている情報処理装置のアドレス情報とを格納したデータテーブルを格納する。
ヒヤリ・ハット情報格納部272は、プローブカー1から受信したヒヤリ・ハット情報を格納する。
原因車両情報格納部273は、原因車両に関する情報、例えば、画像解析処理の結果から特定された車両ナンバー、車種・形式、色の情報などを格納する。
データベース28は、ヒヤリ・ハットイベントの再現動画を格納する。
The
The data
The near-miss
The cause vehicle
The
次に、本実施形態におけるプローブカー1に搭載された情報処理装置の構成について説明する。なお、プローブカー1に搭載された情報処理装置は、情報収集装置として機能する。
図1に示すように、情報処理装置は、各種プログラムやデータに従って情報処理装置全体を制御するECU(電子制御装置)10を備えており、ECU10には現在位置検出装置11、生体情報取得装置12、環境情報取得装置13、車両情報取得装置14、記憶装置15、画像入力装置16、表示装置17、音声出力装置18、入力装置19、通信装置20が接続されている。
Next, the configuration of the information processing apparatus mounted on the probe car 1 in this embodiment will be described. Note that the information processing apparatus mounted on the probe car 1 functions as an information collecting apparatus.
As shown in FIG. 1, the information processing device includes an ECU (electronic control device) 10 that controls the entire information processing device according to various programs and data. The
現在位置検出装置11は、運転支援装置が搭載される車両の現在位置(緯度、経度からなる絶対座標値)を検出するためのものであり、人工衛星を利用して車両の位置を測定するGPS受信装置を備えている。
なお、現在位置検出装置11は、GPS受信装置による現在位置検出を補足する装置として、地磁気を検出して車両の方位を求める地磁気センサ、ジャイロセンサ、車速センサ等を備えるようにしてもよい。ジャイロセンサと車速センサについては、後述する車両情報取得装置14の車速センサ144、ジャイロセンサ145と兼用するようにしても、別に備えるようにしてもよい。
生体情報取得装置12は、運転者の生体情報を取得するセンサとして、心拍センサ121と、皮膚インピーダンスセンサ122を備えている。なお、運転者の生体情報を取得するセンサは、これらのものに限定されるものではなく、その他のセンサ、例えば、脳波を測定するセンサや血圧を測定するセンサを用いるようにしてもよい。
車両が走行を開始すると、所定時間間隔で心拍数と発汗量を検出してECU10に供給するようになっている。
The current
Note that the current
The biological
When the vehicle starts running, the heart rate and the amount of sweat are detected at predetermined time intervals and supplied to the
心拍センサ121は、運転者の心拍数を検出するセンサで、運転者の脈拍数から心拍数を検出する。本実施形態における心拍センサ121は、ステアリング(ハンドル)に配置された電極により、運転中の運転者の手から心拍信号を採取することで心拍数を検出するようになっている。なお、心拍センサ121は、専用のセンサを手首等の運転者の身体に配置するようにしてもよい。
皮膚インピーダンスセンサ122は、ステアリングに配置され、運転者の皮膚インピーダンス(抵抗値)を測定する。この皮膚インピーダンスの値は、発汗状態の変化によって変化するため、皮膚インピーダンスの変化から運転者の発汗状態を検出することができる。
The
環境情報取得装置13は、車間距離・相対速度測定装置131と、画像処理装置132を備えている。
車間距離・相対速度測定装置131は、車両前方、後方に配置されたミリ波レーダやレーザレーダ等で構成され、前方車両との車間距離や相対速度、後方車両との車間距離や相対速度が検出されるとともに、対向車の有無が判断される。
画像処理装置132は、後述する画像入力装置16(ステレオカメラ161)で撮像された車外画像の画像処理を行い、前方の視界(雨、雪、霧等の天候、及び、障害物など)の検出を行うようになっている。
The environmental
The inter-vehicle distance / relative
The
環境情報取得装置13は、現在の時刻を判断するためのセンサとして、時刻センサを備えている。
また、環境情報取得装置13は、天候を判断するためのセンサとして、画像処理装置132の画像処理による場合に加えて(又は代えて)、ワイパーの稼働状態を検出するワイパーセンサ、車幅灯のオン状態を検出する車幅灯センサ、ヘッドランプのオン状態を検出するヘッドランプセンサを備えている。
The environment
In addition to (or instead of) the image processing of the
車両情報取得装置14は、ハンドル舵角センサ141、ブレーキ踏力センサ142、アクセル踏力センサ143、車速センサ144、ジャイロセンサ145、その他のセンサを備えており、カーブ走行時の走行状態や運転操作状況を検出する。
ハンドル舵角センサ141は、ハンドルの操舵角、ハンドル操作量、ハンドル操作トルク、ハンドル操作状況を検出する。
ブレーキ踏力センサ142は、ブレーキを踏み込む速度、ブレーキの踏力、ブレーキ操作状況を検出する。
The vehicle
The
The brake
ブレーキ踏力センサ142により検出された値に基づいて、ECU10は、急ブレーキの判定、即ち、急ブレーキ操作がなされたか否かの判断を行う。
図3は、ブレーキ踏力センサ142の検出結果の例を示した図である。
ECU10は、例えば、ブレーキ踏力が平均値±3Σ以上、又は、ブレーキ操作状況平均値±3Σ以上の条件を満たす場合に急ブレーキ操作がなされたと判断する。
なお、平均値とは、現在の運転者が運転中の平均を示したものである。
Based on the value detected by the brake
FIG. 3 is a diagram illustrating an example of a detection result of the brake
For example, the
The average value indicates the average during driving by the current driver.
アクセル踏力センサ143は、アクセルを踏み込む速度、アクセルの踏力等を検出する。
車速センサ144は、車速を検出する。
ジャイロセンサ145は、車両の加速度を検出する。
The accelerator
The
The
記憶装置15は、ROM、RAMの他、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、メモリチップやICカード等の半導体記録媒体、CD−ROMやMO、PD(相変化書換型光ディスク)等の光学的に情報が読み取られる記録媒体、その他各種方法でデータやコンピュータプログラムが記録される記録媒体が含まれる。
記録媒体には、記録内容に応じて異なる媒体を使用し、例えば、随時内容が更新(追加)される情報を格納する場合には、データの書き換えが可能な記録媒体を使用する。
The
As the recording medium, a different medium is used depending on the recording contents. For example, when storing information whose contents are updated (added) as needed, a recording medium capable of rewriting data is used.
記憶装置15には、生体情報処理プログラム151、車両情報処理プログラム152、環境情報処理プログラム153、ヒヤリ・ハット判定プログラム154、ヒヤリ・ハット情報記憶メモリ155、車両情報記憶メモリ156、環境情報記憶メモリ157、画像記憶メモリ158、地図データベース159、履歴情報記憶メモリ160等の本実施形態で使用される各種データ、その他のデータが格納されている。
The
生体情報処理プログラム151は、心拍センサ121、皮膚インピーダンスセンサ122による検出値を生体情報として取得し、RAMに格納するプログラムである。
なお、RAMには、生体情報として、心拍センサ121、皮膚インピーダンスセンサ122の検出(測定)結果、これらの検出結果から判断される生体情報の変化の有無や緊張度(Level)の判定結果が保存される。
車両情報処理プログラム152は、ハンドル舵角センサ141、ブレーキ踏力センサ142、アクセル踏力センサ143、車速センサ144、ジャイロセンサ145の検出値を車両情報として取得し、車両情報記憶メモリ156に格納するプログラムである。
The biological
The RAM stores, as biological information, the detection results of the
The vehicle
環境情報処理プログラム153は、常時、車間距離・相対速度測定装置131による測定結果や、画像処理装置132の処理結果の情報を車両情報として取得し、環境情報記憶メモリ157に格納するプログラムである。
ヒヤリ・ハット判定プログラム154は、生体情報、車両情報、環境情報などに基づいて、運転者が“ヒヤリ”や“はっと”と感じた状態、即ち、突然の思いがけない出来事に驚きや恐怖を感じた状態を判定(検出)するプログラムである。つまり、ヒヤリ・ハット判定プログラム154は、生体情報の異常や運転操作の異常など、通常とは異なる危険反応(ヒヤリ・ハット反応)が検出される運転者が思いがけない出来事(以下、ヒヤリ・ハットイベントとする)に遭遇したことを検出するプログラムである。
The environmental
The near-miss / hit
ヒヤリ・ハット情報記憶メモリ155には、ヒヤリ・ハット判定プログラム154によりヒヤリ・ハット反応(生体情報の異常)が検出されたヒヤリ・ハットイベントに関する情報が記憶される。なお、このようなヒヤリ・ハット反応、ヒヤリ・ハットイベントに関する情報をヒヤリ・ハット情報とする。
図4は、ヒヤリ・ハット情報記憶メモリ155に格納される情報の例を示した図である。
図4に示されるように、ヒヤリ・ハット情報記憶メモリ155には、ヒヤリ・ハット反応の判定結果、ヒヤリ・ハットイベントに遭遇した時の車両情報、環境情報、位置情報、車両の周囲を撮像した画像データ、自車両に関する情報(車両特定情報)などが保存される。
The near-miss
FIG. 4 is a diagram showing an example of information stored in the near-miss
As shown in FIG. 4, the near-miss
ヒヤリ・ハット情報記憶メモリ155には、判定結果として、ヒヤリ・ハット反応の検出の有無を示すフラグが保存され、車両情報として、車両速度、車両加速度、車両横方向加速度、ハンドル操作トルク、ハンドル操作状況、ブレーキ踏力、ブレーキ操作状況が保存され、環境情報として、前方車両車間距離、前方車両相対速度が保存され、位置情報として、道路種別、交差点判定、時刻、東経、北緯のデータが保存される。
また、ヒヤリ・ハット情報記憶メモリ155には、画像情報として、ヒヤリ・ハット反応の検出時点の前後の30秒(検出前15秒+検出後15秒)の画像データが保存され、自車両特定情報として、車両ナンバー、車種・形式、色データが保存される。
In the near-miss
The near-miss
図1の説明に戻り、車両情報記憶メモリ156には、車両速度(km/h)、車両加速度(G)、ハンドル操作トルク(N・m)、ハンドル操作状況(N・m/ms)、アクセル踏力(N・m)、ブレーキ踏力(N・m)、ブレーキ操作状況(N・m/ms)が保存される。
環境情報記憶メモリ157には、環境情報処理プログラム153に基づいて、常時、車間距離・相対速度測定装置131、画像処理装置132における検出データが保存される。
Returning to the description of FIG. 1, the vehicle
The environmental
画像記憶メモリ158には、環境情報処理プログラム153に基づいて、常時、画像入力装置16(ステレオカメラ161)で撮像された車両の周囲画像(周辺画像)が記憶される。
画像記憶メモリ158への画像の記憶処理は、FIFO(先入れ先出し)方式で行われ、古い画像データから順に消去されていくように構成されている。本実施の形態では、画像記憶メモリ158には、常時30分分の画像データが格納(保存)されるように構成されている。
ECU10は、ヒヤリ・ハット反応、即ちヒヤリ・ハットイベントへの遭遇が検出された場合、この画像記憶メモリ158に記憶されている画像データから、そのヒヤリ・ハット反応の検出前後30秒の画像データを読み出し、ヒヤリ・ハット情報記憶メモリ155に別途保存するように構成されている。
地図データベース159は、地図情報、道路情報、カーブ情報等の各種地図に関連した情報が格納されたデータベースである。
履歴情報記憶メモリ160には、当該情報処理装置での処理結果だけでなく、データセンタ2や他車の情報処理装置から受信した各種履歴情報が格納される。履歴情報記憶メモリ160には、例えば、データセンタ2から受信した、ヒヤリ・ハットイベントの原因車両と判定された旨の情報が格納される。
Based on the environmental
Image storage processing in the
When the
The
The history
画像入力装置16は、車両前方に配置されたステレオカメラ161を備えている。
画像入力装置16で撮像した車外画像は、ヒヤリ・ハットイベントの解析やヒヤリ・ハットイベントの再現画像の作成などに使用される。
また、撮像画像は、画像処理装置132に供給されて、視界度判定や車間距離判定、天候(天気)判定に使用される。
表示装置17は、液晶表示装置、CRT、ヘッドアップディスプレイ等の各種表示装置が使用され、本実施形態におけるヒヤリ・ハット反応(ヒヤリ・ハットイベント)が検出された旨とその注意を喚起する警告画像、警告文字(テキスト)などが運転支援の一環として表示されるようになっている。
なお、表示装置17は、ナビゲーション機能に基づいて車両周辺や経路探索された走行経路周辺の地図や、探索経路、周辺施設案内画面などが表示される場合には、当該表示画面上にヒヤリ・ハット反応(ヒヤリ・ハットイベント)が検出された地点の警告を表示するようにしてもよい。
The
The image outside the vehicle picked up by the
The captured image is supplied to the
As the
The
音声出力装置18は、車内に配置された複数のスピーカ及び音声制御装置で構成される。音声出力装置18からは、音声制御部で制御された音声、例えば、ヒヤリ・ハット反応(ヒヤリ・ハットイベント)が検出された旨とその注意を喚起する警告音声が、運転支援の一環として出力されるようになっている。この音声出力装置18は、オーディオ用のスピーカと兼用するようにしてもよい。
入力装置19は、タッチパネル(スイッチとして機能)、キーボード、マウス、ライトペン、ジョイスティック、赤外線等によるリモコン、表示装置の表示画面に取り付けられたタッチパネル、リモコン、音声認識装置などの各種の装置が使用可能であり、各種情報を入力するための入力手段を構成する。
通信装置20は、通信手段として機能し、無線ネットワークと接続して、外部のデータセンタ2との各種データの送信及び受信を行う。また、通信装置20を介して、他のプローブカー1との各種データの送信及び受信を行う。
The
As the
The
次に、以上のように構成されたデータベース作成システムにおけるデータベース作成処理の動作について説明する。
はじめに、プローブカー1におけるヒヤリ・ハット情報の取得方法について説明する。
図5は、プローブカー1におけるヒヤリ・ハット情報の取得処理の動作手順を示したフローチャートである。
このヒヤリ・ハット情報の取得処理は、プローブカー1の情報処理装置において、車両の走行開始により実行され走行中実行が継続されるが、イグニッションオンにより実行され、イグニッションオフにより終了するようにしてもよい。
Next, the operation of database creation processing in the database creation system configured as described above will be described.
First, a method for acquiring near-miss information in the probe car 1 will be described.
FIG. 5 is a flowchart showing an operation procedure of acquisition processing of near-miss information in the probe car 1.
This near-miss information acquisition process is executed by the information processing apparatus of the probe car 1 when the vehicle starts to run and continues to be executed while the vehicle is running, but is executed when the ignition is turned on and ends when the ignition is turned off. Good.
ECU10は、運転者の生体情報を生体情報取得装置12により検出する(ステップ11)。
そして、ECU10は、検出した生体情報について、所定の生体情報判定条件に従って、生体情報の変化の有無を判断する(ステップ12)。ここでは、運転者の生体情報の異常反応が生じたか否かを判断する。
本実施形態では、より精度の高いヒヤリ・ハット情報をデータセンタ2へ送信(提供)するために、複数の種類の生体情報の検出結果に基づいて生体情報の変化の有無を判断(検出)する。なお、この処理は、運転者の精神状態(緊張状態)を運転者の生体情報の変化から判断することを意味する。
ECU10 detects a driver | operator's biometric information by the biometric information acquisition apparatus 12 (step 11).
And ECU10 judges the presence or absence of a change of biometric information about the detected biometric information according to predetermined biometric information determination conditions (step 12). Here, it is determined whether or not an abnormal reaction of the driver's biological information has occurred.
In this embodiment, in order to transmit (provide) near-miss information with higher accuracy to the
図6は、生体情報の変化の判定例を示した図である。
図6(a)、(b)ともに、上段は、皮膚インピーダンスセンサ122の検出(測定)結果を示し、下段は、心拍センサ121の検出(測定)結果を示す。
本実施の形態では、例えば、図6(a)に示すように、皮膚インピーダンス及び心拍数が急激に上昇した場合、又は、図6(b)に示すように、皮膚インピーダンスが急激に上昇したタイミングで心拍数が急激に低下した場合に、生体情報に変化が生じたと判定する。
FIG. 6 is a diagram illustrating a determination example of changes in biological information.
6A and 6B, the upper part shows the detection (measurement) result of the
In the present embodiment, for example, when the skin impedance and the heart rate suddenly increase as shown in FIG. 6 (a), or when the skin impedance suddenly increases as shown in FIG. 6 (b). When the heart rate suddenly decreases, it is determined that the biological information has changed.
図5の説明に戻り、生体情報の変化が検出されない場合(ステップ12;N)、ECU10は、ステップ11に戻って生体情報の検出を継続する。
生体情報の変化が検出された場合(ステップ12;Y)、ECU10は、車両情報記憶メモリ156を参照し、生体情報の変化が生じたタイミング(時刻)における車両情報を取得し、一旦RAM内に格納する(ステップ13)。
ここでは、車両情報として、車両速度、車両加速度、ハンドル操作トルク、ハンドル操作状況、アクセル踏力、ブレーキ踏力、及びブレーキ操作状況などが検出される。
Returning to the description of FIG. 5, when a change in the biological information is not detected (
When the change of the biological information is detected (
Here, as vehicle information, vehicle speed, vehicle acceleration, steering wheel operation torque, steering wheel operation status, accelerator pedal force, brake pedal force, brake operation status, and the like are detected.
ついでECU10は、環境情報記憶メモリ157を参照し、生体情報の変化が生じたタイミング(時刻)における環境情報を取得し、一旦RAM内に格納する(ステップ14)。
ここでは、環境情報として、車間距離・相対速度測定装置131、画像処理装置132における測定データなどが取得される。
Next, the
Here, measurement data and the like in the inter-vehicle distance / relative
次にECU10は、検出された生体情報の変化情報や車両情報、環境情報に基づいて、検出された生体情報の異常反応の原因となったイベントが、その情報をデータセンタ2に提供すべきものであるか否か、即ち、ヒヤリ・ハットイベントであるか否かを判定する(ステップ15)。
このヒヤリ・ハットイベントの判定は、検出した車両情報や環境情報を所定の判定条件と比較し、該当条件を満たすか否かを判定することによって行う。
Next, based on the detected change information of the biological information, vehicle information, and environmental information, the
The near-miss event is determined by comparing the detected vehicle information and environmental information with a predetermined determination condition to determine whether or not the corresponding condition is satisfied.
図7は、ヒヤリ・ハットイベントか否かの判定項目とその条件の一例を示した図である。
図7に示すように、例えば、車両速度が5km/h以上、車両加速度が−0.3G以下、ブレーキ踏力が平均値±3Σ以上(又は、ブレーキ操作状況平均値±3Σ以上)の条件を満たす場合、ECU10は、急ブレーキ(条件例1)に関するヒヤリ・ハットイベントに遭遇した(ヒヤリ・ハットイベントが発生した)と判定する。
同様に、急接近(条件例2)、急ハンドル(条件例3)の各条件を満たす場合には、ヒヤリ・ハットイベントに遭遇したと判定する。
なお、急ブレーキ(条件例1)では、ブレーキ踏力とブレーキ操作状況のOR条件に基づいて急ブレーキの判定を行うようにしているが、急ブレーキの判定は、ブレーキ踏力とブレーキ操作状況を2次元プロットしたクラスタ解析の結果に基づいて行うようにしてもよい。
FIG. 7 is a diagram illustrating an example of a determination item for determining whether the event is a near-miss event and its conditions.
As shown in FIG. 7, for example, the vehicle speed is 5 km / h or more, the vehicle acceleration is −0.3 G or less, and the brake pedaling force is an average value ± 3Σ or more (or a brake operation situation average value ± 3Σ or more). In this case, the
Similarly, when the conditions of sudden approach (condition example 2) and sudden handle (condition example 3) are satisfied, it is determined that a near-miss event has been encountered.
In the sudden braking (condition example 1), the sudden braking determination is made based on the OR condition of the brake pedal force and the brake operation status. You may make it perform based on the result of the cluster analysis plotted.
急接近(条件例2)では、前方車両車間距離が平均値以下の場合のAND条件に基づいて急接近の判定を行うようにしているが、急接近の判定は、前方車両相対速度と前方車両車間距離を2次元プロットしたクラスタ解析の結果に基づいて行うようにしてもよい。
急ハンドル(条件例3)では、ハンドル操作トルクとハンドル操作状況のAND条件に基づいて急ハンドルの判定を行うようにしているが、急ハンドルの判定は、ハンドル操作トルクとハンドル操作状況のOR条件に基づいて行うようにしてもよい。
また、急ハンドルの判定は、ハンドル操作トルクとハンドル操作状況を2次元プロットしたクラスタ解析の結果に基づいて行うようにしてもよい。
In the rapid approach (condition example 2), the determination of the rapid approach is made based on the AND condition when the distance between the vehicles ahead of the vehicle is equal to or smaller than the average value. You may make it perform based on the result of the cluster analysis which plotted the inter-vehicle distance two-dimensionally.
In the sudden handle (condition example 3), the determination of the sudden handle is performed based on the AND condition of the handle operation torque and the handle operation status. The determination of the sudden handle is based on the OR condition of the handle operation torque and the handle operation status. You may make it perform based on.
The determination of the abrupt handle may be made based on the result of cluster analysis in which the handle operation torque and the handle operation situation are two-dimensionally plotted.
図5の説明に戻り、ヒヤリ・ハットイベントが発生していないと判定された場合(ステップ15;N)、ECU10は、ステップ11に戻って生体情報の検出を継続する。
ヒヤリ・ハットイベントが発生したと判定された場合(ステップ15;Y)、ECU10は、生体状態の変化(運転者の生体情報の異常反応)が検出された地点を、ヒヤリ・ハットイベントの遭遇地点として、その位置情報を現在位置検出装置11の検出結果から取得する(ステップ16)。ECU10は、ここで取得した位置情報を一旦RAM内に格納する。
Returning to the description of FIG. 5, when it is determined that a near-miss event has not occurred (
When it is determined that a near-miss event has occurred (
続いて、ECU10は、予め記憶装置15に記憶されている車両ナンバー、車種・形式、色データなどの自車両特定情報を読み出し、一旦RAM内に格納する(ステップ17)。
ECU10は、RAM内に格納した車両情報、環境情報、位置情報、自車両特定情報などをヒヤリハット情報として、ヒヤリ・ハット情報記憶メモリ155に保存する(ステップ18)。
Subsequently, the
The
さらに、ECU10は、生体状態の変化(運転者の生体情報の異常反応)が検出された時刻情報に基づいて、ヒヤリ・ハット反応の検出時点の前後の30秒(検出前15秒+検出後15秒)の画像データを画像記憶メモリ158から読み出し、ヒヤリ・ハット情報記憶メモリ155に記憶する(ステップ19)。
そして、ECU10は、ヒヤリ・ハット情報記憶メモリ155に記憶(格納)されているヒヤリ・ハット情報を、通信装置20を用いてデータセンタ2に送信し(ステップ20)、処理をリターンする。
なお、ヒヤリ・ハット情報記憶メモリ155に記憶(格納)されている情報は、データセンタ2への送信が完了した後に消去する。
Further, the
Then, the
The information stored (stored) in the near-miss
なお、ヒヤリ・ハット反応の検出時の位置情報と時刻情報を除く他の情報は、必ずしも全ての情報をヒヤリ・ハット情報としてデータセンタ2へ送信しなくてもよい。例えば、必要な情報のみを任意に選択して、又は、必要な複数の情報を組み合わせてデータセンタ2へ送信するようにしてもよい。
It should be noted that all the information other than the position information and the time information at the time of detecting the near-miss reaction does not necessarily have to be transmitted to the
なお、上述した実施形態では、ヒヤリ・ハット情報記憶メモリ155に情報が記憶される都度、即ち、1つのヒヤリ・ハット情報が生成されるごとに、情報をデータセンタ2へ送信するように構成されているが、ヒヤリ・ハット情報の送信タイミングはこれに限定されるものではない。
例えば、所定の時間(例えば10分)おきに定期的にヒヤリ・ハット情報記憶メモリ155内の情報を読み出し、データセンタ2へ送信するようにしてもよい。
この場合、次の送信処理が実行されるまでの間に、ECU10は、上述したステップ11からステップ19にかけての一連のヒヤリ・ハット地域に関する情報の取得処理を繰り返し実行し、取得した情報をヒヤリ・ハット情報記憶メモリ155に蓄積しておく。
In the above-described embodiment, each time information is stored in the near-miss
For example, information in the near-miss
In this case, until the next transmission process is executed, the
次に、データセンタ2における、受信したヒヤリ・ハット情報に基づいてヒヤリ・ハットイベントの再現動画を作成し、これらの再現動画を格納したデータベース28を更新する処理について説明する。
図8は、データセンタ2における、データベース28の作成処理の動作手順を示したフローチャートである。
はじめに、データセンタ2におけるCPU21は、プローブカー1から送信されたヒヤリ・ハット情報を受信し(ステップ31)、記憶部15におけるヒヤリ・ハット情報格納部272に格納する。なお、ヒヤリ・ハット情報は、受信されると、順次ヒヤリ・ハット情報格納部272に格納される。
Next, a description will be given of processing in the
FIG. 8 is a flowchart showing an operation procedure for creating the
First, the
そしてCPU21は、各ヒヤリ・ハット情報に含まれている、生体状態の変化(運転者の生体情報の異常反応)が検出された位置情報及び時刻情報に基づいて、格納されたヒヤリ・ハット情報を、関連するイベント単位にグループ分け(群分け)する(ステップ32)。
つまり、同一イベントに起因すると推定される生体情報の異常反応に関するヒヤリ・ハット情報のグループを作成する。なお、この同一グループにまとめられた複数のヒヤリ・ハット情報を、関連イベント情報とする。
例えば、最初に検出されたヒヤリ・ハット情報で特定される時刻と位置を基準とし、基準時刻から所定判定時間(例えば3分)以内で、かつ、基準位置から所定判定距離(例えば半径1km)のヒヤリ・ハット情報を同一グループにまとめる。なお、判定時間及び判定距離は、任意の値に変更可能である。
Then, the
That is, a group of near-miss information related to an abnormal reaction of biological information presumed to be caused by the same event is created. The plurality of near-miss information collected in the same group is used as related event information.
For example, with reference to the time and position specified by the first detected near miss information, within a predetermined determination time (for example, 3 minutes) from the reference time and within a predetermined determination distance (for example, a radius of 1 km) from the reference position Combine near-miss information into the same group. Note that the determination time and the determination distance can be changed to arbitrary values.
CPU21は、後述するヒヤリ・ハットレベルを判定するための情報として、関連イベント情報ごとのヒヤリ・ハット情報数、即ち、事例数をカウントする(ステップ33)。
次にCPU21は、各関連イベント情報の必要なヒヤリ・ハット情報が揃ったか否かを判断する(ステップ34)。ここでは、例えば、最初のヒヤリ・ハット情報を受信した時刻から所定判定時間(例えば3分)が経過したか否かを判断する。また、最後のヒヤリ・ハット情報を受信してから所定時間(例えば1分)が経過したか否かを判断するようにしてもよい。
各関連イベント情報の必要なヒヤリ・ハット情報が揃っていないと判断された場合(ステップ34;N)、ステップ31の処理に戻る。
The
Next, the
When it is determined that the necessary near-miss information for each related event information is not available (
一方、各関連イベント情報の必要なヒヤリ・ハット情報が揃ったと判断された場合(ステップ34;Y)、CPU21は、関連イベント情報に関するヒヤリ・ハットレベルを判定する(ステップ35)。
図9は、ヒヤリ・ハットレベルの判定条件の一例を示した図である。
図9に示すように、ステップ33の処理においてカウントされる各関連イベント情報毎のヒヤリ・ハット情報の数(事例カウント数)、及び、ヒヤリ・ハット情報に『急ブレーキ』、『急ハンドル』があるか否か基づいて、ヒヤリ・ハットレベルの判定条件が設定されている。但し、これらの判定条件の設定値は、運転環境などの条件によって適宜変更される。
On the other hand, when it is determined that the necessary near-miss information for each related event information has been prepared (
FIG. 9 is a diagram showing an example of a near / hat level determination condition.
As shown in FIG. 9, the number of near-miss information (number of case counts) for each related event information counted in the processing of step 33, and “sudden brake” and “sudden handle” are included in the near-miss information. Based on whether or not there is a near-miss level determination condition. However, the set values of these determination conditions are appropriately changed depending on conditions such as the driving environment.
CPU21は、このような判定条件に基づいて、各関連イベント情報のヒヤリ・ハットレベル、即ち、ヒヤリ・ハットイベントの危険度を判定する。
例えば、事例カウント数“1”、急ブレーキ“有”、急ハンドル“有”の場合は、ヒヤリ・ハットレベルが『中』レベルであると判定する。
本実施形態では、事例カウント数が“3以上”である場合には、『急ブレーキ』、『急ハンドル』の検出結果に依存せずに、ヒヤリ・ハットレベルが『高』レベルであると判定する。
なお、ヒヤリ・ハットレベルの判定条件は、これに限定されるものではなく、運転環境などの変化に応じて適宜変更される。
Based on such a determination condition, the
For example, when the case count number is “1”, the sudden brake is “present”, and the sudden handle is “present”, it is determined that the near-miss level is the “medium” level.
In this embodiment, when the case count number is “3 or more”, it is determined that the near-miss level is the “high” level without depending on the detection results of “sudden brake” and “sudden steering wheel”. To do.
Note that the near / hat level determination condition is not limited to this, and is appropriately changed according to changes in the driving environment.
図8の説明に戻り、CPU21は、関連イベント情報(ヒヤリ・ハット情報)の各種解析結果に基づいて、ヒヤリ・ハットイベントの発端となった原因車両の特定処理を行う(ステップ36)。
図10は、ヒヤリ・ハットイベント(割り込み)の発生状況の説明図である。
ここでは、例えば、図10に示すように、原因車両が車両A及び車両Bの前方方向を、2車線を跨いで割り込みをした場合について説明する。
なお、図中に示す「!」エクスクラメーションマークは、ヒヤリ・ハット反応を検出した車両を示す。
Returning to the description of FIG. 8, the
FIG. 10 is an explanatory diagram of the occurrence of a near-miss event (interrupt).
Here, for example, as shown in FIG. 10, a case where the cause vehicle interrupts the front direction of the vehicle A and the vehicle B across two lanes will be described.
The exclamation mark “!” Shown in the figure indicates a vehicle that has detected a near-miss reaction.
この場合、原因車両の割り込みによって、後方の車両A及び車両Bにおいてヒヤリ・ハット反応が検出され、ヒヤリ・ハット情報が車両A、Bからデータセンタ2に送信される。そして、データセンタ2のCPU21では、車両A及び車両Bから受信したヒヤリ・ハット情報を、同一のイベントに関連する情報としてグループ分け(群分け)する。
そしてCPU21は、このヒヤリ・ハットイベント(割り込み)の原因車両を特定するために、車両A及び車両Bから送信されたヒヤリ・ハット情報における画像データ(ヒヤリ・ハット反応の検出時点の前後30秒)の画像解析処理を実行する。
そして、画像解析処理の結果に基づいて、原因車両の識別情報、例えば、車両ナンバー、車種・形式、色の情報を特定する。
CPU21は、画像解析処理の結果を、原因車両情報格納部273に格納する。
In this case, a near-miss reaction is detected in the rear vehicle A and vehicle B due to the interruption of the cause vehicle, and the near-hat information is transmitted from the vehicles A and B to the
Then, the
Based on the result of the image analysis process, identification information of the cause vehicle, for example, vehicle number, vehicle type / format, and color information is specified.
The
図8の説明に戻り、CPU21は、特定した原因車両の識別情報に基づいて、記憶部27のデータテーブル格納部271に格納されているデータテーブルから原因車両に搭載されている情報処理装置のアドレス情報を読み出す。
CPU21は、読み出した原因車両のアドレス情報を用いて、原因車両へ所定の情報を送信する(ステップ37)。
即ちCPU21は、原因車両へ、例えば、該ヒヤリ・ハットイベントの発生時における自車両(原因車両)の位置情報・車両情報、該ヒヤリ・ハットイベントの発生時前後の画像情報などの提供要求、及びヒヤリ・ハットイベントの原因となった旨のメッセージを原因車両へ送信する。
Returning to the description of FIG. 8, based on the identified identification information of the cause vehicle, the
The
That is, the
原因車両(プローブカー1)のECU10は、データセンタ2(CPU21)から送信された上記情報を受信すると、受信した情報に基づいて、ヒヤリ・ハットイベントの発生時における当該車両の位置情報・車両情報を車両情報記憶メモリ156から読み出し、また、該ヒヤリ・ハットイベントの発生時前後の画像情報を画像記憶メモリ158から読み出しRAM内に格納する。
また、原因車両のECU10は、受信したヒヤリ・ハットイベントの原因となった旨のメッセージに基づいて、記憶装置15に設けられている履歴情報記憶メモリ160にヒヤリ・ハットイベントの原因車両と判定された旨を記憶する。履歴情報記憶メモリには、例えば、自車両が原因車両と判定されたヒヤリ・ハットイベントの発生時間、発生場所、イベント内容などを記憶する。
そして、原因車両のECU10は、原因車両情報として、記憶装置15から読み出したこれらの情報、即ち、データセンタ2への提供を要求された情報を、通信装置20を用いてデータセンタ2へ送信する。
When the
Further, the
Then, the
上述した例では、原因車両においてヒヤリ・ハット反応が検出されていないため、該原因車両のヒヤリ・ハット情報がデータセンタ2に存在しない。そのため、原因車両のヒヤリ・ハット情報を取得するために、データセンタ2においてステップ37及びステップ38の処理を行うように構成されている。
しかし、原因車両として特定された車両において、ヒヤリ・ハットイベントの発生時にヒヤリ・ハット反応が検出されている場合には、原因車両からヒヤリ・ハット情報を受信しているので、上述したステップ37及びステップ38の処理は行わず、原因車両のヒヤリ・ハット情報を原因車両情報として処理を行う。
In the above-described example, the near-miss reaction of the cause vehicle is not detected in the
However, in the vehicle identified as the cause vehicle, when a near-miss reaction is detected when the near-miss event occurs, the near-hat information is received from the cause vehicle. The processing of
データセンタ2のCPU21は、原因車両から原因車両情報を受信すると(ステップ38)、該ヒヤリ・ハットイベントの関連イベント情報と共に所定の記憶領域に格納する。
そして、CPU21は、取得した関連イベント情報や原因車両情報に基づいて、ヒヤリ・ハットイベントの再現動画を作成する(ステップ39)。
ここで、ヒヤリ・ハットイベントの再現動画の作成方法の一例について説明する。
例えば、上述した図10に示すようなヒヤリ・ハットイベント(割り込み)の再現動画を作成する場合、CPU21は、関連イベント情報の画像情報や車両情報(操作情報)に基づいて、車両A及び車両Bの走行軌跡a、bの算出処理を行う。
そしてCPU21は、算出した走行軌跡a、b、原因車両情報、及び車両A及び車両Bの画像情報に基づいて、画像処理を行い再現動画を作成する。
When receiving the cause vehicle information from the cause vehicle (step 38), the
Then, the
Here, an example of a method for creating a reproduction video of a near-miss event will be described.
For example, when creating a reproduction video of a near-miss event (interrupt) as shown in FIG. 10 described above, the
Then, the
ヒヤリ・ハットイベントの再現動画の作成方法は、上述した方法に限定されるものではなく、例えば、図10に示すようなヒヤリ・ハットイベント(割り込み)の場合、原因車両、車両A及び車両B、即ち、イベントに関連する全ての車両における時系列の走行軌跡を算出し、算出された各車両の走行軌跡(運動状況)や車両特定情報に基づいて、再現動画を作成してもよい。
原因車両から取得した原因車両情報に基づいて原因車両のCG(コンピュータグラフィックス)画像を作成し、この原因車両のCG画像を合成して再現動画を作成してもよい。
イベントに関連する全ての車両の画像情報を合成してヒヤリ・ハットイベントの再現動画を作成するようにしても、また、視点が固定されたものだけでなく、複数の視点から見たヒヤリ・ハットイベントの再現動画を作成するようにしてもよい。
The method of creating a near-miss event reproduction video is not limited to the above-described method. For example, in the case of a near-miss event (interrupt) as shown in FIG. 10, the cause vehicle, vehicle A and vehicle B, That is, a time-series travel locus for all the vehicles related to the event may be calculated, and a reproduction moving image may be created based on the calculated travel locus (exercise status) of each vehicle and vehicle identification information.
A CG (computer graphics) image of the cause vehicle may be created based on the cause vehicle information acquired from the cause vehicle, and a reproduction movie may be created by combining the CG images of the cause vehicle.
Even if you create a reproduction video of a near-miss event by combining the image information of all the vehicles related to the event, not only the viewpoint is fixed, but also the near-hat from multiple viewpoints You may make it produce the reproduction video of an event.
また、複数の車両から送信された画像を合成して再現動画を作成する場合には、原因車両が一番多く映っている画像を優先して合成することが好ましい。
その他、複数の車両から送信された画像を時系列に合成する場合には、例えば、原因車両が映し出されている区間をそれぞれの画像から抽出して時系列に継ぎ合わせるように合成することが好ましい。
In addition, when a reproduced moving image is created by combining images transmitted from a plurality of vehicles, it is preferable to preferentially combine the images in which the cause vehicle is most reflected.
In addition, when synthesizing images transmitted from a plurality of vehicles in time series, for example, it is preferable to extract a section in which the cause vehicle is projected from each image and combine them so as to be joined in time series. .
CPU21は、このようにして作成されたヒヤリ・ハットイベントの再現動画を追加してデータベース28を更新し(ステップ40)、メインルーチンにリターンする。
上述した実施形態では、説明の煩雑化を避けるために、ステップ35からステップ40までの一連の処理を、1つのヒヤリ・ハットイベントを対象にして説明したが、実際は、ステップ32の処理において群分け(グループ分け)された各ヒヤリ・ハットイベントに対してこれらの処理を行う。なお、これらの処理は、複数のヒヤリ・ハットイベントに対して平行して行うようにしても、また、1つのヒヤリ・ハットイベントごとに行うようにしてもよい。
The
In the embodiment described above, a series of processing from step 35 to step 40 has been described for one near-miss event in order to avoid complicating the explanation. These processes are performed for each near-miss event (grouped). These processes may be performed in parallel for a plurality of near-miss events, or may be performed for each near-miss event.
本実施形態では、データセンタ2へのアクセス情報、詳しくは、原因車両に見てもらいたい、ヒヤリ・ハットイベントの再現動画のURL(該原因車両に起因するヒヤリ・ハットイベントの再現動画の格納場所を示したアドレス情報など)を原因車両へ送信して、原因車両の運転者へ当該URLへのアクセスを促す。つまり、原因車両の運転者へ自己の運転操作に起因したヒヤリ・ハットイベントの再現動画の閲覧を促す。
原因車両の運転者は、受信したURLへ、情報処理装置やPC3、携帯電話4などの端末装置を介して、アクセスすることにより再現動画を再生(閲覧)することができる。
図11は、ヒヤリ・ハットイベントの再現動画の閲覧例を示した図である。
図11に示すように、PC3や携帯電話4は、データセンタ2のデータベース28にアクセスし、そして所定の動画再生プログラムを起動させることによって、ヒヤリ・ハットイベントの再現動画を閲覧することができる。
再現動画が選択(指定)されると、例えば、図11に示すように、レポート情報として、再現動画像をはじめ、当該ヒヤリ・ハットイベントが発生した位置がポイント表示された地図画像やヒヤリ・ハットイベントの発生時刻、ヒヤリ・ハットレベル(危険度)などの関連情報がデータセンタ2から提供される。
In the present embodiment, access information to the
The driver of the cause vehicle can reproduce (view) the reproduced moving image by accessing the received URL via a terminal device such as the information processing device, the
FIG. 11 is a diagram illustrating an example of browsing a reproduced moving image of a near-miss event.
As shown in FIG. 11, the
When a reproduced video is selected (designated), for example, as shown in FIG. 11, a map image or a near-hat that displays the position where the near-miss event has occurred is displayed as report information, including the reproduced moving image. Related information such as event occurrence time, near-miss level (risk level), and the like is provided from the
なお、再現動画を閲覧方法は、上述したような直接特定の再現動画へアクセスする方法に限定されるものではない。
例えば、端末装置からデータベース28にアクセスし、ヒヤリ・ハットイベントの発生エリア(位置情報)や時間帯、また、関連した車両の識別情報などを指定することによって再現動画を絞り込んで選択させ、選択された再現動画を閲覧させるようにしてもよい。
このように、本実施形態によれば、データセンタ2のデータベース28にアクセスすることにより、発生したヒヤリ・ハットイベントの情報を後から確認することができる。
また、本実施形態によれば、各プローブカー1から提供された情報に基づいて、発生したヒヤリ・ハットイベントの再現動画を作成することにより、ヒヤリ・ハットイベントの発生時の状況を容易に把握することができる。
このように、原因車両の運転者、即ち、危険な運転操作を行った運転者に対して、ヒヤリ・ハットイベントの再現動画の閲覧を促すことにより、運転者自身に対して危険な運転操作状況を客観的に容易に認識させることができ、運転マナーの向上が期待できる。
Note that the method for browsing the reproduced moving image is not limited to the method for directly accessing the specific reproduced moving image as described above.
For example, the
As described above, according to the present embodiment, by accessing the
In addition, according to the present embodiment, by creating a reproduction video of a near-miss event that has occurred based on information provided from each probe car 1, it is possible to easily grasp the situation at the time of the near-miss event occurring. can do.
In this way, the driver of the cause vehicle, that is, the driver who has performed a dangerous driving operation is encouraged to view a reproduction video of the near-miss event, thereby causing a dangerous driving operation situation to the driver himself. Can be objectively recognized easily and driving manners can be expected to improve.
また、データセンタ2へアクセスするためのURLの情報を、ヒヤリ・ハットイベントに関連した車両に送信するようにしてもよい。この場合、URLの情報をヒヤリ・ハットイベントに関連した全ての車両に送信するようにしても、また、一部の関連車両にのみ送信するようにしてもよい。一部の関連車両に送信する場合には、例えば、該ヒヤリ・ハットイベントに起因するヒヤリ・ハット情報を一番最初(または一番最後)に送信した車両、また、原因車両の一番近い車両を特定して送信するようにする。
このように、本実施形態によれば、原因車両の運転者だけでなく、危険反応(ヒヤリ・ハット)が検出された車両の運転者に対しても、ヒヤリ・ハットイベントの再現動画の閲覧を促すことにより、危険反応の原因となったイベントの状況を客観的に認識させることができる。
Moreover, you may make it transmit the information of URL for accessing the
As described above, according to the present embodiment, not only the driver of the cause vehicle but also the driver of the vehicle in which the dangerous reaction (near-miss) is detected, the reproduction video of the near-miss event is viewed. By prompting, it is possible to objectively recognize the situation of the event that caused the dangerous reaction.
次に、上述したデータベース作成処理のステップ36の処理における原因車両の特定方法の変形例について説明する。
はじめに、変形例の説明で用いられるヒヤリ・ハットイベントのパターン例について説明する。
図12、図13は、ヒヤリ・ハットイベントのパターン例を示した図である。
ヒヤリ・ハットイベントのパターンとしては、上述した図10に示す割り込みの他に、図12(a)に示す『急ブレーキ』(パターンA)、図12(b)に示す『割り込み−1』(パターンB)、図12(c)に示す『割り込み−2』(パターンC)、図13(a)に示す『ふらつき』(パターンD)、図13(b)に示す『交差点 飛び出し』(パターンE)、図13(c)に示す『対向車線へのはみ出し』(パターンF)などのパターンがある。
Next, a modified example of the method for identifying the cause vehicle in the process of step 36 of the database creation process described above will be described.
First, an example of a near-miss event pattern used in the description of the modification will be described.
12 and 13 are diagrams showing examples of near-miss event patterns.
As a pattern of the near-miss event, in addition to the interrupt shown in FIG. 10 described above, “rapid braking” (pattern A) shown in FIG. 12A and “interrupt-1” shown in FIG. 12B (pattern) B), “Interrupt-2” (pattern C) shown in FIG. 12C, “Fluctuation” (pattern D) shown in FIG. 13A, “Jump out of intersection” (pattern E) shown in FIG. , There are patterns such as “protruding to the opposite lane” (pattern F) shown in FIG.
図12(a)に示す『急ブレーキ』は、原因車両の前方不注意による急ブレーキに起因するヒヤリ・ハットイベントのパターンである。
図12(b)に示す『割り込み−1』は、2車線の道路において、一方の車線から他方の車線への原因車両の無理な割り込み、又は、2車線から1車線へ合流する地点における原因車両の無理な割り込みに起因するヒヤリ・ハットイベントのパターンである。
図12(c)に示す『割り込み−2』は、3車線の道路において、原因車両の2車線を跨ぐ車線変更に起因するヒヤリ・ハットイベントのパターンである。
“Sudden braking” shown in FIG. 12A is a pattern of a near-miss event due to sudden braking due to carelessness of the vehicle ahead.
“Interrupt-1” shown in FIG. 12 (b) is a cause vehicle at a point where a cause vehicle is forcedly interrupted from one lane to the other lane on a two-lane road or merged from two lanes to one lane. This is a pattern of near-miss events caused by unreasonable interruptions.
“Interrupt-2” shown in FIG. 12C is a pattern of a near-miss event caused by a lane change across the two lanes of the cause vehicle on a three-lane road.
図13(a)に示す『ふらつき』は、原因車両が車線変更をしようとしたが途中でやめたことに起因するヒヤリ・ハットイベントのパターンである。
図13(b)に示す『交差点 飛び出し』は、交差点において原因車両が優先道路を走行中の車両の前方に飛び出したことに起因するヒヤリ・ハットイベントのパターンである。
図13(c)に示す『対向車線へのはみ出し』は、カーブなどで原因車両の対向車線へのはみ出しに起因するヒヤリ・ハットイベントのパターンである。
“Fluctuation” shown in FIG. 13A is a pattern of a near-miss event caused by the cause vehicle trying to change lanes but stopping halfway.
The “intersection jumping out” shown in FIG. 13B is a pattern of a near-miss event caused by the cause vehicle jumping out ahead of the vehicle traveling on the priority road at the intersection.
“Extrusion to oncoming lane” shown in FIG. 13C is a pattern of a near-miss event that is caused by an onset of the cause vehicle to the oncoming lane due to a curve or the like.
[例1]
例えば、パターンB〜Fに示すヒヤリ・ハットイベント(ふらつき、割り込み)の発生時、データセンタ2のCPU21は、関連イベント情報の画像情報に対して画像処理を行うことにより、各画像情報に写っている車両のナンバー、車種及び色を識別する。CPU21は、関連イベント情報の全画像情報に共通する車両を探索し、各車両の自車両特定情報の車両ナンバーと照合し、原因車両でない車両を消去して、原因車両を特定する。
このように消去法によって原因車両を特定するようにしてもよい。
[Example 1]
For example, when a near-miss event (fluctuation, interrupt) shown in patterns B to F occurs, the
In this way, the cause vehicle may be specified by the elimination method.
[例2]
例えば、パターンB〜Dに示すヒヤリ・ハットイベントの発生時、原因車両の実際の特定処理を、データセンタ2ではなく、ヒヤリ・ハット反応を検出した各車両の情報処理装置が画像処理によって行うようにしてもよい。
図14は、車両におけるヒヤリ・ハットイベントの原因車両の特定処理の動作手順を示したフローチャートである。
プローブカー1のECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像を、画像処理装置132で処理することにより前方車両を認識する(ステップ51)。
そしてECU10は、画像処理装置132において車両前方の撮像画像の解析処理を行い、その解析結果に基づいて、前方の車両のふらつき、又は、当該車両前方へ他車両の割り込みが発生したか否かを判断する(ステップ52)。
前方の車両のふらつき、又は、他車両の割り込みの発生が検出された場合(ステップ52;Y)、ECU10は、上述したヒヤリ・ハット情報の取得処理におけるステップ15と同様に、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、前方の車両のふらつき、又は、他車両の割り込みに対してヒヤリ・ハット反応が検出されたか否かを判定する(ステップ53)。
前方の車両のふらつき、又は、他車両の割り込みがヒヤリ・ハットイベントに相当すると判定された場合(ステップ53;Y)、ECU10は、前方の車両がヒヤリ・ハットイベントの原因車両と特定(認識)する(ステップ54)。
[Example 2]
For example, when a near-miss event shown in the patterns B to D occurs, the information processing device of each vehicle that has detected a near-hat reaction is performed by image processing instead of the
FIG. 14 is a flowchart showing an operation procedure for identifying the cause vehicle of a near-miss event in the vehicle.
The
Then, the
When the wobbling of the vehicle ahead or the occurrence of an interruption of another vehicle is detected (step 52; Y), the
When it is determined that the fluctuation of the vehicle ahead or the interruption of the other vehicle corresponds to a near-miss event (step 53; Y), the
そして、ECU10は、特定した原因車両の特定情報として車両ナンバー、車種・形式、色データの情報を、画像処理装置132による車両前方の撮像画像の解析処理を行うことによって取得する(ステップ55)。
ECU10は、取得した原因車両の特定情報を、ヒヤリ・ハット情報と共に、通信装置20を用いてデータセンタ2に送信し(ステップ56)、メインルーチンにリターンする。
一方、前方の車両のふらつき、又は、他車両の割り込みの発生が検出されない場合(ステップ52;N)、また、前方の車両のふらつき、又は、他車両の割り込みによっては、ヒヤリ・ハット反応が検出されない場合(ステップ53;N)、ECU10は、ステップ51の処理に戻る。
Then, the
The
On the other hand, when the occurrence of a wobbling of the vehicle ahead or the occurrence of an interruption of another vehicle is not detected (step 52; N), a near-miss reaction is detected depending on the wobbling of the vehicle ahead or the interruption of another vehicle. If not (step 53; N), the
データセンタ2のCPU21は、プローブカー1から送信された原因車両情報を取得することによって、ヒヤリ・ハットイベントの原因車両を特定する。
このように、ヒヤリ・ハットイベントの原因車両の特定処理をプローブカー1に分担させることにより、データセンタ2の負荷を軽減させることができるだけでなく、原因車両の特定精度を向上させることができる。
The
In this way, by causing the probe car 1 to share the processing for identifying the cause vehicle of the near-miss event, not only can the load on the
[例3]
データセンタ2が、管轄するエリア(カバーエリア)内の全車両と通信可能状態である場合、詳しくは、データセンタ2にエリア内の全車両の走行位置情報などが継続的に送信されることで各車両の走行軌跡を特定できる場合における、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
例えば、パターンB〜Dに示すヒヤリ・ハットイベントの発生時、データセンタ2のCPU21は、各車両から送信された車両の走行位置情報に基づいて、各車両の走行軌跡を算出する。
そして、CPU21は、算出された各車両の走行軌跡と、ヒヤリ・ハット情報を送信した車両との相対位置関係に基づいて原因車両を特定するようにしてもよい。CPU21は、例えば、1台だけ他車と軌跡ベクトルの向きが異なる車両を原因車両に特定する。
なお、軌跡ベクトルとは、各車両の走行軌跡に基づいて算出される、ある特定の時点における車両の走行方向きと速度を示したベクトルである。
[Example 3]
When the
For example, when a near-miss event shown in the patterns B to D occurs, the
Then, the
The trajectory vector is a vector indicating the travel direction and speed of the vehicle at a specific time point calculated based on the travel trajectory of each vehicle.
[例4]
上述した[例3]と同様に、データセンタ2が、管轄するエリア(カバーエリア)内の全車両と通信可能状態である場合、詳しくは、データセンタ2にエリア内の全車両の走行位置情報などが継続的に送信されることで各車両の走行軌跡を特定できる場合における、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
例えば、パターンB〜Dに示すヒヤリ・ハットイベントの発生時、データセンタ2のCPU21は、同一のヒヤリ・ハットイベントのエリア内(ヒヤリ・ハットイベントの関連領域内)に存在し、かつヒヤリ・ハット情報を送信していない車両(危険反応が検出されていない車両)を探索する。
ここでは、CPU21は、例えば、同一のヒヤリ・ハットイベントのエリア内に存在する車両をリストアップする。そして、この車両リストと、当該ヒヤリ・ハット情報の送信元リストとを比較し、車両リストから、ヒヤリ・ハット情報を送信した車両を削除することにより、危険反応が検出されていない車両を探索する。
[Example 4]
Similarly to [Example 3] described above, when the
For example, when a near-miss event shown in the patterns B to D occurs, the
Here, CPU21 lists the vehicle which exists in the area of the same near-miss event, for example. Then, the vehicle list and the transmission source list of the near-miss information are compared, and the vehicle that has transmitted the near-miss information is deleted from the vehicle list to search for a vehicle in which no dangerous reaction is detected. .
なお、ヒヤリ・ハットイベントのエリアとは、例えば、最初に検出されたヒヤリ・ハット情報で特定される時刻と位置を基準とし、基準時刻から所定判定時間(例えば3分)以内における、基準位置から所定判定距離(例えば半径50m)の領域を示す。
そして、CPU21は、探索された複数の車両の中からヒヤリ・ハット情報を送信した車両、即ち、危険反応が検出された車両に最も近い車両を原因車両に特定するようにしてもよい。
但し、上記[例1]〜[例4]に示す原因車両の特定方法は、原因車両において危険反応が検出されない場合を想定する。
The near-miss event area is, for example, from the reference position within a predetermined determination time (for example, 3 minutes) from the reference time based on the time and position specified by the first detected near-miss information. An area having a predetermined determination distance (for example, a radius of 50 m) is shown.
Then, the
However, the identification method of the cause vehicle shown in the above [Example 1] to [Example 4] assumes a case where no dangerous reaction is detected in the cause vehicle.
[例5]
ヒヤリ・ハットイベントに関連する車両間において、車車間通信が可能な状態である場合、即ち、プローブカー1同士がデータセンタ2を介さずに直接通信が可能な場合における、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
なお、この場合には、[例1]と同様に、データセンタ2ではなく、ヒヤリ・ハットイベントに関連している車両(プローブカー1)の情報処理装置において原因車両の実際の特定処理を行う。
[Example 5]
Causes of a near-miss event when vehicles related to a near-miss event are in a state where vehicle-to-vehicle communication is possible, that is, when the probe cars 1 can directly communicate with each other without going through the
In this case, as in [Example 1], not the
例えば、パターンAに示すような原因車両の前方不注意による急ブレーキが原因のヒヤリ・ハットイベントの発生時、各プローブカー1における情報処理装置のECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像情報に基づいて、前方車両のブレーキランプが点灯したことを認識する。
その後、運転者の危険反応(ヒヤリ・ハット反応)が検出された場合、ECU10は、前方車両のブレーキランプの点灯を認識してから、運転者の危険反応が検出されるまでの時間に基づいて、自車両が原因車両であるか、又は、前方車両が原因車両であるかを判断する。
ここでは、例えば、前方車両のブレーキランプの点灯から、運転者の危険反応が検出されるまでに1秒以上経過した場合には、自車両が原因車両と判断し、即ち、運転者自身の不注意に起因する危険反応であると判断する。一方、経過時間が1秒未満である場合には、前方車両が原因車両であると判断し、即ち、前方車両の急ブレーキに起因する危険反応であると判断する。
For example, when a near-miss event occurs due to a sudden braking due to carelessness of the vehicle ahead as shown in pattern A, the
Thereafter, when a driver's dangerous reaction (near-miss reaction) is detected, the
Here, for example, if one or more seconds elapse from the lighting of the brake lamp of the preceding vehicle until the driver's dangerous reaction is detected, the vehicle is determined to be the cause vehicle, that is, the driver's own failure. Judged as a dangerous reaction due to attention. On the other hand, when the elapsed time is less than 1 second, it is determined that the preceding vehicle is the cause vehicle, that is, it is determined that the reaction is a dangerous reaction caused by the sudden braking of the preceding vehicle.
前方車両が原因車両であると判断した場合、ECU10は、前方車両が原因車両である旨の判断結果を、前方車両へ送信する。
一方、自車両が原因車両であると判断した場合、ECU10は、自車両が原因車両である旨の判断結果を、ヒヤリ・ハット情報と共にデータセンタ2に送信する。
なお、自車両が原因車両であると判断した場合において、後続車両から“前方車両(=自車両)が原因車両である旨の判断結果”を受信した際には、後続車両へ、自車両が原因車両である旨の判断結果を送信する。
そして、データセンタ2のCPU21は、プローブカー1から送信された原因車両情報を取得することによって、ヒヤリ・ハットイベントの原因車両を特定するようにしてもよい。
When it is determined that the preceding vehicle is the cause vehicle, the
On the other hand, when determining that the host vehicle is the cause vehicle, the
When it is determined that the own vehicle is the cause vehicle, when the “determination result that the preceding vehicle (= own vehicle) is the cause vehicle” is received from the following vehicle, the own vehicle The judgment result indicating that the vehicle is the cause is transmitted.
Then, the
次に、車車間通信を利用した原因車両の特定処理の具体的な手順について説明する。
図15は、車車間通信を利用したヒヤリ・ハットイベントの原因車両の特定処理の動作手順を示したフローチャートである。
ここでは、図12(a)に示すような原因車両の前方不注意による急ブレーキが原因のヒヤリ・ハットイベントの発生時を例に説明し、具体的には、車両A(原因車両)、車両B及び車両Cにおける車車間通信を利用した原因車両の特定方法について説明する
Next, a specific procedure for identifying the cause vehicle using inter-vehicle communication will be described.
FIG. 15 is a flowchart showing an operation procedure for identifying a cause vehicle of a near-miss event using inter-vehicle communication.
Here, an explanation will be given by taking as an example the occurrence of a near-miss event caused by sudden braking due to carelessness in front of the cause vehicle as shown in FIG. 12A. Specifically, vehicle A (cause vehicle), vehicle A method for identifying a cause vehicle using inter-vehicle communication in B and vehicle C will be described.
車両AのECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像情報に基づいて、前方車両のブレーキランプが点灯したことを認識する(ステップ71)。
そして、前方車両のブレーキランプの点灯が認識されてから1秒以上経過した後に、車両AのECU10は、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、運転者のヒヤリ・ハット反応(危険反応)を検出する(ステップ72)。
車両AのECU10は、ブレーキ踏力センサ142により検出された値に基づいて、運転者の急ブレーキ操作を検出する(ステップ73)。
The
Then, after one second or more has passed since the lighting of the brake lamp of the preceding vehicle is recognized, the
The
車両BのECU10は、車両前方の画像情報に基づいて、車両Aの点灯したブレーキランプを認識する(ステップ81)。
そして、前方車両のブレーキランプの点灯が認識されてから1秒以内に、車両BのECU10は、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、運転者のヒヤリ・ハット反応(危険反応)を検出する(ステップ82)。
車両BのECU10は、ブレーキ踏力センサ142により検出された値に基づいて、運転者の急ブレーキ操作を検出する(ステップ83)。
車両BのECU10は、自車両(車両B)において検出されたヒヤリ・ハット情報を前方車両(車両A)に送信する(ステップ84)。
The
Then, within one second after the lighting of the brake lamp of the preceding vehicle is recognized, the
The
The
車両CのECU10は、車両前方の画像情報に基づいて、車両Bにおける急ブレーキ操作により点灯したブレーキランプを認識する(ステップ91)。
そして、前方車両のブレーキランプの点灯が認識されてから1秒以内に、車両CのECU10は、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、運転者のヒヤリ・ハット反応(危険反応)を検出する(ステップ92)。
車両CのECU10は、ブレーキ踏力センサ142により検出された値に基づいて、運転者の急ブレーキ操作を検出する(ステップ93)。
車両CのECU10は、自車両(車両C)において検出されたヒヤリ・ハット情報を前方車両(車両B)に送信する(ステップ94)。
なお、上述したステップ84、ステップ94における前方車両に検出されたヒヤリ・ハット情報を送信する処理は、前方車両のブレーキランプの点灯が認識されてから1秒以内に運転者のヒヤリ・ハット反応が検出された場合にのみ実行される。
The
Then, within one second after the lighting of the brake lamp of the preceding vehicle is recognized, the
The
The
The process of transmitting the detected near-miss information to the preceding vehicle in the above-described
車両AのECU10は、車両Bから送信されたヒヤリ・ハット情報を受信する(ステップ74)。
そして車両AのECU10は、自車両が原因車両であるか否かを判断する(ステップ75)。ここでECU10は、例えば、前方車両のブレーキランプの点灯を認識してから、運転者の危険反応が検出されるまでに1秒以上経過した場合に、自車両が原因車両と判断する。
自車両が原因車両であると判断した場合(ステップ75;Y)、車両AのECU10は、自車両(車両A)が原因車両である旨を示した情報(原因車両情報)を、データセンタ2及び車両Bに送信し(ステップ76)、メインルーチンにリターンする。
一方、自車両が原因車両でないと判断した場合(ステップ75;N)、そのままメインルーチンにリターンする。
The
Then, the
When it is determined that the host vehicle is the cause vehicle (step 75; Y), the
On the other hand, when it is determined that the host vehicle is not the cause vehicle (step 75; N), the process directly returns to the main routine.
車両BのECU10は、車両Aから原因車両情報が送信された場合、この車両Aから送信された原因車両情報を受信する(ステップ85)。
また、車両BのECU10は、車両Cから送信された車両Cで検出されたヒヤリ・ハット情報を受信する(ステップ86)。
車両BのECU10は、車両Aが原因車両である旨を示した情報(原因車両情報)を、車両Cに送信し(ステップ87)、メインルーチンにリターンする。
車両CのECU10は、車両Bから送信された、車両Aが原因車両である旨を示した情報(原因車両情報)を受信し(ステップ95)、メインルーチンにリターンする。
データセンタ2のCPU21は、車両A、即ち原因車両から送信された原因車両情報を取得することによって、ヒヤリ・ハットイベントの原因車両を特定することができる。
When the cause vehicle information is transmitted from the vehicle A, the
Further, the
The
The
The
[例6]
次に、データセンタ2が管轄するエリア(カバーエリア)内に設置されている交通監視カメラと通信可能状態である場合、即ち、データセンタ2がエリア内を監視しているカメラ映像を取得することが可能な場合に利用可能な、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
例えば、パターンA〜Fに示すヒヤリ・ハットイベントの発生時、データセンタ2のCPU21は、関連イベント情報に基づいてヒヤリ・ハットイベントの発生位置を特定し、その特定エリア(該当エリア)を監視しているカメラ映像を取得する。
[Example 6]
Next, when communication with a traffic monitoring camera installed in an area (cover area) managed by the
For example, when a near-miss event shown in patterns A to F occurs, the
CPU21は、取得したカメラ映像を解析し、カメラ映像の解析結果と、関連イベント情報、詳しくは、該ヒヤリ・ハットイベントに関連する車両から送信された自車両特定情報や画像情報から得られる各車両情報とを照合し、原因車両を特定する。
このように、交通監視カメラの撮像画像情報を利用して原因車両を特定するようにしてもよい。交通監視カメラの撮像画像情報を利用することにより、より多くの証拠情報に基づいて、原因車両の特定ができるため、原因車両の特定精度をより向上させることができる。
The
In this way, the cause vehicle may be specified using the captured image information of the traffic monitoring camera. By using the captured image information of the traffic monitoring camera, the cause vehicle can be identified based on more evidence information, so that the cause vehicle identification accuracy can be further improved.
[例7]
例えば、パターンB〜Fに示すヒヤリ・ハットイベントの発生時、ヒヤリ・ハットイベントに関連している車両(プローブカー1)の情報処理装置において、自車両又は周辺に位置する他車両が原因車両である可能性を有していることを判断し、その判断結果をデータセンタ2へ送信する。そしてデータセンタ2が、関連車両から送信された判断結果の情報に基づいて、原因車両を特定するようにしてもよい。
[Example 7]
For example, when a near-miss event shown in patterns B to F occurs, in the information processing apparatus for a vehicle (probe car 1) related to the near-miss event, the own vehicle or another vehicle located in the vicinity is the cause vehicle. It is determined that there is a possibility, and the determination result is transmitted to the
図16は、車両におけるヒヤリ・ハットイベントの原因車両である可能性を有する車両の特定処理の動作手順を示したフローチャートである。
プローブカー1のECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像を、画像処理装置132に読み込んで解析し、走行中の車線を認識する(ステップ101)。
そしてECU10は、画像処理装置132において車両前方の撮像画像の解析処理を行い、その解析結果に基づいて、自車両が走行車線を逸脱したか否かを判断する(ステップ102)。
自車両が走行車線を逸脱していない場合(ステップ102;N)、ECU10は、ステップ101に戻り、処理を繰り返す。
FIG. 16 is a flowchart illustrating an operation procedure of a process for identifying a vehicle having a possibility of being a cause vehicle of a near-miss event in the vehicle.
The
Then, the
If the host vehicle has not deviated from the travel lane (step 102; N), the
自車両が走行車線を逸脱した場合(ステップ102;Y)、ECU10は、上述したヒヤリ・ハット情報の取得処理におけるステップ15と同様に、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、この自車両の車線逸脱がヒヤリ・ハットイベントに相当するか否かを判定する(ステップ103)。
自車両の車線逸脱がヒヤリ・ハットイベントに相当しないと判定された場合(ステップ103;N)、ECU10は、自車両が原因車両である可能性がある旨の判断結果を、自車両の特定情報と共にデータセンタ2に送信し(ステップ104)、メインルーチンにリターンする。
一方、自車両の車線逸脱がヒヤリ・ハットイベントに相当すると判定された場合(ステップ103;Y)、ECU10は、例えば、車間距離・相対速度測定装置131の測定結果に基づいて、自車両の周辺(周囲)に他車両が存在するか否かを判断する(ステップ105)。
When the host vehicle deviates from the driving lane (step 102; Y), the
When it is determined that the lane departure of the host vehicle does not correspond to a near-miss event (step 103; N), the
On the other hand, when it is determined that the lane departure of the host vehicle corresponds to a near-miss event (step 103; Y), the
自車両の周辺(周囲)に他車両が存在しない場合(ステップ105;N)、メインルーチンにリターンする。
自車両の周辺(周囲)に他車両が存在する場合(ステップ105;Y)、ECU10は、自車両の周辺(周囲)に存在する他車両が原因車両である可能性がある旨の判断結果を、自車両の特定情報と共にデータセンタ2に送信し(ステップ106)、メインルーチンにリターンする。
そして、データセンタ2のCPU21は、プローブカー1から送信された原因車両である可能性を有する車両の情報に基づいて、ヒヤリ・ハットイベントの原因車両を特定する。
このような原因車両である可能性を有する旨を示した情報をデータセンタ2に提供することにより、原因車両の特定精度をより向上させることができる。
If there is no other vehicle around (around) the host vehicle (step 105; N), the process returns to the main routine.
When there is another vehicle around (around 105) the host vehicle (step 105; Y), the
Then, the
By providing the
なお、上述した本実施形態、及び[例1]〜[例7]で説明したヒヤリ・ハットイベントの原因車両の特定方法は、システムの設備環境に応じて、それぞれ単独で用いるようにしても、また、複数の方法を組み合わせて用いるようにしてもよい。
例えば、[例2]で説明した車両(プローブカー1)側で原因車両を実際に特定する方法と、[例6]で説明したデータセンタ2側で原因車両を特定する方法とを組み合わせて用いるようにしてもよい。
It should be noted that the method for identifying the cause vehicle of the near-miss event described in the above-described embodiment and [Example 1] to [Example 7] may be used independently according to the facility environment of the system. A plurality of methods may be used in combination.
For example, the method of actually identifying the cause vehicle on the vehicle (probe car 1) side described in [Example 2] and the method of identifying the cause vehicle on the
1 プローブカー
2 データセンタ
3 PC
4 携帯電話
5 車両
6 ネットワーク
11 現在位置検出装置
12 生体情報取得装置
13 環境情報取得装置
14 車両情報取得装置
15 記憶装置
16 画像入力装置
17 表示装置
18 音声出力装置
19 入力装置
20 通信装置
21 CPU
22 ROM
23 RAM
24 入力装置
25 出力装置
26 通信装置
27 記憶部
28 データベース
121 心拍センサ
122 皮膚インピーダンスセンサ
131 車間距離・相対速度測定装置
132 画像処理装置
141 ハンドル舵角センサ
142 ブレーキ踏力センサ
143 アクセル踏力センサ
144 車速センサ
145 ジャイロセンサ
151 生体情報処理プログラム
152 車両情報処理プログラム
153 環境情報処理プログラム
154 ヒヤリ・ハット判定プログラム
155 ヒヤリ・ハット情報記憶メモリ
156 車両情報記憶メモリ
157 環境情報記憶メモリ
158 画像記憶メモリ
159 地図データベース
161 ステレオカメラ
1
4 Cellular Phone 5 Vehicle 6
22 ROM
23 RAM
24
Claims (6)
前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定手段と、
前記特定した各関連車両の周囲画像を取得する画像取得手段と、
前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成手段と、
前記原因車両を特定する原因車両特定手段と、
前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信手段と、
を具備したことを特徴とするデータベース作成装置。 Detection information acquisition means for acquiring detection information including a detection time and a vehicle position from the vehicle that has detected a change in the biological information of the driver due to an event based on a specific cause vehicle ,
Based on the acquired detection information, related vehicle specifying means for specifying related vehicles related to each event;
Image acquisition means for acquiring a surrounding image of each identified related vehicle;
Reproduction image creation means for creating a reproduction image of each event based on the acquired image;
A cause vehicle identifying means for identifying the cause vehicle;
Access information transmitting means for transmitting access information for viewing the created reproduced image to the identified cause vehicle;
A database creation device characterized by comprising:
前記再現画像作成手段は、前記取得した動画像に基づいて、各イベントの再現画像を作成することを特徴とする請求項1、又は請求項2記載のデータベース作成装置。 The image acquisition means acquires, as a surrounding image of the related vehicle, a moving image around the vehicle before and after the detection of a change in the biological information of the driver from the vehicle from which the detection information has been acquired.
The database creation device according to claim 1, wherein the reproduction image creation unit creates a reproduction image of each event based on the acquired moving image.
前記検知情報取得手段が、特定の原因車両に基づくイベントを起因とする運転者の生体情報の変化を検知した車両から、該生体情報の変化を検知した検知時刻、及び車両位置を含む検知情報を取得する検知情報取得機能と、
前記関連車両特定手段が、前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定機能と、
前記画像取得手段が、前記特定した各関連車両の周囲画像を取得する画像取得機能と、
前記再現画像作成手段が、前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成機能と、
前記原因車両特定手段が、前記原因車両を特定する原因車両特定機能と、
前記アクセス情報送信手段が、前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信機能と、
を実現させるためのコンピュータ読み取り可能なデータベース作成プログラム。 In a database creation device comprising detection information acquisition means, related vehicle identification means, image acquisition means, reproduction image creation means, cause vehicle identification means, and access information transmission means ,
The detection information acquisition means includes detection information including a detection time at which a change in the biological information is detected and a vehicle position from a vehicle in which the change in the biological information of the driver due to an event based on the specific cause vehicle is detected. Detection information acquisition function to acquire,
The related vehicle specifying means specifies a related vehicle related to each event based on the acquired detection information;
An image acquisition function in which the image acquisition means acquires a surrounding image of each identified related vehicle;
The reproduction image creation means creates a reproduction image of each event based on the acquired image, a reproduction image creation function,
The cause vehicle specifying means specifies a cause vehicle specifying function for specifying the cause vehicle;
The access information transmitting means transmits an access information for browsing the created reproduced image to the identified cause vehicle, and an access information transmitting function.
A computer-readable database creation program for realizing the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007074427A JP4986135B2 (en) | 2007-03-22 | 2007-03-22 | Database creation device and database creation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007074427A JP4986135B2 (en) | 2007-03-22 | 2007-03-22 | Database creation device and database creation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008234414A JP2008234414A (en) | 2008-10-02 |
JP4986135B2 true JP4986135B2 (en) | 2012-07-25 |
Family
ID=39907100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007074427A Expired - Fee Related JP4986135B2 (en) | 2007-03-22 | 2007-03-22 | Database creation device and database creation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4986135B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105206045A (en) * | 2015-09-28 | 2015-12-30 | 深圳中创未来科技有限公司 | Method and system for guaranteeing car renting safety and mobile terminal |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120044327A1 (en) * | 2009-05-07 | 2012-02-23 | Shinichi Horita | Device for acquiring stereo image |
JP5585193B2 (en) * | 2010-05-07 | 2014-09-10 | 富士通株式会社 | Event data processing method, program, and apparatus |
JP5610921B2 (en) * | 2010-08-24 | 2014-10-22 | アルパイン株式会社 | Travel history display device, travel history display method, and travel history display program |
JP5335754B2 (en) * | 2010-10-27 | 2013-11-06 | 株式会社エフティエルインターナショナル | Elderly mobility support system |
JP5543501B2 (en) * | 2012-01-27 | 2014-07-09 | 株式会社日本自動車部品総合研究所 | Vehicle control device |
JP5807578B2 (en) * | 2012-02-10 | 2015-11-10 | アイシン・エィ・ダブリュ株式会社 | Alerting system, alerting program, and alerting method |
JP6814236B2 (en) * | 2012-11-30 | 2021-01-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing method |
JP2015005168A (en) * | 2013-06-21 | 2015-01-08 | 創研光電股▲ふん▼有限公司 | Drive recorder (dr) having lane departure warning system (ldws), and forward collision warning system (fcws) |
JP6234722B2 (en) * | 2013-07-05 | 2017-11-22 | 株式会社昭文社 | Information providing system and information providing server |
JP6331285B2 (en) * | 2013-08-08 | 2018-05-30 | 富士通株式会社 | Driving support method, driving support device, vehicle system, and driving support program |
JP6201603B2 (en) * | 2013-10-04 | 2017-09-27 | 富士通株式会社 | Information management program, information management method, and information processing apparatus |
JP6279893B2 (en) * | 2013-12-12 | 2018-02-14 | 株式会社Nttドコモ | Search support apparatus, communication system, search support method, and program |
JP6270580B2 (en) * | 2014-03-26 | 2018-01-31 | 本田技研工業株式会社 | Vehicle information terminal |
JP2015219531A (en) * | 2014-05-13 | 2015-12-07 | 株式会社デンソー | In-vehicle device and travel image storage system |
JP6301758B2 (en) * | 2014-07-07 | 2018-03-28 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Driver crisis management device, driver crisis management method, and driver crisis management program |
JP6160594B2 (en) * | 2014-10-27 | 2017-07-12 | 富士通株式会社 | Dangerous driving recording method, dangerous driving recording program, and dangerous driving recording device |
JP6419033B2 (en) * | 2015-07-06 | 2018-11-07 | 日本電信電話株式会社 | Drive control device, drive control method, and drive control program |
JP6471675B2 (en) * | 2015-10-21 | 2019-02-20 | 株式会社デンソー | Driving support system, information transmission device, and driving support device |
JP6308444B2 (en) * | 2016-03-11 | 2018-04-11 | パナソニックIpマネジメント株式会社 | Transmission device, communication system |
JP6915982B2 (en) * | 2016-12-07 | 2021-08-11 | 損害保険ジャパン株式会社 | Information processing equipment, information processing methods and information processing programs |
JP6960220B2 (en) * | 2016-12-07 | 2021-11-05 | 損害保険ジャパン株式会社 | Information processing equipment, information processing methods and information processing programs |
JP7129147B2 (en) * | 2017-05-19 | 2022-09-01 | 株式会社デンソーテン | Vehicle device, safe driving support system, and safe driving support method |
JP7043785B2 (en) * | 2017-10-25 | 2022-03-30 | 株式会社Ihi | Information generator |
JP7081131B2 (en) * | 2017-12-11 | 2022-06-07 | 日産自動車株式会社 | Acceleration / deceleration control method and acceleration / deceleration control device |
JP7255582B2 (en) | 2018-02-26 | 2023-04-11 | 日本電気株式会社 | DANGEROUS ACTION ELIMINATION SYSTEM, DEVICE, METHOD AND PROGRAM |
JP6714036B2 (en) * | 2018-04-25 | 2020-06-24 | 株式会社日立物流 | Management support system |
JP2019197463A (en) * | 2018-05-11 | 2019-11-14 | 日本電気通信システム株式会社 | Vehicle information analyzing device, driving support device, driving support system, vehicle information analyzing method, driving support method, and program |
JP6983335B2 (en) * | 2018-09-21 | 2021-12-17 | 三菱電機株式会社 | Operation judgment device and operation judgment method |
JP7187371B2 (en) * | 2019-03-28 | 2022-12-12 | Kddi株式会社 | Video provision system |
US11741839B2 (en) | 2019-04-23 | 2023-08-29 | Quon Technology Ltd. | Traffic safety assistance device, mobile information terminal, and program |
JP7254000B2 (en) * | 2019-08-02 | 2023-04-07 | 株式会社デンソーテン | Image delivery device and method, and image delivery system |
JP7369775B2 (en) * | 2019-08-08 | 2023-10-26 | ロジスティード株式会社 | Driving incident notification system, method and program |
JP7369776B2 (en) * | 2019-08-08 | 2023-10-26 | ロジスティード株式会社 | Operation incident image display system, method and program |
JP7243586B2 (en) * | 2019-11-11 | 2023-03-22 | トヨタ自動車株式会社 | Information processing device, information processing system, and information processing program |
JP7347389B2 (en) * | 2020-09-25 | 2023-09-20 | トヨタ自動車株式会社 | Driving evaluation system |
JP7264865B2 (en) * | 2020-12-18 | 2023-04-25 | 矢崎エナジーシステム株式会社 | Risk assessment device |
JP7551536B2 (en) | 2021-02-25 | 2024-09-17 | 株式会社フジタ | Near-miss incident database generation method and near-miss incident database generation system |
CN113240909B (en) * | 2021-06-17 | 2022-11-29 | 阿波罗智联(北京)科技有限公司 | Vehicle monitoring method, equipment, cloud control platform and vehicle road cooperative system |
JP7320104B1 (en) | 2022-04-28 | 2023-08-02 | 株式会社セトラス | Image transaction device, information processing method and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3848554B2 (en) * | 2001-10-11 | 2006-11-22 | 株式会社日立製作所 | Danger information collection / distribution device, alarm generation device, vehicle danger information transmission device, and route search device |
JP2003252152A (en) * | 2001-12-28 | 2003-09-10 | Matsushita Electric Ind Co Ltd | Vehicle information recording system |
JP3798996B2 (en) * | 2002-06-19 | 2006-07-19 | 圭寿 藤沼 | Vehicle accident situation automatic collection system |
JP2007011148A (en) * | 2005-07-01 | 2007-01-18 | Atsushi Yagi | Traffic safety education support system |
JP4815943B2 (en) * | 2005-08-19 | 2011-11-16 | 株式会社デンソー | Hazardous area information display device |
-
2007
- 2007-03-22 JP JP2007074427A patent/JP4986135B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105206045A (en) * | 2015-09-28 | 2015-12-30 | 深圳中创未来科技有限公司 | Method and system for guaranteeing car renting safety and mobile terminal |
Also Published As
Publication number | Publication date |
---|---|
JP2008234414A (en) | 2008-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4986135B2 (en) | Database creation device and database creation program | |
US12172652B2 (en) | Driver and vehicle monitoring feedback system for an autonomous vehicle | |
CN110892351B (en) | Vehicle control device and vehicle control method | |
US20210394751A1 (en) | Information processing apparatus, information processing method, and program | |
JP4815943B2 (en) | Hazardous area information display device | |
US10527450B2 (en) | Apparatus and method transitioning between driving states during navigation for highly automated vechicle | |
JP2008015561A (en) | Information providing vehicle and driving support device | |
JP6109593B2 (en) | Risk information processing method, apparatus and system, and program | |
JP6638608B2 (en) | Driving support system | |
CN111547043A (en) | Automatic response to emergency service vehicle by autonomous vehicle | |
US20130147955A1 (en) | Warning system, vehicular apparatus, and server | |
JP6552992B2 (en) | Information processing apparatus, in-vehicle apparatus, and information processing method | |
JP2008186045A (en) | Driving evaluation apparatus | |
JP2007047914A (en) | Danger reaction point recording system and operation support system | |
CN110462702B (en) | Travel route providing system, control method thereof, and medium | |
KR101476886B1 (en) | Apparatus for assisting change of the driving path | |
US11260856B2 (en) | Information display device, information display method, and recording medium | |
CN114261394B (en) | Method, system and computer readable storage medium for determining traffic scenario | |
JP2022149946A (en) | Driving characteristic determination device, driving characteristic determination method, and driving characteristic determination program | |
JP2019079363A (en) | Vehicle control device | |
JP4926182B2 (en) | Signal recognition apparatus, signal recognition method, signal recognition program, and recording medium | |
JP6303795B2 (en) | Route search system and route search method | |
JP4622749B2 (en) | Vehicle data collection device, vehicle driving support device, and vehicle safe driving support system | |
JP2004355055A (en) | On-vehicle electronic device and navigation method | |
JP6648551B2 (en) | Automatic driving device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110812 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4986135 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150511 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |