JP6679152B1 - 事故分析装置、事故分析方法及びプログラム - Google Patents
事故分析装置、事故分析方法及びプログラム Download PDFInfo
- Publication number
- JP6679152B1 JP6679152B1 JP2019098458A JP2019098458A JP6679152B1 JP 6679152 B1 JP6679152 B1 JP 6679152B1 JP 2019098458 A JP2019098458 A JP 2019098458A JP 2019098458 A JP2019098458 A JP 2019098458A JP 6679152 B1 JP6679152 B1 JP 6679152B1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- accident
- situation
- data
- absolute position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 191
- 238000012937 correction Methods 0.000 claims description 25
- 238000012935 Averaging Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 abstract description 45
- 238000010586 diagram Methods 0.000 abstract description 13
- 230000002093 peripheral effect Effects 0.000 description 44
- 238000012545 processing Methods 0.000 description 31
- 230000001133 acceleration Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Traffic Control Systems (AREA)
Abstract
【解決手段】事故車両が備えるセンサにより計測される車両データと事故車両が備えるカメラで撮影される映像データとを取得する取得部と、取得した車両データと映像データとに基づいて、事故車両が起こした事故の状況を分析する分析部と、分析部により分析された事故車両が起こした事故の状況と、事故の状況と過去の事故事例に関する情報とを対応づけた事故事例データとを比較することで、事故車両が起こした事故の状況に対応する過去の事故事例に関する情報を検索する検索部と、を有する事故分析装置を提供する。
【選択図】図2
Description
図1は、本実施形態に係る事故分析システムの一例を示す図である。図1に示す事故分析システム1は、事故分析装置10と、端末20とを含む。事故分析装置10と、端末20は、無線又は有線の通信ネットワークNを介して接続され、相互に通信を行うことができる。
図4は、事故分析装置10のハードウェア構成例を示す図である。事故分析装置10は、CPU(Central Processing Unit)、GPU(Graphical processing unit)等のプロセッサ11、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置12、有線又は無線通信を行う通信IF(Interface)13、入力操作を受け付ける入力デバイス14、及び情報の出力を行う出力デバイス15を有する。入力デバイス14は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス15は、例えば、ディスプレイ及び/又はスピーカ等である。
図5は、事故分析装置10の機能ブロック構成例を示す図である。事故分析装置10は、記憶部100と、取得部101と、分析部102と、生成部103と、検索部104と、出力部105とを含む。記憶部100は、事故分析装置10が備える記憶装置12を用いて実現することができる。また、取得部101と、分析部102と、生成部103と、検索部104と、出力部105とは、事故分析装置10のプロセッサ11が、記憶装置12に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD−ROM等の記憶媒体であってもよい。
続いて、事故分析装置10が、車両Cが起こした事故状況を分析する際の処理手順を、図2で説明した処理手順に沿って詳細に説明する。以下の説明においては、事故分析装置10は、事故を起こした車両Cから車両データ及び映像データを取得済みであるものとする。また、車両データ及び映像データには、それぞれ時刻情報又は同期情報が含まれているものとする。すなわち、本実施形態では、ある時点における映像データを分析する際、当該時点に対応する車両データを用いて分析を行うことが可能である、逆に、ある時点における車両データを分析する際、当該時点に対応する映像データを用いて分析を行うことが可能である。
図6は、事故分析装置10が周辺物の検出及び座標特定を行う際の処理手順を説明するための図である。当該処理手順は、図2のステップS12の処理手順に対応する。
図7は、事故分析装置10が車両Cと周辺物との相対的な位置関係を推定する際の処理手順を説明するための図である。当該処理は、図2のステップS13の処理手順に対応する。
図7のAを用いて具体例を示す。まず、分析部102には、カメラDを用いて1m先に、長さ1mの物体を垂直方向(又は水平方向)に置いて撮影した場合、画像内において何ピクセルを占めるのかを示すデータが格納済みであるものとする。当該データは、カメラの画角(レンズ角)によって異なることから、カメラDの機種ごとに対応づけられて格納されていてもよい。また、カメラDの機種によっては、広角レンズ又は魚眼レンズを利用していることが多い。そのため、分析部102は、カメラDで撮影された映像データについて、カメラDのレンズ特性に合わせて歪み補正を行った後で、以下に示す、周辺物までの距離の算出及び周辺物が存在する左右方向の角度の算出を行うようにしてもよい。歪み補正については、キューピック補間等の従来技術を利用することで実現可能である。
次に、分析部102は、式1を用いて、車両Cとトラックとの間の距離を算出する。図7のAの例では、領域C1の垂直方向の長さは、50((400−300)÷2)=50ピクセルである。従って、式1によれば、Y=200÷50=4mであると算出することができる。
図7のAを用いて具体例を示す。まず、分析部102には、カメラDの画角(レンズ角)を示すデータを格納してあるものとする。当該データは、カメラDの機種によって異なることから、カメラDの機種ごとに対応づけられて格納されていてもよい。
図8は、事故分析装置10が車両Cと周辺物との絶対位置を推定する際の処理手順を説明するための図である。当該処理は、図2のステップS14の処理手順に対応する。
SFMを用いることで、映像データにおける各フレームの画像に含まれる特徴点を抽出し、抽出した特徴点から各フレームの画像における対応点(対応する特徴点)を特定し、更に特定した対応点の動きを追うことでカメラの動きを再現することができる。特徴点の抽出には、例えば、SIFT特徴量と呼ばれる従来技術を用いることで実現することができる。また、対応点の特定は、例えばFLANN(Fast Library for Approximate Nearest Neighbors)と呼ばれる従来技術を用いることで実現することができる。
図9に示すように、分析部102は、SFMに基づく車両Cの絶対位置と、GPSによる車両Cの絶対位置とを用いて、車両Cの絶対位置をフレームごとに推定する。図9の左図に示す地点f11〜f16は、それぞれ、映像データの1フレーム〜6フレームを解析することで得られた車両Cの絶対位置であると仮定する。また、図9の中央の図に示す地点f21〜f26は、GPSにより得られた車両Cの絶対位置のうち、映像データの1フレーム〜6フレームに対応する時刻における車両Cの絶対位置であると仮定する。図9の右図に示す地点f31〜f36は、推定された車両Cの絶対位置を示す。なお、前述した通り、映像データの1フレームに対応する車両Cの絶対位置を示す地点f11は、地点f21と同一地点である。
分析部102は、推定したフレームごとの車両Cの絶対位置と、フレームごとの車両Cと周辺物との相対的な位置関係とに基づき、周辺物の絶対位置をフレームごとに算出する。前述した通り、車両Cと周辺物との相対的な位置関係は、図7のBに示すように、車両Cと周辺物との間の距離と、車両Cの進行方向(画像の中心方向)を基準(0度)とした場合における、当該周辺物が存在する左右方向の角度で示される。分析部102は、フレームごとの車両Cの絶対位置についてフレーム間で差分を取ることで得られた車両Cの絶対位置の移動方向を車両Cの進行方向とし、推定した進行方向を基準として、周辺物の相対位置に対応する緯度及び経度を算出することで、周辺物の絶対位置(緯度、経度)を得ることができる。
生成部103は、以上説明した処理手順により推定した、フレームごとの車両Cの絶対位置と周辺物の絶対位置とを道路地図上にマッピングすることで事故状況を示す画像を生成する。当該処理は、図2のステップS15の処理手順に対応する。
分析部102は、衝突の瞬間に車両Cに発生した加速度に基づいて、車両Cが他の車両、障害物等に衝突した方向を推定する。当該処理は、図2のステップS16の処理手順に対応する。
分析部102は、車両Cが起こした事故の状況を示す情報を出力する。当該処理は、図2のステップS17の処理手順に対応する。前述したように、分析部102は、事故の状況を示す情報として、図3に示す各項目を出力する。以下、図3に示す各項目を特定する際の処理手順を詳細に説明する。なお、以下の説明にて、「他車」とは車両Cが衝突した相手を意味する。
分析部102は、車両Cが衝突した時刻において、車両Cの衝突方向を中心とする所定範囲(例えば45度の範囲)に存在する周辺物のうち車両Cに最も近い周辺物を、車両Cに接触した対象物であると特定する。より具体的には、分析部102は、車両Cが衝突した時刻における周辺物の絶対位置(又は車両Cが衝突した時刻に最も近いフレームの画像を検索することで得られた周辺物の絶対位置)のうち、車両Cの衝突方向を中心とする所定範囲に存在し、かつ、車両Cに最も近い位置に存在する周辺物を抽出し、抽出した周辺物を、車両Cに接触した対象物であると特定する。
分析部102は、車両Cの衝突位置に応じて、接触部位を特定する。具体的には、衝突方向が図11の正面(D1)である場合、接触部位は、図13に示す前バンパーであるとする。また、衝突方向が右前方(D2)である場合、接触部位は、図13に示す右前バンパーであるとする。また、衝突方向が右(D3)である場合、接触部位は、図13に示す右側面であるとする。また、衝突方向が右後方(D4)である場合、接触部位は、図13に示す右後バンパーであるとする。また、衝突方向が後方(D5)である場合、接触部位は、図13に示す後バンパーであるとする。また、衝突方向が左後方(D6)である場合、接触部位は、図13に示す左後バンパーであるとする。また、衝突方向が左(D7)である場合、接触部位は、図13に示す左側面であるとする。また、衝突方向が左前方(D8)である場合、接触部位は、図13に示す左前バンパーであるとする。
分析部102は、車両Cが衝突した時刻における車両Cの絶対位置と、地図データとを突合することで、衝突時に車両Cが走行していた道路の道路種別を特定する。分析部102が特定する道路種別には、一般道、高速道路といった情報に加えて、直線道路、カーブ、交差点の中及びT字路の中といった情報が含まれていてもよい。
分析部102は、映像データをフレームごとに画像解析することで特定した信号機の色や矢印信号を用いて、信号色を特定する。例えば、分析部102は、衝突時に車両Cが走行していた道路の道路種別が交差点の中である場合、映像データを解析することで特定された信号機の色のうち、衝突時の時刻に最も近い時刻のフレームの画像であって、かつ、車両Cが交差点に進入する前に特定された信号機の色を、車両C側の信号色(青、黄、赤のいずれか)であると特定する。車両Cが交差点に進入する前か否かは、車両Cの絶対位置と地図データとを突合することで判定可能である。
車両Cと接触した対象が歩行者である場合、分析部102は、映像データをフレームごとに画像解析することで特定した歩行者の絶対位置及び横断歩道(又は安全地帯)の絶対位置を用いて、歩行者と横断歩道・安全地帯の位置関係を特定する。なお、分析部102は、横断歩道の絶対位置については、地図データから取得するようにしてもよい。
分析部102は、事故が交差点付近で生じた場合(車両Cが衝突した時刻における車両Cの絶対位置が、交差点の中心位置から所定の範囲内である場合)、フレームごとの車両Cの絶対位置を交差点の地図データ上に並べることで、車両Cの走行軌跡を特定する。また、分析部102は、フレームごとの他車の絶対位置を交差点の地図データ上に並べることで、他車の走行軌跡を特定する。より具体的には、分析部102は、走行軌跡の曲率の大きさ及び方向に基づいて、車両C及び他車が交差点を直進したのか、右折したのか、左折したのか、早回り右折をしたのかを特定する。
分析部102は、事故が高速道路上で生じた場合(車両Cが衝突した時刻における車両Cの絶対位置が、高速道路上である場合)、映像データをフレームごとに分析することで、又は、車両Cの絶対位置と地図データとを突合することで、車両Cが、本線を走行していたのか追い越し車線を走行していたのかを特定する。例えば、一番右の車線を走行している場合は追い越し車線を走行していたと特定し、一番右以外の車線を走行している場合は本線を走行していたと特定する。
分析部102は、事故が交差点付近で生じた場合、地図データから、交差点における一時停止標識の有無及び道路幅を抽出することで、車両Cが優先的に交差点に進入可能な側であったのか否かを判定する。より具体的には、交差点を交差する道路のうち、一時停止標識が無い側を走行している車両を優先であると特定する。また、交差点を交差する道路幅に二倍以上の差異がある場合、広い方の道路を走行している車両を優先であると特定する。また、一時停止標識が存在せず、かつ、道路幅に差異がない場合は、優先関係がないと特定する。
分析部102は、フレームごとの車両C及び他車の絶対位置を並べることで得られる車両Cの走行軌跡と地図データとを突合することで、車両C及び他車が一時停止標識を停止せずに通過したか否かを特定する。また、分析部102は、車両C又は他車が一時停止標識を停止せずに通過した場合、通過した時点における車両C又は他車の車速が、一時停止標識の前後の所定区間(例えば前後3m等)において所定速度(例えば5km等)以上である場合、一時停止違反であると特定する。一方、分析部102は、通過した時点における車両C又は他車の車速が所定速度未満である場合、一時停止違反をしていないと特定する。
分析部102は、フレームごとの車両Cの絶対位置を並べることで得られる車両Cの走行軌跡と地図データとを突合することで、車両Cが走行した道路に設定されている制限速度を特定する。また、分析部102は、車両Cの車両データに含まれる車速データのうち、車両Cが衝突した時刻より所定時間前(例えば5秒前)のタイミングの車速と制限速度とを突合する。当該車速が制限速度を上回っている場合、分析部102は、車両Cは速度違反をしていたと特定する。当該車速が制限速度以下である場合、分析部102は、車両Cは速度違反をしていなかったと特定する。
分析部102は、車両Cの車両データに含まれる車速データから、車両Cの衝突前の速度を特定する。また、分析部102は、他車の車速を、映像データのフレームごとに推定した他車の絶対位置の変化から算出する。例えば、1フレームあたりの他車の移動距離が1mであり、映像データのフレームレートが1秒間に15フレームである場合、他車は時速60kmで走行していたと特定することができる。
分析部102は、映像データをフレームごとに画像解析することで、道路上の障害物の有無を特定する。分析部102は、車両Cが走行している車線道路上に道路と判断できない対象物が存在し、当該対象物が人、車、自転車及びバイクのいずれでもなく、かつ、フレーム間で絶対位置が移動していない場合、障害物であるとみなすようにしてもよい。
分析部102は、映像データをフレームごとに画像解析することで、他車のドアが開いていたのか閉していたのかを特定する。
分析部102は、車両Cの車両データに含まれるウィンカー作動情報から、車両Cが衝突前にウィンカーを動作させていたのか否かを特定する。また、分析部102は、映像データをフレームごとに画像解析することで、衝突前にウィンカーを動作させていたのか否かを特定する。
図17は、事故事例DBの一例を示す図である。図17に示すように、事故事例は、事故事例を検索するための「検索条件」と、事故の内容を示す「事故内容」と、基本の過失割合を示す「過失割合(基本)」と、過失割合の修正が必要になる条件である「修正要素」とを含む。
以上説明した実施形態によれば、事故分析装置10は、車両Cから取得した車両データと映像データとに基づいて、事故の状況を示す情報を分析するようにした。これにより事故状況と事故事例との突合を迅速に行うことが可能になった。
Claims (16)
- 事故車両が備えるセンサにより計測される車両データと前記事故車両が備えるカメラで撮影される映像データとを取得する取得部と、
取得した前記車両データと前記映像データとに基づいて、前記事故車両が起こした事故の状況を分析する分析部と、
前記分析部により分析された前記事故車両が起こした事故の状況と、事故の状況と過去の事故事例に関する情報とを対応づけた事故事例データとを比較することで、前記事故車両が起こした事故の状況に対応する過去の事故事例に関する情報を検索する検索部と、
を有し、
前記分析部は、
前記映像データを分析することで、所定フレームを含む複数フレームについて、前記所定フレームを含むフレーム間における前記事故車両の相対位置を1フレーム間隔で算出し、
前記所定フレームの時刻に対応する時刻で前記事故車両が備えるGPS装置により測定された位置情報と、前記所定フレームを含むフレーム間における前記事故車両の相対位置とに基づいて、前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置を推定し、
前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置と、前記複数フレームのうち前記所定フレーム以外のフレームの各々について前記GPS装置により測定された前記事故車両の第2絶対位置とを所定の重みに基づいて平均することで、前記事故車両の絶対位置を示す情報を推定する、
事故分析装置。 - 事故車両が備えるセンサにより計測される車両データと前記事故車両が備えるカメラで撮影される映像データとを取得する取得部と、
取得した前記車両データと前記映像データとに基づいて、前記事故車両が起こした事故の状況を分析する分析部と、
前記分析部により分析された前記事故車両が起こした事故の状況と、事故の状況と過去の事故事例に関する情報とを対応づけた事故事例データとを比較することで、前記事故車両が起こした事故の状況に対応する過去の事故事例に関する情報を検索する検索部と、
を有し、
前記分析部は、
前記事故車両の絶対位置を示す情報と、前記映像データに写っている他車の映像を解析することで得られる、前記事故車両と前記他車との相対的な位置関係を示す情報とに基づいて前記他車の絶対位置を推定し、
前記映像データのうち前記他車が写っている箇所の座標と前記映像データの中心座標との差分と、座標と角度との対応関係を示すデータとを比較することで、前記事故車両と前記他車との相対的な位置関係を示す情報のうち前記事故車両の進行方向と前記他車が存在する方向との角度差を推定する、事故分析装置。 - 前記分析部は、前記事故車両の絶対位置を示す情報と、前記映像データに写っている他車の映像を解析することで得られる、前記事故車両と前記他車との相対的な位置関係を示す情報とに基づいて前記他車の絶対位置を推定する、
請求項1又は2に記載の事故分析装置。 - 前記事故車両の絶対位置と前記他車の絶対位置とを地図データにマッピングすることで、前記事故車両が起こした事故の状況を示す画像を生成する生成部、を有する、
請求項3に記載の事故分析装置。 - 前記分析部は、前記映像データのうち該他車が写っている箇所の画像サイズと、画像サイズと距離との対応関係を示すデータとを比較し、前記事故車両と前記他車との相対的な位置関係を示す前記事故車両と前記他車との間の距離を推定することで、前記事故の状況を分析する、
請求項3又は4に記載の事故分析装置。 - 前記分析部は、前記映像データのうち該他車が写っている箇所の座標と前記映像データの中心座標との差分と、座標と角度との対応関係を示すデータとを比較することで、前記事故車両と前記他車との相対的な位置関係を示す前記事故車両の進行方向と前記他車が存在する方向との角度差を推定することで、前記事故の状況を分析する、
請求項3〜5のうちいずれか一項に記載の事故分析装置。 - 前記事故車両の絶対位置と前記他車の絶対位置とを地図データにマッピングすることで、前記事故車両が起こした事故の状況を示す画像を生成する生成部、を有する、
請求項2に記載の事故分析装置。 - 前記分析部は、
前記映像データを分析することで、所定フレームを含む複数フレームについて、前記所定フレームを含むフレーム間における前記事故車両の相対位置を1フレーム間隔で算出し、
前記所定フレームの時刻に対応する時刻で前記事故車両が備えるGPS装置により測定された位置情報と、前記所定フレームを含むフレーム間における前記事故車両の相対位置とに基づいて、前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置を推定し、
前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置と、前記複数フレームのうち前記所定フレーム以外のフレームの各々について前記GPS装置により測定された前記事故車両の第2絶対位置とを所定の重みに基づいて平均することで、前記事故車両の絶対位置を示す情報を推定する、
請求項7に記載の事故分析装置。 - 前記分析部は、前記映像データのうち該他車が写っている箇所の画像サイズと、画像サイズと距離との対応関係を示すデータとを比較し、前記事故車両と前記他車との相対的な位置関係を示す前記事故車両と前記他車との間の距離を推定することで、前記事故の状況を分析する、
請求項7又は8に記載の事故分析装置。 - 前記過去の事故事例に関する情報には、過失割合が含まれており、
前記検索部は、前記事故車両が起こした事故の状況に対応する事故事例に関する情報として、前記事故車両が起こした事故における前記事故車両の過失割合を検索する、
請求項1〜9のいずれか一項に記載の事故分析装置。 - 前記過去の事故事例に関する情報には、前記過失割合を修正する1以上の修正情報が含まれており、
前記検索部は、前記1以上の修正情報の中に、前記事故車両が起こした事故の状況に対応する修正情報が存在する場合、前記事故車両の過失割合を該修正情報に従って修正する、
請求項10に記載の事故分析装置。 - 前記事故の状況には、少なくとも、前記事故車両が交差点を通過する場合における信号の色、交差点を通過する際の優先関係、及び、前記事故車両の車速が制限速度を超えているか否かを含む、
請求項1〜11のいずれか一項に記載の事故分析装置。 - 事故分析装置が行う事故分析方法であって、
事故車両が備えるセンサにより計測される車両データと前記事故車両が備えるカメラで撮影される映像データとを取得するステップと、
取得した前記車両データと前記映像データとに基づいて、前記事故車両が起こした事故の状況を分析するステップと、
前記分析するステップにより分析された前記事故車両が起こした事故の状況と、事故の状況と過去の事故事例に関する情報とを対応づけた事故事例データとを比較することで、前記事故車両が起こした事故の状況に対応する過去の事故事例に関する情報を検索するステップと、
を含み、
前記分析するステップは、
前記映像データを分析することで、所定フレームを含む複数フレームについて、前記所定フレームを含むフレーム間における前記事故車両の相対位置を1フレーム間隔で算出し、
前記所定フレームの時刻に対応する時刻で前記事故車両が備えるGPS装置により測定された位置情報と、前記所定フレームを含むフレーム間における前記事故車両の相対位置とに基づいて、前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置を推定し、
前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置と、前記複数フレームのうち前記所定フレーム以外のフレームの各々について前記GPS装置により測定された前記事故車両の第2絶対位置とを所定の重みに基づいて平均することで、前記事故車両の絶対位置を示す情報を推定する、
事故分析方法。 - 事故分析装置が行う事故分析方法であって、
事故車両が備えるセンサにより計測される車両データと前記事故車両が備えるカメラで撮影される映像データとを取得するステップと、
取得した前記車両データと前記映像データとに基づいて、前記事故車両が起こした事故の状況を分析するステップと、
前記分析するステップにより分析された前記事故車両が起こした事故の状況と、事故の状況と過去の事故事例に関する情報とを対応づけた事故事例データとを比較することで、前記事故車両が起こした事故の状況に対応する過去の事故事例に関する情報を検索するステップと、
を含み、
前記分析するステップは、
前記事故車両の絶対位置を示す情報と、前記映像データに写っている他車の映像を解析することで得られる、前記事故車両と前記他車との相対的な位置関係を示す情報とに基づいて前記他車の絶対位置を推定し、
前記映像データのうち前記他車が写っている箇所の座標と前記映像データの中心座標との差分と、座標と角度との対応関係を示すデータとを比較することで、前記事故車両と前記他車との相対的な位置関係を示す情報のうち前記事故車両の進行方向と前記他車が存在する方向との角度差を推定する、事故分析方法。 - コンピュータに、
事故車両が備えるセンサにより計測される車両データと前記事故車両が備えるカメラで撮影される映像データとを取得するステップと、
取得した前記車両データと前記映像データとに基づいて、前記事故車両が起こした事故の状況を分析するステップと、
前記分析するステップにより分析された前記事故車両が起こした事故の状況と、事故の状況と過去の事故事例に関する情報とを対応づけた事故事例データとを比較することで、前記事故車両が起こした事故の状況に対応する過去の事故事例に関する情報を検索するステップと、
を実行させ、
前記分析するステップは、
前記映像データを分析することで、所定フレームを含む複数フレームについて、前記所定フレームを含むフレーム間における前記事故車両の相対位置を1フレーム間隔で算出し、
前記所定フレームの時刻に対応する時刻で前記事故車両が備えるGPS装置により測定された位置情報と、前記所定フレームを含むフレーム間における前記事故車両の相対位置とに基づいて、前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置を推定し、
前記複数フレームのうち前記所定フレーム以外のフレームの各々についての前記事故車両の第1絶対位置と、前記複数フレームのうち前記所定フレーム以外のフレームの各々について前記GPS装置により測定された前記事故車両の第2絶対位置とを所定の重みに基づいて平均することで、前記事故車両の絶対位置を示す情報を推定する、
プログラム。 - コンピュータに、
事故車両が備えるセンサにより計測される車両データと前記事故車両が備えるカメラで撮影される映像データとを取得するステップと、
取得した前記車両データと前記映像データとに基づいて、前記事故車両が起こした事故の状況を分析するステップと、
前記分析するステップにより分析された前記事故車両が起こした事故の状況と、事故の状況と過去の事故事例に関する情報とを対応づけた事故事例データとを比較することで、前記事故車両が起こした事故の状況に対応する過去の事故事例に関する情報を検索するステップと、
を実行させ、
前記分析するステップは、
前記事故車両の絶対位置を示す情報と、前記映像データに写っている他車の映像を解析することで得られる、前記事故車両と前記他車との相対的な位置関係を示す情報とに基づいて前記他車の絶対位置を推定し、
前記映像データのうち前記他車が写っている箇所の座標と前記映像データの中心座標との差分と、座標と角度との対応関係を示すデータとを比較することで、前記事故車両と前記他車との相対的な位置関係を示す情報のうち前記事故車両の進行方向と前記他車が存在する方向との角度差を推定させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098458A JP6679152B1 (ja) | 2019-05-27 | 2019-05-27 | 事故分析装置、事故分析方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098458A JP6679152B1 (ja) | 2019-05-27 | 2019-05-27 | 事故分析装置、事故分析方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020044900A Division JP7285799B2 (ja) | 2020-03-16 | 2020-03-16 | 事故分析装置、事故分析方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6679152B1 true JP6679152B1 (ja) | 2020-04-15 |
JP2020194263A JP2020194263A (ja) | 2020-12-03 |
Family
ID=70166392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019098458A Active JP6679152B1 (ja) | 2019-05-27 | 2019-05-27 | 事故分析装置、事故分析方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6679152B1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021196826A (ja) * | 2020-06-12 | 2021-12-27 | 株式会社日立製作所 | 安全支援システム、および車載カメラ画像分析方法 |
JP6999850B1 (ja) | 2021-05-27 | 2022-02-10 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP7089103B1 (ja) | 2021-10-26 | 2022-06-21 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP7089102B1 (ja) | 2021-10-26 | 2022-06-21 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
CN116740660A (zh) * | 2023-08-11 | 2023-09-12 | 深圳市明世弘生电子科技有限公司 | 一种基于ai技术的车辆数据处理方法和系统 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7623062B2 (ja) | 2021-03-09 | 2025-01-28 | Necソリューションイノベータ株式会社 | 配達物受取管理装置、配達システム装置、配達物受取管理方法、配達方法、プログラム及び記録媒体 |
DE112022003908T5 (de) | 2021-08-11 | 2024-05-29 | Sony Group Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, servervorrichtung, fahrzeugvorrichtung und informationsverarbeitungsprogramm |
JP7140895B1 (ja) | 2021-08-13 | 2022-09-21 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法及びプログラム |
JP7038881B1 (ja) | 2021-08-13 | 2022-03-18 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法及びプログラム |
JP2023131043A (ja) * | 2022-03-08 | 2023-09-21 | 東京海上日動火災保険株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR102574770B1 (ko) * | 2023-02-13 | 2023-09-06 | 주식회사 씨피식스 | 인공지능 모델을 이용한 블랙박스 영상 기반의 교통사고 영상 처리 서버 및 방법 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001347970A (ja) * | 2000-06-05 | 2001-12-18 | Toru Takano | デジタルビデオカメラ過失割合評価システム |
JP2005032027A (ja) * | 2003-07-07 | 2005-02-03 | Nec Fielding Ltd | 交通事故早期解決システム、事故検知システム、及び事故分析サーバ |
JP4020071B2 (ja) * | 2003-12-10 | 2007-12-12 | 日産自動車株式会社 | 周囲状況表示装置 |
JP2008273251A (ja) * | 2007-04-25 | 2008-11-13 | Toyota Motor Corp | 車両の警報装置 |
JP4989557B2 (ja) * | 2008-02-05 | 2012-08-01 | 矢崎総業株式会社 | 交通事故解析装置、交通事故解析方法、及びプログラム |
JP2009193351A (ja) * | 2008-02-14 | 2009-08-27 | Toshiba Corp | 過失割合推測システム、過失割合推測装置及び過失割合推測プログラム |
JP2012038229A (ja) * | 2010-08-11 | 2012-02-23 | Kantatsu Co Ltd | ドライブレコーダー |
JP5714940B2 (ja) * | 2011-03-04 | 2015-05-07 | 国立大学法人 熊本大学 | 移動体位置測定装置 |
JP6142707B2 (ja) * | 2013-07-19 | 2017-06-07 | 株式会社デンソー | 車両位置補正装置 |
WO2016093028A1 (ja) * | 2014-12-08 | 2016-06-16 | 日立オートモティブシステムズ株式会社 | 自車位置推定装置 |
JP2016184336A (ja) * | 2015-03-26 | 2016-10-20 | Reruro株式会社 | 運転評価装置、運転評価システムおよびプログラム |
JP2018055471A (ja) * | 2016-09-29 | 2018-04-05 | パイオニア株式会社 | 通信装置、通信方法、通信プログラム及び記録媒体 |
JP6915982B2 (ja) * | 2016-12-07 | 2021-08-11 | 損害保険ジャパン株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
-
2019
- 2019-05-27 JP JP2019098458A patent/JP6679152B1/ja active Active
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021196826A (ja) * | 2020-06-12 | 2021-12-27 | 株式会社日立製作所 | 安全支援システム、および車載カメラ画像分析方法 |
JP7402753B2 (ja) | 2020-06-12 | 2023-12-21 | 日立Astemo株式会社 | 安全支援システム、および車載カメラ画像分析方法 |
JP6999850B1 (ja) | 2021-05-27 | 2022-02-10 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP2022181923A (ja) * | 2021-05-27 | 2022-12-08 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP7619933B2 (ja) | 2021-05-27 | 2025-01-22 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP7089103B1 (ja) | 2021-10-26 | 2022-06-21 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP7089102B1 (ja) | 2021-10-26 | 2022-06-21 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP2023064572A (ja) * | 2021-10-26 | 2023-05-11 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
JP2023064571A (ja) * | 2021-10-26 | 2023-05-11 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法、およびプログラム |
CN116740660A (zh) * | 2023-08-11 | 2023-09-12 | 深圳市明世弘生电子科技有限公司 | 一种基于ai技术的车辆数据处理方法和系统 |
CN116740660B (zh) * | 2023-08-11 | 2023-11-21 | 深圳市明世弘生电子科技有限公司 | 一种基于ai技术的车辆数据处理方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2020194263A (ja) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6679152B1 (ja) | 事故分析装置、事故分析方法及びプログラム | |
KR102613839B1 (ko) | 긴급 차량들의 검출 | |
JP7507930B2 (ja) | 事故分析装置 | |
JP6838248B2 (ja) | 情報処理装置 | |
Zhao et al. | A novel multi-lane detection and tracking system | |
US11688174B2 (en) | System and method for determining vehicle data set familiarity | |
US12235108B2 (en) | Determination of free space around a vehicle | |
McCall et al. | Video-based lane estimation and tracking for driver assistance: survey, system, and evaluation | |
GB2629117A (en) | Systems and methods for determining road safety | |
CN112292286A (zh) | 骑乘者辅助系统和方法 | |
KR102001002B1 (ko) | 딥러닝 기반 번호 인식 시스템 | |
KR102031503B1 (ko) | 다중 객체 검출 시스템 및 방법 | |
JP2007249841A (ja) | 画像認識装置 | |
US20230033314A1 (en) | Method and processor circuit for operating an automated driving function with object classifier in a motor vehicle, as well as the motor vehicle | |
KR20200043252A (ko) | 차량의 부감 영상 생성 시스템 및 그 방법 | |
US20120155711A1 (en) | Apparatus and method for analyzing video | |
JPH08306000A (ja) | 交差点における危険度判定方法 | |
Kim et al. | An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing | |
JP2002190023A (ja) | 車種判別装置及び車種判別方法及び車種判別方法を行うプログラムをコンピュータ読み取り可能なように記憶させた記憶媒体 | |
KR102345798B1 (ko) | 교차로 꼬리물기 인지 및 영상 저장 장치 | |
Bhandari et al. | Fullstop: A camera-assisted system for characterizing unsafe bus stopping | |
Chen et al. | Video-based on-road driving safety system with lane detection and vehicle detection | |
JP7140895B1 (ja) | 事故分析装置、事故分析方法及びプログラム | |
JP7038881B1 (ja) | 事故分析装置、事故分析方法及びプログラム | |
Klette et al. | Vision-based driver assistance systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190613 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190613 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6679152 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |