[go: up one dir, main page]

JP7247790B2 - 走行環境監視装置、走行環境監視システム、及び走行環境監視プログラム - Google Patents

走行環境監視装置、走行環境監視システム、及び走行環境監視プログラム Download PDF

Info

Publication number
JP7247790B2
JP7247790B2 JP2019123968A JP2019123968A JP7247790B2 JP 7247790 B2 JP7247790 B2 JP 7247790B2 JP 2019123968 A JP2019123968 A JP 2019123968A JP 2019123968 A JP2019123968 A JP 2019123968A JP 7247790 B2 JP7247790 B2 JP 7247790B2
Authority
JP
Japan
Prior art keywords
driving
vehicle
scene
unit
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019123968A
Other languages
English (en)
Other versions
JP2021009623A (ja
Inventor
秀明 三澤
健二 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019123968A priority Critical patent/JP7247790B2/ja
Priority to US16/917,078 priority patent/US11361555B2/en
Publication of JP2021009623A publication Critical patent/JP2021009623A/ja
Application granted granted Critical
Publication of JP7247790B2 publication Critical patent/JP7247790B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、走行環境監視装置、走行環境監視システム、及び走行環境監視プログラムに関する。
従来、車載カメラの映像を利用して走行環境を監視し、異常を検出した場合にその異常内容を、センタ装置を介して各車両に配信する監視システムが知られている。
例えば、特許文献1には、車両の挙動を表す車両挙動データを用いて、走行環境の異常を検出する監視システムが記載されている。この監視システムでは、車両挙動データを用いて走行環境の異常地点を検出し、検出した異常地点のカメラ映像を解析することにより、異常原因を特定する。この監視システムでは、時系列の特定の繰り返しパターンを持つ車両挙動を運転シーンとし、この運転シーンと位置情報とを対応付けて記憶する。そして、異常地点を検出した際には、その異常地点の映像を車両に要求し、要求した車両から、異常地点に対応付けられた運転シーンの映像を取得する。
特開2018-10406号公報
上記特許文献1に記載の技術では、異常地点を含む1つの運転シーンの映像を切り出している。しかしながら、運転者が障害物等の異常事態を発見した場合、異常事態の発生地点のある程度手前の位置から回避行動をとることがほとんどである。このため、回避行動を表す車両挙動データにより異常と判定された地点と、実際の異常事態の発生地点とが異なっている場合が多い。この場合、異常地点を含む1つの運転シーンの映像では、十分な時間が確保されておらず、異常事態が収められていない可能性がある。
また、上記特許文献1では、異常地点を含む運転シーンを基準として、その前後の所定時間(例えば3秒間)に含まれる映像を切り出すことも記載されている。しかしながら、この場合、必要以上に時間の長い映像となり、異常事態とは関連のない余分な映像が取得されてしまう可能性がある。
従って、車両の走行中に異常事態が発生した場合に得られる映像としては、時間的に短すぎず長すぎず、適切な時間範囲で異常事態が収められていることが望まれている。
本開示は、適切な時間範囲で異常事態が収められた映像を得ることができる走行環境監視装置、走行環境監視システム、及び走行環境監視プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1態様に係る走行環境監視装置(10A)は、車両(V1)の挙動を表し、かつ、時間及び位置が対応付けられた車両挙動データを収集するデータ収集部(30)と、前記データ収集部により収集された車両挙動データから、前記車両の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出するシーン抽出部(31)と、代表的な車両挙動データの特徴を表す運転モデルに対する、前記シーン抽出部により抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出する異常検出部(32)と、前記異常検出部により検出された運転シーン及び前記運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定する区間決定部(33)と、前記車両に対して、前記区間決定部により決定された異常挙動区間に応じた映像を要求する映像要求部(34)と、前記映像要求部からの要求に応じて、前記車両から取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示する制御を行う表示制御部(6)と、を備えている。
本開示の第2態様に係る走行環境監視システム(90)は、車両(V1)に搭載された車載器(20A)と、前記車載器との通信を行う走行環境監視装置(10A)と、を備え、前記車載器は、自車両の挙動を表し、かつ、時間及び位置が対応付けられた車両挙動データを前記走行環境監視装置に送信するデータ送信部(41)、を含み、前記走行環境監視装置は、前記車載器から送信された車両挙動データを収集するデータ収集部(30)と、前記データ収集部により収集された車両挙動データから、前記車両の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出するシーン抽出部(31)と、代表的な車両挙動データの特徴を表す運転モデルに対する、前記シーン抽出部により抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出する異常検出部(32)と、前記異常検出部により検出された運転シーン及び前記運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定する区間決定部(33)と、前記車載器に対して、前記区間決定部により決定された異常挙動区間に応じた映像を要求する映像要求部(34)と、を含み、前記車載器は、前記走行環境監視装置からの要求に応じて、自車両の前記異常挙動区間に応じた映像を前記走行環境監視装置に送信する映像送信部(43)、を含み、前記走行環境監視装置は、前記車載器から取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示する制御を行う表示制御部(36)、を含む。
本開示の第3態様に係る走行環境監視プログラム(12A)は、車両の挙動を表し、かつ、時間及び位置が対応付けられた車両挙動データを収集し、前記収集された車両挙動データから、前記車両の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出し、代表的な車両挙動データの特徴を表す運転モデルに対する、前記抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出し、前記検出された運転シーン及び前記運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定し、前記車両に対して、前記決定された異常挙動区間に応じた映像を要求し、前記要求に応じて、前記車両から取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示する制御を行うことを、コンピュータに実行させる。
開示の技術によれば、適切な時間範囲で異常事態が収められた映像を得ることができる、という効果を有する。
第1の実施形態に係る走行環境監視システムの構成の一例を示す図である。 第1の実施形態に係るサーバ装置及び車載器の電気的な構成の一例を示すブロック図である。 第1の実施形態に係るサーバ装置及び車載器の機能的な構成の一例を示すブロック図である。 実施形態に係る運転シーン及びシーン特徴量の抽出処理の説明に供する図である。 実施形態に係る異常検出処理の説明に供する図である。 (A)は、正常走行環境での運転シーンとノードとの対応関係を示す図である。(B)は、異常走行環境での運転シーンとノードとの対応関係を示す図である。 (A)は、異常走行環境での運転シーンとノードとの対応関係を示す図である。(B)は、異常走行環境での運転シーンとノードとの対応関係の比較例を示す図である。 第1の実施形態に係る走行環境監視プログラムによる処理の流れの一例を示すフローチャートである。 実施形態に係る異常挙動区間決定処理の説明に供する図である。 実施形態に係る映像と異常挙動区間内の運転シーンとの対応関係を示す図である。 実施形態に係る映像と異常挙動区間外の運転シーンとの対応関係を示す図である。 実施形態に係る映像、地図、及び異常挙動区間内の運転シーンの対応関係を示す図である。 第2の実施形態に係る走行環境監視システムの構成の一例を示す図である。 第2の実施形態に係るサーバ装置及び車載器の機能的な構成の一例を示すブロック図である。 実施形態に係る映像、地図、及び異常挙動区間外の運転シーンの対応関係を示す図である。 実施形態に係るオペレータ設定地点に接近する車両から取得される映像と運転シーンとの対応関係を示す図である。 第3の実施形態に係る走行環境監視システムの構成の一例を示す図である。 第3の実施形態に係るサーバ装置及び車載器の機能的な構成の一例を示すブロック図である。 実施形態に係る異常挙動区間内の運転シーンと再生速度との対応関係を示す図である。 第4の実施形態に係るサーバ装置及び車載器の機能的な構成の一例を示すブロック図である。
以下、図面を参照して、本開示の技術を実施するための形態の一例について詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態に係る走行環境監視システム90の構成の一例を示す図である。
図1に示すように、本実施形態に係る走行環境監視システム90は、サーバ装置10Aと、複数の車載器20Aと、を備えている。サーバ装置10Aは、一例として、クラウドに設置されており、走行環境監視装置の一例である。複数の車載器20Aの各々は、複数台の車両V1の各々に搭載されている。
サーバ装置10Aには、一例として、サーバコンピュータ、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータ装置が適用される。サーバ装置10Aは、無線通信を介して、複数の車載器20Aの各々と接続されている。
車載器20Aには、一例として、車載可能なコンピュータ装置が適用される。車載器20Aには、後述するように、車両V1が走行する環境(以下、「走行環境」という。)を撮影して映像を取得するためのカメラと、車両V1の挙動を表す車両挙動データを取得するための各種センサと、が接続されている。これらのカメラ及び各種センサは、車載器20Aと一体あるいは別体で設けられており、これらのカメラ及び各種センサを含んで1つの車載器20Aとして構成される。
サーバ装置10Aは、車両挙動データを用いて異常事態を検出した車両V1の車載器20Aに対して、異常事態を含む映像を要求する。つまり、異常事態を検出する車両V1と、異常事態を含む映像を要求する車両V1とは、同一の車両である。なお、図1に示すオペレータとは、サーバ装置10Aの操作を担当する操作者を意味する。サーバ装置10Aは、オペレータに対して、異常事態を含む映像を解析して得られる異常情報と共に、当該映像を表示する。この異常情報としては、一例として、「道路上に障害物があります。」といったメッセージ等が表示される。
図2は、第1の実施形態に係るサーバ装置10A及び車載器20Aの電気的な構成の一例を示すブロック図である。
図2に示すように、本実施形態に係るサーバ装置10Aは、制御部11と、記憶部12と、表示部13と、操作部14と、通信部15と、を備えている。
制御部11は、CPU(Central Processing Unit)11A、ROM(Read Only Memory)11B、RAM(Random Access Memory)11C、及び入出力インターフェース(I/O)11Dを備えており、これら各部がバスを介して各々接続されている。
I/O11Dには、記憶部12と、表示部13と、操作部14と、通信部15と、を含む各機能部が接続されている。これらの各機能部は、I/O11Dを介して、CPU11Aと相互に通信可能とされる。
制御部11は、サーバ装置10Aの一部の動作を制御するサブ制御部として構成されてもよいし、サーバ装置10Aの全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部11の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部11の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
記憶部12としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部12には、本実施形態に係る走行環境監視を行うための走行環境監視プログラム12Aが記憶される。なお、この走行環境監視プログラム12Aは、ROM11Bに記憶されていてもよい。
走行環境監視プログラム12Aは、例えば、サーバ装置10Aに予めインストールされていてもよい。走行環境監視プログラム12Aは、不揮発性の非遷移的(non-transitory)記録媒体に記憶して、又はネットワークを介して配布して、サーバ装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の非遷移的記録媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
表示部13には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部13は、タッチパネルを一体的に有していてもよい。操作部14には、例えば、キーボードやマウス等の操作入力用のデバイスが設けられている。表示部13及び操作部14は、サーバ装置10Aのオペレータから各種の指示を受け付ける。表示部13は、オペレータから受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。
通信部15は、複数の車載器20Aの各々との間で無線通信を行うための通信インターフェースである。
一方、図2に示すように、本実施形態に係る車載器20Aは、制御部21と、記憶部22と、車載センサ群23と、表示部24と、通信部25と、を備えている。
制御部21は、CPU21A、ROM21B、RAM21C、及びI/O21Dを備えており、これら各部がバスを介して各々接続されている。
I/O21Dには、記憶部22と、車載センサ群23と、表示部24と、通信部25と、を含む各機能部が接続されている。これらの各機能部は、I/O21Dを介して、CPU21Aと相互に通信可能とされる。
記憶部22としては、例えば、HDD、SSD、フラッシュメモリ等が用いられる。記憶部22には、サーバ装置10Aと連携して動作する制御プログラム22Aが記憶される。なお、この制御プログラム22Aは、ROM21Bに記憶されていてもよい。
制御プログラム22Aは、例えば、車載器20Aに予めインストールされていてもよい。制御プログラム22Aは、不揮発性の非遷移的記録媒体に記憶して、又はネットワークを介して配布して、車載器20Aに適宜インストールすることで実現してもよい。
車載センサ群23には、一例として、自車両に搭載されるカメラ、各種センサ等が含まれる。カメラは、自車両の走行環境を撮影して映像(例えば、動画像)を取得する。各種センサは、自車両の挙動、自車両に対する運転操作の内容を表す車両挙動データを取得する。この車両挙動データには、一例として、アクセル開度、ブレーキ圧、操舵角、車速、加速度、ヨーレート等が含まれる。車載センサ群23には、自車両に搭載されるGPS(Global Positioning System)受信機、カーナビゲーション装置等が含まれていてもよい。これらのGPS受信機及びカーナビゲーション装置は、自車両の現在位置、進行方向、現在時刻等の情報を取得する。
表示部24には、例えば、液晶ディスプレイ(LCD)、有機ELディスプレイ等が用いられる。表示部24は、タッチパネルを一体的に有していてもよい。表示部24は、上記のカーナビゲーション装置のディスプレイ、あるいは、ヘッドアップディスプレイとして構成されていてもよい。
通信部25は、サーバ装置10Aとの間で無線通信を行うための通信インターフェースである。
ところで、上述したように、車両の走行中に異常事態が発生した場合に得られる映像としては、時間的に短すぎず長すぎず、適切な時間範囲で異常事態が収められていることが望まれている。
このため、本実施形態に係るサーバ装置10AのCPU11Aは、記憶部12に記憶されている走行環境監視プログラム12AをRAM11Cに書き込んで実行することにより、図3に示す各部として機能する。また、本実施形態に係る車載器20AのCPU21Aは、記憶部22に記憶されている制御プログラム22AをRAM21Cに書き込んで実行することにより、図3に示す各部として機能する。
図3は、第1の実施形態に係るサーバ装置10A及び車載器20Aの機能的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係るサーバ装置10AのCPU11Aは、データ収集部30、シーン抽出部31、異常検出部32、区間決定部33、映像要求部34、映像取得部35、及び表示制御部36として機能する。また、本実施形態に係る車載器20AのCPU21Aは、データ収集部40、データ送信部41、要求受信部42、及び映像送信部43として機能する。
まず、車載器20Aの機能的な構成について説明する。
データ収集部40は、車載センサ群23から、上述の車両挙動データ、映像、位置情報、時間情報等を予め設定された周期で繰り返し収集する。データ収集部40は、収集した車両挙動データに時間及び位置を対応付ける。データ収集部40は、収集した時系列の映像を記憶部22に記憶する。
データ送信部41は、データ収集部40により時間及び位置が対応付けられた車両挙動データをサーバ装置10Aに送信する。
要求受信部42は、サーバ装置10Aから、後述する異常挙動区間に応じた映像の送信要求を受信する。
映像送信部43は、要求受信部42を介して受信した送信要求に応じて、異常挙動区間に応じた映像を、記憶部22から取り出し、取り出した映像をサーバ装置10Aに送信する。
次に、サーバ装置10Aの機能的な構成について説明する。
データ収集部30は、車両V1の車載器20Aから、時間及び位置が対応付けられた車両挙動データを収集する。
シーン抽出部31は、データ収集部30により収集された車両挙動データから、車両V1の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出する。なお、抽出した運転シーン及び運転シーン毎のシーン特徴量は、記憶部12に記憶される。
図4は、本実施形態に係る運転シーン及びシーン特徴量の抽出処理の説明に供する図である。
図4に示すように、例えば、隠れマルコフモデル(HMM:Hidden Markov Model)等に代表される時系列パターン抽出技術を用いて、車両挙動データから典型的な繰り返しの運転パターンを運転シーンとして抽出する。抽出した運転シーンの各々には、一連のシーンID(Identification)を付与する。なお、運転シーンの抽出は、隠れマルコフモデルに限定されるものではなく、例えば、特開2013-250663号公報等に記載の公知の記号化技術を用いるようにしてもよい。また、停止中は1つの運転シーンとみなすなど、予め決められたルールに従って運転シーンを抽出するようにしてもよい。運転シーンの特徴として、変化の小さい運転(例えば、直進巡行の運転)では、運転シーンの継続時間が長くなり、一方、障害物等を回避するような運転は変化が大きく、運転シーンの継続時間が短くなる。運転シーンを抽出後、運転シーンに位置を対応付けて記憶する。ここでいう位置は、ノードとして表現するが、リンク、又は、予め特定の距離によって分割したグリッド等で表現してもよい。また、各運転シーンには、前後の運転シーンを特定できるようなインデックスを付与しておく。
また、運転シーン毎に抽出したシーン特徴量についても位置を対応付けて記憶する。ここでいうシーン特徴量とは、運転シーンの特徴を表す特徴ベクトルとして示される。このシーン特徴量には、一例として、潜在的ディリクレ配分法(LDA:Latent Dirichlet Allocation)を用いて抽出したトピック割合が用いられる。このトピック割合とは、運転シーンの特徴的なパターンを表す複数の運転トピックを予め用意しておき、着目する運転シーンを運転トピックの混合によって表現した場合に求められる混合比のことを意味する。このトピック割合は、例えば、特開2014-235605号公報等に記載の公知の技術であるため、ここでの具体的な説明は省略する。なお、このシーン特徴量は、トピック割合に限定されるものではなく、運転シーン内に含まれる各挙動の平均値等を用いてもよい。
異常検出部32は、代表的な車両挙動データの特徴を表す運転モデルに対する、シーン抽出部31により抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出する。具体的には、場所毎に典型的な運転モデルを学習しておき、場所毎でのシーン特徴量の乖離度合いによって異常な運転がその場所で行われたか否かを判定する。なお、運転モデルは、予め記憶部12に記憶されている。この運転モデルとは、各走行区間において検出される標準的なシーン特徴量の集合であり、過去の車両挙動データを統計的に処理することで作成される。なお、走行区間とは、車両が走行可能な道路を分割することで設定される区間である。また、運転モデルは、例えば、天候や時間によって異なる複数のモデルであってもよい。
図5は、本実施形態に係る異常検出処理の説明に供する図である。
図5に示すように、異常検出処理では、シーン抽出部31によって車両挙動から抽出されたトピック割合をシーン特徴量として、現在のトピック割合との過去の同一地点でのトピック割合(運転モデルに対応)との乖離度合いを表す異常度を距離計算(例えばユークリッド距離を利用)によって算出する。現在のトピック割合について、一定時間毎(例えば、1分毎に直近5分のデータに対して処理)に距離計算によって算出された異常度を閾値によって判定する。そして、異常度が閾値より大きい、つまり、距離が一定よりも長く、逸脱している場合には、当該トピック割合を異常の運転として判定し、判定結果を蓄積する。そして、一定時間に含まれる全ての現在のトピック割合を処理したのち、異常の運転の頻度が予め定めた閾値を超えた場合に当該地点を異常と判定する。なお、異常検出処理は、この限りではなく、各地点の現在の走行データの分布と、予め蓄積した運転データの分布とを、例えば、KL(Kullback-Leibler)距離、GMM(Gaussian Mixture Model)等を用いて比較してもよい。
区間決定部33は、異常検出部32により検出された運転シーン及び運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定する。なお、この異常挙動区間の具体的な決定方法については後述する。区間決定部33は、予め定められた条件を満たす運転シーンとして、運転シーンの継続時間が閾値未満となる運転シーンを抽出する。この閾値は、一例として、車両挙動データに含まれる複数の運転シーンの各々の継続時間の平均値である。この閾値は、異常地点を含む運転シーンの継続時間に予め定められた係数(例えば、1.1以上1.9以下の範囲)を乗じた値としてもよい。
なお、上記では、運転シーンの継続時間が閾値未満となる運転シーンが抽出されたが、これに限定されるものではない。区間決定部33は、予め定められた条件を満たす運転シーンとして、車両挙動データから、出現頻度が閾値以上の運転シーンを除いた残りの運転シーンを抽出するようにしてもよい。つまり、正常走行時では、継続時間の長い運転シーンが繰り返し出現する。このため、車両挙動データから、正常走行時の運転シーン、つまり、出現頻度が閾値以上の運転シーンを除いた残りの運転シーンは、異常走行時の運転シーンとみなすことができる。
また、上述の運転モデルに、地点毎の運転シーンの基準となる継続時間を表す基準継続時間を予め含ませておいてもよい。この基準継続時間としては、正常走行時における運転シーンの継続時間に基づいて基準となる継続時間を地点毎に予め設定しておく。この場合、区間決定部33は、予め定められた条件を満たす運転シーンとして、地点毎の運転シーンの継続時間と基準継続時間との差が閾値以上となる運転シーンを抽出する。つまり、正常走行時では、地点毎の運転シーンの継続時間と基準継続時間との差が小さくなる、つまり、閾値未満となるため、異常走行時の運転シーンを抽出することができる。
映像要求部34は、車両V1の車載器20Aに対して、区間決定部33により決定された異常挙動区間に応じた映像を要求する。例えば、異常検出に用いた車両V1と同一の車両V1に映像を要求する。
なお、図1に示すように、複数台の車両V1の各々から車両挙動データを収集し、複数台の車両V1の各々に対して、異常挙動区間を決定した場合、映像要求部34は、複数台の車両V1のうち、異常挙動区間の長いものから優先的に映像を要求する車両を決定するようにしてもよい。これにより、異常事態が収まっている可能性が最も高い映像が得られる。
映像取得部35は、車両V1の車載器20Aから、異常挙動区間に応じた映像を取得する。なお、取得した映像は、記憶部12に記憶される。
表示制御部36は、映像要求部34からの要求に応じて、車両V1の車載器20Aから取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示する制御を行う。なお、車載器20Aから取得した映像は、一例として、自装置の表示部13あるいは車載器20Aの表示部24に表示される。
図6(A)は、正常走行環境での運転シーンとノードとの対応関係を示す図である。また、図6(B)は、異常走行環境での運転シーンとノードとの対応関係を示す図である。
図6(A)の正常走行環境では、車両の挙動が、継続時間の比較的長い典型的な運転シーンの集合により表現される。
図6(B)の異常走行環境では、異常挙動区間における車両の挙動が、継続時間の比較的短い運転シーンの集合により表現される。図6(B)に示すように、本実施形態では、シーン2~シーン5が異常挙動区間に含まれる。従って、異常地点を含むシーン3及びシーン3に連続するシーン2、4、5の範囲の映像が異常映像として取得される。一方、比較例では、異常地点を含むシーン3の映像のみが異常映像として取得される。しかし、上述したように、車両挙動から判定される異常地点と、異常事態が発生している実際の異常地点とが異なっている場合、異常事態がシーン3の映像に収まっていない可能性がある。
図7(A)は、異常走行環境での運転シーンとノードとの対応関係を示す図である。また、図7(B)は、異常走行環境での運転シーンとノードとの対応関係の比較例を示す図である。
図7(A)の異常走行環境では、図6(B)の例と同様に、シーン2~シーン5が異常挙動区間に含まれる。従って、異常地点を含むシーン3及びシーン3に連続するシーン2、4、5の範囲の映像が異常映像として取得される。一方、図7(B)の比較例では、異常地点を含むシーン3を基準として、その前後の所定時間(ここでは3秒間)に含まれる映像が取得される。しかし、この場合、必要以上に時間の長い映像となり、異常事態とは関連のない余分な映像が取得されてしまう。
上述の比較例に対して、本実施形態では、シーン3及びシーン3に連続するシーン2、4、5を含む異常挙動区間の映像が取得されるため、異常事態を収めた適切な映像が得られる。
次に、図8を参照して、第1の実施形態に係るサーバ装置10Aの作用を説明する。
図8は、第1の実施形態に係る走行環境監視プログラム12Aによる処理の流れの一例を示すフローチャートである。
まず、サーバ装置10Aに対して、走行環境監視処理の実行が指示されると、走行環境監視プログラム12Aが起動され、以下の各ステップを実行する。
図8のステップ100では、CPU11Aが、データ収集部30として、車両V1の車載器20Aから、車両V1の挙動を表す車両挙動データを収集する。
ステップ101では、CPU11Aが、シーン抽出部31として、ステップ100で収集した車両挙動データから、一例として、上述の図4を参照して説明したように、車両V1の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出する。
ステップ102では、CPU11Aが、異常検出部32として、ステップ101で抽出した運転シーンを走行区間に割り当てる。ここでいう走行区間とは、記憶部12に予め記憶されている運転モデルの走行区間に対応している。
ステップ103では、CPU11Aが、異常検出部32として、ステップ102で割り当てた走行区間毎に、一例として、上述の図5を参照して説明したように、記憶部12に予め記憶されている運転モデルに対する、運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出する。
ステップ104では、CPU11Aが、異常検出部32として、ステップ103で算出した異常度を用いて、一例として、上述の図5を参照して説明したように、異常地点を特定する。
ステップ105では、CPU11Aが、異常検出部32として、一例として、図9に示すように、ステップ104で特定した異常地点を含む運転シーンSを検出する。なお、図9は、本実施形態に係る異常挙動区間決定処理の説明に供する図である。
ステップ106では、CPU11Aが、区間決定部33として、一例として、図9に示すように、ステップ105で検出した運転シーンSの継続時間が閾値Th未満であるか否かを判定する。ここでいう閾値Thとは、一例として、上述したように、車両挙動データに含まれる複数の運転シーンの各々の継続時間の平均値である。運転シーンSの継続時間が閾値Th未満であると判定した場合(肯定判定の場合)、ステップ107に移行し、運転シーンSの継続時間が閾値Th以上であると判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。
ステップ107では、CPU11Aが、区間決定部33として、一例として、図9に示すように、運転シーンSを異常挙動区間に登録する。
ステップ108では、CPU11Aが、区間決定部33として、一例として、図9に示すように、運転シーンSの時間的に1つ前の運転シーンSt-1を検出する。
ステップ109では、CPU11Aが、区間決定部33として、一例として、図9に示すように、ステップ108で検出した運転シーンSt-1の継続時間が閾値Th未満であるか否かを判定する。運転シーンSt-1の継続時間が閾値Th未満であると判定した場合(肯定判定の場合)、ステップ110に移行し、運転シーンSt-1の継続時間が閾値Th以上であると判定した場合(否定判定の場合)、ステップ116に移行する。
ステップ110では、CPU11Aが、区間決定部33として、一例として、図9に示すように、運転シーンSt-1を異常挙動区間に登録する。
ステップ111では、CPU11Aが、区間決定部33として、一例として、図9に示すように、tをデクリメントし、ステップ108に戻り処理を繰り返す。
一方、ステップ112では、CPU11Aが、区間決定部33として、一例として、図9に示すように、運転シーンSの時間的に1つ後の運転シーンSt+1を検出する。
ステップ113では、CPU11Aが、区間決定部33として、一例として、図9に示すように、ステップ112で検出した運転シーンSt+1の継続時間が閾値Th未満であるか否かを判定する。運転シーンSt+1の継続時間が閾値Th未満であると判定した場合(肯定判定の場合)、ステップ114に移行し、運転シーンSt+1の継続時間が閾値Th以上であると判定した場合(否定判定の場合)、ステップ116に移行する。
ステップ114では、CPU11Aが、区間決定部33として、一例として、図9に示すように、運転シーンSt+1を異常挙動区間に登録する。
ステップ115では、CPU11Aが、区間決定部33として、一例として、図9に示すように、tをインクリメントし、ステップ112に戻り処理を繰り返す。なお、ステップ112~ステップ115の処理は、ステップ108~ステップ111の処理と同時並行で実行してもよいし、あるいは、順次実行してもよい。
ステップ116では、CPU11Aが、区間決定部33として、一例として、図9に示すように、異常挙動区間を決定する。
すなわち、ステップ106では、異常走行と判定された異常地点を含む運転シーンSの継続時間が閾値Th未満であるか否かが判定される。そして、ステップ108~ステップ115では、運転シーンSの継続時間が閾値Th未満であれば、運転シーンSを起点に、タイムステップの前後の運転シーンが検出される。このとき、前後の運転シーンの継続時間が閾値Th未満であれば、検出された前後の運転シーンから更に1ステップ遡った運転シーンが検出され、閾値Th以上となる運転シーンが表れるまで同処理が繰り返される。ステップ116では、これらの処理によって抽出された運転シーンの集合を異常挙動区間として決定する。
ステップ117では、CPU11Aが、映像要求部34として、車両V1の車載器20Aに対して、ステップ116で決定した異常挙動区間に応じた映像を要求する。本実施形態では、一例として、異常検出に用いた車両V1と同一の車両V1に映像を要求する。
ステップ118では、CPU11Aが、映像取得部35として、車両V1の車載器20Aから、異常挙動区間に応じた映像を取得し、取得した映像を記憶部12に記憶する。
ステップ119では、CPU11Aが、表示制御部36として、ステップ117での要求に応じて、車両V1の車載器20Aから取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示部13に表示する制御を行う。一例として、上述したように、異常挙動区間の時間長が長い車両に対して優先的に映像を要求することが望ましい。こうすることで、異常な運転の映像の中でもなるべく長い時間の映像が取得できるため、異常事態が収められている可能性を高めることが出来る。
また、他の例として、優先度の高い複数の車両(例えば上位3台の車両)のみに映像要求を出すようにしてもよい。また、異常挙動区間が特定された車両の全てに映像要求を出しても良いが、この場合、車両に優先度を設定しておくことで、車両の優先度に従って、表示させる映像を選別してもよい。
ステップ119では、CPU11Aが、表示制御部36として、例えば、オペレータによる終了の指示を受け付けた場合に、本走行環境監視プログラム12Aによる一連の処理を終了する。
次に、図10~図12を参照して、表示制御部36による映像表示制御の具体例について説明する。
図10は、本実施形態に係る映像と異常挙動区間内の運転シーンとの対応関係を示す図である。
図10に示す例は、ユーザ(例えば、オペレータ)が指定した運転シーンに対応する映像を再生する場合について示している。この場合、表示制御部36は、車両V1の車載器20Aから取得した映像と運転シーンとを、時間及び位置により対応付けを行い、指定された運転シーンに対応する映像を表示部13に表示する制御を行う。つまり、車載器20Aから取得した映像に関し、オペレータは、異常挙動区間における所望の運転シーンを指定し、指定した運転シーンから映像を再生することができる。
図11は、本実施形態に係る映像と異常挙動区間外の運転シーンとの対応関係を示す図である。
図11に示す例は、ユーザ(例えば、オペレータ)が異常挙動区間に含まれていない運転シーンに対応する映像を取得し、再生する場合について示している。この場合、表示制御部36は、異常挙動区間に対応する運転シーンと、異常挙動区間の前及び後の少なくとも一方の運転シーンとを指定可能に表示部13に表示する制御を行う。図11の例では、異常挙動区間の時間的に前に位置する区間R1及び異常挙動区間の時間的に後に位置する区間R2のうち、区間R2に含まれる運転シーンが指定される。しかし、これらの区間R1及び区間R2は、異常挙動区間に含まれていないため、車両V1の車載器20Aから映像が取得されていない。このため、映像要求部34は、異常挙動区間の前及び後の少なくとも一方の運転シーンが指定された場合、異常挙動区間に応じた映像を取得した車両V1の車載器20Aに対して、異常挙動区間の前及び後の少なくとも一方の運転シーンに対応する映像を要求する。つまり、オペレータは、異常挙動区間に含まれていない区間の映像についても、対応する運転シーンを指定することで、当該区間の映像を新たに取得して再生することができる。
図12は、本実施形態に係る映像、地図、及び異常挙動区間内の運転シーンの対応関係を示す図である。
図12に示す例は、ユーザ(例えば、オペレータ)が地図で指定した地点に対応付けられた運転シーンに対応する映像を再生する場合について示している。この場合、表示制御部36は、異常挙動区間に対応する地点を含む地図を表示すると共に、地図で指定された地点に基づいて、地点に対応付けられた運転シーンに対応する映像を表示する制御を行う。図12の例では、異常挙動区間に含まれる運転シーンと共に、異常挙動区間に対応する地点(異常挙動発生地点)を含む地図Mが表示されており、オペレータが地図Mの所望の地点を指定すると、指定された地点に対応する運転シーンから映像が再生される。なお、図12の例では、地図Mの指定地点に対応して、異常挙動区間の区間R3の再生開始点から映像が再生される。
このように本実施形態によれば、映像の時間長が短すぎて映像に異常事態が収まっていなかったり、映像の時間長が長すぎて余分な映像が含まれてしまったり、ということが抑制され、適切な時間範囲に異常事態が収められた映像が得られる。このため、オペレータ等が異常の発生を適切に判断することが可能とされる。
[第2の実施形態]
上記第1の実施形態では、異常の検出に用いた車両に対して映像を要求する形態について説明した。本実施形態では、異常の検出に用いた車両と、映像を要求する車両とが異なる形態について説明する。
図13は、第2の実施形態に係る走行環境監視システム91の構成の一例を示す図である。
図13に示すように、本実施形態に係る走行環境監視システム91は、サーバ装置10Bと、複数の車載器20Aと、車載器20Bと、を備えている。サーバ装置10Bは、第1の実施形態と同様に、クラウドに設置されている。複数の車載器20Aの各々は、複数台の車両V1の各々に搭載され、車載器20Bは、車両V2に搭載されている。この車両V2は、異常地点に接近する車両である。
サーバ装置10Bは、車両V1の車載器20Aに対して、車両挙動データを用いて異常事態を検出し、車両V2の車載器20Bに対して、異常事態を含む映像を要求する。つまり、異常事態を検出する車両V1と、異常事態を含む映像を要求する車両V2とは、異なる車両である。
図14は、第2の実施形態に係るサーバ装置10B及び車載器20Bの機能的な構成の一例を示すブロック図である。なお、上記第1の実施形態で説明したサーバ装置10A及び車載器20Aと同様の機能を有する構成要素には同一の符号を付し、その繰り返しの説明は省略する。
図14に示すように、本実施形態に係るサーバ装置10BのCPU11Aは、データ収集部30、シーン抽出部31、異常検出部32、区間決定部33、映像要求部37、映像取得部35、及び表示制御部36として機能する。また、本実施形態に係る車載器20BのCPU21Aは、データ収集部44、データ送信部45、要求受信部46、及び映像送信部47として機能する。
まず、車載器20Bの機能的な構成について説明する。
データ収集部44は、車載センサ群23から、少なくとも映像及び位置情報等を予め設定された周期で繰り返し収集する。但し、データ収集部44では、収集した時系列の映像を記憶部22に記憶しない。
データ送信部45は、データ収集部44により収集された位置情報をサーバ装置10Bに送信する。なお、本実施形態では、車両V2の車両挙動データを利用しないため、位置情報のみを送信するようにしているが、位置及び時間が対応付けられた車両挙動データを送信してもよい。
要求受信部46は、サーバ装置10Bから、異常挙動区間に応じた映像の送信要求を受信する。
映像送信部47は、要求受信部46を介して受信した送信要求に応じて、異常挙動区間に応じた映像をサーバ装置10Bに送信する。
次に、サーバ装置10Bの機能的な構成について説明する。
データ収集部30、シーン抽出部31、異常検出部32、及び区間決定部33は、上記第1の実施形態と同様に、車載器20Aから収集した車両挙動データを用いて、異常挙動区間を決定する。
映像要求部37は、上記で決定された異常挙動区間に対応付けられている位置に接近する車両V2の車載器20Bに対して、異常挙動区間に応じた映像を要求する。
つまり、サーバ装置10Bでは、車両V2の位置情報を継続的に取得しており、車両V2が異常挙動区間の位置に接近していることを検知した場合に、車両V2の車載器20Bに対して、異常挙動区間に応じた映像を要求する。この映像要求を受けた車載器20Bは、異常挙動区間で規定される位置に基づいて、撮影を行い、撮影して得られた映像をサーバ装置10Bに送信する。
表示制御部36は、車両V2の車載器20Bから取得した映像と運転シーンとを、時間及び位置により対応付けを行い、指定された運転シーンに対応する映像を表示部13に表示する制御を行う。また、表示制御部36は、異常挙動区間に対応する運転シーンと、異常挙動区間の前及び後の少なくとも一方の運転シーンとを指定可能に表示部13に表示する制御を行うようにしてもよい。この場合、映像要求部37は、異常挙動区間の前及び後の少なくとも一方の運転シーンが指定された場合、異常挙動区間に対応付けられている位置に接近する車両V2に対して、異常挙動区間の前及び後の少なくとも一方の運転シーンに対応する映像を要求する。
図15は、本実施形態に係る映像、地図、及び異常挙動区間外の運転シーンの対応関係を示す図である。
図15に示す例は、ユーザ(例えば、オペレータ)が地図で指定した地点が異常挙動区間に含まれていない場合について示している。図15の地図Mは、異常挙動区間に対応する地点と共に、異常挙動区間に含まれない区間に対応する地点を表示する。地図Mの異常挙動地点は、異常挙動区間に対応し、地図Mのオペレータ設定地点は、異常挙動区間に含まれない区間R4に対応する。オペレータは、地図Mに対して、例えば、区間R4に対応する所望の地点を指定する。
ここで、異常挙動区間の決定に用いた車両V1について、例えば、映像の保存容量が不足したり、エンジンが停止したりすると、オペレータ設定地点に対応する区間R4の映像を取得することができない場合がある。この場合、映像要求部37は、地図Mで指定された地点に接近する車両V2の車載器20Bに対して、当該地点に対応付けられた運転シーンに対応する映像を要求する。
図16は、本実施形態に係るオペレータ設定地点に接近する車両V2から取得される映像と運転シーンとの対応関係を示す図である。
図16に示す例は、図15のオペレータ設定地点に接近する車両V2から取得される映像及び運転シーンを示している。図16の例では、異常地点を含む区間R5の運転シーンの映像が取得される。なお、異常地点を含む区間R5の運転シーンの映像だけを取得してもよいが、異常地点に対応付けられた車両挙動データから得られる異常挙動区間R6の運転シーンの映像を取得してもよい。
このように本実施形態によれば、異常地点に接近する車両からも映像が取得される。このため、異常事態が収められた映像をより確実に得ることができる。
[第3の実施形態]
本実施形態では、異常地点に接近する車両に対して、異常情報及び映像を表示させる形態について説明する。
図17は、第3の実施形態に係る走行環境監視システム92の構成の一例を示す図である。
図17に示すように、本実施形態に係る走行環境監視システム92は、サーバ装置10Cと、複数の車載器20Aと、車載器20Cと、を備えている。サーバ装置10Cは、第1の実施形態と同様に、クラウドに設置されている。複数の車載器20Aの各々は、複数台の車両V1の各々に搭載され、車載器20Cは、車両V3に搭載されている。この車両V3は、異常地点に接近する車両である。
サーバ装置10Cは、車両V1の車載器20Aに対して、車両挙動データを用いて異常事態を検出すると共に、異常事態を含む映像を要求し、車両V3の車載器20Cに対して、異常情報及び映像を送信する。つまり、異常事態を検出した車両V1に対して異常事態を含む映像を要求し、異常地点に接近する車両V3に対して異常情報及び映像を送信する。
図18は、第3の実施形態に係るサーバ装置10C及び車載器20Cの機能的な構成の一例を示すブロック図である。なお、上記第1の実施形態で説明したサーバ装置10A及び車載器20Aと同様の機能を有する構成要素には同一の符号を付し、その繰り返しの説明は省略する。
図18に示すように、本実施形態に係るサーバ装置10CのCPU11Aは、データ収集部30、シーン抽出部31、異常検出部32、区間決定部33、映像要求部34、映像取得部35、及び表示制御部38として機能する。また、本実施形態に係る車載器20CのCPU21Aは、データ収集部40、データ送信部41、要求受信部42、映像送信部43、及び情報受信部48として機能する。
まず、車載器20Cの機能的な構成について説明する。
データ収集部40は、車載センサ群23から、少なくとも映像及び位置情報等を予め設定された周期で繰り返し収集する。データ収集部40は、収集した時系列の映像を記憶部22に記憶する。
データ送信部41は、データ収集部40により収集された位置情報をサーバ装置10Cに送信する。なお、本実施形態では、車両V3の車両挙動データを利用しないため、位置情報のみを送信するようにしているが、時間及び位置が対応付けられた車両挙動データを送信するようにしてもよい。
情報受信部48は、サーバ装置10Cから取得される異常情報及び映像を受信し、受信した異常情報及び映像を表示部24に表示する。
次に、サーバ装置10Cの機能的な構成について説明する。
データ収集部30、シーン抽出部31、異常検出部32、区間決定部33、映像要求部34、及び映像取得部35は、上記第1の実施形態と同様に、車載器20Aから収集した車両挙動データを用いて、異常挙動区間を決定し、決定した異常挙動区間に応じた映像を車載器20Aに要求し、車載器20Aから映像を取得する。
表示制御部38は、車載器20Aから取得した映像及び映像を解析して得られる異常情報を、異常挙動区間に対応付けられている位置に接近する車両V3の車載器20Cに送信し、車載器20Cの表示部24に表示する制御を行う。なお、表示部24は、一例として、上述したように、カーナビゲーション装置のディスプレイ、あるいは、ヘッドアップディスプレイとして構成されている。
図19は、本実施形態に係る異常挙動区間内の運転シーンと再生速度との対応関係を示す図である。
図19に示す例は、運転シーンの変化量が大きい地点のみ再生速度を等速とし、それ以外を倍速にして表示する場合について示している。この場合、表示制御部38は、異常挙動区間に応じた映像を再生する際に、運転シーンの変化量が予め定められた量以上となる地点の映像の再生速度を等速とし、それ以外の地点の映像の再生速度を倍速以上として表示する制御を行う。図19の例では、異常挙動区間に含まれる区間R7が運転シーンの変化量が大きい区間である。このため、区間R7の映像のみ再生速度を等速とし、それ以外の区間の映像の再生速度を倍速としている。なお、運転シーンの変化量の推定は、例えば、前後の運転シーンにおける特徴量(例えば、トピック割合)の類似度を算出し、類似度が予め設定した閾値を超えた場合にシーン変化が大きいと判断すればよい。このように決定した映像を異常地点に向かって走っている車両V3に対して配信して表示させる。つまり、注目すべき区間の映像が等速で再生され、それ以外の区間の映像は倍速で再生される。このため、車両V3のドライバは異常事態の発生を短い時間で適切に把握することができる。
なお、図19に示す映像表示制御は、車両V3のドライバに対して行われるが、サーバ装置10Cのオペレータに対して行うようにしてもよい。
このように本実施形態によれば、異常地点に接近する車両に対して、異常情報及び映像を表示させる。このため、当該車両のドライバは異常事態に対して余裕をもって対処することができる。
[第4の実施形態]
本実施形態では、サーバ装置の一部の機能を車載器側に設ける形態について説明する。
図20は、第4の実施形態に係るサーバ装置10D及び車載器20Dの機能的な構成の一例を示すブロック図である。なお、上記第1の実施形態で説明したサーバ装置10A及び車載器20Aと同様の機能を有する構成要素には同一の符号を付し、その繰り返しの説明は省略する。
図20に示すように、本実施形態に係るサーバ装置10DのCPU11Aは、データ収集部30、異常検出部32、映像要求部39、映像取得部35、及び表示制御部36として機能する。また、本実施形態に係る車載器20DのCPU21Aは、データ収集部40、シーン抽出部49、データ送信部50、要求受信部51、区間決定部52、及び映像送信部53として機能する。なお、説明の便宜上、車載器20Dを搭載する車両を車両V4(図示省略)とする。
まず、車載器20Dの機能的な構成について説明する。
データ収集部40は、車載センサ群23から、車両挙動データ、映像、位置情報、時間情報等を予め設定された周期で繰り返し収集する。データ収集部40は、収集した車両挙動データに時間及び位置を対応付ける。データ収集部40は、収集した時系列の映像を記憶部22に記憶する。
シーン抽出部49は、データ収集部40により収集された車両挙動データから、車両V4の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出する。なお、抽出した運転シーン及び運転シーン毎のシーン特徴量は、記憶部22に記憶される。
データ送信部50は、シーン抽出部49により抽出された運転シーン及び運転シーン毎のシーン特徴量をサーバ装置10Dに送信する。
要求受信部51は、サーバ装置10Dから、異常地点を含む運転シーンと共に、異常挙動区間に応じた映像の送信要求を受信する。
区間決定部52は、要求受信部51を介して受信した、異常地点を含む運転シーン及び運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定する。具体的に、区間決定部52は、予め定められた条件を満たす運転シーンとして、運転シーンの継続時間が閾値未満となる運転シーンを抽出する。この場合の閾値は、一例として、車両挙動データに含まれる複数の運転シーンの各々の継続時間の平均値である。
映像送信部53は、要求受信部51を介して受信した送信要求に応じて、異常挙動区間に応じた映像を、記憶部22から取り出し、取り出した映像をサーバ装置10Dに送信する。
次に、サーバ装置10Dの機能的な構成について説明する。
データ収集部30は、車両V4の車載器20Dから、時間及び位置が対応付けられた車両挙動データを収集する。
異常検出部32は、代表的な車両挙動データの特徴を表す運転モデルに対する、車載器20Dのシーン抽出部49により抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出する。なお、運転モデルは、予め記憶部12に記憶されている。
映像要求部39は、車両V4の車載器20Dに対して、異常地点を含む運転シーンと共に、異常挙動区間に応じた映像を要求する。
このように本実施形態によれば、車載器側に、データ収集部、シーン抽出部、及び区間決定部を設けることで、サーバ装置の負荷の軽減を図ることができる。
以上、実施形態に係る走行環境監視装置の一例としてサーバ装置を例示して説明した。実施形態は、サーバ装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、これらのプログラムを記憶したコンピュータが読み取り可能な非遷移的記録媒体の形態としてもよい。
その他、上記実施形態で説明したサーバ装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10A、10B、10C、10D サーバ装置、11、21 制御部、11A、21A CPU、11B、21B ROM、11C、21C RAM、11D、21D I/O、12、22 記憶部、12A 走行環境監視プログラム、13、24 表示部、14 操作部、15、25 通信部、20A、20B、20C、20D 車載器、22A 制御プログラム、23 車載センサ群、30、40、44 データ収集部、31、49 シーン抽出部、32 異常検出部、33、52 区間決定部、34、37、39 映像要求部、35 映像取得部、36、38 表示制御部、41、45、50 データ送信部、42、46、51 要求受信部、43、47、53 映像送信部、48 情報受信部、90、91、92 走行環境監視システム

Claims (16)

  1. 車両(V1)の挙動を表し、かつ、時間及び位置が対応付けられた車両挙動データを収集するデータ収集部(30)と、
    前記データ収集部により収集された車両挙動データから、前記車両の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出するシーン抽出部(31)と、
    代表的な車両挙動データの特徴を表す運転モデルに対する、前記シーン抽出部により抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出する異常検出部(32)と、
    前記異常検出部により検出された運転シーン及び前記運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定する区間決定部(33)と、
    前記車両に対して、前記区間決定部により決定された異常挙動区間に応じた映像を要求する映像要求部(34)と、
    前記映像要求部からの要求に応じて、前記車両から取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示する制御を行う表示制御部(36)と、
    を備えた走行環境監視装置(10A)。
  2. 前記区間決定部は、前記予め定められた条件を満たす運転シーンとして、運転シーンの継続時間が閾値未満となる運転シーンを抽出する請求項1に記載の走行環境監視装置。
  3. 前記閾値は、前記車両挙動データに含まれる複数の運転シーンの各々の継続時間の平均値である請求項2に記載の走行環境監視装置。
  4. 前記区間決定部は、前記予め定められた条件を満たす運転シーンとして、前記車両挙動データから、出現頻度が閾値以上の運転シーンを除いた残りの運転シーンを抽出する請求項1に記載の走行環境監視装置。
  5. 前記運転モデルは、地点毎の運転シーンの基準となる継続時間を表す基準継続時間を予め含み、
    前記区間決定部は、前記予め定められた条件を満たす運転シーンとして、地点毎の運転シーンの継続時間と前記基準継続時間との差が閾値以上となる運転シーンを抽出する請求項1に記載の走行環境監視装置。
  6. 前記車両は、複数であり、
    前記データ収集部は、前記複数の車両の各々から、前記車両挙動データを更に収集し、
    前記映像要求部は、前記複数の車両のうち、前記異常挙動区間の長いものから優先的に映像を要求する車両を決定する請求項1~5のいずれか1項に記載の走行環境監視装置。
  7. 前記映像要求部は、前記異常挙動区間に対応付けられている位置に接近する車両(V2)に対して、前記異常挙動区間に応じた映像を更に要求する請求項1~6のいずれか1項に記載の走行環境監視装置。
  8. 前記表示制御部は、前記車両から取得した映像と運転シーンとを、時間及び位置により対応付けを行い、指定された運転シーンに対応する映像を表示する制御を更に行う請求項1~7のいずれか1項に記載の走行環境監視装置。
  9. 前記表示制御部は、前記異常挙動区間に対応する運転シーンと、前記異常挙動区間の前及び後の少なくとも一方の運転シーンとを指定可能に表示する制御を更に行う請求項1~7のいずれか1項に記載の走行環境監視装置。
  10. 前記映像要求部は、前記異常挙動区間の前及び後の少なくとも一方の運転シーンが指定された場合、前記異常挙動区間に応じた映像を取得した車両、又は、前記異常挙動区間に対応付けられている位置に接近する車両に対して、前記異常挙動区間の前及び後の少なくとも一方の運転シーンに対応する映像を更に要求する請求項9に記載の走行環境監視装置。
  11. 前記表示制御部は、前記異常挙動区間に対応する地点を含む地図を表示すると共に、前記地図で指定された地点に基づいて、前記地図で指定された前記地点に対応付けられた運転シーンに対応する映像を表示する制御を更に行う請求項1~7のいずれか1項に記載の走行環境監視装置。
  12. 前記地図は、前記異常挙動区間に含まれない区間に対応する別の地点を更に含み、
    前記映像要求部は、前記地図で指定された別の地点に接近する車両に対して、前記地図で指定された前記別の地点に対応付けられた運転シーンに対応する映像を更に要求する請求項11に記載の走行環境監視装置。
  13. 前記表示制御部は、前記異常挙動区間に応じた映像を再生する際に、運転シーンの変化量が予め定められた量以上となる地点の映像の再生速度を等速とし、それ以外の地点の映像の再生速度を倍速以上として表示する制御を更に行う請求項1~7のいずれか1項に記載の走行環境監視装置。
  14. 前記車両は、車載器(20D)を有し、
    前記データ収集部、前記シーン抽出部、及び前記区間決定部は、前記車載器に設けられている請求項1~5のいずれか1項に記載の走行環境監視装置。
  15. 車両(V1)に搭載された車載器(20A)と、
    前記車載器との通信を行う走行環境監視装置(10A)と、
    を備え、
    前記車載器は、
    自車両の挙動を表し、かつ、時間及び位置が対応付けられた車両挙動データを前記走行環境監視装置に送信するデータ送信部(41)、
    を含み、
    前記走行環境監視装置は、
    前記車載器から送信された車両挙動データを収集するデータ収集部(30)と、
    前記データ収集部により収集された車両挙動データから、前記車両の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出するシーン抽出部(31)と、
    代表的な車両挙動データの特徴を表す運転モデルに対する、前記シーン抽出部により抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出する異常検出部(32)と、
    前記異常検出部により検出された運転シーン及び前記運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定する区間決定部(33)と、
    前記車載器に対して、前記区間決定部により決定された異常挙動区間に応じた映像を要求する映像要求部(34)と、
    を含み、
    前記車載器は、
    前記走行環境監視装置からの要求に応じて、自車両の前記異常挙動区間に応じた映像を前記走行環境監視装置に送信する映像送信部(43)、
    を含み、
    前記走行環境監視装置は、
    前記車載器から取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示する制御を行う表示制御部(36)、
    を含む走行環境監視システム(90)。
  16. 車両の挙動を表し、かつ、時間及び位置が対応付けられた車両挙動データを収集し、
    前記収集された車両挙動データから、前記車両の挙動に応じた運転シーン及び運転シーン毎のシーン特徴量を抽出し、
    代表的な車両挙動データの特徴を表す運転モデルに対する、前記抽出された運転シーン毎のシーン特徴量の乖離度合いを表す異常度を算出し、算出した異常度を用いて、異常地点を含む運転シーンを検出し、
    前記検出された運転シーン及び前記運転シーンに連続する複数の運転シーンの中から、予め定められた条件を満たす運転シーンを抽出し、抽出した運転シーンの継続時間の合計により定まる時間範囲を、異常挙動区間として決定し、
    前記車両に対して、前記決定された異常挙動区間に応じた映像を要求し、
    前記要求に応じて、前記車両から取得した映像を、時間、位置、及び異常度の少なくとも1つと共に表示する制御を行うことを、コンピュータに実行させる走行環境監視プログラム(12A)。
JP2019123968A 2019-07-02 2019-07-02 走行環境監視装置、走行環境監視システム、及び走行環境監視プログラム Active JP7247790B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019123968A JP7247790B2 (ja) 2019-07-02 2019-07-02 走行環境監視装置、走行環境監視システム、及び走行環境監視プログラム
US16/917,078 US11361555B2 (en) 2019-07-02 2020-06-30 Road environment monitoring device, road environment monitoring system, and road environment monitoring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019123968A JP7247790B2 (ja) 2019-07-02 2019-07-02 走行環境監視装置、走行環境監視システム、及び走行環境監視プログラム

Publications (2)

Publication Number Publication Date
JP2021009623A JP2021009623A (ja) 2021-01-28
JP7247790B2 true JP7247790B2 (ja) 2023-03-29

Family

ID=74066463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019123968A Active JP7247790B2 (ja) 2019-07-02 2019-07-02 走行環境監視装置、走行環境監視システム、及び走行環境監視プログラム

Country Status (2)

Country Link
US (1) US11361555B2 (ja)
JP (1) JP7247790B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428076B2 (ja) * 2020-05-29 2024-02-06 トヨタ自動車株式会社 サーバ装置、制御装置、車両、及び情報処理システムの動作方法
CN114661574A (zh) * 2020-12-23 2022-06-24 北京百度网讯科技有限公司 样本偏差数据的获取方法、装置和电子设备
CN113936260B (zh) * 2021-11-22 2024-11-05 重庆广睿达科技有限公司 一种基于图像的道路扬尘动态监测方法及系统
CN114663742B (zh) * 2022-04-01 2022-11-22 北京优创新港科技股份有限公司 一种基于无监督学习的路面异常检测方法及系统
CN115294446B (zh) * 2022-06-17 2025-02-07 杭州无限环境设计工程有限公司 一种远程路灯故障监测指示系统
CN115195771A (zh) * 2022-08-18 2022-10-18 武汉中海庭数据技术有限公司 一种驾驶水平改进方法及装置
US12077174B2 (en) * 2022-08-24 2024-09-03 Toyota Motor Engineering & Manufacturing North America, Inc. Compensating mismatch in abnormal driving behavior detection
JP7446526B1 (ja) 2023-01-25 2024-03-08 三菱電機株式会社 遠隔操作支援装置
CN117576640B (zh) * 2023-11-15 2024-10-22 无锡市明大交通科技咨询有限公司 道路隐患排查结果排查方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108586A (ja) 2010-11-15 2012-06-07 Denso Corp 交通情報システム、交通情報取得装置および交通情報提供装置
JP2013149154A (ja) 2012-01-20 2013-08-01 Toyota Motor Corp 運転モデルの作成装置及び運転モデルの作成方法、並びに運転評価装置及び運転評価方法、並びに運転支援システム
JP2016167771A (ja) 2015-03-10 2016-09-15 株式会社デンソー ダイジェスト映像生成装置
JP2019105470A (ja) 2017-12-11 2019-06-27 株式会社Jvcケンウッド 情報表示装置、情報表示システム、情報表示方法および情報表示プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5867296B2 (ja) 2012-05-30 2016-02-24 株式会社デンソー 運転シーン認識装置
JP6026959B2 (ja) 2013-06-03 2016-11-16 株式会社デンソー 運転シーンラベル推定装置
JP6620479B2 (ja) * 2015-09-14 2019-12-18 住友電気工業株式会社 交通情報提供システム、交通情報提供装置及び車載通信装置
JP6786920B2 (ja) * 2016-07-12 2020-11-18 株式会社デンソー 監視システム、車載器、センタ装置、および監視方法
JP6853494B2 (ja) * 2016-09-05 2021-03-31 日本電気株式会社 ドライブレコーダ
US10322728B1 (en) * 2018-02-22 2019-06-18 Futurewei Technologies, Inc. Method for distress and road rage detection
JP2019156068A (ja) * 2018-03-09 2019-09-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US10551207B2 (en) * 2018-06-18 2020-02-04 Nio Usa, Inc. Autonomous vehicle sensor data and map integration
US11513518B2 (en) * 2019-01-30 2022-11-29 Toyota Motor Engineering & Manufacturing North America, Inc. Avoidance of obscured roadway obstacles
US11662741B2 (en) * 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
US12103530B2 (en) * 2020-04-15 2024-10-01 Ford Global Technologies, Llc Vehicle data augmentation
EP3896671A1 (en) * 2020-04-15 2021-10-20 Zenuity AB Detection of a rearward approaching emergency vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108586A (ja) 2010-11-15 2012-06-07 Denso Corp 交通情報システム、交通情報取得装置および交通情報提供装置
JP2013149154A (ja) 2012-01-20 2013-08-01 Toyota Motor Corp 運転モデルの作成装置及び運転モデルの作成方法、並びに運転評価装置及び運転評価方法、並びに運転支援システム
JP2016167771A (ja) 2015-03-10 2016-09-15 株式会社デンソー ダイジェスト映像生成装置
JP2019105470A (ja) 2017-12-11 2019-06-27 株式会社Jvcケンウッド 情報表示装置、情報表示システム、情報表示方法および情報表示プログラム

Also Published As

Publication number Publication date
US11361555B2 (en) 2022-06-14
US20210004612A1 (en) 2021-01-07
JP2021009623A (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
JP7247790B2 (ja) 走行環境監視装置、走行環境監視システム、及び走行環境監視プログラム
US10347122B2 (en) Road condition monitoring system
JP6853494B2 (ja) ドライブレコーダ
JP6342858B2 (ja) 運転評価装置
JP6786920B2 (ja) 監視システム、車載器、センタ装置、および監視方法
JP2008003657A (ja) 運転情報集約装置、システム、情報集約方法、及び、情報集約プログラム
US11202030B2 (en) System and method for providing complete event data from cross-referenced data memories
CN108985530A (zh) 车辆危险行为管理方法及装置
JP6313589B2 (ja) 運行情報管理システム
CN108924461B (zh) 视频图像处理方法及装置
CN109215169B (zh) 行车数据的存储方法、装置和设备
CN115720253A (zh) 视频处理方法、装置、车辆以及存储介质
US10977882B1 (en) Driver health profile
JP6345572B2 (ja) 走行映像記録システムおよびこれに用いるドライブレコーダ、並びに記録走行映像のアップロード方法
JP2007141212A (ja) 運転支援方法および運転支援装置
CN114103944B (zh) 车间时距调整方法、装置和设备
US11615654B1 (en) Signature use for efficient data transfer
JP2008040766A (ja) 運行管理装置、運行管理プログラム、及び運行管理方法
CN112543937A (zh) 数据处理方法、装置及设备
CN119176146B (zh) 数据处理方法、装置、设备、存储介质及产品
JP2010257483A (ja) 運転支援装置および運転支援方法
JP7056778B2 (ja) ドライブレコーダ
CN119028043A (zh) 智能行车记录系统系统、方法、介质及设备
CN110579781A (zh) 一种车辆定位方法、装置及电子设备
US12242933B1 (en) Adaptive model for vehicle processing of images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R151 Written notification of patent or utility model registration

Ref document number: 7247790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151