[go: up one dir, main page]

JP6835121B2 - コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム - Google Patents

コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム Download PDF

Info

Publication number
JP6835121B2
JP6835121B2 JP2019045846A JP2019045846A JP6835121B2 JP 6835121 B2 JP6835121 B2 JP 6835121B2 JP 2019045846 A JP2019045846 A JP 2019045846A JP 2019045846 A JP2019045846 A JP 2019045846A JP 6835121 B2 JP6835121 B2 JP 6835121B2
Authority
JP
Japan
Prior art keywords
vehicle platform
vehicle
dynamics
images
platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019045846A
Other languages
English (en)
Other versions
JP2019185756A (ja
Inventor
ヤン,ハオ
ゴ,レイ
尾口 健太郎
健太郎 尾口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2019185756A publication Critical patent/JP2019185756A/ja
Application granted granted Critical
Publication of JP6835121B2 publication Critical patent/JP6835121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096827Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed onboard
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本開示は交通監視方法、及び、交通監視システムに関する。より特定の例では、本開示は、複数のコネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システムに関する。
道路上のコネクテッド車両(CV)の増加と、沿道無線通信機器の開発とに伴って、CVを使って交通状況をリアルタイム監視することが可能になる。しかしながら、CVの普及率の低さと、沿道インフラストラクチャを設置及び維持するコストの高さとは、これらの適用を制限している。たとえば、GPSに基づくコネクテッド車両システムでは、多くの交通特徴(たとえば、車両列の長さ、交差点遅れ、沿道建造物など)を検出するのは適切ではない。CVの市場浸透率の低さは、このシステムが交通をリアルタイム監視するため包括的な交通情報を収集することをさらに阻害している。別の沿道無線通信機器に基づくシステムでは、高コストがこのシステムの大規模設置を阻害しているので、システムが設置されていない場所(たとえば、高速道路区分、途切れない幹線回廊など)での交通状況は監視されない。その上、このシステム内の速度及び加速度などの車両のダイナミクスも記述できない。渋滞推定のための車両間通信に基づく交通連鎖システムと、道路リンク速度及び渋滞推定のためのある種のフローティングカーデータに基づくシステムを含んでいるその他の既存システムは、低い普及率と、ある種の交通特徴を捕捉する際の正確さ及び能力の制限という問題にも直面し、それ故に、交通状況の包括的なリアルタイム監視を行うこともできない。
特開2009−146138号公報
本開示に記載された主題は、CVによって収集された情報に基づいてCVのダイナミクス及び状態を判定する新規技術を提供することによって既存の解決法の欠陥及び制限を取り除く。
本発明の態様の一つは、コンピュータが実行する方法であって、第1の車両プラットフォームの現在の地理的位置を判定することと、前記第1の車両プラットフォームの1つ以上のセンサを使用して、前記第1の車両プラットフォームに対する1つ以上の第1のダイナミクスを判定することと、前記第1の車両プラットフォームに関連付けられた1つ以上の車両プラットフォームセンサによって捕捉された、第2の車両プラットフォームに関係している第1の画像の組を受信することと、前記第1の車両プラットフォームの前記1つ以上の車両プラットフォームセンサによって捕捉された前記第1の画像の組に基づいて、前記第2の車両プラットフォームの1つ以上の第2のダイナミクスを判定することと、前記第1の車両プラットフォームの前記1つ以上の第1のダイナミクスと、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスとに基づいて、動的道路地図を生成することと、を含む方法である。
なお、本明細書において、ダイナミクスとは、車両(CVまたはUnCV)の挙動を示す語として用いる。「ダイナミクスを判定する」とは、例えば、車両の移動速度、移動方
向、加速度などを判定することを含む。
本発明の態様の一つは、第1の車両プラットフォームの現在の地理的位置を判定することと、前記第1の車両プラットフォームの1つ以上のセンサを使用して、前記第1の車両プラットフォームに対する1つ以上の第1のダイナミクスを判定することと、前記第1の車両プラットフォームに関連付けられた1つ以上の車両プラットフォームセンサによって捕捉された、第2の車両プラットフォームに関係している第1の画像の組を受信することと、前記第1の車両プラットフォームの前記1つ以上の車両プラットフォームセンサによって捕捉された前記第1の画像の組に基づいて、前記第2の車両プラットフォームの1つ以上の第2のダイナミクスを判定することと、前記第1の車両プラットフォームの前記1つ以上の第1のダイナミクスと、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスとに基づいて、動的道路地図を生成することと、を実行するシステムである。
本開示に記載された主題の1つの革新的な態様によれば、コンピュータ実装方法は、第1の車両プラットフォームの現在の地理的位置を判定することと、第1の車両プラットフォームの1台以上のセンサを使用して、第1の車両プラットフォームに対する1つ以上の第1のダイナミクスを判定することと、第1の車両プラットフォームに関連付けられた1台以上の車両プラットフォームセンサによって捕捉された、第1の車両プラットフォームに近接して位置している第2の車両プラットフォームに関係している第1の画像の組を受信することと、第1の車両プラットフォームの1台以上の車両プラットフォームセンサによって捕捉された第1の画像の組に基づいて、第2の車両プラットフォームの1つ以上の第2のダイナミクスを判定することと、第1の車両プラットフォームの1つ以上のダイナミクス及び第2の車両プラットフォームの1つ以上の第2のダイナミクスに基づいて、動的道路地図を生成することと、動的道路地図に基づいて、第1の車両プラットフォーム、第2の車両プラットフォーム、及び、第1の車両プラットフォーム又は第2の車両プラットフォームと相対的な別の車両プラットフォームのうちの1つ以上をナビゲートすることと、を含んでいる。
概して、本開示に記載された主題の別の革新的な態様は、第1の車両プラットフォームの現在の地理的位置を判定することと、第1の車両プラットフォームの1台以上のセンサを使用して、第1の車両プラットフォームに対する1つ以上の第1のダイナミクスを判定することと、第1の車両プラットフォームに関連付けられた1台以上の車両プラットフォームセンサによって捕捉された、第1の車両プラットフォームに近接して位置している第2の車両プラットフォームに関係している第1の画像の組を受信することと、第1の車両プラットフォームの1台以上の車両プラットフォームセンサによって捕捉された第1の画像の組に基づいて第2の車両プラットフォームの1つ以上の第2のダイナミクスを判定することと、第1の車両プラットフォームの1つ以上のダイナミクス及び第2の車両プラットフォームの1つ以上の第2のダイナミクスに基づいて動的道路地図を生成することと、で構成されている演算を行うために実行可能であるロジックを含んでいる1個以上のプロセッサを備えるシステムにおいて具現化されることがある。
これらの実装及びその他の実装は各々が以下の特徴:第3の車両プラットフォームに関連付けられた1台以上の車両プラットフォームセンサによって捕捉された、第2の車両プラットフォームに関係している第2の画像の組を受信する、という特徴と、第1の車両プラットフォームから捕捉された第1の画像の組と第3の車両プラットフォームから捕捉された第2の画像の組との比較に基づいて、第2の車両プラットフォームの同一性を判定する、という特徴と、第1の車両プラットフォームから捕捉された第1の画像の組に基づいて第2の車両プラットフォームの1つ以上のダイナミクスを判定することは、第1の車両プラットフォームから捕捉された第1の画像の組において第1の物体を検出することと、
第1の画像の組において運転に関連している第1の物体を判定することと、第1の物体の1つ以上のダイナミクスを判定することにより第2の車両プラットフォームの1つ以上のダイナミクスを判定することと、を含んでいる、という特徴と、第1の車両プラットフォームから捕捉された第1の画像の組に基づいて第2の車両プラットフォームの1つ以上のダイナミクスを判定することは、第1の車両プラットフォームから捕捉された第1の画像の組に基づいて、第1の車両プラットフォームに関係している第2の車両プラットフォームの相対的な緯度情報及び経度情報を判定することと、第1の車両プラットフォームに関係している第2の車両プラットフォームの相対的な緯度情報及び経度情報と第1の車両プラットフォームの1つ以上のダイナミクスとに基づいて、第2の車両プラットフォームの1つ以上のダイナミクスを判定することと、を含んでいる、という特徴と、第1の車両プラットフォームの1つ以上のダイナミクス及び第2の車両プラットフォームの1つ以上のダイナミクスに基づいて動的道路地図を生成することは、道路リンク平均速度、道路リンク平均密集度、道路リンク移動時間、道路リンク平均遅れ、及び道路リンク交差点平均遅れのうちの1つ以上を含む道路リンクに基づく交通情報を判定することと、車線平均速度、車線平均密集度、車線平均遅れ、車線移動時間、車線平均遅れ、及び車線交差点平均遅れのうちの1つ以上を含む車線に基づく交通情報を判定することと、動的道路地図を生成するために、道路リンクに基づく交通情報及び車線に基づく交通情報を静的道路地図に統合することと、を含んでいる、という特徴と、第1の車両プラットフォームが無線データ通信のためのネットワークアクセスを装備しているコネクテッド車両プラットフォームであり、第2の車両プラットフォームがネットワークアクセスのないアンコネクテッド車両プラットフォームである、という特徴と、動的道路地図を生成することは、1台以上のコネクテッド車両プラットフォームの1つ以上のダイナミクスを判定することと、1台以上のコネクテッド車両プラットフォームのうちの1台以上のための1台以上の車両プラットフォームセンサによって捕捉された1枚以上の画像に基づいて、1台以上のアンコネクテッド車両プラットフォームの1つ以上のダイナミクスを判定することと、1台以上のコネクテッド車両プラットフォームの1つ以上のダイナミクス及び1台以上のアンコネクテッド車両プラットフォームの1つ以上のダイナミクスに基づいて、動的道路地図を生成することと、を含んでいる、という特徴と、第1の車両プラットフォームに関連付けられた1台以上の車両プラットフォームセンサによって捕捉された第1の画像の組が、第1の車両プラットフォームに関連付けられた1台以上の車両プラットフォームセンサのうちの1台によって時間窓内に捕捉された第2の車両プラットフォームの一連の画像を含んでいる、という特徴と、第1の車両プラットフォームの1台以上の車両プラットフォームセンサによって捕捉された第1の画像の組に基づいて、1つ以上の沿道インフラストラクチャ情報を判定する、という特徴と、1つ以上の沿道インフラストラクチャ情報に基づいて動的道路地図を生成する、という特徴と、動的道路地図を車両プラットフォームナビゲーション、経路計画、及び交通制御の1つ以上の実装に統合する、という特徴と、第3の車両プラットフォームに対する1つ以上のダイナミクスを判定する、という特徴と、第3の車両プラットフォームの1つ以上のダイナミクス及び生成された動的道路地図に基づいて、第3の車両プラットフォームに対する1つ以上の命令を生成する、という特徴と、1つ以上の命令に従って第3の車両プラットフォームをナビゲートするために、第3の車両プラットフォームの1台以上のアクチュエータを制御する、という特徴と、移動中プラットフォームに関連付けられた1台の機器からのルート計画に対する要求を特定する、という特徴と、動的ルート地図に基づいて1つ以上の候補ルートに対する車線レベル交通状況を特定する、という特徴と、1つ以上の候補ルートの車線レベル交通状況に基づいて最適ルートを判定する、という特徴と、動的道路地図の情報に基づいて1つ以上の警報を生成する、という特徴と、対応する当事者の注意を引くため1つ以上の警報をこの当事者に送信する、という特徴と、のうちの1つ以上を含んでいることがある。
これらの態様及びその他の態様のうちの1つ以上のその他の実装は、非一時的なコンピュータ記憶装置にコード化された方法の動作を行うように構成されている、対応するシス
テム、装置、及びコンピュータプログラムを含む。
本開示に提示されたCVによって収集された情報に基づいて、アンコネクテッド車両(UnCV)及び沿道インフラストラクチャを特定し、それらのダイナミクス及び状態を判定する新たな技術は、色々な観点において特に有利である。たとえば、本書に記載された技術は、CVのダイナミクスだけではなく、UnCVのダイナミクスにも基づいて、動的道路地図を生成することができ、これは、他の既存システムにおいてCVが経験する普及率の低さを打開する。これは、開示されたシステムによって監視され得る車両の対象範囲を顕著に増加させ、それ故に、開示されたシステムのリアルタイム交通監視における正確さ及び信頼性を改善する。別の例として、本技術は、分散可能な方法で展開され得るので、車両ネットワークの中の個々の協調車両への実装に適している。したがって、沿道インフラストラクチャを設置及び維持する高コストは、回避することができる。その上、本書に記載された技術は、たとえば、交通制御、経路計画、車両ナビゲーションなどの多くの既存アプリケーションに容易に統合することができる。
さらに限定されない利点及び利益は、異なるCVによって捕捉された異なる画像から特定された物体の比較に基づいて、つながっていない車両を特定することに関わる関連プロセスを含む。このことは、UnCVの特定の信頼性及び正確さを著しく改善することがある。
上記利点は、一例として提示されていること、そして、この技術は、数多くのその他の利点及び利益を持つことがある、と解されるべきである。
この開示は、類似した符号が同様の要素に言及するために用いられる添付図面中の図に、実施例として、そして、限定としてではなく示されている。
コネクテッド・カーを用いるリアルタイム交通監視のための実施例システムのブロック図である。 実施例多視点観察アプリケーションのブロック図である。 実施例地図アプリケーションのブロック図である。 動的道路地図を生成する実施例方法のフローチャートである。 2台のコネクテッド車両及び1台のアンコネクテッド車両と共に実施例道路セグメントを示す図である。 検出された物体のコンパクト表現を学習し、複数台の車両からの物体を関連付ける実施例方法のフローチャートである。 2台のコネクテッド車両によって関連付けられた複数台のアンコネクテッド車両を用いる実施例シナリオを示す図である。 コネクテッド車両及びアンコネクテッド車両を追跡する実施例シナリオを示す図である。 アンコネクテッド車両のダイナミクスを判定する実施例方法のフローチャートである。 交通状況を推定する実施例方法のフローチャートである。 アンコネクテッド車両用の交通車線を判定する実施例シナリオである。 動的道路地図を生成する実施例方法のフローチャートである。 動的道路地図のアプリケーションを実装する実施例方法のフローチャートである。
本書に記載された技術は、CVだけでなく、UnCV及び沿道インフラストラクチャに
基づいて包括的な動的道路地図を生成し得る。CVは、UnCV及び沿道インフラストラクチャの画像を連続的に撮影する外部センサを含むことがあり、これらの画像は、機械学習モデル又は種々のアルゴリズムに依存して、UnCV及び沿道インフラストラクチャを特定及び測位し、これらの状況を追跡するために使用されることがある。UnCV及び沿道インフラストラクチャの追跡された状況は、CVのダイナミクスと結び付き、動的道路地図を生成し更新することがある。一旦生成されると、動的道路地図は、リアルタイム交通監視における様々なアプリケーション、たとえば、自動運転、運転支援、渋滞制御、沿道事故報告書などに実装される可能性がある。さらに詳しく後述されるように、この技術は、異なるCVから特定されたUnCV及び沿道インフラストラクチャを関連付けることができる方法及び対応するシステムをさらに含む。
図1は、コネクテッド車両を用いるリアルタイム交通監視のための実施例システム100のブロック図である。図示される通り、システム100は、サーバ101と、1台以上の車両プラットフォーム103a...103nと、ネットワーク107を経由した電子通信のため連結されたサード・パーティ・サーバ(群)105とを含む。図1及び残りの図において、符号の後の文字、たとえば、「103a」は、この特定の符号を有している要素への言及を表している。文字が後に続かないテキスト内の符号、たとえば、「103」は、この符号を担っている要素のインスタンスへの一般参照を表している。図1に描かれたシステム100は、一例として与えられ、本開示によって熟考されたシステム100及び/又はさらなるシステムは、付加的な及び/又はより少数のコンポーネントを含むことがあり、コンポーネントを組み合わせること、及び/又は、コンポーネントのうちの1つ以上を付加的なコンポーネントに分割することなどがある、と解されるべきである。たとえば、システム100は、いかなる台数の車両プラットフォーム103、サード・パーティ・サーバ105、ネットワーク107、又はサーバ101でも含むことがある。
ネットワーク107は、従来型の有線及び/又は無線でもよく、スター構成、トークンリング構成、又はその他の構成を含めて、多様な構成を有することがある。たとえば、ネットワーク107は、複数の機器が通信する際に経由することがある1つ以上のローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)(たとえば、インターネット)、パーソナル・エリア・ネットワーク(PAN)、パブリックネットワーク、プライベートネットワーク、仮想ネットワーク、仮想プライベートネットワーク、ピア・ツー・ピア・ネットワーク、近距離無線ネットワーク(たとえば、Bluetooth(登録商標)、NFCなど)、車両ネットワーク、及び/又は、その他の相互接続型データパスを含むことがある。
ネットワーク107は、様々な異なる通信プロトコルでデータを送信するため電気通信ネットワークの一部に連結される又は一部を含むことがある。実施例プロトコルは、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザ・データグラム・プロトコル(UDP)、伝送制御プロトコル(TCP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、ダイナミック・アダプティブ・ストリーミング・オーバーHTTP(DASH)、リアルタイム・ストリーミング・プロトコル(RTSP)、リアルタイム転送プロトコル(RTP)及びリアルタイム転送制御プロトコル(RTCP)、ボイス・オーバー・インターネットプロトコル(VOIP)、ファイル転送プロトコル(FTP)、ウェブソケット(WS)、無線アクセスプロトコル(WAP)、種々のメッセージングプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAVなど)、又はその他の適当なプロトコルを含むが、これらに限定されない。一部の実施形態では、ネットワーク107は、たとえば、DSRC(専用短距離通信)、WAVE、802.11p、3G、4G、5G+ネットワーク、WiFi(商標)、衛星ネットワーク、車両対車両(V2V)ネットワーク、車両対インフラストラクチャ/インフラストラクチャ対車両(V2I/I2V)ネット
ワーク、車両対インフラストラクチャ/車両対すべてのモノ(V2I/V2X)ネットワーク、又は、その他の無線ネットワークなどの接続を使用する無線ネットワークでもよい。一部の実施形態では、ネットワーク107は、限られた資源、たとえば、かなりの伝送レイテンシを引き起こすことがある限られた通信帯域幅などを有する車両無線ネットワークでもよい。図1は、サーバ101、車両プラットフォーム(群)103、及び、サード・パーティ・サーバ(群)105に連結するネットワーク107に対して単一のブロックを示すが、ネットワーク107は、実際には、前述の通り、いくつものネットワークの組み合わせで構成されることがある、と解されるべきである。
車両プラットフォーム(群)103は、センサ(群)113、プロセッサ(群)115、メモリ(群)117、通信ユニット(群)119、車両データストア121、多視点観察アプリケーション120、追跡アプリケーション122、及び地図アプリケーション124を有するコンピューティング機器(群)152を含む。コンピューティング機器(群)152の実施例は、たとえば、1台以上のセンサ113、アクチュエータ128(たとえば、アクチュエータ、モチベータなど)のような、車両プラットフォーム(群)103の他のコンポーネントに連結された、仮想又は物理コンピュータプロセッサ、制御ユニット、マイクロコントローラなどを含むことがある。車両プラットフォーム(群)103は、信号線141を介して、ネットワーク107に連結されることがあり、他の車両プラットフォーム(群)103、サード・パーティ・サーバ(群)105、及び/又は、サーバ(群)101との間でデータを送受信することがある。一部の実施形態では、車両プラットフォーム(群)103は、一つの地点から別の地点へ移動する能力がある。車両プラットフォーム(群)103の限定されることのない実施例は、車両、自動車、農業機械、単車、自転車、バス、ボート、航空機、バイオニックインプラント、ロボット、又は、非一時的なコンピュータエレクトロニクス(たとえば、プロセッサ、メモリ、若しくは、非一時的なコンピュータエレクトロニクスの何らかの組み合わせ)を備えるその他のプラットフォームを含む。車両プラットフォーム(群)103は、本書では、車両(群)と呼ばれることがある。
プロセッサ(群)115は、種々の入力/出力、ロジック、及び/又は数学演算を行うことによってソフトウェア命令(たとえば、タスク)を実行することがある。プロセッサ(群)115は、データ信号を処理するために種々のコンピューティングアーキテクチャを有することがある。プロセッサ(群)115は、物理的及び/又は仮想的でもよく、単一コア若しくは複数の処理ユニット及び/又はコアを含むことがある。車両プラットフォーム103との関連において、プロセッサは、車などのような車両プラットフォーム103内に実装された電子制御ユニット(ECU)でもよいが、その他のタイプのプラットフォームも可能であり、検討される。一部の実施形態では、ECUは、センサデータを受信し、多視点観察アプリケーション120、追跡アプリケーション122、及び/又は地図アプリケーション124によるアクセス及び/又は検索のため車両演算データとして車両データストア121に保存することがある。たとえば、ECUは、検出された物体のコンパクト表現を生成するために、又は、検出された物体の位置を特定するために学習させられたモデル、機械学習ロジック(群)(たとえば、ソフトウェア、コードなど)を実装することがある。別の例では、ECUは、動的道路地図生成及び更新を実装することがある。一部の実装では、プロセッサ(群)115は、電子表示信号を生成し、入力/出力機器(群)に供給し、画像の表示を支援し、画像を撮影及び伝送し、種々のタイプの物体認識及び特徴抽出などを含む複雑なタスクを実行する能力を持つことがある。一部の実装では、プロセッサ(群)115は、バス154を介してメモリ(群)117に連結され、メモリ(群)からのデータ及び命令にアクセスし、メモリ群にデータを保存することがある。バス154は、プロセッサ(群)115を、たとえば、センサ(群)113、メモリ(群)117、通信ユニット(群)119、及び/又は、車両データストア121を含む車両プラットフォーム(群)103の他のコンポーネントに連結することがある。
多視点観察アプリケーション120は、多重画像内で検出された物体のコンパクト表現を生成し、コンパクト表現を使用して、検出された物体間の類似性を判定し、判定された類似性に基づいて多重画像を関連付けるために実行可能であるソフトウェア及び/又はハードウェアロジックである。図1に示された通り、サーバ101及び車両プラットフォーム103a...103nは、多視点観察アプリケーション120のインスタンス120a及び120b...120nを含むことがある。一部の実施形態では、各インスタンス120a及び120b...120nは、図2に描かれた多視点観察アプリケーション120の1つ以上のコンポーネントで構成されることがあり、インスタンスがどこに存在するかに依存して、本書に記載された機能のうち全部又は一部を行うように構成されることがある。一部の実施形態では、多視点観察アプリケーション120は、1台以上のコンピュータ機器の1個以上のプロセッサによって実行できるソフトウェアを使用して、限定されることはないが、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などのようなハードウェアを使用して、及び/又は、ハードウェアとソフトウェアとの組み合わせなどを使用して、実装されることがある。多視点観察アプリケーション120は、センサデータ及び/又は車両データを受信し処理し、バス154を介して、たとえば、メモリ117、通信ユニット119、車両データストア121などの車両プラットフォーム103の他の要素と通信することがある。多視点観察アプリケーション120は、少なくとも図2A及び図5Aを参照して、詳細に後述されている。
追跡アプリケーション122は、経時的に物体追跡を行うために実行可能であるソフトウェア及び/又はハードウェアロジックである。図1に示された通り、サーバ101及び車両プラットフォーム103a...103nは、追跡アプリケーション122のインスタンス122a及び122b...122nを含むことがある。一部の実施形態では、追跡アプリケーション122は、1台以上のコンピュータ機器の1個以上のプロセッサによって実行できるソフトウェアを使用して、限定されることはないが、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などのようなハードウェアを使用して、及び/又は、ハードウェアとソフトウェアとの組み合わせなどを使用して、実装されることがある。一部の実施形態では、追跡アプリケーション122は、多重画像で撮影された種々の物体を監視するために、物体追跡(たとえば、車両位置、信号光状態など)を行うことがある。一部の実施形態では、多視点観察アプリケーション120及び/又は追跡アプリケーション122は、正確な道路シーン分析を提供するために、他のアプリケーション(たとえば、測位アプリケーション、地図アプリケーション124、ナビゲーションアプリケーション、3Dモデリングアプリケーションなど)に組み込まれることがあり、それによって、これらの他のアプリケーションの機能を実現し易くする。
地図アプリケーション124は、動的道路地図生成を行うために実行可能であるソフトウェア及び/又はハードウェアロジックである。図1に示された通り、サーバ101及び/又は車両プラットフォーム103a...103nは、地図アプリケーション124のインスタンス124a及び124b...124nを含むことがある。一部の実施形態では、地図アプリケーション124は、1台以上のコンピュータ機器の1個以上のプロセッサによって実行可能であるソフトウェアを使用して、限定されることはないが、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などのようなハードウェアを使用して、及び/又は、ハードウェアとソフトウェアとの組み合わせなどを使用して、実装されることがある。一部の実施形態では、地図アプリケーション124は、あるエリア内のリアルタイム交通状況を反映させるために動的地図生成を行うことがある。一部の実施形態では、地図アプリケーション124は、センサデータ、車両データ、他の車両アプリケーション120及び122からのデータ、及び/又は、
サード・パーティ・サーバ(群)105からのデータを受信し処理することがある。一部の実施形態では、地図アプリケーション124は、リアルタイム道路交通情報を提供するために他のアプリケーション(たとえば、測位アプリケーション、安全運転アプリケーション、ナビゲーションアプリケーション、3Dモデリングアプリケーションなど)に組み込まれることがあり、それによって、これらの他のアプリケーションの機能を実現し易くする。地図アプリケーション124は、少なくとも図3を参照して、詳細に後述されている。
メモリ(群)117は、非一時的なコンピュータ使用可能な(たとえば、読み取り可能、書き込み可能などの)媒体を含み、この媒体は、プロセッサ(群)115による、若しくは、プロセッサ(群)115に関連した処理のための命令、データ、コンピュータプログラム、ソフトウェア、コード、ルーチンなどを格納する、保存する、通信する、伝搬する、若しくは、転送することができる有形の非一時的な装置又は機器にもなり得る。たとえば、メモリ(群)117は、多視点観察アプリケーション120、追跡アプリケーション122、及び/又は地図アプリケーション124を保存することがある。一部の実装では、メモリ(群)117は、揮発性メモリ及び不揮発性メモリの一つ又はそれ以上を含むことがある。たとえば、メモリ(群)117は、ダイナミック・ランダム・アクセス・メモリ(DRAM)装置、スタティック・ランダム・アクセス・メモリ(SRAM)装置、ディスクリートメモリ装置(たとえば、PROM、FPROM、ROM)、ハードディスクドライブ、光学ディスクドライブ(CD、DVD、Blue−ray(商標)など)の一つ又はそれ以上を含むことがあるが、これらに限定されない。メモリ(群)117は、単一の装置でもよく、又は、複数の種類の装置及び構成を含むことがある、と解されるべきである。
通信ユニット119は、無線及び/又は有線接続を使用して(たとえば、ネットワーク107を介して)通信連結されている他のコンピューティング機器との間でデータを送受信する。通信ユニット119は、データを送受信するため1つ以上の有線インタフェース及び/又は無線トランシーバを含むことがある。通信ユニット119は、ネットワーク107につながり、たとえば、他の車両プラットフォーム(群)103、サーバ(群)101、及び/又は、サード・パーティ・サーバ(群)105などの他のコンピューティングノードと通信することがある。通信ユニット119は、たとえば、前述された通信方法などの標準的な通信方法を使用して、他のコンピューティングノードとデータを交換することがある。
センサ(群)113は、車両プラットフォーム(群)103に適しているどのような種類のセンサでも含む。センサ(群)113は、車両プラットフォーム103の特性、及び/又は、これの内部環境と外部環境とを判定するために適したどのような種類の信号データでも収集するように構成されることがある。センサ(群)113の非限定的な実施例は、種々の光学センサ(CCD、CMOS、2D、3D、光検出・測距(LIDAR)、カメラなど)と、音響センサと、動き検出センサと、気圧計と、高度計と、熱電対と、湿度センサと、赤外線(IR)センサと、レーダーセンサと、その他の光センサと、ジャイロスコープと、加速度計と、速度計と、ステアリングセンサと、ブレーキセンサと、スイッチと、車両標識センサと、ワイパーセンサと、地理位置センサと、方位センサと、無線トランシーバ(たとえば、セルラ、Wi−Fi(登録商標)、近距離など)と、音波センサと、超音波センサと、触覚センサと、近接センサと、距離センサなどとを含んでいる。一部の実施形態では、1台以上のセンサ113は、車両プラットフォーム103を取り囲む場面・文脈を捕捉するために、車両プラットフォーム103の前側、後側、右側、左側、下端、及び/又は、上端に設けられた外向きセンサを含むことがある。
一部の実施形態では、センサ(群)113は、ビデオ画像及び静止画像を含む画像を記
録するように構成された1台以上の画像センサ(たとえば、光学センサ)を含むことがあり、適用できるフレームレートでビデオストリームのフレームを記録することがあり、適用できる方法を使用して、撮影されたビデオ画像及び静止画像を符号化及び/又は処理することがある。一部の実施形態では、画像センサ(群)113は、これらのセンサのレンジ内にある周囲環境の画像を撮影することができる。たとえば、車両プラットフォームの文脈では、画像センサ113は、道路、建物、沿道構造物、インフラストラクチャ(たとえば、道路標識、事故、沿道建造物、交通信号灯など)、静的な道路上物体、動的な道路上物体(たとえば、車両プラットフォーム103、歩行者、自転車、動物など)といった車両プラットフォーム103の周辺の環境を撮影することができる。一部の実施形態では、画像センサ113は、車両プラットフォーム103の移動方向と相対的などちらの向き(前向き、後向き、横向き、上向き、下向きなど)でも感知するように車両屋根及び/又は車両プラットフォーム103の内側に搭載されることがある。一部の実施形態では、画像センサ113は、多方向型(たとえば、LIDAR)でもよい。一部の実施形態では、異なった車両プラットフォーム103に設置された画像センサ113は、異なる視点及び/又は視野角を持つことがあり、異なった設定値、取り付け、及び/又は、機器構成で構成されることがある。
アクチュエータ(群)128は、動きを生じさせる又は阻止することができる機械的及び/又は電気的機器を含む。アクチュエータ(群)128は、電気式、空気圧式、油圧式、磁気式、機械式、熱力学式、及び/又は、磁気式、及び/又は、上記の組み合わせでもよい。非限定的な実施例アクチュエータ(群)128は、電気モータ、電動リンク機構、シグナリングコンポーネント、サーボメカニズム、油圧シリンダ、空気圧アクチュエータ、対応する歯車装置、コネクタ、及び運動学的コンポーネント、燃焼機関、ジェットエンジンなどを含む。アクチュエータは、リンク機構、変速装置、動力伝達装置、油圧、及び/又はその他の組立部品、たとえば、車輪、プロップ、ターボファン、送風機、ジェット、及び/又は、車両103の加速、減速、及び舵取りを行うことができるその他のコンポーネントなどを介して、コンポーネントに連結されることがある。
車両データストア121は、様々な種類のデータを保存する非一時的な記憶媒体を含む。たとえば、車両データストア121は、たとえば、コントローラ・エリア・ネットワーク(CAN)バスなどのようなバスを使用して、所定の車両プラットフォーム103の異なるコンポーネントの間で通信されている車両データを保存することがある。一部の実施形態では、車両データは、車両プラットフォーム103の異なるコンポーネントに連結され、これらのコンポーネントの運用状態、たとえば、変速、速度、加速度、減速度、車輪速度(毎分回転数−RPM)、ステアリング角、制動力などを監視する複数のセンサ113から収集された車両運用データを含むことがある。一部の実施形態では、車両データは、移動方向、車両プラットフォーム103の地理的位置を示す車両地理的位置(たとえば、GPS(全地球測位システム)座標)などを含むことがある。一部の実施形態では、車両データは、(たとえば、他の沿道ユニット、他の車両、サード・パーティ・サーバ(群)105などから)トランシーバによって受信された何らかのデータ及び情報を含むことがある。
一部の実施形態では、車両データは、車両プラットフォーム103の1台以上の画像センサ113によって撮影された内部センサ画像及び外部センサ画像と、これらの画像に関連付けられた画像とをさらに含むことがある。一部の実施形態では、画像データは、画像が撮影されたときの日付及び時刻を示す画像タイムスタンプと、センサ位置と、センサ方位と、画像センサ113、及び/又は、その他のカメラの設定値と、カメラ位置と、車両プラットフォームセンサと、CANなどと、画像を撮影するときのデータとを含むことがある。一部の実施形態では、画像データは、画像内で検出された1つ以上の物体についてさらに記述することがある。たとえば、画像データは、画像内で検出された各物体のモダ
リティ特徴(群)、初期表現(群)、及び/又はコンパクト表現(群)を含むことがある。初期表現は、本書において、検出された物体の初期特徴表現と呼ばれることがあり、コンパクト表現は、本書において、検出された物体のコンパクト特徴表現と呼ばれることがある。一部の実施形態では、車両データは、他の車両プラットフォーム(群)103から受信された、画像、画像データ、関連した抽出特徴、初期表現(群)、及び/又は、コンパクト表現(群)をさらに含むことがある。
一部の実施形態では、車両データストア121は、表現学習モデル及び位置認識モデルのモデルデータを保存することがある。一部の実施形態では、表現学習モデルは、検出された物体を効率的に表現するコンパクト表現(たとえば、コンパクト特徴ベクトル)を生成するために、及び/又は、コンパクト表現を使用して検出済み物体の類似性を判定するために訓練されている機械学習モデルでもよい。一部の実施形態では、位置認識モデルは、同様に、特定された物体の(たとえば、画像センサ113と相対的な)相対位置を特定するために訓練されている機械学習モデルでもよい。一部の実施形態では、表現学習モデル及び/又は位置認識モデルは、畳み込みニューラルネットワーク、サポートベクターマシンなどの形式で実装されることがある。様々な種類の教師付き学習アルゴリズム及び/又は教師なし学習アルゴリズムを用いた機械学習モデルを実装するその他のシステムアーキテクチャもまた実現可能であり、検討されている。一部の実施形態では、モデルデータは、表現学習モデル及び/又は位置認識モデルの1つ以上のパラメータを含むことがある。たとえば、モデルデータは、初期特徴ベクトルをコンパクト特徴ベクトルにマッピングする訓練プロセスから学習された1つの機械学習ロジックのマッピングパラメータを含むことがある。別の例として、モデルデータは、画像内の物体の位置を画像センサ113に相対的な物体の方位にマッピングする訓練プロセスから学習された別の機械学習ロジックの方位パラメータを含むこともある。
サーバ101は、プロセッサと、メモリと、ネットワーク通信性能(たとえば、通信ユニット)とを含むハードウェア及び/又は仮想サーバを含んでいる。一部の実施形態では、サーバ101は、システム100の他のエンティティ(たとえば、車両プラットフォーム103)より大規模なコンピューティング性能及びコンピューティング資源を持つことがある。サーバ101は、信号線145によって示されている通り、ネットワーク107に通信連結されることがある。一部の実施形態では、サーバは、システム100の他のエンティティ、たとえば、1つ以上の車両プラットフォーム103との間でデータを送受信することがある。図示される通り、サーバ101は、多視点観察アプリケーション120a、追跡アプリケーション122a、及び/又は地図アプリケーション124aのインスタンスを含むことがある。
サーバ101は、これらのアプリケーションによるアクセス及び/又は検索のため様々な種類のデータを保存するデータストア126をさらに含むことがある。たとえば、データストア126は、車両プラットフォーム(群)103から受信された検出済み物体のコンパクト表現(たとえば、コンパクト特徴ベクトル)と、訓練データと、表現学習モデルのモデルデータと、位置認識モデルのモデルデータなどを保存することがある。一部の実施形態では、表現学習モデルのための訓練データは、訓練画像の複数のグループと、訓練画像の各グループに関連付けられた所定のターゲット出力とを含むことがある。一部の実施形態では、所定のターゲット出力は、訓練画像のグループに含まれている物体群が同じ物体を表現しているかどうかを示唆することがある。たとえば、訓練データは、所定のターゲット出力=“1”を持つ(正の訓練画像に含まれている物体が同一であることを示唆する)正の訓練画像と、所定のターゲット出力=“0”を持つ(負の訓練画像に含まれている物体が同一ではないことを示唆する)負の訓練画像とを含むことがある。一部の実施形態では、表現学習モデルのモデルデータは、訓練プロセスの様々な時点でのモデルのパラメータを含むことがある。たとえば、表現学習モデルのモデルデータは、検出済み物体
のコンパクト特徴ベクトルを生成するために訓練されている1つ以上の機械学習ロジックのマッピングパラメータと、類似性スコアを生成するために訓練されている1つ以上の機械学習ロジックの採点パラメータと、その他とを含むことがある。一部の実施形態では、表現学習モデルのモデルデータは、表現学習モデルのモデル構成をさらに含むことがある。たとえば、表現学習モデルのモデル構成は、モデルの訓練プロセスが完了したとき(たとえば、所定の回数の訓練サイクル及び/又は所定のフィードバック差が満たされたことなど)を示唆する収束点を定義することがある。
サード・パーティ・サーバ(群)105は、プロセッサと、メモリと、ネットワーク通信性能(たとえば、通信ユニット)とを含むハードウェア及び/又は仮想サーバを含んでいる。サード・パーティ・サーバ(群)105は、信号線147によって示されている通り、ネットワーク107に通信連結されることがある。一部の実施形態では、サード・パーティ・サーバ(群)105は、システム100の他のエンティティ、たとえば、1つ以上の車両プラットフォーム103及び/又はサーバ101との間でデータを送受信することがある。
一部の実施形態では、サード・パーティ・サーバ(群)105は、交通関連情報を生成する、発信する、又は受信するいかなるサーバも含むことがある。たとえば、サード・パーティ・サーバ(群)105は、一般的な交通関連情報(たとえば、地図アプリケーション、ナビゲーションアプリケーション、事故報告アプリケーション、天気予報アプリケーションなど)を提供する幾つかの交通アプリケーションサーバを含むことがある。たとえば、サード・パーティ・サーバ(群)105は、交通関連ニュース、コメント、メッセージ、ブログなどを生成し発信する幾つかのオンライン・ソーシャル・メディア・サーバを含むことがある。たとえば、サード・パーティ・サーバ(群)105は、特定エリアのための交通関連情報を直接的に生成し発信する幾つかのサーバを含むことがある。たとえば、幾つかの沿道ユニットは、一部の短距離対象エリアのための交通情報を提供することがある。別の例では、一部の沿道インフラストラクチャは、それ自体が、これらのインフラストラクチャに関連したある情報を発信することがある(たとえば、沿道のシカ移動ゾーン標識は、車両がシカ移動ゾーンに出入りしていることを知らせるために電子メッセージを自動的に発信することがある)。これらのサード・パーティ・サーバ105のいずれかから収集された情報は、信号線147を通じてシステムの他のエンティティ(たとえば、サーバ101及び1つ以上の車両プラットフォーム103)に通信されることがある。
その他の変形及び/又は組み合わせも実現可能であり、検討されている。図1に示されたシステム100は、実施例システムを表し、様々な異なるシステム環境及び構成が検討され、本開示の範囲に含まれる、と解されるべきである。たとえば、様々な行為及び/又は機能は、サーバからクライアントに、又は、逆に移転されることがあり、データは単一のデータストアに集約される、又は、増設のデータストアにさらに分割されることがあり、一部の実装は、付加的な、若しくは、より少数のコンピューティング機器、サービス、及び/又はネットワークを含むことがあり、様々な機能性をクライアント側又はサーバ側で実装することがある。その上、システムの様々なエンティティは、単一のコンピューティング機器若しくはシステムに統合されることがあり、又は、付加的なコンピューティング機器若しくはシステムなどに分割されることがある。
図2Aは、実施例多視点観察アプリケーション120のブロック図である。図示される通り、多視点観察アプリケーション120は、検出器202と、特徴抽出器204と、モダリティプロセッサ206と、1つ以上のコンパクト表現生成器208と、類似性識別器210と、関連付けプロセッサ212とを含むことがある。多視点観察アプリケーション120は、限定されることはないが、構成エンジン、暗号/復号エンジンなどの付加的なコンポーネントなどを含むことがある、及び/又は、これらの様々なコンポーネントは、
単一のエンジンに組み合わされる、又は、付加的なエンジンに分割されることがある、と解されるべきである。
検出器202と、特徴抽出器204と、モダリティプロセッサ206と、1つ以上のコンパクト表現生成器208と、類似性識別器210と、関連付けプロセッサ212とは、ソフトウェア、ハードウェア、又は、これらの組み合わせとして実装されることがある。一部の実施形態では、検出器202と、特徴抽出器204と、モダリティプロセッサ206と、1つ以上のコンパクト表現生成器208と、類似性識別器210と、関連付けプロセッサ212とは、バス154及び/又はプロセッサ115によって互いに、及び/又は、コンピューティング機器152の他のコンポーネントに通信連結されることがある。一部の実施形態では、コンポーネント202、204、206、208、210、及び212のうちの1つ以上は、これらの機能を提供するためにプロセッサ115によって実行可能である命令の集合である。さらなる実施形態では、コンポーネント202、204、206、208、210、及び212のうちの1つ以上は、メモリ117に保存可能であり、これらの機能を提供するためにプロセッサ115によってアクセス可能及び実行可能である。上記実施形態のいずれにおいても、これらのコンポーネント202、204、206、208、210、及び212は、コンピューティング機器152のプロセッサ115及びその他のコンポーネントとの協働及び通信に適応していることがある。多視点観察アプリケーション120と、これのコンポーネント202、204、206、208、210、及び212とは、少なくとも図5Aを参照して、以下でより詳細に説明されている。
本書の他の場所で論じられている通り、多視点観察アプリケーション120は、多数の車両プラットフォーム103によって撮影された多数の画像を関連付けるために実行可能であるソフトウェア及び/又はハードウェアロジックである。典型的なシナリオでは、同じ道路エリア内に位置している多数の車両プラットフォーム103は、異なる視点から、道路エリア内に存在する同じ物体の多数の画像を撮影することがある。したがって、一部の実施形態では、これらの多数の画像内の物体は、異なる車両プラットフォームから撮影された検出済み物体の間で類似性を判定することによって関連付けられることがある。
一部の実施形態では、多視点観察アプリケーション120は、交通状況に近似した、2つ以上の異なる車両プラットフォームの2台以上の車両プラットフォームセンサによって撮影された2枚以上の画像を受信することがある。多視点観察アプリケーション120は、2枚以上の画像の中の第1の画像内の第1の物体から第1のマルチモーダル特徴の組を抽出することがある。第1の画像は、2つ以上の車両プラットフォーム103のうちの第1の車両プラットフォーム103に関連付けられることがある。たとえば、第1の車両プラットフォーム103のセンサは、画像を撮影することがあり、センサは、画像で構成された画像データを提供するために多視点観察アプリケーション120に連結されることがあり、多視点観察アプリケーションは、たとえば、交通状況の地理的領域の範囲内に位置している1つ以上の他の車両プラットフォーム103によって撮影された画像のような交通状況に関連付けられた画像を1つ以上の他の画像とペアにすることがある。たとえば、多視点観察アプリケーション120は、2枚以上の画像の中の第2の画像内の第2の物体から第2のマルチモーダル特徴の組をさらに抽出することがあり、この第2の画像は、2つ以上の車両プラットフォーム103の第2の車両プラットフォーム103に関連付けられている。
一部の実施形態では、第1の車両プラットフォームは、(たとえば、これに含まれていることがあるECU若しくはその他の計算資源を介して)コンピューティング機器を表すことがあり、本書に記載された要素のいずれか、たとえば、第1の車両プラットフォームの外部にある外部環境に向けられた第1の視点を有し、外部環境に含まれている第1の物体を反映する第1のセンサデータを捕捉する第1のセンサと、第2の視点から外部環境に
含まれている第2の物体を反映する第2のセンサデータを第2の車両プラットフォームから受信する第1の通信ユニットとを含むことがある。一部の実施形態では、第2の車両プラットフォームは、(たとえば、これに含まれていることがあるECU若しくはその他の計算資源を介して)コンピューティング機器を表すことがあり、第2の車両プラットフォームの外部にある外部環境に向けられた第2の視点を有し、外部環境に含まれている第1の物体を反映する第2のセンサデータを捕捉する第2のセンサと、第2の車両プラットフォームから第1の車両プラットフォームへ第2のセンサデータを送信する第2の通信ユニットとを同様に含む。
一部の実施形態では、ハードウェアサーバは、少なくとも1台のコンピューティング機器によって具現化され、このハードウェアサーバは、類似性スコアに基づく別個の機械学習ロジックで構成された機械学習モデルを訓練するように適合し、機械学習モデルの第1の例は、第1の車両プラットフォームにインストールされ、機械学習モデルの第2の例は、第2の車両プラットフォームにインストールされている。
一部の実施形態では、多視点観察アプリケーション120は、第1の画像内で第1の物体を検出することがあり、第2の画像内で第2の物体を検出することがあり、以下同様に続く。検出は、一部の事例では、それぞれの車両プラットフォーム103で作動するアプリケーション120のインスタンスを介して行われることがある。車両プラットフォーム103の動き及び/又は作用に関係がある(たとえば、運転に関連している)物体を含んでいる画像は、多視点観察アプリケーション120のインスタンスによって特定され、次に、本書の他の場所で論じられた、ペア化された入力を形成するためにペア化されることがある。たとえば、上記実施例を使用して、多視点観察アプリケーション120は、運転に関連する第1の画像の第1の物体から第1の物体の組を判定し、次に、運転に関連する第2の画像の第2の物体から第2の物体の組を判定することがあり、以下同様に続く。これらの運転関連入力(たとえば、画像、センサデータの組など)は、次にペア化されることがある(たとえば、ペアは、2つ以上の入力を含む)。
一部の実施形態では、類似性学習のため関連しているとして画像内の物体を判定することに加えて、多視点観察アプリケーション120は、所定の画像が撮影された地理的位置を記述する地理的位置データを含んでいる画像関連データを受信することがあり、画像は、地理的位置を取り囲んでいる対応するエリア若しくは領域に基づいてさらにペア化されることがある(その結果、沿道若しくは交通状況の異なる視点を捕捉する画像がこれらの地理的位置データに基づいて特定されることがある)。
一部の実施形態では、多視点観察アプリケーション120は、本書の他の場所でさらに論じられている通り、第1の出力及び第2の出力を生成するために、それぞれ、別個の機械学習ロジックを使用して、第1のマルチモーダル特徴の組及び第2のマルチモーダル特徴の組を処理することがある。一部の事例では、(現在処理されている画像の数に依存して最大でN組までの)第1のマルチモーダル特徴の組及び第2のマルチモーダル特徴の組が正規化され、合成されることがある。たとえば、第1の画像及び第2の画像を対象としている上記実施例では、第1のマルチモーダル特徴の組及び第2のマルチモーダル特徴の組は、独立に正規化され、次に、それぞれのマルチモーダル初期特徴ベクトル(たとえば、第1のベクトル、第2のベクトル、以下同様に続く)に組み合わされる。
処理に応答して、多視点観察アプリケーション120は、第1の出力及び第2の出力を使用して第1のマルチモーダル特徴の組と第2のマルチモーダル特徴の組との間の差を定量化する類似性スコアを生成することがある。本書の他の場所で論じられている通り、類似性スコアを使用して、多視点観察アプリケーション120は、第1の車両プラットフォーム103に関連付けられた第1の画像が反映された第1の物体と、第2の車両プラット
フォーム103に関連付けられた第2の画像が反映された第2の物体とを関連付けることがある。一部の実施形態では、このような物体関連付けは、画像内で検出された物体のコンパクト特徴表現を使用して行われることがある。一旦関連付けられると、物体は、他のアプリケーション(たとえば、追跡アプリケーション122及び/又は地図アプリケーション124)によってさらに処理されることがある。
図2Bは、実施例地図アプリケーション124のブロック図である。図示される通り、地図アプリケーション124は、CVダイナミクスプロセッサ252と、UnCVダイナミクスプロセッサ254と、道路交通推定器256と、沿道インフラストラクチャモニタ258と、動的道路地図生成器260とを含むことがある。地図アプリケーションは、限定されることはないが、構成エンジンと、暗号化/復号エンジンなどのような付加的なコンポーネントを含むことがある、及び/又は、これらの様々なコンポーネントは、単一のエンジンに統合されることがあり、又は、付加的なエンジンに分割されることがある、と解されるべきである。
CVダイナミクスプロセッサ252と、UnCVダイナミクスプロセッサ254と、道路交通推定器256と、沿道インフラストラクチャモニタ258と、動的道路地図生成器260とは、ソフトウェア、ハードウェア、又はこれらの組み合わせとして実装されることがある。一部の実施形態では、CVダイナミクスプロセッサ252と、UnCVダイナミクスプロセッサ254と、道路交通推定器256と、沿道インフラストラクチャモニタ258と、動的道路地図生成器260とは、バス154及び/又はプロセッサ115によって互いに、及び/又は、コンピューティング機器152の他のコンポーネントに通信連結されることがある。一部の実施形態では、コンポーネント252、254、256、258、及び260のうちの1つ以上は、これらの機能を提供するためにプロセッサ115によって実行可能な命令の組である。さらなる実施形態では、コンポーネント252、254、256、258、及び260のうちの1つ以上は、メモリ117に保存可能であり、これらの機能を提供するためにプロセッサ115によってアクセス可能かつ実行可能である。上記実施形態のいずれかにおいて、これらのコンポーネント252、254、256、258、及び260は、コンピューティング機器152のプロセッサ115及び他のコンポーネントとの協働及び通信に適応していることがある。
本書の他の場所で論じられている通り、地図アプリケーション124は、CV群から収集された情報に基づいて包括的な動的道路地図を生成するために実行可能であるソフトウェア及び/又はハードウェアロジックである。一部の実施形態では、地図アプリケーション124は、動的道路地図を生成する際に多視点観察アプリケーション120及び追跡アプリケーション122と協働することがある。典型的なシナリオでは、特定の道路エリア内に、車両プラットフォーム103のうちの一定の割合だけがCV群であり、その他の車両プラットフォームがUnCV群である複数の車両プラットフォーム103があるかもしれない。関連付けプロセスにおいて、多視点観察アプリケーション120によってペア化された入力画像から特定された関連付け済みの物体は、道路地図エリア内に存在しているUnCV群を含むことがあり、ペア化された入力画像は、道路地図エリア内の異なるCV群の画像センサ113によって撮影されることがある。各CVは、1台以上のUnCVを撮影することがあり、各UnCVは、ペア化された画像の1つ以上の組によって関連付けられることがあるので、道路地図エリア内のUnCV群の大半若しくは全部は、次に、多視点観察アプリケーション120によって特定されることがある。UnCV群及びCV群が特定されると、追跡アプリケーション122と組み合わされた地図アプリケーション124は、この特定の道路エリアに対する包括的な動的道路地図を生成することがある。動的道路地図を生成する際の地図アプリケーション124及びこれのコンポーネント252、254、256、258、及び260は、少なくとも図3〜図9を参照してさらに詳細に後述される。
図3は、動的道路地図を生成する実施例方法のフローチャートである。図示される通り、第1のCV(たとえば、CV 103c)は、特定の道路エリア内で走行していることがある。第1のCVは、道路エリア内の交通状況を監視するのを支援する画像センサ(群)113及び(センサ113に含まれていることがある)GPS機器304を含むことがある。画像センサ(群)113は、第1のCVの外部環境の画像を撮影する1台以上の外部センサを含むことがある。CVの外部環境は、1台以上のUnCV(たとえば、UnCV 103d)と、何らかの沿道インフラストラクチャ302とを含むことがある。1台以上のUnCV及び何らかの沿道インフラストラクチャ302を含んでいる撮影画像は、次に、さらなる処理のため(たとえば、多視点観察アプリケーション120による物体検出及び特徴抽出のため)、第1のCV、別のCV、又はサーバ101のメモリ117に伝送されることがある。同様に、同じ道路エリア内を走行している第2のCV(たとえば、CV 103e)は、CV、別のCV、又はサーバ101によるさらなる処理のため、(UnCV103dも含むことがある)1台以上のUnCVと何らかの沿道インフラストラクチャ302との画像をさらに撮影することがある。
第1のCVから撮影された画像(第1の画像の組と呼ばれることがある)及び第2のCVから撮影された画像(第2の画像の組と呼ばれることがある)は、次に、ブロック305において物体検出及び特徴抽出のため独立に処理されることがある。物体検出及び特徴抽出は、画像の各組における1つ以上の物体(たとえば、UnCV 103d、何らかの沿道インフラストラクチャ、及びその他の物体)の特定を許すことがある。画像の各組からの特定された物体は、次に、画像の両方の組における1つ以上の物体が類似性を共有するかどうかを判定するために、類似性に関して比較されることがある。1つ以上の物体が同一の物体であるかどうかが判定される場合、これらの物体は、次に、ブロック307において関連付けられることがある。
ブロック305における特徴抽出は、特定された物体毎に位置情報の特定を可能にするために、位置関連情報を抽出することをさらに含むことがある。特定された物体毎に特定された位置情報は、次に、物体に対して異なる時点に撮影された画像から、ブロック307において異なる時点に、特定された各物体を追跡することを可能にすることがある。異なる時点に追跡された位置に基づいて、UnCV(たとえば、UnCV 103d)を含んでいる特定された各物体のダイナミクスは、次に、UnCVダイナミクスプロセッサ254によって(ブロック309において)判定されることがある。
CV(たとえば、CV 103c、CV 103e)のダイナミクスは、CVに関連付けられたGPS機器(群)304から収集された情報に基づいて、CVダイナミクスプロセッサ252によって(ブロック311において)判定されることがある。各CVに対して、及び、特定された各UnCVに対して判定されたダイナミクスに基づいて、この道路エリア内の車両プラットフォーム103の全部ではないが大半のダイナミクスが判定されることがあり、静的地図310からの情報と組み合わされたときに、道路交通推定器256による(ブロック313における)このエリア内の動的交通状況の推定を可能にすることがある。
一部の実施形態では、ブロック307における特定された物体の追跡は、異なる時点に沿道インフラストラクチャに対する位置情報及び/又は状態(たとえば、交通信号灯状態)を追跡することをさらに含むことがある。付加的又は代替的に、沿道インフラストラクチャ関連情報は、他のアプローチによって収集されることがある。たとえば、一部の沿道インフラストラクチャは、交通関連情報を提供するために無線信号又はメッセージを伝送することがある。異なる時点に異なる情報源から収集された沿道インフラストラクチャ関連情報は、沿道インフラストラクチャモニタ258による地図エリア内の動的沿道インフ
ラストラクチャ状態の(ブロック315における)推定を可能にするために組み合わされることがある。
判定された動的道路交通状態及び沿道インフラストラクチャは、その後、動的道路地図生成器260によって動的道路地図320を生成するために、静的道路地図310に統合されることがある。動的道路地図を生成する際のプロセスのより詳細な説明は、図4〜図9を参照してさらに後述される。
図4は、CV及びUnCVに関するさらなる情報を提供するために、2台のCV及び1台のUnCVを含んでいる実施例道路セグメントを示す。名前が示している通り、CVは、車両内部の他の機器との接続を可能とする、及び/又は、外部機器、ネットワーク、アプリケーション、サービスなどへの車両の接続を可能とする車両に存在する(組み込み型又は携帯型の)1台以上の通信機器を含むことがある。接続性を組み込むことにより、CVは、車両の周囲の状況を理解するのに役立つように必要な情報を収集及び/又は提供するために、車両対車両(V2V)通信、及び/又は車両対インフラストラクチャ(V2I)通信を可能とすることがある。他方では、UnCVは、可能とされた接続性を含まないことがあり、それ故に、交通状況を報告しないことがあるが、この交通情報を収集及び/又は提供するために他のCV又は沿道ユニット若しくはシステムに頼る。
CVの接続性及びCVによるUnCVの監視の支援を可能とするために、CVは、必要な機器、システム、アプリケーションなどを備えていることがある。より容易な図解及びより簡単な説明のため、これらの必要な機器、システム、又はアプリケーションは、一体となって、監視ユニット402と呼ばれることがある。図示される通り、2台のCV103c又は103eは、各々が監視ユニット402c又は402eを含むことがある。監視ユニット402c又は402eの各々は、交通関連情報を監視及び/又は収集することを支援する機器又はシステムを含むことがある。たとえば、監視ユニット402eは、位置、時刻、及びCV103eの運転速度を判定するために、GPS衛星412又は地理的測位システムと通信する地理的測位(たとえば、GPS)レシーバを含むことがある。たとえば、監視ユニット402eは、ネットワーク107を介して、別のCV、サーバ101、及び/又はサード・パーティ・サーバ(群)105と通信するために、1台以上のトランシーバをさらに含むことがある。付加的に、監視ユニット402eは、アクセスポイント414(たとえば、沿道ユニット)との無線通信を介して、交通若しくは沿道インフラストラクチャ情報を提供する沿道ユニット(図示せず)又は沿道インフラストラクチャ404と無線通信する1台以上のトランシーバをさらに含むことがある。
一部の実施形態では、監視ユニット402は、たとえば、UnCV及び沿道インフラストラクチャなどの外部環境に関する画像、ビデオ、及び/又はオーディを捕捉できるようにされた1台以上のカメラセンサを含むことがある。たとえば、図4における監視ユニット402c又は402eは、点線によって示されているように捕捉レンジの範囲内に位置しているUnCV 103dと沿道インフラストラクチャ404の一部とを捕捉できるようにされた1台以上のカメラセンサを含むことがある。一部の実施形態では、監視ユニット402は、それぞれが異なる方向で画像及び/又はビデオを独立に撮影する複数台のカメラセンサを含むことがある。たとえば、監視ユニット402は、それぞれが北、南、西、又は東に向かって周辺エリアを撮影する4台のカメラを含むことがある。
一部の実施形態では、CV内の監視ユニット402は、周辺環境をより良く監視するために手動で又は自動的に調整されることがある。たとえば、V2V及び/又はV2I通信に基づいて、道路エリア内の特定の領域は、より多くの注意(たとえば、事故領域、UnCVが集中した領域、特定されたDUI車両など)を必要とするかもしれない。1台以上のCVの監視ユニット402内の1台以上のカメラ及び/又はセンサの方位は、より良好
な対象範囲をもたらすようにこれらの特定の領域に焦点を合わせるために手動で又は自動的に調整されることがある。
一部の実施形態では、CV内の監視ユニット402は、手動で又は自動的に作動及び/又は停止させられることがある。通信のための電力及び/又は帯域幅を節約するために、監視ユニット402内の1台以上のカメラ又はセンサは、自動的に又は手動で停止させられることがある。たとえば、エリア内のCVが飽和レートに到達した(たとえば、CV:UnCVの比率が十分に大きいため、このエリア内のすべての車両を対象とすることができる)、と判定された場合、あるCV上の監視ユニット402は、電力、コンピューティング、及びデータ伝送を節約するために自動的に又は手動で停止させられることがある。CVの監視ユニット402を自動的に又は手動で停止させるその他の条件は、CVが農村地区、遠隔地、駐車場、私有地、軍事地区、公的禁止地区などを走行すること、又は、CVがカメラ若しくはセンサが有用な情報を収集することを許可しない条件下で、たとえば、豪雨、豪雪、真っ暗な環境などの下で走行すること、を含むことがある。
一部の実施形態では、各CVは、周辺エリア内の複数台のCVを捕捉又は監視することがある。したがって、CVの普及率が低くても、各CVが複数台のUnCVを対象とすることによって、CV群によって対象とされるUnCVの総数は、かなり高められ得る。一部の実施形態では、単一のUnCVは、周辺エリア内の複数台のCVによって捕捉されることがある。図4に示されている通り、UnCV 103dは、2台のCV 103c及び103eによって捕捉されることがある。現実の交通状況を評価する精度を確保するために、UnCVが2台以上のCVによって捕捉されることを可能にすることが有益であるかもしれず、それ故に、関連付けプロセスは、異なるCVによって捕捉されたUnCVを関連付けるために必要であることがある。
図5Aは、検出された物体のコンパクト表現を学習し、複数台の車両からの物体を関連付ける実施例方法のフローチャートである。図示される通り、一般的な関連付けプロセスは、複数の画像の1つずつにおける特徴抽出及び物体(たとえば、UnCV)特定と、これらの画像において特定された物体の類似性比較と、異なるCVによって検出された同一物体(群)の関連付けとを含むことがある。
ブロック502において、CVのカメラ又はセンサ113は、CVが道路に沿って走行しているときに、道路シーンの画像を撮影することがある。一部の実施形態では、これらの道路シーン画像は、所定のレート/間隔で(たとえば、5秒毎に、10秒毎に、30秒毎などに)撮影されることがある。一部の実施形態では、ビデオがこのエリアに対して撮影されることもある。一部の実施形態では、複数の車両プラットフォームは、エリア内の共有セグメントを捕捉することがある。たとえば、CV 103c及びCV 103eは、UnCV 103dを含むことがある共有セグメントを偶然に捕捉することがある。
ブロック504において、検出器202は、撮影された画像内の1つ以上の物体を検出することがある。たとえば、検出器202は、道路シーン内に存在する1つ以上の物体を検出するために(たとえば、視覚アルゴリズムを使用して)撮影画像に物体認識を行うことがある。
ブロック506において、特徴抽出器204は、検出済み物体の特徴を抽出することがある。これは、画像内の検出済み物体を記述する1つ以上のモダリティ特徴を判定することを含むことがある。たとえば、特徴抽出器204は、後で類似性判定を支援するために検出済みオブジェクトのテクスチャ特徴、色特徴、コンテキスト特徴、及び/又はビューポート特徴のうちの1つ以上を抽出するように画像データを処理することがある。抽出されたテクスチャ特徴は、検出済み物体の様々な部分のテクスチャを記述することがある。
たとえば、あるボンネット、車輪、及びバンパーの幾何学的形状、構造、及びテクスチャパターンは、抽出されたテクスチャ特徴の中で特定されることがある。抽出された色特徴は、検出済み物体の1つ以上の色を含むことがある。たとえば、検出済み物体の抽出された色特徴は、1台の車両が黒色であり、これの隣にある別の類似した車両が銀色であることを示す。抽出されたコンテキスト特徴は、検出済み物体の周囲の背景環境を記述することがある。コンテキスト特徴は、特に、捕捉された画像が同一の外観を持つ物体群を含むときに、類似性処理において役立つ。一例として、第1の画像は、第2の画像内の第2の自動車と同一の外観を有する第1の自動車を含むことがある。しかしながら、抽出されたコンテキスト特徴は、抽出されたコンテキスト特徴によって示されている通り、第1の自動車及び第2の自動車の周辺環境に基づいて、第1の自動車が道路上を走行している間に、第2の自動車が建物の前に駐車させられている、ということを示すことがある。抽出された視点特徴は、画像が撮影された視点を示すことがある。これらは、画像を撮影したときの車両プラットフォーム103の移動方向と画像センサのセンサ位置及びセンサ方位とを含むことがある。視点特徴は、類似性処理において特に有益である。一例として、第1の画像は、第2の画像内の第2の破損トラックに類似した第1の破損トラックを含むことがある。特徴抽出器204は、第1の画像が北方向へ移動している第1の車両プラットフォーム103の左側に設けられた画像センサによって撮影されたこと、及び、第2の画像が南方向へ移動している第2の車両プラットフォーム103の左側に設けられた画像センサによって撮影されたことを判定することがある。その結果、第1の破損トラック及び第2の破損トラックは、視点特徴によって示されている通り、これらの破損トラックが撮影された際の視点が両立できるので、同一物体を表現しているとして判定されることがある。
ブロック508において、モダリティプロセッサ206は、画像内の検出済み物体を記述するモダリティ特徴を処理することがある。一部の実施形態では、モダリティプロセッサ206は、検出済み物体の初期表現520を生成するために、モダリティ特徴を正規化し、連結させることがある。詳しくは、検出済み物体を記述するモダリティ特徴は、所定の規格に準拠するように変換及び/又は再編成されることがある。モダリティプロセッサ206は、次に、正規化されたモダリティ特徴を、検出済み物体を包括的に記述する初期特徴ベクトルに集約する。一部の実施形態では、検出済み物体の初期特徴ベクトルは、検出済み物体に関連付けられたテクスチャ特徴(群)と、色特徴(群)と、コンテキスト特徴(群)と、視点特徴(群)などとを含んでいるモダリティ特徴の完全な組を含むことがある。その結果、検出済み物体の初期特徴ベクトルは、その中に含まれている多数のモダリティ特徴に対応する大規模な特徴次元(それ故に、大規模なデータサイズ)を有することがある。
ブロック510において、コンパクト表現生成器208は、検出済み物体のコンパクト表現を生成することがある。詳しくは、コンパクト表現生成器208は、検出済み物体の初期表現520を検出済み物体のコンパクト表現522にマッピングすることがある。たとえば、コンパクト表現生成器208は、検出済み物体を表現する初期特徴ベクトルを、検出済み物体を表現するコンパクト特徴ベクトルにマッピングすることがある。一部の実施形態では、コンパクト特徴ベクトルは、対応する初期特徴ベクトルと比べると、より小数のモダリティ特徴で構成されることがある(それ故に、より小規模な特徴次元及びより小さいデータサイズを有する)。
図4に示される通り、画像捕捉、物体検出、特徴抽出、モダリティ処理、及びコンパクト表現生成は、異なった視点から撮影された複数の画像内で検出済み物体のコンパクト表現522を生成するために複数台のCVで行われることがある。本書の他の場所で論じられている通り、これらの撮影済み画像内の検出済み物体のコンパクト表現522は、所定の規格に準拠することがあるので、同一のフォーマット及び特徴次元を有することがある
。一部の実施形態では、撮影済み画像内の検出済み物体のコンパクト表現522は、類似性識別器210へ入力されることがある。
ブロック512において、類似性識別器210は、異なる撮影済み画像内の検出済み物体のコンパクト表現522の間の類似性のレベルを反映する類似性スコアを計算することがある。一例として、類似性識別器210は、第1の視点から撮影された第1の画像内の第1の物体の第1のコンパクト表現522a(たとえば、第1のコンパクト特徴ベクトル)と、第2の視点から撮影された第2の画像内の第2の物体のn番目のコンパクト表現522n(たとえば、n番目のコンパクト特徴ベクトル)との間の類似性のレベルを示す類似性スコアを計算することがある。
一部の実施形態では、コンパクト表現生成器208によって行われるコンパクト表現生成と、類似性識別器210によって行われる類似性スコア計算とは、物体類似性を処理する際に使用されることがあり、表現学習モデルとして実装されることがある。本書の他の場所で論じられている通り、表現学習モデルは、検出済み物体の初期表現から、検出済み物体を効率的に表現するコンパクト表現を生成するために訓練されることがあり、生成されたコンパクト表現を使用して検出済み物体の類似性を判定することがある。
一部の実施形態では、訓練された表現学習モデルは、CV 103内にソフトウェア、ハードウェア、上記の組み合わせなどとして実装されること(たとえば、インストールされること、構築されること、組み込むために更新されること、メモリに記憶されること、実行されることなど)があり、物体を検出及び分類するために、すぐ隣の車両プラットフォーム103と一緒にシーン、共有物体、及び/又は、シーン情報を処理するために、車両プラットフォーム103の出力機器を介して運転手及び乗客フィードバックを提供するために、交通エコシステムを形成する多数の車両の間で共有され、車両プラットフォームに組み込まれ、車両プラットフォームによって実行されるナビゲーションアプリケーション(たとえば、GPS若しくはその他の地理的測位システム)によってルート計算及びナビゲーション命令準備のため使用される動的地図に保存するためのデータをサーバ101に送信するなどのために、リアルタイム走行中に使用されることがある。一部の実施形態では、複数のコンパクト表現生成器208a...208n及び類似性識別器210によって具現化された機械学習ロジック(群)は、本書で論じられた演算を行うために実行されることがある。
ブロック515において、類似性識別器210は、第1の画像内の第1の物体及び第2の画像内の第2の物体が同一物体を記述しているかどうかを類似性スコアに基づいて判定することがある。一部の実施形態では、類似性識別器210は、第1の物体の第1のコンパクト表現522aと第2の物体のn番目のコンパクト表現522nとの間の類似性スコアが所定のスコア閾値(たとえば、50%より大きい)を満たすかどうかを判定することがある。第1の物体の第1のコンパクト表現522aと第2の物体のn番目のコンパクト表現522nとの間の類似性スコアが所定のスコア閾値を満たしていることを判定することに応答して、類似性識別器210は、第1の画像内の第1の物体及び第2の画像内の第2の物体が同一物体を表現している、と判定することがある。
ブロック516において、関連付けプロセッサ212は、ブロック515における判別結果に基づいて、第1の画像と第2の画像とを関連付ける。詳しくは、類似性識別器210が第1の画像内の第1の物体と第2の画像内の第2の物体とが同一物体を表現している、と判定した場合、関連付けプロセッサ212は、第1の画像内の第1の物体を第2の画像内の第2の物体に関連付けることがある。たとえば、図4に示される通り、関連付けプロセッサ212は、CV 103cによって撮影された画像内のUnCV 103dをCV 103eによって撮影された画像内の同じUnCV 103dに関連付けることがあ
る。
一部の実施形態では、CVは、捕捉された画像内で複数のUnCV又は他の物体を捕捉することがある。その結果、第1のCVによって撮影された第1の画像及び第2のCVによって撮影された第2の画像内に複数の物体が存在するかもしれない。
図5Bは、2台の接続された車両によって関連付けられた、複数台のアンコネクテッド車両を含んでいる実施例シナリオを示す。図示されている通り、2台のCV 103f及び103gが道路エリア内の交差点に存在する。各CVは、たとえば、監視ユニット402f若しくは402gによって示された通り、他のUnCVを監視する必要な機器若しくはシステムを具備していることがある。監視ユニット402f及び402gの各々は、点線によって示された通りそれぞれの対象範囲エリアを有することがある。物体検出プロセスでは、各CVは、このCVの監視ユニット402から撮影された画像に基づいて、異なる物体を検出することがある。たとえば、CV 103fの監視ユニット402fは、(各々が固有ID F1、F2、F3、F4、F5を持っていることがある)UnCV 103h、103i、103k、103l、及び103mを検出することがあるが、対象範囲の制限のため103g及び103oを検出せず、UnCV 103iによって視野が妨げられたためUnCV 103jを検出しないことがある。同様に、CV 103gに関連付けられた監視ユニット402gは、(各々が固有ID G1、G2、G3、G4、G5を持っていることがある)UnCV 103h、103i、103j、103k、及び103mを検出することがあるが、UnCV 103i及び103oと、CV 103fとを検出しないことがある。図5Aに示される通り、関連付けプロセスの後、4台のUnCVである103h(F1、G1)と、103i(F2、G2)と、103k(F3、G4)と、103m(F5、G5)とは、CV 103f及びCV 103gの両方によって検出された同一物体であると判定されることがあり、その結果、関連付けられる。2台のCVによる4台のUnCVの関連付けは、交差点内で対象範囲とされる車両をかなり増加させるので、これらの車両の動的な動きを追跡することを含めて、道路交通状況を判定するため利用できる車両の台数をかなり増加させる。
図6は、CV及びUnCVを追跡する実施例シナリオを示す。図示される通り、交差点に接近した4台の車両プラットフォームが存在することがある。これらは、2台のCV 103f及び103gと2台のUnCV 103h及び103mとを含むことがある。時点T1で、車両103f及び103mは、北へ移動中であり、北からの車両103hは、西へ右折中であり、その間に、車両103gは、(たとえば、赤信号のため)交差点の後に停止する。ある期間T2−T1(たとえば、3秒、6秒など)の経過後、3つの移動中車両プラットフォーム103f、103h、103mの位置がT2位置に変更されている。車両プラットフォーム103gは、この期間中、その位置に止まり続ける。これらの異なる車両プラットフォームの位置は、この期間を通じて連続的に監視されることがある。たとえば、2台のCV 103f及び103gは、この期間中に、これら自体の位置と、2台のUnCV 103h及び103mの位置とを監視することがある。
2台のCV 103f及び103gの位置及びダイナミクスは、これらの監視ユニット402から収集された情報に基づいて判定されることがある。2台のCVのそれぞれにおける監視ユニット402は、測位、ナビゲーション、及びタイミング情報をこのCVに提供するGPSシステムを含むことがある。測位及びタイミング情報に基づいて、このCVのダイナミクス(たとえば、移動速度、移動方向、加速度など)が容易に判定され得る。
2台のUnCVの位置及びダイナミクスは、図7Aにおいてさらに説明される通り、2台のCVによって撮影された画像から抽出された画像データ及び/又は特徴に基づいて判定されることがある。
図7Aは、アンコネクテッド車両のダイナミクスを判定する実施例方法のフローチャートである。ブロック702において、UnCVダイナミクスプロセッサ254は、UnCVに関連付けられた特徴を収集することがある。これは、UnCVに関連付けられた画像に対して特徴抽出器204によって生成された視点特徴を収集することを含むことがある。収集された視点特徴は、画像を撮影したときに、画像を撮影するCVの移動方向と、センサ位置と、センサ方位と、レンズ開口と、焦点距離などを含むことがある。センサ位置は、組み込み型GPSシステム内に設けられた、及び/又は、CVに含まれている別のGPSシステムに基づく、センサの緯度座標及び経度座標を含むことがある。
ブロック704において、UnCVダイナミクスプロセッサ254は、画像内のUnCV、又は、もっと言えばUnCVの一部分(たとえば、車輪、窓、バンパー、ヘッドライト、バンパーなど)のサイズを特定するために、抽出されたテクスチャ特徴をチェックすることがある。UnCVの一部分又は全体のサイズ情報は、焦点距離及び/又は画像センサ情報と組み合わされたとき、センサと相対的なUnCVの距離の判定を可能とすることがある。
ブロック706において、UnCVダイナミクスプロセッサ254は、画像内のUnCV又はこれの一部分(たとえば、車輪、窓、バンパー、ヘッドライト、バンパーなど)の位置情報を特定するために抽出されたテクスチャ特徴をチェックすることがある。この位置情報は、画像センサの方位と組み合わされたとき、画像センサ方位と相対的なUnCVの方位を特定するために使用されることがある。
一部の実施形態では、UnCVダイナミクスプロセッサ254は、距離及び方位判定を支援するために1つ以上の位置認識モデル又はその他のアルゴリズムを含むことがある。1つ以上の位置認識モデルは、画像センサと相対的な異なる距離及び方位で撮影された様々なモデルの車両プラットフォームを含んでいる画像を使って訓練されることがある。一旦訓練されると、これらの位置認識モデルは、画像センサと相対的な、捕捉されたUnCVの相対距離及び方位を予測するために使用されることがある。判定されたUnCVの相対距離及び方位と、画像センサの緯度座標及び経度座標とに基づいて、UnCVダイナミクスプロセッサ254は、ブロック708及びブロック710においてUnCVの緯度情報及び経度情報を判定することがある。
一部の実施形態では、UnCVに対する一連の画像は、画像センサ113によって撮影されることがある。UnCVの一連の経度座標及び緯度座標は、次に、対応するタイムスタンプを有する経度座標及び緯度座標の各組を使って判定されることがある。UnCVダイナミクスプロセッサ254は、次に、対応するタイムスタンプを持っている一連の経度座標及び緯度座標に基づいて、UnCVに対するダイナミクスを生成することがある。2台以上のUnCVが道路エリア内で特定された場合、各UnCVに対するダイナミクスが同様に判定されることがある。一旦、各CVと特定された各UnCVのダイナミクスが判定されると、道路エリアに対する交通状況が効率的に判定され得る。
図8Aは、交通状況を推定する実施例方法のフローチャートである。図示される通り、交通状況は、動的道路地図を生成する際に様々なレベルの詳細を提供するために、異なるレベルで推定され得る。方法800は、道路リンクレベルで交通状況を推定する実施例方法を示すが、方法840は、車線レベルで交通状況を推定する実施例方法を示す。
ブロック810において、道路交通推定器256は、道路リンクに対する平均速度を推定することがある。特定の道路リンクに対する平均速度を推定するために、道路交通推定器256は、最初に、この特定の道路リンク内の車両を判定することがある。道路交通推
定器256は、CVの位置をチェックし、どのCVが道路リンクの範囲内にあるかを特定するためにこれらの地理的位置情報を定義された道路リンクと比較することがある。道路リンク内の特定されたCVは、これらの動的状態、たとえば、速度、方向などが通知されることもある。特定されたCVに基づいて、この道路リンク内のUnCVも、特定された各CVから検出されたUnCVに基づいて、特定されることがある。代替的に、各UnCVに対する判定された経度情報及び緯度情報も道路リンク内のUnCVを特定するために使用されることがある。これらの特定されたUnCVに対する動的状態も特定されることがある。この特定の道路リンクに対する平均速度は、次に、各CV及び特定された各UnCVの速度を平均化することによって判定されることがある。
ブロック812において、道路交通推定器256は、特定の道路リンクの平均密集度を推定することがある。一部の実施形態では、平均密集度推定は、すべてのCVと、一定期間に道路リンクを通過する特定されたUnCVとの台数をカウントすることによって簡単に計算されることがある。しかしながら、これは、道路種別及び速度制限が道路毎にかなり変化するので、運転者が減速すべきか、若しくは、加速すべきかを判定するために非常に限定された情報しか運転者に提供しないことがある。たとえば、高速道路の一部において時速70マイルで走行している車両では、運転者は、車線毎に1時間当たりに走行する車両の台数が毎時1300車両の流量に達するまで減速することが必要である、と判定することがある。しかしながら、街路の一部において毎時35マイルで走行している車両では、運転者は、はるかに低い流量で減速することが必要である、と感じることがある。
一部の実施形態では、平均密集度の推定は、より正確な密集度推定を行うために、たとえば、フリーフロー速度(たとえば、混雑や、悪天候のような他の悪条件が存在しない場合に車両が走行することになる速度)、車両の平均速度、収容能力、渋滞密度などのその他の要因を考慮に入れることがある。道路交通推定器256は、平均密集度を判定する際にこれらの要因を考慮するアルゴリズムを含むことがある。計算平均密集度は、特定の道路リンクに対して異なる平均密集度を提案するために異なる数若しくはマーカーを用いるインジケータ若しくはインデックスによって示されることがある。この平均密集度インジケータ若しくはインデックスに基づいて、運転者は、自分の周囲がどの程度混雑しているかに関してより良い感触を得ることがある。
ブロック814において、道路交通推定器256は、道路リンクを通過する移動時間を推定することがある。これは、推定平均速度及び道路リンクの長さに基づいて達成されることがある。ブロック816において、地図アプリケーション124は、道路リンクに対する平均遅れも推定することがある。これは、車両が道路リンクを通過する実時間を監視することを含むことがあり、この実時間は、次に、道路リンクを通過する予想時間と比較される。予想時間は、フリーフロー速度に基づいて、又は、単純にこの道路リンク内の道路速度制限に基づいて判定されることがある。
ブロック818において、道路交通推定器256は、道路リンク内の特定の交差点に対する平均遅れも推定することがある。これは、交差点を通過する予想時間を、この交差点を通過する実時間と比較することを含むことがある。予想時間は、単に、交通規制機関から抽出されたデータに基づいて、又は、前方の交通がない場合に車線内で交差点より後ろ側の先頭車両の待ち時間に基づいて交通信号によって与えられた時間を採用することがある。すべての車両に対する交差点遅れを集約することにより、平均交差点遅れが次に取得されることがある。
特定の場合には、道路リンク内の推定交通時間及び遅れは、エリア内の交通状況に関する粗い推定しか提供しない。交通状況のより正確な推定は、車線毎にさらに詳細を必要とすることがある。このことは、特に、頻繁な曲がり角、高速道路入口及び出口などを有す
る交通量の多いエリアに当てはまる。単なる道路リンクレベル推定は、エリアを通過するのにどの程度時間を要するかを推定するために十分な情報を車両に提供しない。たとえば、左折又は右折は、全般的な前進より余分な時間がかかることがあり、高速道路におけるカープール用車線内の交通は、頻繁な出入りのある最も外側の車線内の交通とは異なる平均速度を有することがある。それ故に、交通状況の車線レベル推定は、実交通状況に関するより正確な情報を提供することがある。車線レベル交通状況を推定するために、エリア内の各車両プラットフォームに対する車線情報は、必ず特定されることがある。CVに対する車線情報は、GPS情報に基づいて直接的に特定されることがある。UnCVに対する車線情報は、図8Bにおいてさらに説明される通り、画像センサと相対的なUnCVの判定された経度情報及び緯度情報に基づいて判定されることがある。
図8Bは、特定されたUnCVに対する特定の車線を判定する実施例シナリオを示す。特定されたUnCVに対して、画像センサと相対的なこのUnCVの距離及び方位は、本書の他の場所で論じられている通り、UnCVダイナミクスプロセッサ254によって推定されることがある。関連付けられたCVと相対的なこのUnCVの経度情報及び緯度情報は、次に、それに応じて判定される。判定された相対緯度情報は、特定されたUnCVに対する車線情報を判定するために使用されることがある。図8Bに示される通り、3台のUnCV 103h、103k、及び103mの相対緯度距離は、それぞれ、長さ856、854、及び852である。長さ856、854、852を(静的道路地図から、又は、GPSナビゲーションシステムから抽出されることがある)道路車線の幅と比較することにより、画像センサ113に対する各UnCVの相対方位と組み合わされたとき、各UnCVの車線情報の判定を可能とすることがある。UnCV 103h、103k、及び103mは、それぞれ、車線2’、1、及び2の中にある、と判定されることがある。
再び図8Aを参照すると、特定されたUnCVの車線情報を判定した後、各車線に対する交通状況が方法840においてさらに判定されることがある。ブロック820、822、824、826、及び828において、複数の車線レベル交通状況推定も道路交通推定器256によって行われる。UnCV及びCVに対して判定されたダイナミクスと、特定されたUnCV及びCVの特定された車線情報とに基づいて、各車線に対する平均速度、平均密集度、平均移動時間、平均遅れ、及び平均交差点遅れも判定されることがある。各交通特徴が判定若しくは推定された後、動的道路地図が直ちに生成されることがある。
図9は、動的道路地図320を生成する実施例方法のフローチャートである。一部の実施形態では、動的道路地図生成は、2つのステージ、すなわち、データ収集における第1のステージと、データ編集における第2のステージとを含むことがある。図示される通り、データ収集における第1のステージは、ブロック902において交通状況を収集することと、ブロック904において沿道インフラストラクチャ情報を収集することと、ブロック906において静的道路地図を収集することなどを含むことがある。沿道インフラストラクチャの収集は、ブロック912において沿道標識、ブロック914において事故情報、916における沿道建造物情報、ブロック918において交通信号情報などを収集することをさらに含むことがある。第2のステージでは、動的道路地図生成器260は、編集された動的道路地図を生成するために収集された情報を編集することがある。
動的道路地図を生成するため情報を収集する際に、動的道路地図生成器260は、他のアプリケーション(たとえば、多視点観察アプリケーション120)及び/又は地図アプリケーション124の別のコンポーネント(たとえば、CVダイナミクスプロセッサ252、UnCVダイナミクスプロセッサ254、道路交通推定器256、沿道インフラストラクチャモニタ258)によって判定された情報に頼ることがある。一部の実施形態では、情報は、車両データストア121、サーバ101内のデータストア126から直接的に、及び/又は、サード・パーティ・サーバ(群)105に関連付けて保存されたデータか
ら取り出されることがある。
一部の実施形態では、データ収集ステージは、非構造化データを構造化データに変換することをさらに含むことがある。たとえば、サード・パーティ・サーバ(群)105及び/又はシステム100の他のエンティティから収集された情報は、大量にテキスト化され、構造化されていないことがあり、それ故に、後で動的道路地図を生成する際に編集するため構造化データに変換される必要がある。
ブロック910において、動的道路地図生成器260は、動的道路地図を生成するために収集された情報を編集することがある。様々な技術が動的道路地図を生成するために動的道路地図生成器260によって適用されることがある。一部の実施形態では、動的道路地図生成器260は、動的道路地図を生成する際にオーバーレイ技術を採用することがある。生成された動的道路地図は、時間フレームによって層状ディジタル地図の階層構造を含むことがある。このようにして生成された層状動的道路地図は、各層が前述の通り収集された交通関連情報の異なる態様に関係している情報を提供する、複数の連結された層を含むことがある。たとえば、層状動的道路地図は、第1の基本地図層と、第2の道路インフラストラクチャ層と、第3の交通状況層と含むことがある。第2の層及び第3の層からの情報の体系は、第1の層内の基本地図に対応する地理的位置情報に基づくことがあり、この地理的位置情報は、動的道路地図を生成するために基本地図層の中へ重ね合わされることがある。一部の実施形態では、異なる層に対する異なるズームレベルも準備され、動的道路地図を生成する際に同期させられることがある。異なるズームレベルは、異なる情報の細部を含むことがあるので、ユーザが動的道路地図内の題材に関するより多くの情報を取得することを望む場合、生成された動的道路地図は、より一層ズームインされたレベルでチェックすることができる。
一部の実施形態では、前述の第2の道路インフラストラクチャ層は、CVによって捕捉された画像から抽出された、又は、沿道ユニットから収集された情報に加えて、付加情報を含むことがある。たとえば、第2のインフラストラクチャ層は、サード・パーティ・サーバ(群)105から引き出された交通規制情報、天気予報情報などを含むことがある。たとえば、車両プラットフォーム103の速度違反動作を検出することにより、生成された警報は、車両プラットフォーム103の乗員に提示するための正確な罰金額を含むことがある。正確な罰金額は、この道路インフラストラクチャ層に含まれている交通規制情報に基づいて判定されることがある。別の例では、この層内の天気予報情報が特定の時刻及びゾーンにおいて降水確率100%を示す場合、速度制限は、生成された動的道路地図内でこの特定の時刻及びゾーンに対する予想天候条件を反映するように調整されることがある。
一部の実施形態では、前述の第3の交通状況層は、道路交通推定器256によって判定された交通状況に関係する他の情報を含むことがある。たとえば、第3の交通状況層は、サード・パーティ・サーバ(群)105から、又は、車両プラットフォーム103に関連付けられたセンサ113から引き出された天候情報、イベント情報などを含むことがある。たとえば、車両プラットフォーム103が、フットボールゲームが原因である混雑エリアに進入していることを検出したとき、第3の状態層は、この時点での平均遅れと、次のある期間(たとえば、30分、1時間など)に対する遅れ見込みとを提供することがあり、この遅れ見込みは、ゲームの開始時刻及び終了時刻と、ゲーム開催日における過去の経験とに基づいて判定されることがある。別の例では、第3の交通状況層は、交通速度に影響を与えることがある天候情報をさらに含むことがある。たとえば、センサ113によって検出された、又は、サード・パーティ・サーバ105から引き出された豪雪は、動的道路地図内での平均遅れ、平均速度、平均移動時間などの推定に影響を与えることがある。一部の実施形態では、生成された動的道路地図320は、(ユーザ要求の有無に関わらず
)推定遅れの原因を説明するために、これらのイベント情報、天候情報などを車両乗員に追加的に提示することがある。
正確な層数と、動的道路地図を生成する際に各層に含まれている情報が何であるかは、変化することがあり、前述の説明とは異なることがある、と解されるべきである。たとえば、CVによって撮影された画像から特定され得る交通エリア内の他の移動物体、たとえば、歩行者、動物、自転車、車椅子に乗っている人、スクータに乗っている人、或いは、場合によってはロボットなどに対する情報を含んでいる第4の層が存在するかもしれない。一部の実施形態では、動的道路地図を生成する際に、3層より多い、若しくは、少ない層が存在するかもしれない。異なる層は、前述の順序と全く同じ順序で体系化又は編集されないこともあり、又は、各層に含まれている情報は、前述の情報と全く同じ情報ではないかもしれないが、異なる目的のために変更すること、及び、リミックスすることが可能である。動的道路地図を生成するその他の実施形態及び方法も検討されている。
図10は、生成された動的道路地図のアプリケーションを実装する実施例方法のフローチャートである。一旦生成されると、動的道路地図は、公的な場面又は私的な場面で多くのアプリケーションに統合されることがある。公的なアプリケーションでは、動的道路地図は、局所的な交通制御及び管理(たとえば、実際の事故現場の通知を支援すること、交通量の多い混雑エリア、道路リンク、若しくは車線を緩和するために交通信号修正を支援することなど)を強化するために使用されることがある。私的なアプリケーションでは、動的道路地図は、数ある中でも、ナビゲーションアプリケーション及び経路計画のため使用されることがある。
ブロック1002において、システム100は、生成された動的道路地図320を様々なアプリケーションに統合する。一部の実施形態では、動的道路地図320の統合は、リアルタイム交通情報を対応する端末に提供するために有線若しくは無線通信を利用することがある。一部の実施形態では、動的道路地図320は、一旦生成若しくは更新されると、対応する端末(たとえば、有線若しくは無線通信を介して車両に関連付けられたナビゲーションアプリケーション)へ途切れなく、かつ、即座に送信されることがある。一部の実施形態では、動的道路地図320は、通信帯域幅を節約するために(地図更新レートと比べて)比較的低い頻度で他の端末へ送信されることがある。たとえば、動的道路地図は、1、2、若しくは3秒毎に、又は、もっと長い間隔で、或いは、顕著な変更(たとえば、平均車線遅れの変更)がある場合に限り、他の端末へ送られることがある。一部の実施形態では、動的道路地図は、要求が受信されるまで、送信されないことがある。
ブロック1012において、地図アプリケーション124は、動的道路地図データに基づくナビゲーション機能を提供するグラフィカル・ユーザ・インタフェースを生成し表示することがある。たとえば、動的道路地図は、地図アプリケーション124によって表示された地図及びルートに統合されることがある。一部の実施形態では、地図アプリケーション124は、動的道路地図データに基づいて、交通関連情報を、ユーザの位置を対象範囲に含む地図に重ね合わせることがある。一部の実施形態では、高度に文脈的な情報がユーザプロンプト及び/又は警報と一緒に動的に表示されることがある。
車両プラットフォーム103は、バス154に連結され、情報をユーザ若しくはその他の機器へ出力若しくは表示するように構成された機器、たとえば、限定されることはないが、通知、ナビゲーション情報、マルチメディア情報、設定値などを表示するタッチスクリーンと、サウンド情報を供給するオーディオ再生機器(たとえば、スピーカ)と、文字若しくはグラフィカル情報をユーザに提示するディスプレイ/モニタなどで構成されることがある出力機器(群)を含むことがある。出力情報は、運転者及び/又は乗員や他の機器によって理解されることがあるテキスト情報、グラフィック情報、触覚情報、オーディ
オ情報、ビデオ情報、及び、その他の情報でもよく、或いは、車両プラットフォーム103及び/又はその他のコンピューティング機器のオペレーティングシステムによって読むことができるデータ、ロジック、プログラミングでもよい。出力機器(群)は、車両プラットフォーム103の他のコンポーネントに、直接的に、若しくは、介在するコントローラを経由して連結されることがある。一部の実装では、出力機器(群)130の組は、人が設定値、及び/又は、車両プラットフォーム103の制御(たとえば、運転者制御、インフォテインメント制御、ガイダンス制御、安全性制御など)を調整するために相互作用することがある制御パネルに組み込まれることがあり、又は、制御パネルを形成することがある。
一部の実施形態では、コンピューティングシステム152は、運転者若しくは乗員入力を受信し、これを処理し(たとえば、ボタン押下、音声コマンドなどを翻訳する)、コマンドに対応する動作を実施し、自律制御を選び、ナビゲーションルートを選択し、警報若しくは交通状況を受信することなどがある制御若しくは地図アプリケーション124を実行することがある。たとえば、地図アプリケーション124は、交通状況及び/又はその他の近隣状況若しくは接近状況に関する情報を提示することがある。出力機器(群)は、車両プラットフォーム103の他のコンポーネントに、直接的に、又は、介在するコントローラを経由して連結されることがある。一部の実装では、出力機器(群)の組は、人が設定値、及び/又は、車両プラットフォーム103の制御(たとえば、運転者制御、インフォテインメント制御、ガイダンス制御、安全性制御、先進運転者支援システム(ADAS)設定及び/又は制御など)を調整するために相互作用することがある制御パネルに含まれるか、又は、制御パネルを形成することがある。
車両プラットフォーム103は、運転プロセス中に運転者を支援し、多くの場合に車両及び道路安全性を高める車載システムである様々な車両内ADASを備えていることがある。実施例ADASは、限定されることはないが、適応走行制御(ACC)と、眩しくないハイビーム及びピクセルライトと、適応照明制御(たとえば、回転カーブ照明)と、アンチロック・ブレーキ・システムと、自動駐車と、典型的にGPS及び最新交通情報を提供するTMCを備えた自動ナビゲーションシステムと、自動車用暗視と、盲点モニタと、衝突回避システム(衝突前システム)と、横風安定化と、走行制御と、運転者眠気検出と、運転者監視システムと、ハイブリッド及びプラグイン電子車両で用いられる電子車両警報音と、緊急運転者支援と、前方衝突警報と、交差点補助と、ヒル・ディセント・コントロールと、インテリジェント・スピード・アダプテーション若しくはインテリジェント・スピード・アドバイス(ISA)と、車線維持支援システムと、車線離脱警報システムと、車線変更支援と、暗視と、駐車センサと、歩行者保護システムと、悪天候検出、周囲視野システムと、タイヤ圧監視と、交通標識認識と、旋回支援と、車両通信システムと、逆走警報などを含む。
車両制御システム又は地図アプリケーション124と関連して、ユーザは、バス154に連結された専用ハードウェアボタン、及び/又は、車両プラットフォームの(バス154に連結された)タッチセンサ式ディスプレイに提示されたディジタルボタンを選択すること、又は、音声システム(たとえば、バス154に連結されたマイクロホンなど)を介して音声コマンドを発行することなどがある。車両プラットフォーム103は、人若しくは他の機器から、種々の制御入力(たとえば、ジェスチャ、音声制御)を受信するように構成された標準的な機器を含むことがある1台以上の入力機器(群)130を含んでいることがある。非限定的な実施例入力機器130は、テキスト情報を入力する、選択を行う、及び、ユーザと相互作用するタッチスクリーン、動き検出入力機器、オーディオ入力機器、他の接触に基づく入力機器、キーボード、ポインタ機器、インジケータ、及び/又は、人若しくは他の機器との通信及び/又は相互作用を促進するその他の入力コンポーネント、を含むことがある。入力機器(群)は、人及び/又はセンサ(群)から受信された入
力/信号を中継するために、直接的に、若しくは、介在するコントローラを通して、車両プラットフォーム103の他のコンポーネントに連結されることがある。
一実施例では、地図アプリケーション124は、エリアの交通密集度インジケータ、推定遅れ、車線レベル平均速度、計画されたルートを通過するために要する時間などをグラフィカル・ユーザ・インタフェースで提供し、コンピュータ機器152のディスプレイ(たとえば、ダッシュボード埋め込みディスプレイ、ユーザの携帯型電子機器のディスプレイ、ヘッド・アップ・ディスプレイなど)で車両乗員に表示することがある。乗員は、ルートを変更すること、動的地図データ及び/又は車両のダイナミクスに基づいて地図アプリケーション124によって提案されたルート変更を受け入れることなどを選択することがある。
一部の実施形態において、地図アプリケーション124は、生成された動的道路地図に基づいて、支援された、及び/又は、自動化された走行を実現し易くすることがある。たとえば、動的道路地図は、自動監視、警報、制動、操縦動作などを通じて即座の反応を可能とするために、プロセッサ115により実行される運転支援システムに統合されることがある。たとえば、車両が左車線変更のため合図を作動させるとき、動的道路地図からのリアルタイムデータは、高速で後から通過する左車線車両を検出することがある。警報通知は、(たとえば、1台以上の出力機器を介して(たとえば、ディスプレイに、音声、触覚、振動などを介して))車両の乗員(群)に潜在的なリスクについての警報を出すために動的道路地図に基づいて自動的に生成されることがある。警報通知は、一部の事例では、たとえば、衝突回避、自動制動、及び/又は、障害物回避などの車両のADASのためのコマンドで構成されることがある。ADASは、乗員及びその他の安全性を確保するのに役立つように車両の1台以上のアクチュエータ(群)128を制御することがある。
一実施例では、1つ以上の命令が動的道路地図からの情報に基づいて生成され、移動中車両プラットフォームの1台以上のアクチュエータ128(たとえば、加速装置、制動システム、操縦システムなど、アクチュエータなど)を制御するために、車両のコンピューティング機器(たとえば、車両のECU、コンピュータプロセッサ、及び/又は車両オペレーティングシステムなど)によって処理されることがあり、このアクチュエータは、次に、潜在的なリスクを回避するために車両プラットフォームをナビゲートする。
ブロック1014において、地図アプリケーション124は、生成された動的道路地図を経路/ルート計画に統合することがある。経路/ルート計画は、たとえば、交通状況、速度制限、運転者の目的などの様々なパラメータに依存することがある。一部の実施形態では、経路/ルート計画への動的道路地図の統合は、異なるレベルで行われることがある。たとえば、統合は、地図内に注釈を付けられた交通を考慮した後に目的位置若しくは行き先に到着するように、滑らかな、広範囲にわたる経路/ルート候補を生成する広範なレベルの統合を含むことがある。統合は、特定のエリア内に滑らかな軌道(どの車線(群)であるか)を生成する局所的なレベルの統合をさらに含むことがある。たとえば、動的道路地図からの平均車線遅れの情報に基づいて、経路/ルート計画における局所的なレベルの統合は、広範なレベルで選択されたルートの部分毎に特定の車線を選択することを支援することを含む。一部の実施形態では、選択されたルート/車線(群)は、更新された動的道路地図から特定された交通変化に反応するために動的に更新されることがあり、車両が高度に動的なエリアを通って滑らかにナビゲートできるようにする。
ブロック1016において、システム100は、生成された動的道路地図を交通制御及び管理プラットフォーム若しくはシステムに統合することがある。これは、交通関連動作を監視すること及び制御することを支援する公的若しくは私的なプラットフォームへの動的道路地図320の統合を含むことがある。たとえば、システム100は、都市の交通を
制御することを支援するために、生成された動的道路地図を都市制御センターと共有すること、又は、ナビゲーションを支援するために動的道路地図を私的なナビゲーションアプリケーションに統合することがある。一部の実施形態では、システム100は、動的道路地図からある関連情報をさらに抽出し、関連情報を共有するため、潜在的な受信者に、又は、公的メディアにさえ送信することがある。たとえば、システム100は、事故、混雑、回避すべきエリアなどについての1つ以上の警報を自動的に生成し、警報を対応する部門に、職員に、又は、公衆と共有するためにソーシャル・メディア・プラットフォームに送信することがある。生成された動的道路地図320は、輸送の交通流量及び安全性を改善するためにより知的な、効率的な制御を促進するように、統合された、洞察に満ちた、非常に詳細な、包括的な情報源をこれらの公的なプラットフォーム及び私的なプラットフォームに提供することがある。
以上の記述では、説明の目的のため、多数の具体的な詳細が本開示の完全な理解をもたらすために記載されている。しかしながら、本書に記載された技術は、これらの具体的な詳細なしで実施されることがあり得る、と解されるべきである。さらに、様々なシステム、機器、及び構成が記載を曖昧にすることを避けるためにブロック図形式で示されている。たとえば、様々な実装は、特有のハードウェア、ソフトウェア、及びユーザインタフェースを有するものとして記載されている。しかしながら、本開示は、データ及びコマンドを受信することができるどのような種類のコンピューティング機器にでも、及び、サービスを提供するとのような周辺機器にでも適用できる。
ある事例では、様々な実装がコンピュータメモリの範囲内でデータビットに関する演算のアルゴリズム及び記号表現の観点から本書に提示されることがある。アルゴリズムは、ここでは、概して、所望の結果を導く首尾一貫した演算の集合であると考えられる。演算は、物理量の物理的な操作を必要とする演算である。通常、不可欠ではないが、物理量は、保存、転送、合成、比較、及びそうでなければ操作することができる電気信号若しくは磁気信号の形をしている。このことは、これらの信号をビット、値、要素、シンボル、文字、項、数などとして呼ぶことが、原理的に、一般的な用法の理由のため、時には好都合であることが分かっている。
しかしながら、これらの用語及び類似した用語のすべては、適切な物理量に関連付けられるべきであり、かつ、これらの量に適用された単なる便利なラベルであることを留意すべきである。以下の議論から明らかであるように、特に断らない限り、本開示の全体を通じて、「処理する」、「計算する(computing)」、「計算する(calculating)」、「判定する」、「表示する」などを含んでいる用語を利用する議論は、コンピュータシステムのレジスタ及びメモリ内に物理(電子的)量として表現されたデータを操作し、コンピュータシステムメモリ若しくはレジスタ内に、又は、その他の同様の情報ストレージ、伝送機器、若しくは表示機器内に物理量として同様に表現されるその他のデータに変換するコンピュータシステム若しくは類似した電子計算機の動作及びプロセスに言及していることが分かる。
本書に記載された様々な実装は、本書中の演算を行う装置に言及することがある。この装置は、必要とされる目的のため特別に構築されることがあり、又は、選択的に作動された、若しくは、コンピュータに保存されたコンピュータプログラムによって再構成された汎用コンピュータを含むことがある。このようなコンピュータプログラムは、限定されることはないが、フロッピーディスク、光ディスク、CD ROM、及び磁気ディスクといったあらゆる種類のディスクと、リード・オンリ・メモリ(ROM)、ランダム/アクセス・メモリ(RAM)、EPROM、EEPROM、磁気若しくは光カード、不揮発性メモリを備えたUSBキーを含むフラッシュメモリと、電子命令を保存するため適したあらゆる種類のメディアとを含み、各々がコンピュータシステムバスに連結されているコンピ
ュータ読み取り可能な記憶媒体に保存されることがある。
本書に記載された技術は、完全にハードウェア実装、完全にソフトウェア実装、又はハードウェア要素及びソフトウェア要素の両方を含んでいる実装の形式をとることができる。たとえば、この技術は、限定されることはないが、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むソフトウェアで実装されることがある。さらに、この技術は、コンピュータ若しくは何らかの命令実行システムによる使用のため、又は、コンピュータ若しくは何らかの命令実行システムに関連してプログラムコードを提供するコンピュータ使用可能若しくはコンピュータ読み取り可能な媒体からアクセス可能であるコンピュータ・プログラム・プロダクトという形をとることができる。説明の目的のため、コンピュータ使用可能又はコンピュータ読み取り可能な媒体は、命令実行システム、装置、若しくは機器による使用のため、又は、命令実行システム、装置、若しくは機器に関連してプログラムを収容、保存、通信、伝搬、若しくは転送することができる非一時的な記憶装置となり得る。
プログラムコードを保存及び/又は実行するため適したデータ処理システムは、システムバスを介してメモリ素子に直接的若しくは間接的に連結された少なくとも1つのプロセッサを含むことがある。メモリ素子は、プログラムコードの実際の実行中に利用されるローカルメモリ、大容量記憶装置、及び、実行中にコードが大容量記憶装置から取り出されなければならない回数を削減するために少なくとも一部のプログラムコードの一時的な記憶を行うキャッシュメモリを含むことができる。入力/出力、すなわち、I/O機器(限定されることはないが、キーボード、ディスプレイ、ポインティング機器などを含んでいる)は、直接的に、若しくは、介在するI/Oコントローラを介してシステムに連結され得る。
ネットワークアダプタは、データ処理システムが、介在する私設ネットワーク及び/又は公衆ネットワークを介して、他のデータ処理システム、記憶装置、リモートプリンタなどに連結されることを可能にするためにシステムにも連結されることがある。無線(たとえば、Wi−Fi(登録商標))トランシーバ、イーサネット(登録商標)アダプタ、及びモデムは、ネットワークアダプタのほんの僅かな実施例である。私設ネットワーク及び公衆ネットワークは、いくつものコンフィギュレーション及び/又はトポロジーを有することがある。データは、たとえば、様々なインターネット層プロトコル、トランスポート層プロトコル、若しくは、アプリケーション層プロトコルを含む多種多様の通信プロトコルを使用して、ネットワークを介してこれらの機器の間で伝送されることがある。たとえば、データは、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザ・データグラム・プロトコル(UDP)、伝送制御プロトコル(TCP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、動的適応ストリーミングオーバーHTTP(DASH)、リアルタイム・ストリーミング・プロトコル(RTSP)、リアルタイム転送プロトコル(RTP)及びリアルタイム転送制御プロトコル(RTCP)、ボイス・オーバー・インターネット・プロトコル(VOIP)、ファイル転送プロトコル(FTP)、ウェブソケット(WS)、無線アクセスプロトコル(WAP)、様々なメッセージングプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAVなど)、又は、その他の既知プロトコルを使用して、ネットワークを介して伝送されることがある。
最後に、本書において提示された構成、アルゴリズム、及び/又はインタフェースは、いずれかの特有のコンピュータ若しくはその他の装置に本質的に関連しているものではない。様々な汎用システムが本書における教示に従ってプログラムと共に使用されることがあり、或いは、必要とされる方法ブロックを実行するためにより一層特殊化された装置を構築することが便利であることが分かることがある。様々なこれらのシステムに対して要
求される構成は、上記説明から明白であろう。その上、明細書は、いずれかの特有のプログラミング言語に準拠することなく記載されている。様々なプログラミング言語が本書に記載された通りに明細書の教示を実装するために使用されてもよいことが分かるであろう。
以上の記載は、実例解説及び説明の目的のため提示されている。網羅的であること、又は、明細書をまさに開示された通りの形式に限定することは意図されていない。多くの変更及び変形が上記教示に照らして可能である。開示の範囲は、この詳細な説明ではなく、本出願の請求の範囲によって限定されることが意図されている。当業者に明らかであるように、明細書は、この明細書の趣旨若しくは本質的特徴から逸脱することなく他の特定の形式で具現化されることがある。同様に、モジュール、ルーチン、特徴、属性、方法及びその他の態様についての特有の命名及び分割は、強制的でも重要でもなく、明細書若しくは明細書の特徴を実装するメカニズムは、異なる名前、分割、及び/又はフォーマットを有することがある。
さらに、本開示のモジュール、ルーチン、特徴、属性、及びその他の態様は、ソフトウェア、ハードウェア、ファームウェア、若しくはこれらの何らかの組み合わせとして実装され得る。同様に、明細書のコンポーネントが、コンポーネントの実施例はモジュールであるが、ソフトウェアとして実装されるとしても、このコンポーネントは、独立型のプログラムとして、より大型プログラムの一部として、複数の別個のプログラムとして、静的若しくは動的にリンクされたライブラリとして、カーネルローダブルモジュールとして、デバイスドライバとして、及び/又は、現在既知である、若しくは将来知られているあらゆる他の方法で実装され得る。その上、本開示は、何らかの特定のプログラミング言語での実装に、又は、何らかの特定のオペレーティングシステム若しくは環境のため決して限定されることはない。
100 リアルタイム交通監視システム
101 サーバ
103 車両プラットフォーム
105 サード・パーティ・サーバ
107 ネットワーク
113 センサ
115 プロセッサ
117 メモリ
119 通信ユニット
120a 多視点観察アプリケーション
120b 多視点観察アプリケーション
121 車両データストア
122a 追跡アプリケーション
122b 追跡アプリケーション
124a 地図アプリケーション
124b 地図アプリケーション
126 データストア

Claims (13)

  1. コンピュータが実行する方法であって、
    第1の車両プラットフォームの現在の地理的位置を判定することと、
    前記第1の車両プラットフォームの1つ以上のセンサを使用して、前記第1の車両プラットフォームに対する1つ以上の第1のダイナミクスである前記第1の車両の移動速度、移動方向、または加速度を判定することと、
    前記第1の車両プラットフォームに関連付けられた1つ以上の車両プラットフォームセンサによって捕捉された、第2の車両プラットフォームに関係している一連の画像である第1の画像の組を受信することと、
    前記第1の車両プラットフォームの前記1つ以上の車両プラットフォームセンサによって捕捉された前記第1の画像の組に基づいて、前記第2の車両プラットフォームの1つ以上の第2のダイナミクスである前記第2の車両の移動速度、移動方向、または加速度を判定することと、
    前記第1の車両プラットフォームの前記1つ以上の第1のダイナミクスと、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスとに基づいて、動的道路地図を生成することと、
    を含む方法。
  2. 第3の車両プラットフォームに関連付けられた1つ以上の車両プラットフォームセンサによって捕捉された、前記第2の車両プラットフォームに関係している一連の画像である第2の画像の組を受信することと、
    前記第1の車両プラットフォームから捕捉された前記第1の画像の組と、前記第3の車両プラットフォームから捕捉された前記第2の画像の組との比較に基づいて、前記第2の車両プラットフォームの同一性を判定することと、
    をさらに含む、請求項1に記載の方法。
  3. 前記第1の画像の組に基づいて、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスを判定することは、
    前記第1の画像の組において第1の物体を検出することと、
    異なる時点における前記第1の物体の位置を判定することと、
    異なる時点における前記第1の物体の位置に基づいて、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスを判定することと、
    を含む、請求項1または2に記載の方法。
  4. 前記第1の画像の組に基づいて、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスを判定することは、
    前記第1の画像の組に基づいて、前記第1の車両プラットフォームに関係している前記第2の車両プラットフォームの相対的な緯度情報及び経度情報を判定することと、
    前記第1の車両プラットフォームに関係している前記第2の車両プラットフォームの前記相対的な緯度情報及び経度情報と前記第1の車両プラットフォームの前記1つ以上の第1のダイナミクスとに基づいて、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスを判定することと、
    を含む、請求項1または2に記載の方法。
  5. 前記第1の車両プラットフォームの前記1つ以上の第1のダイナミクスと、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスとに基づいて、前記動的道路地図を生成することは、
    道路リンク平均速度と、道路リンク平均密集度と、道路リンク移動時間と、道路リンク平均遅れと、道路リンク交差点平均遅れとのうちの1つ以上を含んでいる道路リンクに基づく交通情報を判定することと、
    車線平均速度と、車線平均密集度と、車線移動時間と、車線平均遅れと、車線交差点平均遅れとのうちの1つ以上を含んでいる車線に基づく交通情報を判定することと、
    前記動的道路地図を生成するために前記道路リンクに基づく交通情報及び前記車線に基づく交通情報を静的道路地図に統合することと、
    を含む、請求項1から4のいずれか1項に記載の方法。
  6. 前記第1の車両プラットフォームは、無線データ通信のためのネットワークアクセスを装備しているコネクテッド車両プラットフォームであり、前記第2の車両プラットフォームは、ネットワークアクセスのないアンコネクテッド車両プラットフォームである、請求項1から5のいずれか1項に記載の方法。
  7. 前記第1の画像の組は、前記第1の車両プラットフォームに関連付けられた前記1つ以上の車両プラットフォームセンサのうちの1つによって時間窓内で捕捉された前記第2の車両プラットフォームの一連の画像を含んでいる、請求項1から6のいずれか1項に記載の方法。
  8. 前記第1の画像の組に基づいて、1つ以上の沿道インフラストラクチャ情報を判定することと、
    前記1つ以上の沿道インフラストラクチャ情報に基づいて前記動的道路地図を生成することと、
    をさらに含む、請求項1から7のいずれか1項に記載の方法。
  9. 前記動的道路地図に基づいて、前記第1の車両プラットフォーム、前記第2の車両プラットフォーム、及び前記第1の車両プラットフォーム又は前記第2の車両プラットフォームと相対的な別の車両プラットフォームのうちの1台以上をナビゲートすること、
    をさらに含む、請求項1から8のいずれか1項に記載の方法。
  10. 第4の車両プラットフォームに対する1つ以上の第3のダイナミクスである前記第4の車両の移動速度、移動方向、または加速度を判定することと、
    前記1つ以上の第3のダイナミクスと前記生成された動的道路地図とに基づいて、前記
    第4の車両プラットフォームに対する1つ以上の命令を生成することと、
    前記1つ以上の命令に従って前記第4の車両プラットフォームをナビゲートするために、前記第4の車両プラットフォームの1つ以上のアクチュエータを制御することと、
    をさらに含む、請求項1から9のいずれか1項に記載の方法。
  11. 移動中の車両プラットフォームに関連付けられた1つの機器からのルート計画に対する要求を特定することと、
    前記動的道路地図に基づいて1つ以上の候補ルートに対する車線レベル交通状況を特定することと、
    前記1つ以上の候補ルートの前記車線レベル交通状況に基づいて最適ルートを判定することと、
    をさらに含む、請求項1から10のいずれか1項に記載の方法。
  12. 前記動的道路地図の情報に基づいて1つ以上の警報を生成することと、
    前記1つ以上の警報を対応する当事者に送信することと、
    をさらに含む、請求項1から11のいずれか1項に記載の方法。
  13. 第1の車両プラットフォームの現在の地理的位置を判定することと、
    前記第1の車両プラットフォームの1つ以上のセンサを使用して、前記第1の車両プラットフォームに対する1つ以上の第1のダイナミクスである前記第1の車両の移動速度、移動方向、または加速度を判定することと、
    前記第1の車両プラットフォームに関連付けられた1つ以上の車両プラットフォームセンサによって捕捉された、第2の車両プラットフォームに関係している一連の画像である第1の画像の組を受信することと、
    前記第1の車両プラットフォームの前記1つ以上の車両プラットフォームセンサによって捕捉された前記第1の画像の組に基づいて、前記第2の車両プラットフォームの1つ以上の第2のダイナミクスである前記第2の車両の移動速度、移動方向、または加速度を判定することと、
    前記第1の車両プラットフォームの前記1つ以上の第1のダイナミクスと、前記第2の車両プラットフォームの前記1つ以上の第2のダイナミクスとに基づいて、動的道路地図を生成することと、
    を実行するシステム。
JP2019045846A 2018-04-05 2019-03-13 コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム Active JP6835121B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/946,686 2018-04-05
US15/946,686 US10867510B2 (en) 2018-04-05 2018-04-05 Real-time traffic monitoring with connected cars

Publications (2)

Publication Number Publication Date
JP2019185756A JP2019185756A (ja) 2019-10-24
JP6835121B2 true JP6835121B2 (ja) 2021-02-24

Family

ID=68097246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045846A Active JP6835121B2 (ja) 2018-04-05 2019-03-13 コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム

Country Status (3)

Country Link
US (1) US10867510B2 (ja)
JP (1) JP6835121B2 (ja)
CN (1) CN110349405B (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017208854B4 (de) * 2017-05-24 2025-01-23 Volkswagen Aktiengesellschaft Verfahren, Vorrichtungen und computerlesbares Speichermedium mit Instruktionen zum Ermitteln von geltenden Verkehrsregeln für ein Kraftfahrzeug
US10713940B2 (en) 2017-10-31 2020-07-14 Waymo Llc Detecting and responding to traffic redirection for autonomous vehicles
US10401862B2 (en) 2017-10-31 2019-09-03 Waymo Llc Semantic object clustering for autonomous vehicle decision making
US10235882B1 (en) 2018-03-19 2019-03-19 Derq Inc. Early warning and collision avoidance
US11585672B1 (en) * 2018-04-11 2023-02-21 Palantir Technologies Inc. Three-dimensional representations of routes
CN109003448B (zh) * 2018-08-02 2021-07-16 北京图森智途科技有限公司 一种交叉路口的导航方法、设备及系统
US11486721B2 (en) * 2018-09-30 2022-11-01 Strong Force Intellectual Capital, Llc Intelligent transportation systems
WO2020069517A2 (en) 2018-09-30 2020-04-02 Strong Force Intellectual Capital, Llc Intelligent transportation systems
US11295615B2 (en) 2018-10-29 2022-04-05 Here Global B.V. Slowdown events
EP3667512A1 (en) * 2018-12-11 2020-06-17 Siemens Aktiengesellschaft A cloud platform and method for efficient processing of pooled data
US11690128B2 (en) * 2019-03-11 2023-06-27 Fujitsu Limited Digital representations of physical intelligent moving objects
JP7123845B2 (ja) * 2019-03-29 2022-08-23 本田技研工業株式会社 車両制御システム
US11100794B2 (en) * 2019-04-15 2021-08-24 Here Global B.V. Autonomous driving and slowdown patterns
CN114586082B (zh) 2019-08-29 2024-12-31 德尔克股份有限公司 增强的车载装备
EP3990862A4 (en) * 2019-08-31 2023-07-05 Cavh Llc DISTRIBUTED DRIVING SYSTEMS AND METHODS FOR AUTOMATED VEHICLES
KR20210056632A (ko) * 2019-11-11 2021-05-20 삼성전자주식회사 메시지 기반의 영상 처리 방법 및 이를 구현하는 전자 장치
TWI717102B (zh) * 2019-11-14 2021-01-21 黃玄 基於影像辨識之交通路況車聯網系統
CN112804278A (zh) * 2019-11-14 2021-05-14 黄玄 一种基于影像辨识的交通路况车联网系统
CN115696199A (zh) * 2019-11-30 2023-02-03 华为技术有限公司 一种基于车联网的动态信息发送方法及设备
JP7083331B2 (ja) * 2019-12-09 2022-06-10 本田技研工業株式会社 車両制御システム
KR102458283B1 (ko) * 2019-12-16 2022-10-21 유경학 개인 이동수단용 네비게이션 서비스 제공 방법 및 이에 사용되는 관리 서버
JP7047001B2 (ja) * 2020-02-18 2022-04-04 ソフトバンク株式会社 交通リスク低減プログラム、情報処理装置及び方法
JP2023514539A (ja) * 2020-02-20 2023-04-06 トムトム グローバル コンテント ベスローテン フエンノートシャップ 地図変化データの使用
US11482109B2 (en) 2020-03-02 2022-10-25 Toyota Motor Eng & Mfg North America, Inc. Cooperative vehicle monitoring
JP7463146B2 (ja) * 2020-03-17 2024-04-08 本田技研工業株式会社 移動体監視システム、及び移動体監視方法
CN113494920A (zh) * 2020-03-20 2021-10-12 深圳市超捷通讯有限公司 导航路线规划方法、装置及存储介质
US11455890B2 (en) * 2020-03-23 2022-09-27 Toyota Motor Eng & Mfg North America, Inc. Traffic-adaptive deployment of vehicle functions
US11443242B2 (en) 2020-04-21 2022-09-13 International Business Machines Corporation Iterative training of a machine learning model
CN113823080A (zh) * 2020-06-19 2021-12-21 罗伯特·博世有限公司 用于智能交通系统的控制单元和方法
US20220028273A1 (en) * 2020-07-24 2022-01-27 Autobrains Technologies Ltd Bypass assistance
US20230332920A1 (en) * 2020-09-07 2023-10-19 Sumitomo Electric Industries, Ltd. Vehicle-mounted apparatus, information distribution apparatus, driving assistance system, control method, and computer program
WO2022054430A1 (ja) * 2020-09-11 2022-03-17 住友電気工業株式会社 情報配信装置、車載装置、運転支援システム、制御方法及びコンピュータプログラム
US11709061B2 (en) * 2020-10-16 2023-07-25 Argo AI, LLC Systems and methods for multi-modal transfer capabilities for smart infrastructure
CN112614360B (zh) * 2020-11-27 2022-04-05 深圳市跨越新科技有限公司 车辆限行信息发布服务方法及系统
US20230095194A1 (en) * 2021-09-30 2023-03-30 AyDeeKay LLC dba Indie Semiconductor Dynamic and Selective Pairing Between Proximate Vehicles
US11915584B2 (en) * 2021-10-27 2024-02-27 GM Global Technology Operations LLC Reverse operation detection systems and methods
JP7632248B2 (ja) * 2021-11-26 2025-02-19 トヨタ自動車株式会社 車両撮影システムおよび車両撮影方法
GB2615074A (en) * 2022-01-25 2023-08-02 Mercedes Benz Group Ag A method, system and computer program product for collecting data of their surroundings from a plurality of motor vehicles by a data collection system, as w
CN115016343A (zh) * 2022-06-02 2022-09-06 深圳魔视智能科技有限公司 一种多路传感器数据注入电路
WO2025008653A1 (en) 2023-07-05 2025-01-09 Commsignia Kft. Method, system, computer program product and computer readable medium for traffic prediction
US12118881B1 (en) * 2023-12-05 2024-10-15 Valerann Ltd System and method for providing consolidated events in a traffic management control centre using situational awareness

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2391605A1 (en) 1998-11-23 2000-06-02 Infomove, Inc. Instantaneous traffic monitoring system
JP3487346B2 (ja) 2001-03-30 2004-01-19 独立行政法人通信総合研究所 道路交通監視システム
JP2005267579A (ja) * 2004-03-22 2005-09-29 Nec Corp 車両情報収集装置および車両情報収集方法
JP5009143B2 (ja) 2007-12-13 2012-08-22 住友電気工業株式会社 交通信号制御装置、プログラム及び方法
US7979198B1 (en) 2007-12-20 2011-07-12 Sprint Spectrum L.P. Vehicular traffic congestion monitoring through inter-vehicle communication and traffic chain counter
JP2009217376A (ja) * 2008-03-07 2009-09-24 Nissan Motor Co Ltd 交通情報生成システム、交通情報生成装置、及び交通情報生成方法
US8762035B2 (en) * 2008-05-19 2014-06-24 Waze Mobile Ltd. System and method for realtime community information exchange
US9377528B2 (en) * 2010-03-19 2016-06-28 Northeastern University Roaming mobile sensor platform for collecting geo-referenced data and creating thematic maps
CN203149847U (zh) * 2012-12-12 2013-08-21 华创车电技术中心股份有限公司 路况分享服务器
CN104601642B (zh) * 2014-07-10 2018-11-09 腾讯科技(深圳)有限公司 实时路况分享方法、装置及系统
US10032369B2 (en) * 2015-01-15 2018-07-24 Magna Electronics Inc. Vehicle vision system with traffic monitoring and alert
US9922565B2 (en) * 2015-07-20 2018-03-20 Dura Operating Llc Sensor fusion of camera and V2V data for vehicles
US9792821B1 (en) * 2016-03-25 2017-10-17 Toyota Jidosha Kabushiki Kaisha Understanding road scene situation and semantic representation of road scene situation for reliable sharing
CN105788256B (zh) * 2016-03-30 2018-07-24 北京交通大学 基于车联网的路况信息感知方法
US20190271550A1 (en) * 2016-07-21 2019-09-05 Intelligent Technologies International, Inc. System and Method for Creating, Updating, and Using Maps Generated by Probe Vehicles
JP6697349B2 (ja) * 2016-08-10 2020-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 通信方法およびサーバ
CN107798889A (zh) * 2016-09-06 2018-03-13 清华大学 导航信息分发方法及服务终端、分享方法及终端集群
US20180240335A1 (en) * 2017-02-17 2018-08-23 International Business Machines Corporation Analyzing vehicle sensor data
CN107145578B (zh) * 2017-05-08 2020-04-10 深圳地平线机器人科技有限公司 地图构建方法、装置、设备和系统
CN107229690B (zh) * 2017-05-19 2019-01-25 广州中国科学院软件应用技术研究所 基于路侧传感器的高精度动态地图数据处理系统及方法
CN107195190B (zh) * 2017-07-19 2020-11-10 广东工业大学 一种路况信息分享系统
US10437252B1 (en) * 2017-09-08 2019-10-08 Perceptln Shenzhen Limited High-precision multi-layer visual and semantic map for autonomous driving

Also Published As

Publication number Publication date
JP2019185756A (ja) 2019-10-24
CN110349405A (zh) 2019-10-18
CN110349405B (zh) 2022-07-05
US20190311614A1 (en) 2019-10-10
US10867510B2 (en) 2020-12-15

Similar Documents

Publication Publication Date Title
JP6835121B2 (ja) コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム
KR102470217B1 (ko) 로컬화 및 위치 기반 서비스를 위해 차량에서 캡처된 승객 주의 데이터의 활용
US10586118B2 (en) Localizing traffic situation using multi-vehicle collaboration
CN110603497B (zh) 自主车辆操作管理控制的自主车辆和方法
JP6992182B2 (ja) 自律走行車両運行管理計画
US9672446B1 (en) Object detection for an autonomous vehicle
EP3518141A1 (en) Similarity learning and association between observations of multiple connected vehicles
US20230245071A1 (en) Real-time visualization of autonomous vehicle behavior in mobile applications
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US20230289980A1 (en) Learning model generation method, information processing device, and information processing system
JPWO2020009060A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
KR20230051412A (ko) 차량을 찾고 액세스하기 위한 기술
US20220012561A1 (en) Information processing apparatus, information processing method, and program
KR20230083192A (ko) 센서 데이터를 사용하여 자동으로 교통 신호 검출
KR20230074395A (ko) 고충실도 데이터 기반 멀티모달 시뮬레이션
JP7462837B2 (ja) 低信頼度の物体検出条件における車両動作のための注釈及びマッピング
KR20250035537A (ko) 헤드업 디스플레이를 위한 시스템 및 방법
US11926342B2 (en) Autonomous vehicle post-action explanation system
KR20250004806A (ko) 자율 주행 차량 통지 시스템
WO2023153083A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び移動装置
WO2023053498A1 (ja) 情報処理装置、情報処理方法、記録媒体、および車載システム
US20240123996A1 (en) Methods and systems for traffic light labelling via motion inference
US20230382427A1 (en) Motion prediction in an autonomous vehicle using fused synthetic and camera images
US20230373529A1 (en) Safety filter for machine learning planners

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R151 Written notification of patent or utility model registration

Ref document number: 6835121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151