[go: up one dir, main page]

JP2015521767A - 車両周辺部を描写するための方法 - Google Patents

車両周辺部を描写するための方法 Download PDF

Info

Publication number
JP2015521767A
JP2015521767A JP2015517608A JP2015517608A JP2015521767A JP 2015521767 A JP2015521767 A JP 2015521767A JP 2015517608 A JP2015517608 A JP 2015517608A JP 2015517608 A JP2015517608 A JP 2015517608A JP 2015521767 A JP2015521767 A JP 2015521767A
Authority
JP
Japan
Prior art keywords
resolution level
grid
probability
higher resolution
grid cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015517608A
Other languages
English (en)
Other versions
JP2015521767A5 (ja
Inventor
グレーヴェ・ラルフ
ホーム・アンドレー
ヴィンナー・ヘルマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of JP2015521767A publication Critical patent/JP2015521767A/ja
Publication of JP2015521767A5 publication Critical patent/JP2015521767A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

ここでは、車両用の少なくとも二つの解像度レベルを備えた車両周辺部を描写するための方法が開示される。該車両は、周辺把握用のセンサーシステムと少なくとも一つのドライバー・アシスタント・システムを包含している。該周辺モデルは、確率グリッドとして数多くのグリッド・セルを備えている。少なくとも二つのグリッド・セルからのデータは、より高い解像度レベルにおいて統合され、より低い解像度レベルにストアされる。

Description

周辺捕捉用センサーのデータを基にしている量産市場において既知である略全てのドライバー・アシスタント・システムは、オブジェクト抽象化周辺モデルを採用しており、典型的には、周辺オブジェクトを収めたオブジェクトリストが用意されている。マヌーバ可能空間でありうるオブジェクトによって使用されていない面は、このようなアプローチでは、カバーされていない。研究分野では、車両周辺部の定義された領域の占有情報を供給し、占有地図に入力するセンサー類を使用するアプローチも既知である。占有地図は、グリッド・セルごとに、例えば、車両周辺部の該空間セグメント内にオブジェクトが存在する、即ち、セルが占有されていることを示す少なくとも一つの確率値を有する確率グリッドとしてデザインされていることが好ましい。尚、確率グリッドを得るには、車両周辺部の離散化が必要である。
一定のステップ幅における離散化に加え、様々な解像度レベルをサポートしている離散化方法も採用できる。例えば、面を再帰的に四分する方法である二次元空間用の所謂「クアッド・ツリー」、三次元空間用の所謂「オクタ・ツリー」が、既知である。これに関する例を、図1aに示す。データ(確率値)の保存には、図1bに例示するようなツリー状のストラクチャーを採用することができる。
よって本発明の課題は、特に車両用の、周辺モデルにおいて、周辺を描写するための方法及び装置を提供することである。該周辺モデルは、様々な解像度レベルにおいて周辺データを処理し、提供することができる。
本発明によれば、上記目的は、独立請求項1に記載されている特徴によって達成される。本発明に係る方法の好ましい使用は、更なる独立請求項に記載されている。
本発明に係る方法は、少なくとも二つの解像度レベルを有する周辺モデルにおける車両周辺部の描写を包含している。該周辺モデルは、確率グリッドとして数多くのグリッド・セルを備えている。
尚、異なる解像度レベルとは、所によって異なる様々な解像度のことである。高い解像度レベルでは、周辺部の予め決められた領域は、低い解像度レベルと比較してより多くのグリッド・セルによって示される。該方法は、少なくとも一つの周辺把握用のセンサーシステムと少なくとも一つのドライバー・アシスタント・システムを包含する車両用に想定されている。該センサーシステムは、周辺モデル用の周辺情報を提供し、ドライバー・アシスタント・システムの機能は、作成された周辺モデルに基づいている。尚、少なくとも二つのグリッド・セルからのデータは、より高い解像度レベルにおいて統合され、より低い解像度レベルにストアされる。
二次元空間用の所謂「クアッド・ツリー」を示す。 データ(確率値)を保存するツリー状のストラクチャーを示す。 四つのセルを集約する場合を例示的に示す。 四つのセルを集約する場合を例示的に示す。 本発明の実施形態を示す。
原理的には、データの処理は、異なる解像度レベルにおいて実施することができる。図1bには、三つの解像度レベル(a,b,c)が、ツリー構造として示されている。特に、高い解像度を必要としないアプリケーション用の低いレベル(荒い解像度)における情報処理によって、計算時間を節約できる。
ツリーの全てのレベルに情報が存在するわけではないため、より高い、或いは、より低いレベルに情報を作成するための方法が必要である。特に、より高いレベル(解像度レベル)に、より詳細な情報が存在する訳ではないため、一レベル下の占有されているレベルの情報が用いられる。
例えば、図1bの解像度レベルbなど、一レベル下の情報へのアクセスのためには、例えば、図1bの解像度レベルcなど、より高い解像度の複数のセルを統合しなければならない。確率を処理するために単純に平均を計算し、ドライバー・アシスタント・システム用の周辺モデルにおいて用いたとすれば、以下の例に示すような誤った結果につながるであろう:
ロー・グリッドの占有率100%のセル一つと占有されていない(0%)のセルが三つ確認された場合、統合された面の占有率も100%であることから、平均を取ったとして得られえる25%は、誤りである。
本発明に係る方法では、一段高い解像度レベルの少なくとも二つのグリッド・セルを統合する場合、該少なくとも二つのグリッド・セルのうちの一つの値が引き継がれ、一段下の解像度レベルのグリッド・セルにストアされる。
本発明のある好ましい実施形態においては、より高い解像度レベルの少なくとも二つのグリッド・セルは、占有確率を示す確率値を有している。該占有確率は、リアルにおける対応する領域が、例えば、障害物に占有され、車両が通過できないか否かを示すものである。解像度を下げることにより占有されている領域の位置は、不正確にはなっても、占有されている領域があると言う情報は、無くなってはならない。即ち、集約する際には、より高い解像度レベルのグリッド・セルの最大値が、より低い解像度レベルのグリッド・セルに書き込まれる。
図2には、四つのセルを集約する場合が例示されている。図2aでは、確率グリッドの四等分した左下の領域は、四つのセルを包含しており、そのうちの一つは、占有されていることを示すために、黒色に塗られている、即ち、これら四つのセルのうち最大占有確率を有している。図2bでは、その四分の一の領域が、より低い解像度レベルに集約されて表されているが、ここでは、その全体が黒色に塗られ、占有されていることが示されている、言い換えれば、図2aの四つの単独セルの最大占有確率を有している。本発明の全ての実施例において、再帰的な四分(面、クワッド・ツリー)、乃至、八分(空間、オクト・ツリー)の他に、任意の区分を採用することが可能であることは、共通している。一般式で表す場合、各々の次元mに対して自然数分の区分
Figure 2015521767
が可能である。
本発明のある好ましい実施形態においては、グリッド・セルのより高い解像度レベルの少なくとも二つのグリッド・セルは、占有確率を示す一つの確率値のみを有している。
本発明のある肯定的な実施形態においては、より高い解像度レベルの少なくとも二つのグリッド・セルは、フリー空間確率を示す確率値を有している。該フリー空間確率は、リアルにおける対応する領域が、例えば、フリーであり、車両が通過できるか否かを示すものである。即ち、集約する際には、より高い解像度レベルのグリッド・セルの最小値が、より低い解像度レベルのグリッド・セルに書き込まれる。
本発明の特に好ましい実施形態においては、グリッド・セルのより高い解像度レベルの少なくとも二つのグリッド・セルは、フリー空間確率を示す一つの確率値のみを有している。
本発明のある好ましい実施形態においては、より高い解像度レベルの少なくとも二つのグリッド・セルに、少なくとも二つの確率値が、即ち、占有確率を示す確率値と、フリー空間確率を示す確率値が、ストアされている。グリッド・セルを集約する際、より高い解像度レベルの占有確率の最大値と、該最大値を有しているセルに帰属しているフリー空間値が、より低い解像度レベルのグリッド・セルに書き込まれる。
特に、確立グリッドの複数のグリッド・セルが、レーダー・センサー、或いは、ライダー・センサー、或いは、超音波センサーの反射されたエネルギーの値を包含している場合、該集約は、より高い解像度レベルのグリッド・セルの最低値が、より低い解像度レベルのグリッド・セルに書き込まれることによって実施される。
本発明のある他の実施形態においては、確立グリッドの複数のグリッド・セルが、カメラセンサー・システムから供給される、該当する空間セグメントの高さ、或いは、高さ勾配を示す値を包含している。集約する際には、より高い解像度レベルのグリッド・セルの最小値、或いは、グリッド・セルの最大値が、より低い解像度レベルのグリッド・セルに書き込まれる。
本発明のある肯定的な実施形態においては、より低い解像度レベルの一つのグリッド・セルの値は、より高い解像度レベルのその値が引き継がれるべきグリッド・セルへのリンク(参照指示)としてストアされている。これを図3に例示する。太く示されている経路によって、より高い解像度レベルのセルへのリンクが示されている。
これにより、アクセスする度に、より低い解像度レベルでの関連する値を計算する手間を省くことができ、且つ、該関連する値を効率よく保存することができる。即ち、より高い解像度レベルの各々のノードが、より低い解像度レベルの関連するノードに、例えば、それぞれのクワドラントを示すことにより、リンクされている。
異なる解像度を有する少なくとも二つの周辺センサーを備えた車両において、センサーのデータを集約するために、上に開示されている方法を応用することは、有利である。複数のセンサー類を統合する用途の場合は、記述されている方法を、逆の順番で用いる。より低い解像度のセンサーA(図2b)は、より高い解像度のセンサーB(図2a)と統合される。その際、センサーAの低い解像度の情報は、高い解像度のセンサーBの関連する情報と統合される。
上に開示された方法を、少なくとも二種類のドライバー・アシスタント機能、但し、第一ドライバー・アシスタント・システムが、第二ドライバー・アシスタント・システムよりも、より高い解像度レベルの周辺データを必要としている、を備えた車両において用いることも有利である。関連するセルへのリンクを有するデータを保存するためのツリーストラクチャーは、特に複数のユニットからなるネットワークにおける効率の良いデータ転送に用いることができる。あるソースは、最も高い解像度レベルまでツリーを、全ての受信するユニットに送信する。受信するユニットは、必要な解像度レベルまでツリーを再構築し、それよりも高いレベルは、例えば、無視する。これにより、最高の解像度レベルを必要としないユニットは、メモリーや計算時間を節約できる。
a,b,c 解像度レベル
A,B センサー

Claims (12)

  1. −車両が、周辺把握用のセンサーシステムと少なくとも一つのドライバー・アシスタント・システムを包含し、
    −周辺モデルが、少なくとも二つの解像度レベルを包含し、且つ、該周辺モデルが、多数のグリッド・セルを備えた確率グリッドとしてデザインされている車両用の車両周辺部を描写するための方法であって、
    該少なくとも二つのグリッド・セルからのデータが、より高い解像度レベルにおいて統合され、より低い解像度レベルにストアされることを特徴とする車両用の車両周辺部を描写するための方法。
  2. 一段高い解像度レベルの少なくとも二つのグリッド・セルを統合する場合に、該少なくとも二つのグリッド・セルのうちの一つの値が引き継がれ、一段下の解像度レベルのグリッド・セルにストアされることを特徴とする請求項1に記載の方法。
  3. −より高い解像度レベルの少なくとも二つのグリッド・セルが、占有確率を示す確率値を有し、
    −集約する際には、より高い解像度レベルのグリッド・セルの最大値が、より低い解像度レベルのグリッド・セルに書き込まれることを特徴とする請求項1或いは2に記載の方法。
  4. グリッド・セルのより高い解像度レベルの少なくとも二つのグリッド・セルが、占有確率を示す一つの確率値のみを有していることを特徴とする請求項3に記載の方法。
  5. −より高い解像度レベルの少なくとも二つのグリッド・セルが、フリー空間確率を示す確率値を有し、
    −集約する際には、より高い解像度レベルのグリッド・セルの最小値が、より低い解像度レベルのグリッド・セルに書き込まれることを特徴とする請求項1或いは2に記載の方法。
  6. グリッド・セルのより高い解像度レベルの少なくとも二つのグリッド・セルが、フリー空間確率を示す一つの確率値のみを有していることを特徴とする請求項5に記載の方法。
  7. より高い解像度レベルの少なくとも二つのグリッド・セルが、
    −占有確率を示す一つの確率値と
    −フリー空間確率を示す一つの確率値を包含し、これらが、より高い解像度レベルの占有確率用のグリッド・セルの最大値と最大値を有するグリッド・セルに帰属するフリー空間値の集約としてより低い解像度レベルのグリッド・セルに書き込まれることを特徴とする請求項1或いは2に記載の方法。
  8. 確立グリッドの複数のグリッド・セルが、レーダー・センサー、或いは、ライダー・センサー、或いは、超音波センサーの反射されたエネルギーの値を包含し、集約のために、より高い解像度レベルのグリッド・セルの最低値が、より低い解像度レベルのグリッド・セルに書き込まれることを特徴とする請求項1或いは2に記載の方法。
  9. 確立グリッドの複数のグリッド・セルが、カメラセンサー・システムから供給される、該当する空間セグメントの高さ、或いは、高さ勾配を示す値を包含し、集約のために、より高い解像度レベルのグリッド・セルの最低値、或いは、グリッド・セルの最高値が、より低い解像度レベルのグリッド・セルに書き込まれることを特徴とする請求項1或いは2に記載の方法。
  10. より低い解像度レベルの一つのグリッド・セルの値は、より高い解像度レベルのその値が引き継がれるべきグリッド・セルへのリンクとしてストアされることを特徴とする請求項2に記載の方法。
  11. 異なる解像度を有する少なくとも二つの周辺センサーを備えた車両におけるセンサーのデータを集約するためへの請求項1から10のうち何れか一項に記載の方法の使用。
  12. 少なくとも二種類のドライバー・アシスタント機能、但し、第一ドライバー・アシスタント・システムが、第二ドライバー・アシスタント・システムよりも、より高い解像度レベルの周辺データを必要としている、を備えた車両における請求項1から10のうち何れか一項に記載の方法の使用。
JP2015517608A 2012-06-19 2013-04-30 車両周辺部を描写するための方法 Pending JP2015521767A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102012105332A DE102012105332A1 (de) 2012-06-19 2012-06-19 Verfahren zur Darstellung einer Fahrzeugumgebung
DE102012105332.4 2012-06-19
PCT/DE2013/100156 WO2013189482A1 (de) 2012-06-19 2013-04-30 Verfahren zur darstellung einer fahrzeugumgebung

Publications (2)

Publication Number Publication Date
JP2015521767A true JP2015521767A (ja) 2015-07-30
JP2015521767A5 JP2015521767A5 (ja) 2017-06-15

Family

ID=48576674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015517608A Pending JP2015521767A (ja) 2012-06-19 2013-04-30 車両周辺部を描写するための方法

Country Status (5)

Country Link
US (1) US9607229B2 (ja)
EP (1) EP2862123A1 (ja)
JP (1) JP2015521767A (ja)
DE (2) DE102012105332A1 (ja)
WO (1) WO2013189482A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013207904A1 (de) * 2013-04-30 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer effizienten Umfeldkarte für ein Fahrzeug
EP3048023B1 (en) * 2015-01-23 2018-11-28 Honda Research Institute Europe GmbH Method for assisting a driver in driving an ego vehicle and corresponding driver assistance system
DE102015212771A1 (de) * 2015-07-08 2017-01-12 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zur Erkennung von teilverdeckten beweglichen Objekten für ein Umfelderfassungssystem eines Kraftfahrzeugs
US9796390B2 (en) 2016-02-29 2017-10-24 Faraday&Future Inc. Vehicle sensing grid having dynamic sensing cell size
EP3229172A1 (en) * 2016-04-04 2017-10-11 Conti Temic microelectronic GmbH Driver assistance system with variable image resolution
FR3052275A1 (fr) 2016-06-03 2017-12-08 Commissariat Energie Atomique Procede et systeme de determination de cellules traversees par un axe de mesure ou de visualisation
DE102016215249B4 (de) * 2016-08-16 2022-03-31 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Unterstützen eines Fahrerassistenzsystems in einem Kraftfahrzeug
CN109903367B (zh) * 2017-12-07 2023-09-22 北京京东乾石科技有限公司 构建地图的方法、装置和计算机可读存储介质
CN108319655B (zh) * 2017-12-29 2021-05-07 百度在线网络技术(北京)有限公司 用于生成栅格地图的方法和装置
JP7195073B2 (ja) * 2018-07-10 2022-12-23 古野電気株式会社 グラフ生成装置
EP3654064B1 (en) * 2018-11-16 2021-01-13 Bayerische Motoren Werke Aktiengesellschaft Apparatus and method for characterizing an object based on measurement samples from one or more location sensors
US11625009B2 (en) * 2020-03-26 2023-04-11 Intel Corporation Non-uniform occupancy grid manager
US11931900B2 (en) * 2020-07-24 2024-03-19 Samsung Electronics Co., Ltd. Method of predicting occupancy of unseen areas for path planning, associated device, and network training method
DE102023212592A1 (de) * 2023-12-13 2025-06-18 Zf Friedrichshafen Ag Verfahren, Computerprogrammprodukt und Vorrichtung zur Anordnung von Radardaten eines Radar-Messsystems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148328A (ja) * 1992-11-06 1994-05-27 Toyota Central Res & Dev Lab Inc 車両用障害物認識装置
JP2010003254A (ja) * 2008-06-23 2010-01-07 Hitachi Ltd 画像処理装置
JP2012048642A (ja) * 2010-08-30 2012-03-08 Denso Corp 走行環境認識装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5006988A (en) * 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
JPH09505188A (ja) * 1993-11-15 1997-05-20 ナショナル・セミコンダクター・コーポレイション 4分木構造walsh変換符号化
US6915015B1 (en) * 2000-03-21 2005-07-05 Hewlett-Packard Development Company, L.P. Apparatus for and method for SNR scalable quad-tree bit-plane coding
US6868420B2 (en) * 2002-07-31 2005-03-15 Mitsubishi Electric Research Laboratories, Inc. Method for traversing quadtrees, octrees, and N-dimensional bi-trees
FR2890774B1 (fr) * 2005-09-09 2007-11-16 Inst Nat Rech Inf Automat Procede d'assitance a la conduite d'un vehicule et dispositif associe ameliore
DE102006056835A1 (de) * 2006-12-01 2008-06-05 Robert Bosch Gmbh Verfahren zum gitterbasierten Verarbeiten von Sensorsignalen
DE102007012458A1 (de) * 2007-03-15 2008-09-18 Robert Bosch Gmbh Verfahren zur Objektbildung
DE102009007395B4 (de) 2008-03-25 2015-11-26 Volkswagen Ag Verfahren zur kartenbasierten Umfelddarstellung eines Fahrzeugs
DE112010000146A5 (de) * 2009-05-06 2012-06-06 Conti Temic Microelectronic Gmbh Verfahren zur Auswertung von Sensordaten für ein Kraftfahrzeug
DE102010006828B4 (de) * 2010-02-03 2021-07-08 Volkswagen Ag Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010011629A1 (de) * 2010-03-16 2011-01-05 Daimler Ag Verfahren zur Umgebungsrepräsentation eines Fahrzeugs
DE102011113016A1 (de) * 2011-09-09 2012-03-29 Daimler Ag Verfahren zur Umgebungsrepräsentation eines Fahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148328A (ja) * 1992-11-06 1994-05-27 Toyota Central Res & Dev Lab Inc 車両用障害物認識装置
JP2010003254A (ja) * 2008-06-23 2010-01-07 Hitachi Ltd 画像処理装置
JP2012048642A (ja) * 2010-08-30 2012-03-08 Denso Corp 走行環境認識装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GERHARD K. KRAETZSCHMAR ET AL.: ""Probabilistic Quadtrees for Variable-Resolution Mapping of Large Environments"", PROCEEDINGS OF THE 5TH IFAC/EURON SYMPOSIUM ON INTELLIGENT AUTONOMOUS VEHICLES, JPN7017000128, 5 July 2004 (2004-07-05), NL, pages 1 - 6, ISSN: 0003483465 *
MATTHIAS R. SCHMID ET AL.: ""Dynamic Level of Detail 3D Occupancy Grids for Automotive Use"", 2010 IEEE INTELLIGENT VEHICLES SYMPOSIUM, JPN6017001403, 21 June 2010 (2010-06-21), US, pages 269 - 274, ISSN: 0003483466 *
二宮 芳樹: ""車載周辺のセンシング・認識技術"", システム/制御/情報, vol. 55, no. 1, JPN6017001404, 15 January 2011 (2011-01-15), JP, pages 8 - 13, ISSN: 0003483467 *

Also Published As

Publication number Publication date
DE102012105332A1 (de) 2013-12-19
EP2862123A1 (de) 2015-04-22
WO2013189482A1 (de) 2013-12-27
US9607229B2 (en) 2017-03-28
DE112013003083A5 (de) 2015-04-09
US20150003683A1 (en) 2015-01-01

Similar Documents

Publication Publication Date Title
JP2015521767A (ja) 車両周辺部を描写するための方法
JP2015521767A5 (ja)
CN108629231B (zh) 障碍物检测方法、装置、设备及存储介质
CN110163930B (zh) 车道线生成方法、装置、设备、系统及可读存储介质
KR102126724B1 (ko) 포인트 클라우드 데이터를 복구하기 위한 방법 및 장치
CN109190573B (zh) 应用于无人驾驶车辆的地面检测方法、电子设备、车辆
US10614324B2 (en) Method and apparatus for identifying static obstacle
US9305241B2 (en) Systems and methods for reducing a data set
CN108509820B (zh) 障碍物分割方法及装置、计算机设备及可读介质
US12002156B2 (en) Point cloud filtering
CN112446227A (zh) 物体检测方法、装置及设备
JP6762570B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20160239597A1 (en) Apparatus and method for performing finite element computation
CN114066999B (zh) 基于三维建模的目标定位系统及方法
CN110378942A (zh) 基于双目相机的障碍物标识方法、系统、设备和存储介质
CN112347986A (zh) 样本生成、神经网络训练、智能行驶控制方法及装置
JP7241366B2 (ja) 対象物の種類および状態を判定する方法
CN115546760A (zh) 点云序列数据处理方法、装置、计算机设备和存储介质
CN115713600A (zh) 自动驾驶场景的数字高程模型的生成方法和装置
CN115861628A (zh) 3d目标检测方法、装置、设备及存储介质
CN115223110B (zh) 目标检测方法、装置、计算机设备和存储介质
CN118629029B (zh) 环境感知方法、装置、电子设备及存储介质
CN117111491B (zh) 一种自动驾驶仿真中物体最近点确定方法、装置及设备
Hielsberg et al. Visibility-based urban exploration and learning using point clouds
CN119290003B (zh) 一种slam导航定位与三维重建方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170125

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20170419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170517