[go: up one dir, main page]

JP2024512563A - 車両の制御装置用のソフトウェアを評価する方法 - Google Patents

車両の制御装置用のソフトウェアを評価する方法 Download PDF

Info

Publication number
JP2024512563A
JP2024512563A JP2023558412A JP2023558412A JP2024512563A JP 2024512563 A JP2024512563 A JP 2024512563A JP 2023558412 A JP2023558412 A JP 2023558412A JP 2023558412 A JP2023558412 A JP 2023558412A JP 2024512563 A JP2024512563 A JP 2024512563A
Authority
JP
Japan
Prior art keywords
version
data
vehicle
relevant
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023558412A
Other languages
English (en)
Other versions
JP7634108B2 (ja
Inventor
ビルメス,ドーラ
ウルマン,マリーナ
ビルク,マティアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2024512563A publication Critical patent/JP2024512563A/ja
Application granted granted Critical
Publication of JP7634108B2 publication Critical patent/JP7634108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Prevention of errors by analysis, debugging or testing of software
    • G06F11/3604Analysis of software for verifying properties of programs
    • G06F11/3608Analysis of software for verifying properties of programs using formal methods, e.g. model checking, abstract interpretation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Prevention of errors by analysis, debugging or testing of software
    • G06F11/3668Testing of software
    • G06F11/3696Methods or tools to render software testable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1629Error detection by comparing the output of redundant processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Prevention of errors by analysis, debugging or testing of software
    • G06F11/3668Testing of software
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Prevention of errors by analysis, debugging or testing of software
    • G06F11/3668Testing of software
    • G06F11/3672Test management
    • G06F11/3692Test management for test results analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Debugging And Monitoring (AREA)

Abstract

Figure 2024512563000001
本発明は、車両(100)の制御装置(102)用のソフトウェア(111)を評価する方法であって、制御装置(102)が、ソフトウェア(111)の第1のバージョン(111a)および第2のバージョン(111b)が記憶されているメモリ(110)と、第1のバージョン(111a)および第2のバージョン(111b)を実行するためのプロセッサ(112)とを含む、方法に関する。この方法は、制御装置(102)内で、車両(100)の環境を検知するためにセンサシステム(104)によって生成されたセンサデータ(108)を受信するステップと、第1のバージョン(111a)および第2のバージョン(111b)にセンサデータ(108)を入力するステップと、第1のバージョン(111a)によってセンサデータ(108)から第1の物体データ(206、206’)を生成するステップであり、第1の物体データ(206、206’)が、第1のバージョン(111a)によって認識された、車両(100)の環境内の第1の物体(116、116’)の位置および/または向きを含む、ステップと、第2のバージョン(111b)によってセンサデータ(108)から第2の物体データ(208、208’)を生成するステップであり、第2の物体データ(208、208’)が、第2のバージョン(111b)によって認識された、車両(100)の環境内の第2の物体(118、118’)の位置および/または向きを含む、ステップと、第1の物体データ(206、206’)と第2の物体データ(208、208’)との比較によって、認識品質に関して第2のバージョン(111b)を評価するステップであり、評価結果(212)が生成される、ステップと、評価結果(212)を制御装置(102)から中央データ処理装置(214)に送信するステップとを含む。

Description

本発明は、車両の制御装置用のソフトウェアを評価する方法に関する。さらに、本発明は、前述した方法を実行するための制御装置、コンピュータプログラム、およびコンピュータ可読媒体に関する。
例えば乗用車またはトラックなどの車両には、車両の部分的または完全な自動制御を可能にする運転支援システムが装備されていてもよい。このために、運転支援システムは、例えば適切なセンサシステムを使用して、車両の環境内にある物体の位置、向き、および/または物体タイプを認識し、これらの物体を考慮して車両を操舵、制動、および/または加速することができる。
そのような運転支援システムは、一般に厳しいセキュリティ要件が課される。例えば運転支援システムを改良または拡張するための運転支援システムの更新は、個々のコンポーネントが更新されるたびにシステム全体のリリースを行わなければならないので、非常にコストがかかることがある。
上記の背景を踏まえて、本明細書で提示される手法によって、独立請求項による、車両の制御装置、対応する制御装置、対応するコンピュータプログラム、および対応するコンピュータ可読媒体用のソフトウェアを評価する方法が提示される。本明細書で提示される手法の有利な発展形態および改良形態は、本明細書から明らかになり、従属請求項に記載されている。
本発明の実施形態は、車両の制御装置用の物体認識ソフトウェアのまだリリースされていないバージョンを、制御装置上で、物体認識ソフトウェアの既にリリースされているバージョンと並列で実行して、2つのバージョンの認識結果の比較によって、まだリリースされていないバージョンをその認識品質に関して評価し、さらなる分析のために、対応する評価結果を中央データ処理装置に送信することを可能にする。
したがって、対応する多数の量産車両の評価結果、すなわち実際のデータを考慮に入れて、まだリリースされていないバージョン、例えば物体認識またはセンサデータ融合モジュールの新しいバージョンの非常に迅速であり費用対効果の高い検証を保証することができる。
本発明の第1の態様は、車両の制御装置用のソフトウェアを評価するためのコンピュータ実装方法に関する。ここで、制御装置は、ソフトウェアの第1のバージョンおよび第2のバージョンが記憶されているメモリと、第1のバージョンおよび第2のバージョンを実行するためのプロセッサとを含む。この方法は、制御装置内で、車両の環境を検知するためにセンサシステムによって生成されたセンサデータを受信するステップと、第1のバージョンおよび第2のバージョンにセンサデータを入力するステップと、第1のバージョンによってセンサデータから第1の物体データを生成するステップであって、第1の物体データが、第1のバージョンによって認識された、車両の環境内の第1の物体の位置および/または向きを含む、ステップと、第2のバージョンによってセンサデータから第2の物体データを生成するステップであって、第2の物体データが、第2のバージョンによって認識された、車両の環境内の第2の物体の位置および/または向きを含む、ステップと、第1の物体データと第2の物体データとの比較によって、認識品質に関して第2のバージョンを評価するステップであって、評価結果が生成される、ステップと、評価結果を制御装置から中央データ処理装置に送信するステップとを少なくとも含む。
この方法は、例えば、制御装置のプロセッサによって自動的に実行され得る。例えば、方法を実行するために中央データ処理装置によって生成された命令が制御装置で受信されたときに、方法を実行することができる。
車両は、例えば乗用車、トラック、バス、またはバイクの形態での自動車であり得る。より広い意味では、車両は、自律可動ロボットとして理解することもできる。
センサシステムは、少なくとも1つの環境センサ、例えば、カメラ、レーダセンサ、ライダセンサ、または超音波センサを含むことができる。さらに、センサシステムは、GPSまたはGLONASSなどの全地球航法衛星システムを使用して車両の地理的座標を決定するための位置センサを含むことができる。追加として、車両の運転状態を検知するためのセンサシステムは、例えば加速度センサ、車輪速センサ、操舵角センサ、操舵トルクセンサ、制動圧センサ、またはブレーキペダル移動量センサなどの少なくとも1つの運転ダイナミクスセンサを含むことができる。
制御装置でのセンサデータの処理により、例えば他の交通参加者、車線標示、交通標識、信号機、建物、または植物など車両の環境内にある物体を認識することができる。この際、車両に対する物体の位置および/または向きは、複数の連続する時間ステップにおいて決定され、物体リストの形式で環境モデルに記憶することができる。各現在の時間ステップにおいて、物体の将来の位置および/または向きが、1つまたは複数の以前の時間ステップでのそれらの位置および/または向きから推定されることが可能である。
センサデータは、複数の連続する時間ステップにおいて受信することができ、各時間ステップにおいて、センサデータを第1のバージョンと第2のバージョンとの両方に入力することができる。
制御装置のソフトウェアは、センサデータに基づいて車両を操舵、加速、および/または制動するように構成されることが可能である。このために、車両は、例えば操舵アクチュエータ、制動アクチュエータ、エンジン制御装置、電気駆動モータ、または上述した例のうちの少なくとも2つの組合せの形態での対応するアクチュエータシステムを含むことができる。制御装置のソフトウェアは、運転支援システムの1つまたは複数のコンポーネントを含むことができる。
中央データ処理装置は、例えば、サーバ、PC、ラップトップ、タブレット、またはスマートフォンであり得る。
制御装置と中央データ処理装置とは、ワイヤレスデータ通信接続、例えばWLAN、Bluetooth、および/または移動無線を介して互いに接続することができる。しかし、制御装置と中央データ処理装置との間の有線データ通信接続も可能である。
この方法は、追加として、制御装置で第2のバージョンを受信するステップと、制御装置のメモリに第2のバージョンを記憶するステップとを含むことができる。ここで、第2のバージョンは、中央データ処理装置によって生成された、および/または中央データ処理装置から制御装置に送信されたものであり得る。第2のバージョンは、例えばプロセッサによって実行可能なデータの形式で、制御装置で受信され、そこに記憶することができる。
第1のバージョンは、より古い、既にリリースされているソフトウェアのバージョンであり得る。第2のバージョンは、より新しい、まだリリースされていないソフトウェアのバージョンであり得る。
例えば、第2のバージョンは、例えばセンサデータ中の物体を認識するための認識もしくはセンサデータ融合モジュール、または車両に対するそれらの関連性に関して物体を解釈するための解釈モジュールなど、第1のバージョンの1つまたは複数のソフトウェアモジュールの更新されたバージョンを含むことができる。
第1のバージョンは、センサデータを第1の物体データに変換するための第1の認識モジュール、ならびに/または第1の物体データおよび/もしくはセンサデータに基づいて車両に関連性のある物体を決定するための第1の解釈モジュールを含むことが可能である。第1の認識モジュールまたは第1の解釈モジュールは、既にリリースされているソフトウェアのソフトウェアモジュールであり得る。
同様に、第2のバージョンは、センサデータを第2の物体データに変換するための第2の認識モジュール、ならびに/または第2の物体データおよび/もしくはセンサデータに基づいて車両に関連性のある物体を決定するための第2の解釈モジュールを含むことが可能である。第2の認識モジュールまたは第2の解釈モジュールは、まだリリースされていないソフトウェアのソフトウェアモジュールであり得る。
第1のバージョンと第2のバージョンとは、例えば制御装置のプロセッサによって並列処理において実行することができる。
ここで、第2のバージョンは、隔離された領域で実行することができ、この領域内で、車両の第1のバージョンまたはアクチュエータシステムなど、この領域の外部にある車両のハードウェアおよびソフトウェアコンポーネントにセキュリティに関わる影響を与えることなく、第2のバージョンを実行することができる。そのような隔離された領域で実行されるソフトウェアは、シャドーモードソフトウェアと呼ばれることもある。
言い換えると、第1のバージョンと第2のバージョンとは、異なる動作環境で実行することができる。ここで、第2のバージョンは、第1のバージョンの動作環境に比べて制限された動作環境で実行することができる。
例えば、第1の物体データは、第1の物体の位置および/または向きに加えて、第1の物体の物体クラスを含むことができる。代替または追加として、第2の物体データは、第2の物体の位置および/または向きに加えて、第2の物体の物体クラスを含むことができる。物体クラスは、例えば「対向車」、「先行車両」、「車線区分線」、「歩行者」などの物体タイプであり得る。物体クラスは、1つまたは複数の分類子を使用したセンサデータの分析によって、第1または第2の物体に割り当てることができる。同一の物体に複数の物体クラスを割り当てることもできる。
認識品質に関して第2のバージョンを評価するために、第1の物体データと第2の物体データとは、例えば、第1の物体の位置および/もしくは向きが第2の物体の位置および/もしくは向きと比較される、ならびに/または第1の物体が認識された認識時点が第2の物体が認識された認識時点と比較されることによって互いに比較することができる。しかし、他の比較方法も可能である。
このために、それぞれ1つの第1の物体と1つの第2の物体とのリンクを決定することができる。ここで、互いにリンクされた物体の位置および/もしくは向きならびに/または認識時点を互いに比較することができる。互いにリンクされている物体は、車両の環境内にある同一の実際の物体を表す物体モデルであり得る。
第2のバージョンの評価により、その認識品質、すなわち第2のバージョンによって物体が認識される認識精度および信頼性が、第1のバージョンの認識品質よりも悪いか、または少なくとも同様に良いかを決定することができる。
評価結果は、例えば、絶対的に、および/または第1のバージョンに対して相対的に見て、第2のバージョンの認識精度および信頼性に関する統計的推定値を含むことがある。追加または代替として、認識品質についての第2のバージョンの評価に関する評価結果は、第1および/もしくは第2の物体データならびに/またはセンサデータからの関連性のあるデータシーケンスを含むことができる。例えばワイヤレスデータ通信接続を介してデータシーケンスを中央データ処理装置に送信することにより、車両の現在地に関係なく、データシーケンスを中央位置で分析することができる。
そのようなデータシーケンスは、例えば、認識品質についての第2のバージョンの評価に関して関連性のある物体を含む物体リスト、および/またはこれらの物体の基礎になっている(生の)センサデータを含むことができる。
例えば、第1のバージョンによって認識された物体が第2のバージョンによっては認識されなかったと判定されるとき、第2のバージョンが、認識品質に関して第1のバージョンよりも悪いと評価されることがある。
逆に、第2のバージョンによって認識された物体が第1のバージョンによっては認識されなかったと判定されるとき、第2のバージョンが、認識品質に関して第1のバージョンよりも良いと評価されることが可能である。
ここで、車両に関連性のある物体と車両に関連性のない物体とが区別されると好適である。例えば、物体は、車両に対するその距離および/もしくはその相対速度に応じて、ならびに/またはその物体クラスに応じて、車両に関連性のあるものまたは関連性のないものとして認識されることがある。
ここで述べるおよび以下で述べる手法は、運転支援システムの開発における支援のために、ソフトウェアを量産車両でいわゆるシャドーモードで実行することができることに基づく。ここで、ソフトウェアまたは個々のソフトウェアモジュールは、車両内のアクティブなコンポーネントに対して逆作用することなく、隔離された領域で受動的に実行される。この領域では、例えば新しく開発されたソフトウェアバージョンを、迅速な反復で実行して評価することができる。このために、例えば、評価フレームワークを利用することができ、評価フレームワークは、所定のトリガロジックに基づいてデータシーケンスの記録をトリガし、クラウドへのワイヤレスデータ伝送を保証する。したがって、新たに開発されたソフトウェアバージョンを、現実の現場での事象に対応する大量のデータを使用して、非常に迅速に比較して評価することができる。
ここで、本発明の第1の態様の一実施形態による方法では、そのようなシャドーモードを利用して、車両の制御装置用のソフトウェアの更新されたバージョンが、車両でアクティブになっているこのソフトウェアの既にリリースされているバージョンと同様に良くまたはそれよりも良く特定の目標パラメータを達成するかどうかを判定することができる。このために、車両においてシャドーモードで実行されている更新されたバージョンの結果を、既にリリースされているバージョンの結果と直接比較することができる。これは、例えば運転支援システムのソフトウェアモジュールの更新を、従来のリリース方法と比較して大幅に少ないコストでリリースし、したがってはるかに頻繁に提供することができるという利点がある。
前述および後述の方法を実行するために、ソフトウェアの第1のバージョンと第2のバージョンとを同じ制御装置で実行する必要は必ずしもないことに留意されたい。代わりに、以下で記載するように、2つのバージョンを、場合によっては互いにネットワーク接続された異なる制御装置で実行することもできる。
第1のバージョンが第1の制御装置によって実行され、第2のバージョンが第2の制御装置によって実行されることが可能である。第2の制御装置は、第2のバージョンに加えて、ソフトウェアの(リリースされている)第1のバージョンまたは別のリリースされるバージョンを実行することもできる。
第1の制御装置は、例えば第1の車両の制御装置であってもよい。第2の制御装置は、例えば第2の車両の制御装置であってもよい。第1の制御装置と第2の制御装置とは、データ通信のために、例えばワイヤレスデータ通信接続を介して互いに接続することができる。
第1の物体データは、例えば第1のセンサデータから第1の制御装置によって生成することができ、第1のセンサデータは、第1の車両の環境を検知するための第1のセンサシステムによって生成されたものであり得る。
第2の物体データは、例えば第2のセンサデータから第2の制御装置によって生成することができ、第2のセンサデータは、第2の車両の環境を検知するための第2のセンサシステムによって生成されたものであり得る。
第1の制御装置が、第2の制御装置から第2の物体データを受信することが可能である。
したがって、例えば、第1の物体データと、第2の制御装置から受信された第2の物体データとの比較によって、第1の制御装置によって評価結果を生成することができる。ここで、評価結果は、第1の制御装置から中央データ処理装置に、および追加として、第2の制御装置にも送信することができる。
本発明の第2の態様は、本発明の第1の態様の一実施形態による方法を実行するように構成されているプロセッサを含む制御装置に関する。本発明の第1の態様の一実施形態による方法の特徴は、制御装置の特徴でもあり得て、逆も同様である。
制御装置は、ハードウェアおよび/またはソフトウェアモジュールを含むことができる。プロセッサに加えて、制御装置は、メモリと、周辺機器とのデータ通信のためのデータ通信インターフェースとを含むことができる。
本発明の第3の態様は、コンピュータプログラムに関する。コンピュータプログラムは、コンピュータプログラムがプロセッサによって実行されるとき、プロセッサに本発明の第1の態様の一実施形態による方法を実行させる命令を含む。
本発明の第4の態様は、本発明の第3の態様の一実施形態によるコンピュータプログラムが記憶されているコンピュータ可読媒体に関する。コンピュータ可読媒体は、揮発性または不揮発性のデータストレージであってもよい。例えば、コンピュータ可読媒体は、ハードドライブ、USBメモリ装置、RAM、ROM、EPROM、またはフラッシュメモリであってもよい。コンピュータ可読媒体は、また、プログラムコードのダウンロードを可能にするデータ通信ネットワーク、例えばインターネットまたはデータクラウド(クラウド)であってもよい。
本発明の第1の態様の一実施形態による方法の特徴は、コンピュータプログラムおよび/またはコンピュータ可読媒体の特徴でもあり得て、逆も同様である。
本発明の実施形態に関する着想は、とりわけ以下に記載する考えおよび知見に基づいているとみなすことができる。
一実施形態によれば、各第1の物体について、第1の物体が第1のバージョンによってどれほど良く認識されたかを示す少なくとも1つの第1の評価パラメータが決定される。ここで、各第2の物体について、第2の物体が第2のバージョンによってどれほど良く認識されたかを示す、少なくとも1つの第2の評価パラメータが決定される。次いで、第2のバージョンは、第1の評価パラメータと第2の評価パラメータとの比較によって評価される。第1または第2の評価パラメータは、例えば、認識時点、または統計値、例えば認識された位置および/もしくは向きに関する信頼度であり得る。第2のバージョンは、同一の物体の第1の評価パラメータと第2の評価パラメータとの比較によって評価することができる。言い換えると、第1の物体、および第1の物体に一致する第2の物体を、第1の物体に割り当てられた第1の評価パラメータと第2の物体に割り当てられた第2の評価パラメータとの比較によって評価することができる。例えば、第1のバージョンと第2のバージョンとの比較のために、第1の評価パラメータと対応する第2の評価パラメータとから差分を生成することができ、その差分に基づいて第2のバージョンを評価することができる。これにより、個々の認識された物体に基づいてソフトウェアの評価が可能にされる。
一実施形態によれば、第1の評価パラメータは、第1の物体が第1のバージョンによって認識された認識時点である。追加または代替として、第2の評価パラメータは、第2の物体が第2のバージョンによって認識された認識時点であってもよい。例えば、物体が第2のバージョンによって認識された認識時点が、同じ物体が第1のバージョンによって認識された認識時点よりも早い時点であるとき、第2のバージョンは、認識品質の面で第1のバージョンよりも良いと評価することができ、逆も同様である。そのような認識時点の比較は容易に実行することができ、十分に正確な評価結果を提供する。
一実施形態によれば、第1の評価パラメータは、第1の物体の位置および/または向きに関する確率である。追加または代替として、第2の評価パラメータは、第2の物体の位置および/または向きに関する確率であってもよい。確率によって、例えば位置および/または向きの精度、より正確には、位置および/または向きの確率分布に関する位置パラメータの精度を示すことができる。第1または第2の評価パラメータは、例えば、確率分布の位置パラメータおよび/または分散パラメータであってもよい。第1または第2の評価パラメータが信頼区間を示すことも可能である。したがって、方法の精度および信頼性を高めることができる。
一実施形態によれば、第1のバージョンによって、第1の物体の中から、車両に関連性のある第1の物体が選択される。ここで、互いに一致する物体は、関連性のある第1の物体と第2の物体との比較によって決定される。次いで、互いに一致する物体の評価パラメータが互いに比較される。既にさらに上で述べたように、第1の物体の中から、例えば車両に対するその距離および/もしくはその相対速度に応じて、ならびに/またはその物体クラスに応じて、関連性のある第1の物体を選択することができる。これは、第1のバージョンの第1の解釈モジュールを使用して行うことができ、第1の解釈モジュールは、例えば第1の物体を様々な関連性カテゴリ、最も単純な場合には例えば関連性カテゴリ「関連性あり」と「関連性なし」とに分けることによって、第1の物体の関連性を状況および/または機能に応じて決定するように構成されていてもよい。これにより、(検証またはリリースされている)第1のバージョンによって関連性ありと認識された物体を第2のバージョンがそもそも認識するかどうかを判定することができる。これが判定される場合、これは、第2のバージョンの認識品質が少なくとも第1のバージョンの認識品質よりも悪くないことを示す強力な指摘として評価することができる。
一実施形態によれば、第2のバージョンによって、第2の物体の中から、関連性のある第1の物体のいずれとも一致しない、車両に関連性のある第2の物体が選択される。ここで、各関連性のある第2の物体について個別評価が生成され、個別評価は、第2のバージョンによる関連性のある第2の物体の認識が、第1のバージョンに対する第2のバージョンの認識品質の向上に対応するかまたは悪化に対応するかを示す。次いで、第2のバージョンは、個別評価に基づいてさらに評価される。このために、まず、第2の物体データが、関連性のある第1の物体のいずれにも一致しない、すなわち第1のバージョンでは認識されなかった、または少なくとも関連性ありと認識されなかった第2の物体を含むかどうかを判定することができる。関連性のある第1の物体のいずれにも一致しない第2の物体が車両に関連性があるか否かをさらに判定することもできる。既にさらに上で述べたように、これは、第2のバージョンの第2の解釈モジュールを使用して行うことができ、第2の解釈モジュールは、第1の解釈モジュールと同様に、例えば第2の物体を様々な関連性カテゴリ、最も単純な場合には例えば関連性カテゴリ「関連性あり」と「関連性なし」とに分けることによって、第2の物体の関連性を状況および/または機能に応じて決定するように構成されていてもよい。
個別評価は、例えば評価結果の一部として中央データ処理装置に送信することができる。追加または代替として、評価結果は、それぞれの個別評価の基礎となる物体データおよび/またはセンサデータを含むことができる。物体データおよび/またはセンサデータは、それらが基づいている個別評価が第1のバージョンに対する第2のバージョンの認識品質の悪化を示しているときにのみ、評価結果の一部として送信されることが可能である。
この実施形態により、第1のバージョンによって既に認識されていない関連性のある物体を第2のバージョンが認識するか否かに応じて、第2のバージョンを評価することができる。第2のバージョンの評価は、例えば各個別評価で再計算することができる。
一実施形態によれば、センサデータ、および/または車両の少なくとも1つの運転ダイナミクスセンサによって生成された運転ダイナミクスデータに基づいて、車両の運転状態の変化が決定され、これらの変化は、第2のバージョンによって関連性のある第2の物体が認識された認識時点と時間的に相関する。ここで、それぞれの関連性のある第2の物体と時間的に相関する運転状態の変化の分析によって、各個別評価が生成される。第1のバージョンによって(関連性ありと)認識されなかった、関連性のある第2の物体の認識が、第1のバージョンに対する第2のバージョンの認識品質の向上に実際に対応するかどうかを判定するために、センサデータおよび/または運転ダイナミクスデータを例えば分析して、当該の物体の認識時点での車両の運転者の反応を決定し、これを解釈することができる。例えば、運転者の反応、または少なくとも関連性のある反応を判定できない場合、これは、当該の物体の認識によって認識品質がそれほど向上されなかったことの強力な指摘として評価することができ、逆も同様である。
一実施形態によれば、第2の物体データは、複数の連続する時間ステップにおいて生成される。ここで、第2の物体は、異なる時間ステップからの第2の物体データどうしを比較することによって妥当性をチェックされる。次いで、第2のバージョンは、第2の物体の妥当性に応じてさらに評価される。例えば、異なる時間ステップからの同一の物体の位置および/または向きを互いに比較して、不整合性、すなわち物体の位置および/または向きの妥当性のない変化を確定することができる。これにより、第2のバージョンが時間的に一貫した妥当性のある物体データを提供するかどうかを判定することができる。複数の連続した時間ステップにわたるそれらの位置および/または向きなど、個々の妥当性のない物体に関する物体データが、評価結果の一部として中央データ処理装置に送信されることが可能である。
一実施形態によれば、評価結果は、センサデータ、第1の物体データ、および/または第2の物体データからのデータシーケンスを含む。第2のバージョンの評価は、データシーケンスに基づくことができる。言い換えると、データシーケンスは、第1のバージョンに対する第2のバージョンの認識品質の向上または悪化を示すことができる。これらのデータシーケンスの送信により、その認識品質に関して第2のバージョンの所期の外部分析が可能にされる。
一実施形態によれば、認識品質に関して第2のバージョンが第1のバージョンよりも悪いと評価されたときにのみ、データシーケンスが送信される。それにより、制御装置と中央データ処理装置との間のデータ通信の効率を向上させることができる。
以下、添付図面を参照しながら本発明の実施形態を記載するが、図面も本明細書も、本発明を限定するものと解釈すべきではない。
本発明の一例示的実施形態による制御装置を備えた車両を示す図である。 図1からの制御装置上で実行されるソフトウェアの様々なモジュールを示す図である。
図は、概略にすぎず、一律の縮尺では描かれていない。各図において、同一の参照符号は、同一の特徴または同一機能を有する特徴を示す。
図1は、制御装置102と、車両100の環境を検知するためのセンサシステム104と、アクチュエータシステム106とを装備された車両100を示す。
センサシステム104は、例えば、カメラ、レーダセンサ、ライダセンサ、および/または超音波センサを含むことができる。追加として、センサシステム104は、少なくとも1つの運転ダイナミクスセンサ、例えば加速度センサまたはヨーレートセンサを含むことができる。センサシステム104は、複数の連続する時間ステップにおいてセンサデータ108を生成し、センサデータ108は、制御装置102で受信され、そこで物体認識の枠組で分析される。制御装置102は、対応するソフトウェア111が記憶されているメモリ110と、ソフトウェア111を実行するためのプロセッサ112とを含む。
制御装置102は、センサデータ108に基づいて、すなわちそれによって実行された物体認識の結果に基づいて、アクチュエータシステム106の自動制御のための制御信号114を生成することが可能である。アクチュエータシステム106は、例えば、車両100を操舵または制動するための1つまたは複数の操舵および/または制動アクチュエータを含むことができる。
制御装置102では、ソフトウェア111の2つの異なるバージョン111a、111bが同時に実行され、バージョン111a、111bに、それぞれセンサデータ108が入力される。ここで、ソフトウェア111の第1のバージョン111aによるセンサデータ108の分析により、車両100の環境内の第1の物体116が認識され、ソフトウェア111の第2のバージョン111bによるセンサデータ108の分析により、車両100の環境内の第2の物体118が認識される。第1の物体116および第2の物体118、ここでは例えば先行車両は、同一の物体であっても異なる物体であってもよい。第1の物体116と第2の物体118との比較により、制御装置102は、第1のバージョン111aに対する第2のバージョン111bの認識品質を評価することができる。これについて、図2に基づいて以下でより詳細に記載する。
図2は、制御装置102上で実行されるソフトウェア111のブロック図を示す。この例では、第1のバージョン111aは、既に検証またはリリースされている、すなわちソフトウェア111のアクティブなバージョンであり、第2のバージョン111bは、ソフトウェア111のまだ検証またはまだリリースされていないバージョンであり、第1のバージョン111aとは異なり、制御装置102の制限された動作環境200内で実行され得る、すなわち、制限された動作環境200の外部のコンポーネントから遮蔽された試験領域内で受動的に第1のバージョン111aと共に実行され得る。第2のバージョン111bは、第1のバージョン111aの更新、例えば、ソフトウェア111の第1のバージョン111aに対して改良および/または拡張されたバージョンであり得る。第2のバージョン111bは、シャドーソフトウェアとも呼ばれる。
代替として、第2のバージョン111bを、同様に別個の制御装置に割り当てることもできる。
この例では、センサデータ108は、第1のバージョン111aの第1の認識モジュール202と第2のバージョン111bの第2の認識モジュール204との両方に入る。ここで、第1の認識モジュール202は、センサデータ108から第1の物体データ206を生成し、第1の物体データ206は、車両100に対する第1の物体116の位置および/または向きを含む。ここで、第2の認識モジュール204は、センサデータ108から第2の物体データ208を生成し、第2の物体データ208は、車両100に対する第2の物体118の位置および/または向きを含む。
認識された物体116、118は、それらのそれぞれの位置および/または方向と共に、例えば物体リストの形式で、車両100の環境の環境モデルに記憶し、そこでセンサデータ108に基づいて継続的に更新することができる。これに関連して、第1の物体116および第2の物体118は、環境モデルに記憶された、車両100の環境内に実際に存在する物体の物体モデルと理解することができる。
それぞれの位置および/または向きに加えて、第1の物体データ206および/または第2の物体データ208は、認識された各物体116または118について、例えば「車両」、「歩行者」、または「車線標示」など1つまたは複数の物体タイプを指定することができる。
第1の物体データ206および第2の物体データ208は、ソフトウェア111の評価モジュール210に入力され、評価モジュール210は、この例では、第2のバージョン111bと同様に、セキュリティ上の理由から、制限された動作環境200内で実行される。評価モジュール210は、第1の物体データ206を第2の物体データ208と適切に比較することによって、第1のバージョン111aに対する第2のバージョン111bの認識品質を評価する。ここで、評価モジュール210は、対応する評価結果212を生成し、さらなる分析のために、評価結果212を、例えばWLAN接続、Bluetooth接続、および/または移動無線接続を介して車両100の外部の中央データ処理装置214に送信する。
この評価の枠組で、第1の物体116は、1つまたは複数の適切な評価パラメータに基づいて、例えばそれぞれの認識時点に基づいて、またはそれぞれの位置および/もしくは向きの精度および/もしくは信頼性に関する1つもしくは複数の推定値に基づいて、対応する第2の物体118と互いに比較することができる。
第1の物体データ206は、第1のバージョン111aの第1の解釈モジュール216によって解釈される、すなわち車両100に関するそれらの関連性に関して分析されることが可能である。ここで、第1の解釈モジュール216は、車両100の現在の状況に応じて、第1の物体116の中から1つまたは複数の関連性のある第1の物体116’(図1では例えば車両100の左側の先行車両)を選択し、それに対応してフィルタリングされた第1の物体データ206’を評価モジュール210に送信することができる。
次いで、評価モジュール210は、例えばそれぞれの位置および/もしくは向きならびに/またはそれぞれの認識時点に基づいて、関連性のある第1の物体116’を対応する第2の物体118にリンクすることができる。引き続いて、互いにリンクされた物体の評価パラメータを互いに比較して、第2のバージョン111bを評価することができる。互いにリンクされている物体は、車両100の環境内に実際に存在する同一の物体の物体モデルである限りにおいて、互いに一致する物体であり得る。
さらに、第2の物体データ208は、第2のバージョン111bの第2の解釈モジュール218によって解釈される、すなわち車両100に関するそれらの関連性に関して分析されることが可能である。ここで、第2の解釈モジュール218は、車両100の現在の状況に応じて、第2の物体118の中から1つまたは複数の関連性のある第2の物体118’(図1では例えば車両100の右側の先行車両)を選択し、それに対応してフィルタリングされた第2の物体データ208’を評価モジュール210に送信することができる。
この場合、評価モジュール210は、関連性のある第1の物体206’と関連性のある第2の物体208’との中に一意に互いに一致する物体があるかどうかを決定することができる。関連性のある第2の物体208’の1つが関連性のある第1の物体206’の1つと一致しない場合、評価モジュール210は、この第2の物体に関して、この第2の物体の認識が第1のバージョン111aに対する第2のバージョン111bの認識品質の向上を表すか悪化を表すかを示す個別評価を生成することができる。次いで、個別評価に基づいて、評価結果212を生成することができる。
個人評価の生成は、センサデータ108に基づいて行うことができる。ここで、センサデータ108は、車両100の1つまたは複数の環境センサによって生成された環境データに加えて、車両100の1つまたは複数の運転ダイナミクスセンサによって生成された運転ダイナミクスデータを含むことができる。
評価モジュール210によるセンサデータ108の分析時、例えば車両100の運転者の対応する反応によって引き起こされる、関連性のある第2の物体118’の認識と時間的に相関する車両100の運転ダイナミクス状態の変化を決定することができる。この変化に基づいて、当該の物体の認識が第2のバージョン111bの認識品質の向上に相当するか悪化に相当するかを最終的に判定することができる。
代替として、第2の解釈モジュール218は、まず、関連性のある第1の物体116’のいずれとも一意に一致しない第2の物体118を決定し、引き続いて、そこから関連性のある第2の物体118’を選択するように構成していてもよい。
追加として、評価モジュール210は、第2の物体118の妥当性をチェックするように構成していてもよい。このために、評価モジュール210は、複数の連続する時間ステップの第2の物体データ208に基づいて第2の物体118を分析することができる。ここで、評価結果212は、第2の物体118の妥当性を考慮してさらに決定することができる。妥当性のないまたは一貫性のない第2の物体118に関する例が図1に破線の枠で示唆されている。
第2の認識モジュール204および/または第2の解釈モジュール218を使用して解決されるべき認識タスクの検証の意味での第2のバージョン111bの評価は、例えば以下のステップを含むことができる。
第1に、第1のバージョン111aによって認識された関連性のある第1の物体116’が、シャドーモードで実行される第2のバージョン111bによっても同様に、またはより良い様式で認識されたかどうかがチェックされる。ここで、第1の物体116の関連性は、第1の認識モジュール202自体によって確定されるのではなく、第1の解釈モジュール216によって、すなわち1つまたは複数の後続の解釈ソフトウェア要素によって、一種の状況分析において確定される。第2の物体118のどれが関連性のある第1の物体116’に対応するかを判定するために、評価モジュール210においてリンク付けが実行される。次いで、例えばそれぞれの認識時点、またはそれぞれの位置および/もしくは向きに関する信頼度を含むことができる所定の測定基準に基づいて、2つのバージョン111a、111bの認識品質が互いに比較される。第2のバージョン111bの認識品質の悪化が判定される場合、対応するデータシーケンスを中央データ処理装置214に直接送信することができる。ここで、データシーケンスは、対応するセンサデータ108および/または対応する物体データ116もしくは118から生成することができる。逆に、認識品質の向上は、そのようなデータシーケンスが中央データ処理装置214に到着しないことによって確認することができる。追加または代替として、制御装置102が、まとめられた統計を中央データ処理装置214に定期的に送信することによって、認識品質の向上または悪化を検知することができる。
第2に、第2のバージョン111bによって認識されたが、関連性のある第1の物体116’の1つとリンクさせることができない各第2の物体118について、車両100に関するその関連性が判定され、この第2の物体の認識によって認識品質が悪化したかまたは向上したかを示す評価が実行される。第2の解釈モジュール218が、一種の状況分析において、関連性のある第1の物体116’のいずれにもリンクさせることができない第2の関連性のある物体118’を確定した場合、まず、所定のロジックを用いて、例えばこの物体に対する運転者の反応に基づいて、この物体の認識が認識品質の向上を表すかまたは悪化を表すかが確定される。ロジックに応じて、統計でのプロセスを検知することができる。追加または代替として、中央データ処理装置214での外部分析のために、対応するデータシーケンスの直接送信をトリガすることができる。
第3に、第2の物体118および/または関連性のある第2の物体118’が時間と共に一貫性があり妥当性があるかどうかがチェックされる。このために、評価モジュール210は、センサデータ108および/または第2の物体データ208もしくは208’からの時間プロファイルに基づいて、車両100のすぐ近くの環境内で第2の物体118が突然出現するまたは突然消えるなどの非整合性を検出する。これらの物体に関する情報は、対応するデータシーケンスの形式で直接、または統計の形式でまとめて、制御装置102からデータ処理装置214に送信することができる。
分類タスクの検証も同様に実行することができる。
最後に、「備える」および「含む」などの用語は、他の要素またはステップを排除するものではなく、「1つ(eine)」または「1つ(ein)」などの用語は、多数を排除するものではないことに留意されたい。特許請求の範囲における参照符号は、限定として解釈されるべきではない。

Claims (13)

  1. 車両(100)の制御装置(102)用のソフトウェア(111)を評価する方法であって、
    前記制御装置(102)が、前記ソフトウェア(111)の第1のバージョン(111a)および第2のバージョン(111b)が記憶されているメモリ(110)と、前記第1のバージョン(111a)および前記第2のバージョン(111b)を実行するためのプロセッサ(112)とを含み、
    前記制御装置(102)内で、前記車両(100)の環境を検知するためにセンサシステム(104)によって生成されたセンサデータ(108)を受信するステップと、
    前記第1のバージョン(111a)および前記第2のバージョン(111b)に前記センサデータ(108)を入力するステップと、
    前記第1のバージョン(111a)によって前記センサデータ(108)から第1の物体データ(206、206’)を生成するステップであり、前記第1の物体データ(206、206’)が、前記第1のバージョン(111a)によって認識された、前記車両(100)の前記環境内の第1の物体(116、116’)の位置および/または向きを含む、ステップと、
    前記第2のバージョン(111b)によって前記センサデータ(108)から第2の物体データ(208、208’)を生成するステップであり、前記第2の物体データ(208、208’)が、前記第2のバージョン(111b)によって認識された、前記車両(100)の前記環境内の第2の物体(118、118’)の位置および/または向きを含む、ステップと、
    前記第1の物体データ(206、206’)と前記第2の物体データ(208、208’)との比較によって、認識品質に関して前記第2のバージョン(111b)を評価するステップであり、評価結果(212)が生成される、ステップと、
    前記評価結果(212)を前記制御装置(102)から中央データ処理装置(214)に送信するステップと
    を含む、方法。
  2. 各第1の物体(116、116’)について、前記第1の物体(116、116’)が前記第1のバージョン(111a)によってどれほど良く認識されたかを示す、少なくとも1つの第1の評価パラメータが決定され、
    各第2の物体(118、118’)について、前記第2の物体(118、118’)が前記第2のバージョン(111b)によってどれほど良く認識されたかを示す、少なくとも1つの第2の評価パラメータが決定され、
    前記第2のバージョン(111b)が、前記第1の評価パラメータと前記第2の評価パラメータとの比較によって評価される、
    請求項1に記載の方法。
  3. 前記第1の評価パラメータが、前記第1の物体(116、116’)が前記第1のバージョン(111a)によって認識された認識時点である、および/または
    前記第2の評価パラメータが、前記第2の物体(118、118’)が前記第2のバージョン(111b)によって認識された認識時点である、
    請求項2に記載の方法。
  4. 前記第1の評価パラメータが、前記第1の物体(116、116’)の前記位置および/もしくは向きに関する確率である、ならびに/または
    前記第2の評価パラメータが、前記第2の物体(118、118’)の前記位置および/もしくは向きに関する確率である、
    請求項2または3に記載の方法。
  5. 前記第1のバージョン(111a)によって、前記第1の物体(116)の中から、前記車両(100)に関連性のある第1の物体(116’)が選択され、
    互いに一致する物体(116’、118、118’)が、前記関連性のある第1の物体(116’)と前記第2の物体(118、118’)との比較によって決定され、
    前記互いに一致する物体(116’、118、118’)の前記評価パラメータが互いに比較される、
    請求項2から4のいずれか一項に記載の方法。
  6. 前記第2のバージョン(111b)によって、前記第2の物体(118)の中から、関連性のある第1の物体(116’)のいずれとも一致しない、前記車両(100)に関連性のある第2の物体(118’)が選択され、
    各関連性のある第2の物体(118’)について個別評価が生成され、前記個別評価が、前記第2のバージョン(111b)による前記関連性のある第2の物体(118’)の前記認識が、前記第1のバージョン(111a)に対する前記第2のバージョン(111b)の前記認識品質の向上に対応するかまたは悪化に対応するかを示し、
    前記第2のバージョン(111b)が、前記個別評価に基づいてさらに評価される、
    請求項5に記載の方法。
  7. 前記センサデータ(108)、および/または前記車両(100)の少なくとも1つの運転ダイナミクスセンサによって生成された運転ダイナミクスデータに基づいて、前記車両(100)の運転状態の変化が決定され、前記変化が、前記第2のバージョン(111b)によって前記関連性のある第2の物体(118’)が認識された認識時点と時間的に相関し、
    前記それぞれの関連性のある第2の物体(118’)と時間的に相関する前記運転状態の前記変化の分析によって、各個別評価が生成される、
    請求項6に記載の方法。
  8. 前記第2の物体データ(208、208’)が、複数の連続する時間ステップにおいて生成され、
    前記第2の物体(118、118’)が、異なる時間ステップからの前記第2の物体データ(208、208’)どうしを比較することによって妥当性をチェックされ、
    前記第2のバージョン(111b)が、前記第2の物体(118、118’)の前記妥当性に応じてさらに評価される、
    請求項1から7のいずれか一項に記載の方法。
  9. 前記評価結果(212)が、前記センサデータ(108)、前記第1の物体データ(206、206’)、および/または前記第2の物体データ(208、208’)からのデータシーケンスを含む、
    請求項1から8のいずれか一項に記載の方法。
  10. 前記認識品質に関して前記第2のバージョン(111b)が前記第1のバージョン(111a)よりも悪いと評価されたときにのみ、前記データシーケンスが送信される、
    請求項9に記載の方法。
  11. 請求項1から10のいずれか一項に記載の方法を実行するように構成されているプロセッサ(112)を含む制御装置(102)。
  12. 前記プロセッサ(112)による前記コンピュータプログラムの実行時に、プロセッサ(112)に請求項1から10のいずれか一項に記載の方法を実行させる命令を含むコンピュータプログラム。
  13. 請求項12に記載のコンピュータプログラムが記憶されているコンピュータ可読媒体。
JP2023558412A 2021-03-24 2022-02-03 車両の制御装置用のソフトウェアを評価する方法 Active JP7634108B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102021202903.5 2021-03-24
DE102021202903.5A DE102021202903A1 (de) 2021-03-24 2021-03-24 Verfahren zum Bewerten einer Software für ein Steuergerät eines Fahrzeugs
PCT/EP2022/052522 WO2022199916A1 (de) 2021-03-24 2022-02-03 Verfahren zum bewerten einer software für ein steuergerät eines fahrzeugs

Publications (2)

Publication Number Publication Date
JP2024512563A true JP2024512563A (ja) 2024-03-19
JP7634108B2 JP7634108B2 (ja) 2025-02-20

Family

ID=80595546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023558412A Active JP7634108B2 (ja) 2021-03-24 2022-02-03 車両の制御装置用のソフトウェアを評価する方法

Country Status (7)

Country Link
US (1) US20240184686A1 (ja)
EP (1) EP4315069A1 (ja)
JP (1) JP7634108B2 (ja)
KR (1) KR20230157514A (ja)
CN (1) CN117099085A (ja)
DE (1) DE102021202903A1 (ja)
WO (1) WO2022199916A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023123177A1 (de) 2023-08-29 2025-03-06 Audi Aktiengesellschaft Vorrichtung zum Betrieb eines Kraftfahrzeugs sowie Kraftfahrzeug

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117082A (ja) * 2006-11-01 2008-05-22 Toyota Motor Corp 走行制御計画評価装置
JP2009276906A (ja) * 2008-05-13 2009-11-26 Panasonic Corp 走行情報提供装置
JP2019032656A (ja) * 2017-08-07 2019-02-28 株式会社Ihi 検証システム及び検証方法
JP2020013480A (ja) * 2018-07-20 2020-01-23 学校法人 芝浦工業大学 車両認識システムおよび車両認識方法
JP2021012446A (ja) * 2019-07-04 2021-02-04 Kddi株式会社 学習装置及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10884902B2 (en) * 2017-05-23 2021-01-05 Uatc, Llc Software version verification for autonomous vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117082A (ja) * 2006-11-01 2008-05-22 Toyota Motor Corp 走行制御計画評価装置
JP2009276906A (ja) * 2008-05-13 2009-11-26 Panasonic Corp 走行情報提供装置
JP2019032656A (ja) * 2017-08-07 2019-02-28 株式会社Ihi 検証システム及び検証方法
JP2020013480A (ja) * 2018-07-20 2020-01-23 学校法人 芝浦工業大学 車両認識システムおよび車両認識方法
JP2021012446A (ja) * 2019-07-04 2021-02-04 Kddi株式会社 学習装置及びプログラム

Also Published As

Publication number Publication date
DE102021202903A1 (de) 2022-09-29
KR20230157514A (ko) 2023-11-16
WO2022199916A1 (de) 2022-09-29
CN117099085A (zh) 2023-11-21
US20240184686A1 (en) 2024-06-06
JP7634108B2 (ja) 2025-02-20
EP4315069A1 (de) 2024-02-07

Similar Documents

Publication Publication Date Title
US11170588B2 (en) Autonomous system validation
CN109421731B (zh) 可信度检验模块、驾驶辅助系统和校准传感器的方法
US20200209874A1 (en) Combined virtual and real environment for autonomous vehicle planning and control testing
US10023164B2 (en) Validating automotive safety functions
CN114077541A (zh) 验证用于自动驾驶车辆的自动控制软件的方法和系统
CN107015550B (zh) 诊断测试执行控制系统和方法
WO2018066305A1 (ja) 車載処理装置
CN114967499B (zh) 一种自动紧急制动仿真测试系统及测试方法
US12077171B2 (en) Vehicle control device, automated driving vehicle development system, vehicle control method, and storage medium for verifying control logic
CN116391161A (zh) 在自主载具运行期间模拟情景的载具内操作
CN111398989A (zh) 驾驶辅助系统的性能分析方法和测试设备
US11919544B2 (en) Method and device for operating an automated vehicle
EP4394626A1 (en) Classification of objects present on a road
US12067818B2 (en) Checkpoint-based tracing for monitoring a robotic system
JP7634108B2 (ja) 車両の制御装置用のソフトウェアを評価する方法
US20210056014A1 (en) Method for rating a software component of an sil environment
CN119032294A (zh) 用于评估机动车的自动化功能的质量的方法和装置
US20250085431A1 (en) Method for optimizing the environment sensing for a driving assistance system by means of an additional reference sensor system
US20220404154A1 (en) Method and device for determining emergency trajectories and for operating automated vehicles
US20240249571A1 (en) Systems and methods for identifying subsets of data in a dataset
US20210061285A1 (en) Method for generating a reference representation
Mansour et al. Modular Domain Controller Design Approach: A Key Enabler for ADAS and Automated Driving Functionality
CN118537821A (zh) 用于在车辆的控制器中处理传感器数据的方法
CN118056724A (zh) Ads驾驶场景生成
CN119537195A (zh) 用于测试车载应用的方法、装置和计算机可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250207

R150 Certificate of patent or registration of utility model

Ref document number: 7634108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150