JP7320755B2 - Vehicle simulation system, vehicle simulation method and computer program - Google Patents
Vehicle simulation system, vehicle simulation method and computer program Download PDFInfo
- Publication number
- JP7320755B2 JP7320755B2 JP2020007220A JP2020007220A JP7320755B2 JP 7320755 B2 JP7320755 B2 JP 7320755B2 JP 2020007220 A JP2020007220 A JP 2020007220A JP 2020007220 A JP2020007220 A JP 2020007220A JP 7320755 B2 JP7320755 B2 JP 7320755B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- behavior
- unit
- value
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本開示はデータ処理技術に関し、特に車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラムに関する。 TECHNICAL FIELD The present disclosure relates to data processing technology, and more particularly to a vehicle simulation system, vehicle simulation method and computer program.
車載機器の開発フェーズや評価フェーズでは、開発や評価に要するコストを削減するため、現実の車両を用いる代わりに、現実の車両の挙動を模擬する車両シミュレーションシステムが用いられることがある。 In the development and evaluation phases of in-vehicle equipment, a vehicle simulation system that simulates the behavior of an actual vehicle is sometimes used instead of using an actual vehicle in order to reduce the costs required for development and evaluation.
これまでの車両シミュレーションシステムでは、シミュレーション結果において、車両モデルが生成した車両位置(理想位置とも言える)のみを描いていた。そのため、シミュレーション結果が、現実のシステムの評価に十分に貢献しないことがあった。 In previous vehicle simulation systems, only the vehicle position (which can be said to be the ideal position) generated by the vehicle model was depicted in the simulation results. Therefore, the simulation results may not contribute sufficiently to the evaluation of the actual system.
本開示はこうした状況に鑑みてなされたものであり、1つの目的は、車両シミュレーションシステムにおけるシミュレーション結果の有用性を高めることにある。 The present disclosure has been made in view of such circumstances, and one object thereof is to enhance the usefulness of simulation results in a vehicle simulation system.
上記課題を解決するために、本開示のある態様の車両シミュレーションシステムは、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値をモデルに入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出する導出部と、シミュレーションにおける車両の挙動を示す画像として、理想値と推定値とを異なる態様で示す画像を生成する生成部と、を備える。 In order to solve the above-described problems, a vehicle simulation system according to one aspect of the present disclosure uses, as an explanatory variable, information indicating vehicle behavior that is input to a vehicle when the vehicle is actually traveling, and the behavior of the vehicle indicated by the information; A storage unit that stores a model whose objective variable is the difference between the vehicle's actual behavior and ideal values for the vehicle's behavior derived from the simulation scenario. A deriving unit for deriving an estimated value regarding the actual behavior of the vehicle in a situation, and a generating unit for generating an image showing the ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation.
本開示の別の態様もまた、車両シミュレーションシステムである。この車両シミュレーションシステムは、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、理想値が示す挙動を車両に実行させるために車両内のネットワークを介して伝送される値である準理想値を導出する第1導出部と、車両の挙動に関する理想値をモデルに入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出する第2導出部と、シミュレーションにおける車両の挙動を示す画像として、準理想値と推定値とを異なる態様で示す画像を生成する生成部と、を備える。 Another aspect of this disclosure is also a vehicle simulation system. This vehicle simulation system uses information that indicates the behavior of the vehicle input to the vehicle when the vehicle is actually running as an explanatory variable, and uses the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle as the objective variable. A storage unit that stores a model and values corresponding to ideal values regarding vehicle behavior derived based on a simulation scenario. A first derivation unit that derives a quasi-ideal value, which is a value to be transmitted through the model, and an estimated value regarding the actual behavior of the vehicle in the situation indicated by the simulation scenario is derived by inputting the ideal values regarding the behavior of the vehicle into the model. and a generator that generates an image showing the quasi-ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation.
本開示のさらに別の態様は、車両シミュレーション方法である。この方法は、記憶部に記憶されたモデルであって、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値を入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出し、シミュレーションにおける車両の挙動を示す画像として、理想値と推定値とを異なる態様で示す画像を生成する、ことをコンピュータが実行する。 Yet another aspect of the present disclosure is a vehicle simulation method. This method uses a model stored in a storage unit, which is input to the vehicle when the vehicle is actually running, as an explanatory variable to indicate the behavior of the vehicle. By inputting the ideal values of vehicle behavior derived based on the simulation scenario into a model whose objective variable is the difference from the behavior of the vehicle, the estimated values of the actual behavior of the vehicle under the conditions indicated by the simulation scenario can be obtained. A computer performs the derivation and generates images showing the ideal and estimated values in different ways as images showing the behavior of the vehicle in the simulation.
本開示のさらに別の態様もまた、車両シミュレーション方法である。この方法は、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、理想値が示す挙動を車両に実行させるために車両内のネットワークを介して伝送される値である準理想値を導出し、記憶部に記憶されたモデルであって、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルに、車両の挙動に関する理想値を入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出し、シミュレーションにおける車両の挙動を示す画像として、準理想値と推定値とを異なる態様で示す画像を生成する、ことをコンピュータが実行する。 Yet another aspect of the present disclosure is also a vehicle simulation method. In this method, values corresponding to ideal values regarding vehicle behavior derived based on a simulation scenario are transmitted via an in-vehicle network to cause the vehicle to execute the behavior indicated by the ideal values. A quasi-ideal value that is a value is derived, and is a model stored in a storage unit, and is an explanatory variable that indicates the behavior of the vehicle that is input to the vehicle when the vehicle is actually traveling. By inputting the ideal values of vehicle behavior into a model whose objective variable is the difference between the actual behavior of the vehicle and the actual behavior of the vehicle, an estimated value of the actual behavior of the vehicle in the situation indicated by the simulation scenario is derived, and the simulation The computer generates an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in .
なお、以上の構成要素の任意の組合せ、本開示の表現を、装置、コンピュータプログラム、コンピュータプログラムを記録した記録媒体、車両支援システムを搭載した車両などの間で変換したものもまた、本開示の態様として有効である。 Any combination of the above components and expressions of the present disclosure converted between devices, computer programs, recording media recording computer programs, vehicles equipped with vehicle support systems, etc. are also included in the present disclosure. It is effective as an aspect.
本開示によれば、車両シミュレーションシステムにおけるシミュレーション結果の有用性を高めることができる。 According to the present disclosure, it is possible to enhance the usefulness of simulation results in a vehicle simulation system.
概要を説明する。第1実施例~第3実施例では、車両シミュレーションを支援する技術として、センサモデル生成装置と、センサモデル生成装置により生成されたモデルを利用する車両シミュレーションシステムを提案する。 Give an overview. In the first to third embodiments, a sensor model generating device and a vehicle simulation system using a model generated by the sensor model generating device are proposed as techniques for supporting vehicle simulation.
第1実施例~第3実施例のセンサモデル生成装置は、第1導出部と、第2導出部と、生成部とを備える。第1導出部は、車両に搭載されたセンサの出力結果をもとに、車両の自動走行に関する属性の状態を導出する。第2導出部は、第1導出部より高い精度で、車両に関する属性の状態を導出する。生成部は、車両のシミュレーションのためのモデルであって、第1導出部または第2導出部により導出された状態を説明変数とし、第2導出部により導出された状態と、第1導出部により導出された状態との差を目的変数とするモデルを生成する。 The sensor model generation devices of the first to third embodiments include a first derivation section, a second derivation section, and a generation section. The first derivation unit derives an attribute state related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle. The second derivation unit derives the state of attributes related to the vehicle with higher accuracy than the first derivation unit. The generation unit is a model for simulating a vehicle, and the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the state derived by the first derivation unit Generate a model with the difference from the derived state as the objective variable.
また、第1実施例~第3実施例の車両シミュレーションシステムは、記憶部と、推定部と、シミュレーション部とを備える。記憶部は、車両に搭載されたセンサの出力結果をもとに、車両の自動走行に関する属性の状態を導出する導出部について、導出部により導出される上記属性の状態、または、上記属性の状態の真値に関して推定するためのモデルであって、導出部により導出された上記属性の状態、または、上記属性の状態の真値を説明変数とし、上記属性の状態の真値と、導出部により導出された上記属性の状態との差を目的変数とするモデルを記憶する。推定部は、シミュレーションのパラメータとして、導出部により導出される上記属性の状態と上記属性の状態の真値の一方をモデルに入力することにより、導出部により導出される上記属性の状態と上記属性の状態の真値の他方を推定する。シミュレーション部は、推定部による推定結果をもとに車両に関するシミュレーションを実行する。 Further, the vehicle simulation system of the first to third embodiments includes a storage section, an estimation section, and a simulation section. The storage unit stores the state of the attribute derived by the derivation unit, or the state of the attribute, with respect to the derivation unit that derives the state of the attribute related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle. A model for estimating the true value of the attribute state derived by the derivation unit or the true value of the attribute state as an explanatory variable, and the true value of the attribute state and the true value of the attribute state by the derivation unit A model is stored in which the objective variable is the difference from the derived state of the attribute. The estimating unit inputs one of the state of the attribute derived by the deriving unit and the true value of the state of the attribute into the model as a parameter of the simulation, thereby obtaining the state of the attribute derived by the deriving unit and the attribute Estimate the other of the true values of the states of The simulation section executes a vehicle-related simulation based on the estimation result of the estimation section.
<第1実施例>
図1は、従来の車両シミュレーションシステム100の機能ブロックを示すブロック図である。本開示のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPU・メモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
<First embodiment>
FIG. 1 is a block diagram showing functional blocks of a conventional
車両シミュレーションシステム100は、シミュレーション制御部10、ユーザインタフェース12、環境データ生成部14、画像解析部16、車両モデル部18を備える。シミュレーション制御部10は、車両の挙動のシミュレーションを制御する。また、シミュレーション制御部10は、ユーザインタフェース12、環境データ生成部14、画像解析部16、車両モデル部18とデータを送受信する。
The
ユーザインタフェース12は、ユーザ(またはユーザの端末)とのインタフェースを提供する。環境データ生成部14は、ユーザにより指定されたパラメータ(例えば歩行者までの距離や方位等)に応じて、後述の画像解析部16に解析させるための画像データ(CG)を生成する。例えば、環境データ生成部14は、自車の6メートル先に歩行者がいることを示すCGを生成する。
The
画像解析部16は、画像データを解析することにより、車両の自動走行を制御するための車両周辺の状態(障害物の位置等)を検知する。例えば、画像解析部16は、自車の進行方向6メートル先に歩行者がいることを示すCGを解析して、自車と歩行者との距離が6.2メートルであることを検知する。この場合、0.2メートルの誤差が生じている。なお、画像解析部16による解析対象は、実際の車両では車載カメラによる撮像画像となるが、車両シミュレーションシステム100では環境データ生成部14により生成されたCGとなる。
The
車両モデル部18は、画像解析部16による解析結果をもとに、車両の挙動を決定し、すなわち、車両の自動走行をシミュレーションする。例えば、画像解析部16により自車の進行方向の6.2メートル先に歩行者がいることが検知された場合、車両モデル部18は、ブレーキを作動させること、その結果、歩行者の1メートル手前で停車することを出力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を、所定の表示装置に表示させ、または、所定の記憶装置に格納する。
The
このように従来の車両シミュレーションシステム100では、車両周辺の状態を示す画像を作成し、その画像から車両周辺の状態を検知し、自動運転の内容をシミュレーションしていた。シミュレーションの網羅性を高めるためには、車両周辺の明るさ(天気等)や路面状況、障害物までの距離、車両速度等、様々なケースに対応する多くの画像を作成する必要があるが、多くの画像を作成するためには多くの時間や費用を要する。
As described above, the conventional
また、車両周辺の状態を示す画像は、理論モデル(例えば車両速度や明るさ等の複数のパラメータに基づく机上の計算式)をもとに作成することも考えられるが、理論モデルにより作成された画像は、現実の環境と乖離することもある。その結果、車両シミュレーションの結果が、現実の車両の挙動と乖離する可能性がある。 In addition, it is conceivable to create an image showing the state of the vehicle surroundings based on a theoretical model (for example, a theoretical calculation formula based on multiple parameters such as vehicle speed and brightness). The image may deviate from the real environment. As a result, the vehicle simulation results may deviate from the actual behavior of the vehicle.
そこで第1実施例では、車両周辺の現実の状態を示す環境データ(言い換えれば現実環境のデータ)と、画像解析結果とに基づいて、数量化分析を用いた統計処理により数理モデル(以下「センサモデル」とも呼ぶ。)を生成する。そして、センサモデルを使用して、車両の挙動をシミュレーションする。これにより、車両周辺の状態を検知するシミュレーションに、各ケースの画像を作成することが不要になり、シミュレーションのコストを低減でき、また、現実に即した車両挙動をシミュレーションすることができる。 Therefore, in the first embodiment, a mathematical model (hereinafter referred to as "sensor (also called "model"). The sensor model is then used to simulate vehicle behavior. This eliminates the need to create an image for each case in the simulation for detecting the state around the vehicle, reducing the cost of the simulation, and simulating realistic vehicle behavior.
まず、第1実施例のセンサモデルを説明する。第1実施例のセンサモデルは、車両のシミュレーションシステムにおいて、画像に基づく検知結果(すなわち画像解析部16および後述の画像解析部28による検知結果)に関して推定するためのモデルである。図2は、第1実施例におけるセンサモデル構築のためのサンプルデータの例を示す。同図は、歩行者の識別に関するセンサモデルを構築するためのサンプルデータを示している。各サンプルは、歩行者の識別精度に影響を与える2つの要因として、車両から歩行者までの距離と天気とを含む。
First, the sensor model of the first embodiment will be explained. The sensor model of the first embodiment is a model for estimating a detection result based on an image (that is, a detection result by the
要因「距離」は、車両から歩行者までの複数段階の距離(真値)に対応する10個のカテゴリを含む。例えば、あるカテゴリは、0.1メートルから2メートルの範囲となり、また、別のカテゴリは、2メートルから4メートルの範囲となる。要因「天気」は、晴れ、曇り、雨の3個のカテゴリを含む。各サンプルは、該当するカテゴリの値を「1」とし、非該当のカテゴリの値を「0」とする。これにより、定量的なデータだけでなく、定性的なデータ(言い換えれば質に関するデータ)も数量として扱うことができる。なお、要因は説明変数とも呼ばれる。また、要因の各カテゴリはダミー変数とも呼ばれる。 The factor "distance" includes 10 categories corresponding to multiple steps of distance (true value) from the vehicle to the pedestrian. For example, one category may range from 0.1 meters to 2 meters, and another category may range from 2 meters to 4 meters. The factor "weather" includes three categories: sunny, cloudy, and rainy. For each sample, the value of the applicable category is "1" and the value of the non-applicable category is "0". This makes it possible to treat not only quantitative data but also qualitative data (in other words, quality-related data) as quantities. Factors are also called explanatory variables. Each category of factor is also called a dummy variable.
また、各サンプルは、画像解析の精度を示すデータとして、車両から歩行者までの距離の真値と、画像解析により検知された車両から歩行者までの距離との差(「検知距離誤差」とも呼ぶ。)を含む。実施例のセンサモデルは、車両から検知対象物(歩行者等)までの複数段階の距離に対応する複数個のダミー変数を含む。具体的には、距離の10カテゴリと天気の3カテゴリの合計13項目をダミー変数とし、検出距離誤差を目的変数として重回帰分析を行うことにより、各要因の各カテゴリが検出距離誤差に与える影響の大きさを示すセンサモデルを生成する。 In addition, as data indicating the accuracy of image analysis, each sample is the difference between the true value of the distance from the vehicle to the pedestrian and the distance from the vehicle to the pedestrian detected by image analysis (also known as "detection distance error"). call). The sensor model of the example includes a plurality of dummy variables corresponding to a plurality of steps of distances from the vehicle to the detection target (pedestrian, etc.). Specifically, a total of 13 items, 10 categories of distance and 3 categories of weather, are used as dummy variables, and multiple regression analysis is performed with the detection distance error as the objective variable, to determine the effect of each category of each factor on the detection distance error. Generate a sensor model that indicates the magnitude of
要因の数をm、各要因のカテゴリ数をn1、・・・nm、サンプル数をNとして一般化すると、センサモデルは式1で表すことができる。
図3は、第1実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第1実施例のセンサモデル生成装置20は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、画像解析部28、真値導出部30、誤差導出部32、真値量子化部34、タグ量子化部36、モデル生成部38を備える。
FIG. 3 is a block diagram showing functional blocks of the sensor
図3に示す複数の機能ブロックの機能を実装した複数のモジュールを含むコンピュータプログラムが、センサモデル生成装置20のストレージに記憶されてもよい。センサモデル生成装置20のCPUは、このコンピュータプログラムをメインメモリに読み出して実行することにより、図3に示す各機能ブロックの機能を発揮してもよい。また、図3に示す複数の機能は、複数個の装置に分散されてもよく、それら複数個の装置がシステムとして連携することで実現されてもよい。他の実施例においても同様である。
A computer program including a plurality of modules implementing the functions of the plurality of functional blocks shown in FIG. 3 may be stored in the storage of the sensor
センサデータ記憶部22、参照データ記憶部24には、現実の車両を用いた試験等において収集されたデータを記憶する。センサデータ記憶部22は、検知の対象物について各種車載センサによる検知結果を記憶する。実施例では、センサデータ記憶部22は、車載カメラにより撮像された複数の画像データを記憶し、例えば、3メートル先に歩行者がいる状態を映した画像データ、6メートル先に歩行者がいる状態を映した画像データ、・・・等を記憶する。
The sensor
参照データ記憶部24は、検知の対象物に関する真値を記憶する。実施例では、参照データ記憶部24は、LIDAR(Light Detection and Ranging)による検知結果であり、車両と対象物との距離の真値を示すデータを記憶する。タグデータ記憶部26は、タグデータとして、ユーザ(開発者や試験者等)により設定されたデータを記憶する。例えば、タグデータ記憶部26は、車両を用いた試験等がなされた日の天気を示すタグデータを記憶する。タグデータは、路面の種類(例えばアスファルトまたは土)や温度、季節等、様々なデータを含んでもよい。
The reference
なお、センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24に格納されるデータであって、同じ試験で収集または入力されたデータは、互いに対応付けられ1組のサンプルデータとなる。センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24には、複数の組のサンプルデータ(例えば図2で示したように1万組のサンプルデータ)が格納される。
The data stored in the sensor
画像解析部28は、図1の画像解析部16に対応し、また、上記概要に記載の第1導出部に対応する。すなわち、画像解析部28は、センサデータ記憶部22に記憶された画像データをもとに、車両の自動走行を制御するための車両周辺の状態を検知する。具体的には、画像解析部28は、センサデータ記憶部22に記憶された複数のサンプルの画像データをもとに、複数のサンプルにおける車両と歩行者との距離を検知する。画像をもとに車両と歩行者との距離を導出する方法は公知技術を採用してよい。
The
真値導出部30は、上記概要に記載の第2導出部に対応する。真値導出部30は、参照データ記憶部24に記憶されたLIDAR検知結果をもとに、車両周辺の状態を検知する。具体的には、真値導出部30は、参照データ記憶部24に記憶された複数のサンプルのLIDAR検知結果をもとに、複数のサンプルにおける車両と歩行者との距離を検知する。ここで、画像を用いた距離検知よりLIDARを用いた距離検知の方が精度が高く、実質的に、LIDARによる距離検知の結果は、車両と歩行者との距離の真値を示す。すなわち、真値導出部30は、車両と歩行者との距離の真値を検知するとも言える。
The true
誤差導出部32は、サンプルごとに、真値導出部30による検知結果(実施例では車両と歩行者との距離の真値)と、画像解析部28による検知結果(実施例では車両と歩行者との検知距離)との差である検知距離誤差を算出する。
For each sample, the
真値量子化部34は、サンプルごとに、真値導出部30による検知結果(実施例では車両と歩行者との距離の真値)を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部34は、図2で示したように、真値導出部30により検知された車両と歩行者との距離の真値を、10個のカテゴリのうち該当するカテゴリに分類してもよい。
For each sample, the true
タグ量子化部36は、サンプルごとに、タグデータ記憶部26に記憶されたタグデータを、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部36は、図2で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類してもよい。
The
モデル生成部38は、上記概要に記載の生成部に対応する。モデル生成部38は、誤差導出部32により算出された誤差と、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとの組み合わせをサンプルごとに作成する。モデル生成部38は、誤差導出部32により算出された誤差を目的変数とし、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとをダミー変数として統計処理(実施例では重回帰分析)を実行することにより、複数のカテゴリにかかる複数のカテゴリ係数を導出する。モデル生成部38は、カテゴリ係数を設定した回帰式(上記の式1)をセンサモデルとして生成し、センサモデルのデータをモデル記憶部40に格納する。
The
次に、センサモデル生成装置20により生成されたセンサモデルを使用する車両シミュレーションシステムを説明する。図4は、第1実施例の車両シミュレーションシステム110の機能ブロックを示すブロック図である。実施例の車両シミュレーションシステム110は、シミュレーション制御部10、ユーザインタフェース12、環境データ生成部14、車両モデル部18、センサモデル部50を備える。
Next, a vehicle simulation system using the sensor model generated by the sensor
図4に示す複数の機能ブロックの機能を実装した複数のモジュールを含むコンピュータプログラムが、車両シミュレーションシステム110のストレージに記憶されてもよい。車両シミュレーションシステム110のCPU(またはシステム内の装置のCPU)は、このコンピュータプログラムをメインメモリに読み出して実行することにより、図4に示す各機能ブロックの機能を発揮してもよい。また、図4に示す複数の機能は、複数個の装置に分散されてもよく、それら複数個の装置がシステムとして連携することで実現されてもよい。さらにまた、図4に示す複数の機能は、単一の装置に集約されてもよい。他の実施例においても同様である。
A computer program including modules implementing the functions of the functional blocks shown in FIG. 4 may be stored in the storage of
第1実施例の車両シミュレーションシステム110の機能ブロックのうち、図1に示した従来の車両シミュレーションシステム100の機能ブロックと同一または対応する機能ブロックには同一の符号を付している。以下、図1に関連して説明済みの内容は再度の説明を適宜省略する。
Among the functional blocks of the
環境データ生成部14は、ユーザインタフェース12で受け付けられたパラメータ、または、ファイル等の外部ソースから入力されたパラメータに応じて、シミュレーションの前提となる環境データを生成する。環境データは、センサモデルの説明変数の値を含む。第1実施例の環境データは、真値データとして車両から歩行者までの距離を含み、タグデータとして天気を示す値を含む。
The environment
センサモデル部50は、上記概要に記載の推定部に対応し、従来の車両シミュレーションシステム100における画像解析部16の代替となる機能を提供する。センサモデル部50は、車両シミュレーションのパラメータとしての車両周辺の状態の真値(実施例では車両から歩行者までの距離)をセンサモデルに入力することにより、画像解析部16が上記状態を示す画像を解析した場合の検知結果を推定する推定部として機能する。
The
車両モデル部18は、上記概要に記載のシミュレーション部に対応する。車両モデル部18は、センサモデル部50による推定結果をもとに車両の挙動を決定し、すなわち、車両の自動走行をシミュレーションする。例えば、センサモデル部50により自車の進行方向の6.2メートル先に歩行者がいるという結果が得られた場合、車両モデル部18は、ブレーキを作動させること、その結果、歩行者の1メートル手前で停車することを出力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を表示装置に表示させてもよく、または、記憶装置に格納してもよい。
The
図5は、第1実施例のセンサモデル部50の詳細を示すブロック図である。第1実施例のセンサモデル部50は、タグ量子化部52、真値量子化部54、誤差導出部56、模擬値導出部58、モデル記憶部40を含む。モデル記憶部40は、上記概要に記載の記憶部に対応する。モデル記憶部40は、センサモデル生成装置20により生成されたセンサモデルを記憶する。
FIG. 5 is a block diagram showing details of the
タグ量子化部52は、環境データ生成部14により生成されたタグデータを、シミュレーション制御部10を介して受け付け、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部52は、図2で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類してもよい。
The
真値量子化部54は、環境データ生成部14により生成された真値データを、シミュレーション制御部10を介して受け付け、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部54は、図2で示したように、車両から歩行者への距離の真値を、10個のカテゴリのうち該当するカテゴリに分類してもよい。
The true
誤差導出部56は、環境データ生成部14により生成された真値データおよびタグデータと、モデル記憶部40に記憶されたセンサモデル(例えば上記の式1)とにしたがって、検知距離誤差を導出する。実施例では、誤差導出部56は、センサモデルのダミー変数のうち、タグ量子化部52および真値量子化部54により選択されたカテゴリに対応するダミー変数の値を1(非選択のカテゴリに対応するダミー変数値は0)に設定することにより、センサモデルの目的変数である検知距離誤差を算出する。
The
模擬値導出部58は、誤差導出部56により導出された検知距離誤差を、環境データ生成部14により生成された真値データに足すことにより、画像解析部16(画像解析部28)による検知結果をシミュレーションする。例えば、模擬値導出部58は、現実の車両の6メートル先に歩行者がいる場合に画像解析部16が検知するであろう歩行者までの距離(誤差を含む値であり、例えば6.2メートル)を導出する。模擬値導出部58により導出された値(例えば歩行者までの距離)は、シミュレーション制御部10を介して車両モデル部18へ入力され、車両の挙動がシミュレーションされる。
The simulated
以上の構成による動作を説明する。
まず、図3を参照しつつ、第1実施例のセンサモデル生成装置20に関する動作を説明する。車両シミュレーションシステムを顧客やパートナー企業に提供すべき車載機器の開発者は、実際に車両を走行させて、車載カメラで車外の歩行者を撮像し、複数サンプルの撮像画像をセンサデータ記憶部22に記憶させる。それとともに開発者は、LIDAR装置で上記歩行者までの距離を計測させ、複数サンプルの距離の真値を示す計測結果を参照データ記憶部24に記憶させる。さらにまた、開発者は、天気等の定性的な内容を示す複数サンプルのタグデータをタグデータ記憶部26に記憶させる。
The operation of the above configuration will be described.
First, the operation of the sensor
画像解析部28は、サンプルごとに、センサデータ記憶部22に格納された画像から歩行者までの距離を検知する。真値導出部30は、サンプルごとに、参照データ記憶部24に格納された計測結果から歩行者までの距離の真値を検知する。誤差導出部32は、サンプルごとに、画像に基づく検知距離と真値との差である検知距離誤差を導出する。真値量子化部34は、歩行者までの距離の真値のカテゴリを特定し、タグ量子化部36は、タグデータのカテゴリを特定する。
The
モデル生成部38は、歩行者までの距離の真値のカテゴリと、タグデータのカテゴリとをダミー変数とし、検知距離誤差を目的変数として、複数のサンプルによる重回帰分析を実行することで、センサモデルを生成する。モデル生成部38は、生成したセンサモデルをモデル記憶部40に格納する。
The
第1実施例のセンサモデル生成装置20によると、車両の挙動をシミュレーションする際に画像解析による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションに要する時間および費用を低減できる。また、車両周辺の実際の状態を示すデータを用いてセンサモデルを生成することで、現実に即した結果を出力するセンサモデルを生成できる。
According to the sensor
次に、図4および図5を参照しつつ、第1実施例の車両シミュレーションシステム110に関する動作を説明する。ここでは、車両の近傍に歩行者が存在する場合の車両の挙動をシミュレーションすることとする。ユーザは、車両から歩行者までの距離と、天気とをシミュレーションのパラメータとして車両シミュレーションシステム110のユーザインタフェース12へ入力する。環境データ生成部14は、ユーザインタフェース12で受け付けられた車両から歩行者までの距離を示す真値データを生成し、また、ユーザインタフェース12で受け付けられた天気を示すタグデータを生成する。
Next, the operation of the
タグ量子化部52は、タグデータ(例えば図2の天気)のカテゴリを特定し、真値量子化部54は、真値データ(例えば図2の距離)のカテゴリを特定する。誤差導出部56は、モデル記憶部40に記憶されたセンサモデルの説明変数のカテゴリを示すダミー変数のうち、タグ量子化部52および真値量子化部54により特定されたカテゴリ(ダミー変数)の値を「1」とすることにより、目的変数である検知距離誤差を得る。模擬値導出部58は、車両から歩行者までの距離(真値)に検知距離誤差を足すことにより、画像解析部28により検知される車両から歩行者までの距離(誤差を含む)を推定する。
The
車両モデル部18は、模擬値導出部58により導出された車両から歩行者までの距離(誤差を含む)に基づいて、車両の挙動を決定する。シミュレーション制御部10は、車両モデル部18による決定内容をシミュレーション結果として、所定の出力装置に出力し、または、所定の記憶装置に記憶させる。
The
第1実施例の車両シミュレーションシステム110によると、車両の挙動をシミュレーションする際に画像解析による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意し、各ケースの画像を解析することが不要になり、シミュレーションに要する時間および費用を低減できる。また、シミュレーションの網羅性を高めやすくなる。さらにまた、車両周辺の実際の状態を用いて生成したセンサモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。
According to the
以上、本開示を第1実施例をもとに説明した。第1実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。以下変形例を示す。 The present disclosure has been described above based on the first embodiment. It should be understood by those skilled in the art that the first embodiment is an example, and that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure. Modifications are shown below.
第1変形例を説明する。車両シミュレーションシステム110のセンサモデル部50は、複数個のダミー変数に係る複数個の係数から、曲線フィッティングにより対象物(例えば歩行者)までの距離の真値に応じた係数をセンサモデルに適用する。
A first modified example will be described. The
図6は、曲線フィッティングの例を示す。ここでは、センサモデルが、少なくとも58個のカテゴリ(説明変数)を含むこととする。例えば、車両と歩行者との距離を10センチ刻みでカテゴリとしてもよい。カテゴリ係数グラフ60は、センサモデルにおける58個のカテゴリ(説明変数)それぞれの係数(カテゴリ係数)を示す折れ線グラフである。センサモデル部50の誤差導出部56は、複数個のカテゴリ係数に対して曲線フィッティングを行うことにより近似曲線62(二次多項式近似曲線とも言える)を導出する。
FIG. 6 shows an example of curve fitting. Here, it is assumed that the sensor model includes at least 58 categories (explanatory variables). For example, the distance between the vehicle and the pedestrian may be set as a category in increments of 10 centimeters. The
誤差導出部56は、車両から歩行者までの距離の真値に対応するカテゴリ係数を近似曲線62から取得する。例えば、距離が10センチ刻みの場合、距離の真値が3.2メートルであれば、誤差導出部56は、カテゴリ番号「32」における近似曲線62の値(例えば「0」)をカテゴリ係数として取得してもよい。誤差導出部56は、近似曲線62から取得したカテゴリ係数をダミー変数(図2の例ではダミー変数の値は「1」)の重みとして適用し、目的変数の値(例えば検知距離誤差)を導出してもよい。また、距離真値を連続量として横軸の座標に変換し、近似曲線式に代入し算出した値を上記距離真値に対応する係数として適用してもよい。これらの変形例によると、曲線フィッティングにより、入力された説明変数に対する適切な重み付けを実現できる。
The
第2変形例を説明する。車両シミュレーションシステム110のユーザインタフェース12は、乱数に関するデータの指定をユーザから受け付ける受付部として機能してもよい。センサモデル部50の模擬値導出部58は、ユーザから指定された乱数に関するデータをもとに、センサモデルを用いた推定値にホワイトノイズを足してもよい。
A second modification will be described. The
例えば、ユーザは、乱数に関するデータとして、擬似乱数列を生成するためのシードをユーザインタフェース12へ入力してもよい。模擬値導出部58は、ユーザから入力されたシードをもとに擬似乱数列を生成して、その擬似乱数列をもとにホワイトノイズのデータを生成し、車両と歩行者との距離の推定値にホワイトノイズを足してもよい。実環境のデータにはホワイトノイズの成分が含まれるため、本変形例によると、ホワイトノイズを加味して、より現実に即した推定結果を求めることができる。
For example, the user may input a seed for generating a pseudo-random number sequence into the
第3変形例を説明する。上記実施例では、車両と歩行者との距離をセンサモデルにより推定したが、実施例に記載の技術は、車両周辺の状態に関する様々なものをモデルにより推定する場合に適用可能である。第3変形例では、駐車枠(駐車区画とも言える)の位置をセンサモデルにより推定する例を示す。 A third modification will be described. Although the distance between the vehicle and the pedestrian is estimated by the sensor model in the above embodiment, the technique described in the embodiment can be applied to the case of estimating various conditions around the vehicle by the model. The third modified example shows an example of estimating the position of a parking frame (which can also be called a parking space) using a sensor model.
図7は、変形例における車両周辺の状態を示す。本変形例では、駐車枠76をその4隅(FL、FR、BL、BR)のXY座標と、駐車枠76の方向(車両の進行方向に対する駐車枠76の角度であり、図7のθ)で表す。本変形例では、画像解析部により検知された駐車枠76の4隅それぞれの座標は、上記4隅(FL、FR、BL、BR)のカメラ72からの距離(例えば、前方右側のポイントFRの場合、RangeR)、カメラ72の光軸74との角度(例えば、前方右側のポイントFRの場合、βR)、および駐車枠76の方向(θ)の影響を受ける。本変形例のセンサモデル生成装置20は、カメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向のそれぞれをカテゴライズする。
FIG. 7 shows the state around the vehicle in the modified example. In this modification, the XY coordinates of the four corners (FL, FR, BL, BR) of the
具体的には、センサモデル生成装置20の画像解析部28は、車両の周辺が映る画像データから、車両周辺の状態として、駐車枠の位置(座標等)を検知する。真値導出部30は、LIDAR装置の検知結果に基づき、駐車枠の位置(座標等)の真値を検知する。モデル生成部38は、真値導出部30により検知された駐車枠76の座標(FRの座標とする)と、画像解析部28により検知された駐車枠76の座標(FRの座標とする)との差を目的変数として識別する。
Specifically, the
また、モデル生成部38は、カメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向θの、カメラの光軸74との角度を説明変数として扱う。これらのデータは、実施例と同様に、実際の車両を用いた試験により収集され、複数のサンプルが作成される。モデル生成部38は、複数のサンプルに基づく重回帰分析を実行して、各カテゴリ(ダミー変数)の係数を求める。なお、実際には、駐車枠76の4隅の座標のそれぞれに対応するセンサモデルが生成されてもよい。
The
車両シミュレーションシステム110のシミュレーション制御部10は、シミュレーションのパラメータとして、4隅(FL、FR、BL、BR)の座標と駐車枠方向をユーザ等から受け付け(座標系は車両座標系でもよく、センサ座標系でもよい)、それらのパラメータをセンサモデル部50へ入力する。センサモデル部50は、シミュレーションのパラメータをセンサモデルへ入力することにより、画像解析部28による検知結果を推定し、すなわち、駐車枠76の座標を推定する。具体的には、センサモデル部50は、まず、入力された上記4隅(FL、FR、BL、BR)の座標と駐車枠方向を、説明変数であるカメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向に変換する。次に、センサモデル部50は、得られた説明変数の値に基づきカテゴリを求め、それに対応する係数を適用する。車両モデル部18は、センサモデル部50により推定された駐車枠76の座標に基づいて、車両の自動走行(例えば駐車枠76への自動入庫)をシミュレーションする。
The
<第2実施例>
車両に関するシミュレーションでは、車両の移動量(以下「オドメトリ」とも呼ぶ。)に基づくシミュレーションが行われることがある。オドメトリの理論モデルに基づく計算量は多くはない。しかし、環境要因のために、オドメトリのモデル化は容易でなく、また、モデルの出力値と真値との差(すなわち誤差)が大きくなりやすい。環境要因は、例えば、天候や路面材質、車両重量等に依存するタイヤと路面との滑り具合等が含まれる。
<Second embodiment>
Vehicle-related simulations may be performed based on the amount of movement of the vehicle (hereinafter also referred to as "odometry"). The amount of computation based on the theoretical model of odometry is not large. However, due to environmental factors, odometry modeling is not easy, and the difference (that is, error) between the model output value and the true value tends to increase. The environmental factors include, for example, the degree of slippage between the tires and the road surface, which depends on the weather, road surface material, vehicle weight, and the like.
そこで、第2実施例のセンサモデル生成装置は、車両または車両周辺の現実の状態を示す環境データと、車両の移動量に関するデータとに基づいて、数量化分析を用いた統計処理によりセンサモデルを生成する。そして、第2実施例の車両シミュレーションシステムは、そのセンサモデルを活用することにより精度の高いシミュレーションを実現する。第2実施例のセンサモデル生成装置および車両シミュレーションシステムの構成要素のうち、第1実施例で説明した部材と同一または対応するものには同じ符号を付す。また、第1実施例と重複する内容は再度の説明を適宜省略する。 Therefore, the sensor model generation device of the second embodiment generates a sensor model by statistical processing using quantification analysis based on environmental data indicating the actual state of the vehicle or its surroundings and data on the amount of movement of the vehicle. Generate. The vehicle simulation system of the second embodiment realizes highly accurate simulation by utilizing the sensor model. Among the constituent elements of the sensor model generation device and vehicle simulation system of the second embodiment, the same reference numerals are given to those that are the same as or correspond to the members described in the first embodiment. In addition, repetitive descriptions of the contents that overlap with the first embodiment will be omitted as appropriate.
まず、第2実施例のセンサモデルを説明する。第2実施例のセンサモデルは、車両のシミュレーションシステムにおいて、車両の移動量に関する推定を行うためのモデルである。具体的には、第2実施例のセンサモデルは、後述の移動量導出部120により検知された移動量の成分を説明変数とし、かつ、後述の真値導出部30により検知された移動量の成分の真値と、移動量導出部120により検知された移動量の成分値との差を目的変数とするモデルである。移動量の成分は、横移動量、縦移動量、旋回角の3つを含む。
First, the sensor model of the second embodiment will be explained. The sensor model of the second embodiment is a model for estimating the movement amount of a vehicle in a vehicle simulation system. Specifically, the sensor model of the second embodiment uses the component of the movement amount detected by the movement
図8は、第2実施例におけるセンサモデル構築のためのサンプルデータの例を示し、すなわち、車両の移動量に関するセンサモデルを構築するためのサンプルデータを示している。図8では、サンプルデータの要因(すなわちセンサモデルの説明変数)のうち一部を示している。第2実施例におけるセンサモデルの説明変数は、(1)横移動量、(2)縦移動量、(3)旋回角、(4)天気、(5)気温、(6)車両重量、(7)タイヤ種別、(8)路面種別を含む。 FIG. 8 shows an example of sample data for constructing a sensor model in the second embodiment, that is, sample data for constructing a sensor model relating to the amount of movement of the vehicle. FIG. 8 shows some of the factors of the sample data (that is, explanatory variables of the sensor model). The explanatory variables of the sensor model in the second embodiment are (1) lateral movement amount, (2) vertical movement amount, (3) turning angle, (4) weather, (5) temperature, (6) vehicle weight, (7) ) tire type, and (8) road surface type.
横移動量は、予め定められた単位時間当りに車両が横方向(すなわち進行方向に対して垂直方向)へ移動した量であり、言い換えれば、横方向への移動速度である。縦移動量は、予め定められた単位時間当りに車両が縦方向(すなわち進行方向)へ移動した量であり、言い換えれば、縦方向への移動速度である。横移動量と縦移動量は、例えば、時速10キロメートル単位でカテゴリ分けされてよいが、低速度ではより小さい単位でカテゴリ分けされることが望ましい。例えば、時速15キロメートル未満は、時速5キロメートル単位でカテゴリ分けされてもよい。旋回角は、予め定められた単位時間当りに車両が旋回した角度であり、言い換えれば、角速度である。旋回角は、例えば、0.5度単位でカテゴリ分けされてもよい。 The amount of lateral movement is the amount by which the vehicle moves in the lateral direction (that is, in the direction perpendicular to the direction of travel) per predetermined unit time, in other words, it is the speed of movement in the lateral direction. The vertical movement amount is the amount of movement of the vehicle in the vertical direction (that is, the direction of travel) per predetermined unit time, in other words, the speed of movement in the vertical direction. The amount of lateral movement and the amount of longitudinal movement may be categorized in units of, for example, 10 kilometers per hour, but preferably in smaller units at lower speeds. For example, speeds less than 15 kilometers per hour may be categorized by 5 kilometers per hour. The turning angle is the angle by which the vehicle turns per predetermined unit time, in other words, the angular velocity. Turn angles may be categorized in 0.5 degree increments, for example.
天気は、車両走行時の天気であり、第1実施例と同様に、晴れ、曇り、雨を含む。気温は、車両走行時の気温であり、例えば、2℃単位でカテゴリ分けされてもよい。車両重量は、例えば、数10キログラム(例えば大人または子供1人の平均体重)単位でカテゴリ分けされてもよい。タイヤ種別は、車両に装着されたタイヤの種別であり、例えば、夏用タイヤまたは冬用タイヤでカテゴリ分けされてもよい。路面種別は、車両が走行する路面の種別であり、例えば、アスファルト、土、坂道等でカテゴリ分けされてもよい。既述したように、要因の各カテゴリはダミー変数とも呼ばれる。 The weather is the weather when the vehicle is running, and includes sunny, cloudy, and rainy, as in the first embodiment. The temperature is the temperature when the vehicle is running, and may be categorized in units of 2° C., for example. Vehicle weight may, for example, be categorized in tens of kilograms (eg, the average weight of an adult or child). The tire type is the type of tire mounted on the vehicle, and may be categorized by summer tire or winter tire, for example. The road surface type is the type of road surface on which the vehicle travels, and may be categorized by, for example, asphalt, dirt, slope, and the like. As already mentioned, each category of factor is also called a dummy variable.
また、各サンプルは、移動量検知の精度を示すデータとして、車両の移動量の真値と、センサデータをもとに検知された車両の移動量との差(以下「移動量誤差」とも呼ぶ。)を含む。第2実施例では、車両の移動量の真値は、GPS(Global Positioning System)等のGNSS(Global Navigation Satellite System、全球測位衛星システム)を用いた測位処理により求められる。 In addition, as data indicating the accuracy of movement amount detection, each sample is the difference between the true value of the movement amount of the vehicle and the movement amount of the vehicle detected based on the sensor data (hereinafter also referred to as "movement amount error"). .)including. In the second embodiment, the true value of the movement amount of the vehicle is obtained by positioning processing using a GNSS (Global Navigation Satellite System) such as a GPS (Global Positioning System).
各要因の各カテゴリをダミー変数(説明変数)とし、移動量誤差を目的変数として重回帰分析を行うことにより、各要因の各カテゴリが移動量誤差に与える影響の大きさ(以下「カテゴリ係数」と呼ぶ。)を示すセンサモデルを生成できる。要因の数をm、各要因のカテゴリ数をn1、・・・nm、サンプル数をNとして一般化すると、第2実施例のセンサモデルも、第1実施例と同様に、上記の式1で表すことができる。既述したように、aijはi番目の要因のj番目のカテゴリを表すダミー変数(Xijk)にかかるカテゴリ係数である。 By performing multiple regression analysis with each category of each factor as a dummy variable (explanatory variable) and the movement distance error as the objective variable, the magnitude of the influence of each category of each factor on the movement distance error (hereinafter referred to as "category coefficient") ) can be generated. If the number of factors is m, the number of categories of each factor is n 1 , . It can be represented by 1. As already mentioned, a ij is the category coefficient on the dummy variable (X ijk ) representing the jth category of the ith factor.
図9は、第2実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第2実施例のセンサモデル生成装置20は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、移動量導出部120、真値導出部30、誤差導出部32、移動量量子化部121、タグ量子化部36、モデル生成部38を備える。
FIG. 9 is a block diagram showing functional blocks of the sensor
センサデータ記憶部22は、速度センサや操舵角センサ等の各種車載センサからの出力結果を示すサンプルデータであり、言い換えれば、現実の車両の状態を検知した結果を示すサンプルデータを記憶する。実施例では、センサデータ記憶部22は、サンプルごとに、少なくとも車両の速度と操舵角(転舵角でもよい)を記憶する。
The sensor
参照データ記憶部24は、現実の車両の状態の真値を記憶する。実施例では、参照データ記憶部24は、サンプルごとに、GPS装置により特定された車両の現在位置を時系列に並べたデータ、言い換えれば、時系列での車両位置の推移を示すデータを記憶する。
The reference
タグデータ記憶部26は、センサ以外の手段で取得された現実の車両の状態に関するデータであるタグデータを記憶する。タグデータ記憶部26は、ユーザ(開発者や試験者等)により設定されたタグデータを記憶する。タグデータは、例えば、車両を用いた試験等(すなわちサンプルデータの収集)がなされた際の天気、気温、車両重量、タイヤ種別、路面種別を含んでもよい。
The tag
なお、センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24に格納されるデータであって、同じ試験で収集または入力されたデータは、互いに対応付けられ1組のサンプルデータとなる。センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24には、複数の組のサンプルデータ(例えば図8で示したように1万組のサンプルデータ)が格納される。
The data stored in the sensor
移動量導出部120は、上記概要に記載の第1導出部に対応する。移動量導出部120は、センサデータ記憶部22に記憶されたセンサの出力結果を示すサンプルデータをもとに、サンプルごとに、車両の自動走行に関する属性の状態として、車両の移動量の成分を検知する。具体的には、移動量導出部120は、各サンプルが示す速度と操舵角とに基づいて、各サンプルの横移動量、縦移動量、旋回角(いずれも所定の単位時間当りの値)を導出する。この導出方法には、公知技術を採用してよい。
The movement
真値導出部30は、上記概要に記載の第2導出部に対応する。真値導出部30は、参照データ記憶部24に記憶された各サンプルが示す車両の時系列での位置の推移に基づいて、サンプルごとに、車両の移動量の成分を検知する。具体的には、真値導出部30は、各サンプルの横移動量、縦移動量、旋回角(いずれも所定の単位時間当りの値)を導出する。この導出方法にも、公知技術を採用してよい。
The true
なお、真値導出部30は、実際の車両位置の変化に基づいて車両の移動量の成分を導出する。そのため、真値導出部30により導出される車両の移動量の成分値は、移動量導出部120により導出される車両の移動量の成分値より精度が高い。第2実施例では、真値導出部30により導出された車両の移動量の成分値を真値として取り扱う。なお、真値導出部30により導出される車両の移動量の成分値は、厳密には真値と異なってもよいが、真値と同一と見なせる範囲内(予め定められた閾値内)の値であることが望ましい。
Note that the true
誤差導出部32は、サンプルごと、かつ、移動量の成分の種類ごとに、真値導出部30による検知結果と、移動量導出部120による検知結果との差を導出する。すなわち、誤差導出部32は、サンプルごとに、横移動量の誤差、縦移動量の誤差、および旋回角の誤差(以下総称する場合「移動量誤差」とも呼ぶ。)を導出する。例えば、図8は、目的変数を横移動量誤差とする例を示すが、誤差導出部32は、図8に示すようなサンプルデータを、目的変数を横移動量誤差とするもの、目的変数を縦移動量誤差とするもの、目的変数を旋回角誤差とするものの3パターン生成する。
The
移動量量子化部121は、サンプルごとに、移動量導出部120による検知結果を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、移動量量子化部121は、移動量導出部120により検知された横移動量、縦移動量、旋回角のそれぞれについて、予め定められた複数のカテゴリのいずれかに分類する。第2実施例では、図8で示したように、該当するカテゴリの値を「1」に設定する。
The movement
タグ量子化部36は、サンプルごとに、タグデータ記憶部26に記憶されたタグデータを、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部36は、図8で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類し、該当するカテゴリの値を「1」に設定する。
The
モデル生成部38は、上記概要に記載の生成部に対応する。モデル生成部38は、真値導出部30による検知結果を推定するためのセンサモデルであり、すなわち、車両の移動量の真値に関して推定するためのセンサモデルを生成する。モデル生成部38は、移動量導出部120により導出された車両の移動量の成分を説明変数とし、かつ、真値導出部30により導出された車両の移動量の成分値(すなわち真値)と、移動量導出部120により導出された車両の移動量の成分値との差を目的変数とするセンサモデルを生成する。
The
具体的には、図8に例示したように、モデル生成部38は、誤差導出部32により導出された誤差と、移動量量子化部121により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとの組合せを、サンプルごと、かつ、移動量の成分ごとに作成する。モデル生成部38は、誤差導出部32により算出された誤差を目的変数とし、移動量量子化部121により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとをダミー変数(値は「1」)として統計処理(実施例では重回帰分析)を実行することにより、複数のカテゴリにかかる複数のカテゴリ係数を導出する。
Specifically, as illustrated in FIG. 8, the
モデル生成部38は、移動量の成分のそれぞれについて、カテゴリ係数を設定した回帰式(上記の式1)をセンサモデルとして生成し、センサモデルのデータをモデル記憶部40に格納する。すなわち、モデル生成部38は、横移動量の誤差を目的変数とするセンサモデル、縦移動量の誤差を目的変数とするセンサモデル、および旋回角の誤差を目的変数とするセンサモデルを生成してモデル記憶部40に格納する。
The
次に、センサモデル生成装置20により生成されたセンサモデルを使用する車両シミュレーションシステムを説明する。第2実施例の車両シミュレーションシステム110の基本的な機能ブロックは、図4に示す第1実施例の車両シミュレーションシステム110の機能ブロックと同様である。
Next, a vehicle simulation system using the sensor model generated by the sensor
環境データ生成部14は、センサモデルの説明変数の値を含む環境データを生成する。第2実施例の環境データは、車両シミュレーションのパラメータとしての、車載センサからの出力結果に基づく車両の移動量の想定値(単位時間当りの横移動量、縦移動量、旋回角)を含む。この想定値は、移動量導出部120により検知される移動量の成分の想定値とも言える。また、第2実施例の環境データは、車両シミュレーションのパラメータとしてのタグデータ、例えば、天気、気温、車両重量等をさらに含む。
The
センサモデル部50は、上記概要に記載の推定部に対応する。センサモデル部50は、
移動量導出部120により検知される車両の移動量成分をセンサモデルに入力することにより、車両の移動量成分の真値を推定する。
The
By inputting the movement amount component of the vehicle detected by the movement
車両モデル部18は、上記概要に記載のシミュレーション部に対応する。車両モデル部18は、センサモデル部50により推定された車両の移動量成分の真値をもとに車両シミュレーションを実行する。例えば、車両モデル部18は、車両の移動量成分の真値に基づいて、車両の次の挙動を決定してもよい。
The
シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を不図示の表示装置に表示させてもよく、または、不図示の記憶装置に格納してもよい。シミュレーションの担当者は、車両モデル部18により決定された上記次の挙動の内容を表示装置にて確認し、次の挙動が問題ないか否かを確認してもよい。
The
図10は、第2実施例のセンサモデル部50の詳細を示すブロック図である。第2実施例のセンサモデル部50は、タグ量子化部52、移動量量子化部122、誤差導出部56、補正部124、モデル記憶部40を含む。モデル記憶部40は、上記概要に記載の記憶部に対応する。モデル記憶部40は、センサモデル生成装置20により生成された車両の移動量成分ごとのセンサモデルを記憶する。
FIG. 10 is a block diagram showing details of the
移動量量子化部122は、環境データ生成部14により生成された移動量成分値を、シミュレーション制御部10を介して受け付け、成分ごとに、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、移動量量子化部122は、図8で示したように、移動量成分値のうち横移動量を、複数のカテゴリ(0~5、5~10等)のうち該当するカテゴリに分類する。
The movement
誤差導出部56は、環境データ生成部14により生成された移動量成分値およびタグデータと、モデル記憶部40に記憶されたセンサモデル(例えば上記の式1)とにしたがって、移動量誤差を導出する。具体的には、誤差導出部56は、センサモデルのダミー変数のうち、タグ量子化部52および移動量量子化部122により選択された(すなわち該当すると判断された)カテゴリに対応するダミー変数の値を1に設定することにより、センサモデルの目的変数である移動量誤差の値を算出する。なお、誤差導出部56は、横移動量の誤差に関するセンサモデル、縦移動量の誤差に関するセンサモデル、旋回角の誤差に関するセンサモデルを使用して、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを導出する。
The
補正部124は、誤差導出部56により導出された車両の移動量成分ごとの誤差を、環境データ生成部14により生成された移動量成分値に足すことにより、車両の移動量成分ごとの真値を導出する。補正部124により導出される車両の移動量成分ごとの真値は、移動量導出部120より精度が高い真値導出部30による車両の移動量の検知結果に対応するものである。補正部124により導出された値(すなわち真値としての横移動量、縦移動量、旋回角)は、シミュレーション制御部10を介して車両モデル部18へ入力され、例えば車両の挙動がシミュレーションされる。
The
以上の構成による動作を説明する。
まず、図9を参照しつつ、第2実施例のセンサモデル生成装置20に関する動作を説明する。車両シミュレーションシステムを顧客やパートナー企業に提供すべき車載機器の開発者は、実際に車両を走行させて、車載センサ(速度センサ、操舵角センサ等)から出力された複数サンプル分のセンサデータをセンサデータ記憶部22に記憶させる。各車載センサは、検知結果を示すセンサデータを車載ネットワークであるCAN(Controller Area Network)へ出力してもよく、センサデータ記憶部22は、CANを流れるセンサデータを収集し、記憶してもよい。
The operation of the above configuration will be described.
First, the operation of the sensor
それとともに開発者は、車両走行時にGPS装置により計測された複数サンプル分の位置データ(車両の位置の推移を示すデータ)を参照データ記憶部24に記憶させる。さらにまた、開発者は、天気や路面種別等の定性的な内容を含む複数サンプル分のタグデータをタグデータ記憶部26に記憶させる。
At the same time, the developer causes the reference
移動量導出部120は、サンプルごとに、センサデータ記憶部22に格納されたセンサデータをもとに車両の移動量成分(横移動量、縦移動量、旋回角)の値を導出する。真値導出部30は、サンプルごとに、参照データ記憶部24に格納された位置データから車両の移動量成分の真値を導出する。具体的には、真値導出部30は、参照データ記憶部24に格納された現フレームの位置データと、前フレームの位置データとを読み出し、その差分に応じて、車両の移動量成分の真値を算出する。誤差導出部32は、サンプルごとに、横移動量の誤差、縦移動量の誤差、旋回角の誤差を導出する。移動量量子化部121は、サンプルごとに、移動量導出部120により検知された移動量成分の値のカテゴリを特定する。タグ量子化部36は、サンプルごとに、タグデータのカテゴリを特定する。
The movement
モデル生成部38は、移動量導出部120により検知された移動量成分の値のカテゴリと、タグデータのカテゴリとをダミー変数とし、車両の移動量成分の誤差を目的変数として、複数のサンプルによる重回帰分析を実行することで、センサモデルを生成する。第2実施例では、モデル生成部38は、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを目的変数とする3種類のセンサモデルを生成する。モデル生成部38は、3種類のセンサモデルをモデル記憶部40に格納する。
The
第2実施例のセンサモデル生成装置20によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを実現できる。例えば、天気や路面種別等の定性的な内容を反映した結果を出力するセンサモデルを実現できる。また、第2実施例のセンサモデルでは、センサ検知に基づく、誤差を含み得る移動量の値から、移動量の真値に関するデータを得ることができる。
According to the sensor
次に図4および図10を参照しつつ、第2実施例の車両シミュレーションシステム110に関する動作を説明する。環境データ生成部14は、ユーザインタフェース12を介して入力されたユーザ操作に応じて、車両シミュレーションのパラメータとして、移動量成分値とタグデータを生成する。これらのパラメータの値は、ユーザ(ユーザ端末)により指定されてもよい。また、車両シミュレーションのパラメータとしての移動量成分値は、車載センサからの出力結果に基づく横移動量、縦移動量、旋回角の想定値であり、真値とは異なり得る。
Next, the operation of the
タグ量子化部52は、環境データ生成部14により生成されたタグデータ(例えば天気や路面種別等)のカテゴリを特定する。移動量量子化部122は、環境データ生成部14により生成された移動量成分値のカテゴリを特定する。
The
誤差導出部56は、モデル記憶部40に記憶された3種類のセンサモデルの説明変数のカテゴリを示すダミー変数のうち、タグ量子化部52および移動量量子化部121により特定されたカテゴリ(ダミー変数)の値を「1」に設定する。これにより、誤差導出部56は、3種類のセンサモデルの目的変数の値として、横移動量の誤差、縦移動量の誤差、旋回角の誤差を得る。補正部124は、環境データ生成部14により生成された移動量成分値に誤差を足すことにより、横移動量の真値、縦移動量の真値、旋回角の真値を推定する。
The
車両モデル部18は、補正部124により推定された横移動量の真値、縦移動量の真値、旋回角の真値に基づいて、車両シミュレーションを実行し、例えば、車両の次の挙動を決定する。シミュレーション制御部10は、車両モデル部18によるシミュレーションの結果を、所定の出力装置に出力し、または、所定の記憶装置に記憶させる。
The
第2実施例の車両シミュレーションシステム110によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを使用することにより、精度の高いシミュレーションを実現できる。例えば、車載センサからの出力結果に基づく移動量の想定値をもとに、環境要因を加味した移動量の真値を精度よく推定することができる。
According to the
以上、本開示を第2実施例をもとに説明した。第2実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the second embodiment. The second embodiment is an example, and those skilled in the art will understand that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure.
第1実施例の第1変形例に記載した曲線フィッティングは、第2実施例の変形例としても適用できる。センサモデルを使用して目的変数の値を求める推定部(第2実施例では誤差導出部56が対応する)は、複数個のダミー変数に係る各々のカテゴリ係数から、曲線フィッティングにより説明変数の連続値に対するカテゴリ係数の連続値を求めてもよい。誤差導出部56は、上記カテゴリ係数の連続値の中から車両シミュレーションにおける説明変数の値に対応するカテゴリ係数の値をセンサモデルに適用してもよい。
The curve fitting described in the first modification of the first embodiment can also be applied as a modification of the second embodiment. An estimating unit (corresponding to the
図6の例と同様に、誤差導出部56は、横移動量の複数個のカテゴリに対応する複数個のカテゴリ係数に対して曲線フィッティングを行うことにより近似曲線を導出してもよい。誤差導出部56は、縦移動量、旋回角、タグデータのうち定量的なもの(気温等)についても同様に、複数個のカテゴリ係数に応じた近似曲線を導出してもよい。誤差導出部56は、環境データ生成部14により生成された横移動量、縦移動量、旋回角、タグデータのうち定量的なものについて、それぞれの値に対応するカテゴリ係数を近似曲線から取得し、センサモデル(例えば上記の式1)に当てはめてもよい。なお、ダミー変数の値を「1」にすることは実施例と同様である。この変形例によると、曲線フィッティングにより、入力された説明変数の値に対する適切な重み付けを実現できる。
As in the example of FIG. 6, the
第1実施例の第2変形例に記載したホワイトノイズの足し込みは、第2実施例の変形例としても適用できる。すなわち、車両シミュレーションシステム110のユーザインタフェース12は、乱数に関するデータの指定をユーザから受け付ける受付部として機能してもよい。センサモデル部50の補正部124は、ユーザから指定された乱数に関するデータをもとに、センサモデルを用いた推定値(誤差の値または移動量の成分値)にホワイトノイズを足してもよい。この変形例によると、ホワイトノイズを加味して、より現実に即した推定結果を求めることができる。
The addition of white noise described in the second modification of the first embodiment can also be applied as a modification of the second embodiment. In other words, the
<第3実施例>
車両シミュレーションでは、シナリオに基づき車両の移動量の正確な値(真値)が既知の場合がある。この場合、車両の移動量の真値に基づく公知の計算によりセンサデータ(車速、操舵角等)を算出可能であるが、車両の横滑り等があると、センサデータの算出値は、実際の値とは異なるものになってしまう。
<Third embodiment>
In vehicle simulation, there are cases where the exact value (true value) of the amount of movement of the vehicle is known based on the scenario. In this case, the sensor data (vehicle speed, steering angle, etc.) can be calculated by known calculations based on the true value of the amount of movement of the vehicle. becomes something different.
第3実施例のセンサモデル生成装置も、第2実施例と同様に、車両または車両周辺の現実の状態を示す環境データと、車両の移動量に関するデータとに基づいて、数量化分析を用いた統計処理によりセンサモデルを生成する。そして、第3実施例の車両シミュレーションシステムは、そのセンサモデルを活用することにより精度の高いシミュレーションを実現する。第3実施例のセンサモデル生成装置および車両シミュレーションシステムを構成する部材のうち、第1実施例または第2実施例で説明した部材と同一または対応するものには同じ符号を付す。また、第1実施例または第2実施例と重複する内容は再度の説明を適宜省略する。 Similarly to the second embodiment, the sensor model generation device of the third embodiment also uses quantification analysis based on environmental data indicating the actual state of the vehicle or its surroundings and data on the amount of movement of the vehicle. A sensor model is generated by statistical processing. The vehicle simulation system of the third embodiment realizes highly accurate simulation by utilizing the sensor model. Among the members constituting the sensor model generation device and the vehicle simulation system of the third embodiment, those that are the same as or correspond to the members described in the first or second embodiment are denoted by the same reference numerals. In addition, re-explanation of the same content as in the first embodiment or the second embodiment will be omitted as appropriate.
まず、第3実施例のセンサモデルを説明する。第3実施例のセンサモデルは、車両のシミュレーションシステムにおいて、車両の移動量に関する推定を行うためのモデルである。具体的には、第3実施例のセンサモデルは、真値導出部30により検知された移動量の成分を説明変数とし、かつ、真値導出部30により検知された移動量の成分の真値と、移動量導出部120により検知された移動量の成分値との差を目的変数とするモデルである。第3実施例のセンサモデルも、第1実施例および第2実施例と同様に、上記の式1で表すことができる。
First, the sensor model of the third embodiment will be explained. The sensor model of the third embodiment is a model for estimating the movement amount of a vehicle in a vehicle simulation system. Specifically, in the sensor model of the third embodiment, the moving amount component detected by the true
第3実施例におけるセンサモデル構築のためのサンプルデータは、図8と同様である。ただし、第2実施例では、少なくとも(1)横移動量、(2)縦移動量、(3)旋回角は、移動量導出部120により導出されたものであり、真値と異なり得る値であった。一方、第3実施例では、少なくとも(1)横移動量、(2)縦移動量、(3)旋回角は、真値導出部30により導出されたものであり、真値(または真値と見なせる値)である。
Sample data for constructing the sensor model in the third embodiment is the same as in FIG. However, in the second embodiment, at least (1) the amount of lateral movement, (2) the amount of vertical movement, and (3) the turning angle are derived by the movement
図11は、第3実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第3実施例のセンサモデル生成装置20は、第2実施例のセンサモデル生成装置20における移動量量子化部121に代えて真値量子化部34を備える。第3実施例のセンサモデル生成装置20における機能ブロックのうち、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、移動量導出部120、真値導出部30、誤差導出部32、タグ量子化部36は、第2実施例と同様であるため説明を省略する。
FIG. 11 is a block diagram showing functional blocks of the sensor
真値量子化部34は、サンプルごとに、真値導出部30による検知結果を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部34は、真値導出部30により検知された横移動量、縦移動量、旋回角(いずれも所定の単位時間当りの真値)のそれぞれについて、予め定められた複数のカテゴリのいずれかに分類する。第3実施例では、図8で示したように、該当するカテゴリの値を「1」に設定する。
The true
モデル生成部38は、移動量導出部120による検知結果を推定するためのセンサモデルであり、言い換えれば、車載センサから出力されるセンサデータを推定するためのセンサモデルを生成する。モデル生成部38は、真値導出部30により導出された車両の移動量の成分を説明変数とし、かつ、真値導出部30により導出された車両の移動量の成分値(すなわち真値)と、移動量導出部120により導出された車両の移動量の成分値との差を目的変数とするセンサモデルを生成する。
The
具体的には、図8に例示したように、モデル生成部38は、誤差導出部32により導出された誤差と、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとの組合せを、サンプルごと、かつ、移動量の成分ごとに作成する。モデル生成部38は、誤差導出部32により算出された誤差を目的変数とし、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとをダミー変数(値は「1」)として統計処理(実施例では重回帰分析)を実行することにより、複数のカテゴリにかかる複数のカテゴリ係数を導出する。
Specifically, as illustrated in FIG. 8, the
モデル生成部38は、移動量の成分のそれぞれについて、カテゴリ係数を設定した回帰式(上記の式1)をセンサモデルとして生成し、センサモデルのデータをモデル記憶部40に格納する。すなわち、モデル生成部38は、横移動量の誤差を目的変数とするセンサモデル、縦移動量の誤差を目的変数とするセンサモデル、および旋回角の誤差を目的変数とするセンサモデルを生成してモデル記憶部40に格納する。
The
次に、センサモデル生成装置20により生成されたセンサモデルを使用する車両シミュレーションシステムを説明する。第3実施例の車両シミュレーションシステム110の基本的な機能ブロックは、図4に示す第1実施例の車両シミュレーションシステム110の機能ブロックと同様である。
Next, a vehicle simulation system using the sensor model generated by the sensor
環境データ生成部14は、センサモデルの説明変数の値を含む環境データを生成する。第3実施例の環境データは、車両シミュレーションのシナリオに基づいて予め定められた、車両シミュレーションのパラメータとしての、車両の移動量成分の真値(単位時間当りの横移動量、縦移動量、旋回角)を含む。この真値は、真値導出部30により検知される移動量の成分値に対応する。また、第3実施例の環境データは、第2実施例と同様に、車両シミュレーションのパラメータとしてのタグデータ、例えば、天気、気温、車両重量等をさらに含む。
The
センサモデル部50は、真値導出部30による検知結果に対応する値であり、すなわち、車両の移動量成分の真値をセンサモデルに入力することにより、移動量導出部120により検知される車両の移動量成分値を推定する。言い換えれば、センサモデル部50は、真値が示す移動(典型的にはシミュレーションのシナリオ通りの移動)を車両が行った場合に、車載センサ(速度センサ、操舵角センサ等)の出力結果に基づいて検知される車両の移動量(以下「センサ検知移動量」とも呼ぶ。)を推定する。センサ検知移動量は、単位時間当りの横移動量、縦移動量、旋回角を含み、また、真値とは異なり得る。
The
車両モデル部18は、センサモデル部50により推定されたセンサ検知移動量をもとに車両シミュレーションを実行する。例えば、車両モデル部18は、センサ検知移動量(推定値)を、自動走行制御プログラム(もしくはそのプログラムが実装されたECU(Electronic Control Unit))に入力し、自動走行制御プログラムの実行結果をシミュレーション結果として出力してもよい。
The
シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を不図示の表示装置に表示させてもよく、または、不図示の記憶装置に格納してもよい。シミュレーションの担当者は、車両モデル部18により出力された自動走行制御プログラムの実行結果を確認し、問題がないか否かを確認してもよい。
The
図12は、第3実施例のセンサモデル部50の詳細を示すブロック図である。第3実施例のセンサモデル部50は、タグ量子化部52、真値量子化部54、誤差導出部56、補正部124、モデル記憶部40を含む。モデル記憶部40は、センサモデル生成装置20により生成された車両の移動量成分ごとのセンサモデルを記憶する。
FIG. 12 is a block diagram showing details of the
真値量子化部54は、環境データ生成部14により生成された移動量成分の真値を、シミュレーション制御部10を介して受け付け、成分ごとに、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部54は、図8で示したように、移動量成分の真値のうち横移動量の真値を、複数のカテゴリ(0~5、5~10等)のうち該当するカテゴリに分類する。
The true
誤差導出部56は、環境データ生成部14により生成された移動量成分の真値およびタグデータと、モデル記憶部40に記憶されたセンサモデル(例えば上記の式1)とにしたがって、移動量誤差を導出する。具体的には、誤差導出部56は、センサモデルのダミー変数のうち、タグ量子化部52および真値量子化部54により選択されたカテゴリに対応するダミー変数の値を1に設定することにより、センサモデルの目的変数である移動量誤差の値を算出する。なお、誤差導出部56は、横移動量の誤差に関するセンサモデル、縦移動量の誤差に関するセンサモデル、旋回角の誤差に関するセンサモデルを使用して、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを導出する。
The
補正部124は、誤差導出部56により導出された車両の移動量成分ごとの誤差を、環境データ生成部14により生成された移動量成分の真値に足すことにより、センサ検知移動量の各成分の値を導出する。補正部124により導出されるセンサ検知移動量は、真値導出部30より精度が低い移動量導出部120による検知結果に対応するものである。補正部124により導出されたセンサ検知移動量の各成分の値(すなわち横移動量、縦移動量、旋回角)は、シミュレーション制御部10を介して車両モデル部18へ入力され、例えば、自動運転制御用のECUの挙動がシミュレーションされる。
The
以上の構成による動作を説明する。
まず、図11を参照しつつ、第3実施例のセンサモデル生成装置20に関する動作を説明する。移動量導出部120、真値導出部30、誤差導出部32、タグ量子化部36の動作は、第2実施例の動作と同じであるため説明を省略する。真値量子化部34は、サンプルごとに、真値導出部30により検知された移動量成分の真値のカテゴリを特定する。
The operation of the above configuration will be described.
First, the operation of the sensor
モデル生成部38は、真値量子化部34により検知された移動量成分の真値のカテゴリと、タグデータのカテゴリとをダミー変数とし、移動量成分の誤差を目的変数として、複数のサンプルによる重回帰分析を実行することで、センサモデルを生成する。第3実施例でも、モデル生成部38は、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを目的変数とする3種類のセンサモデルを生成する。モデル生成部38は、3種類のセンサモデルをモデル記憶部40に格納する。
The
第3実施例のセンサモデル生成装置20によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを実現できる。例えば、天気や路面種別等の定性的な内容を反映した結果を出力するセンサモデルを実現できる。また、第3実施例のセンサモデルでは、車両の移動量の真値から、誤差を含み得るセンサ検知移動量に関するデータを得ることができる。
According to the sensor
次に図4および図12を参照しつつ、第3実施例の車両シミュレーションシステム110に関する動作を説明する。環境データ生成部14は、ユーザインタフェース12を介して入力されたユーザ操作に応じて、車両シミュレーションのパラメータとして、シミュレーションのシナリオに基づいてユーザが決定した移動量の真値と、タグデータを生成する。センサモデル部50のタグ量子化部52は、環境データ生成部14により生成されたタグデータ(例えば天気や路面種別等)のカテゴリを特定する。真値量子化部54は、環境データ生成部14により生成された移動量成分の真値のカテゴリを特定する。
Next, the operation of the
誤差導出部56は、モデル記憶部40に記憶された3種類のセンサモデルの説明変数のカテゴリを示すダミー変数のうち、タグ量子化部52および真値量子化部54により特定されたカテゴリ(ダミー変数)の値を「1」に設定する。これにより、誤差導出部56は、3種類のセンサモデルの目的変数の値として、横移動量の誤差、縦移動量の誤差、旋回角の誤差を得る。補正部124は、環境データ生成部14により生成された移動量成分の真値に誤差を足すことにより、センサ検知移動量としての横移動量、縦移動量、旋回角を推定する。
The
車両モデル部18は、補正部124により推定された横移動量、縦移動量、旋回角に基づいて、車両シミュレーションを実行する。例えば、車両モデル部18は、自動運転制御用のプログラム(またはECU)にセンサ検知移動量としての横移動量、縦移動量、旋回角を入力し、そのプログラム(またはECU)の出力結果を得る。なお、車両モデル部18は、センサ検知移動量をもとに対応するセンサデータ(車速、操舵角等)を導出し、そのセンサデータを、自動運転制御用のプログラム(またはECU)に入力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーションの結果を、所定の出力装置に出力し、または、所定の記憶装置に記憶させる。
The
第3実施例の車両シミュレーションシステム110によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを使用することにより、精度の高いシミュレーションを実現できる。例えば、シミュレーションのシナリオに基づく車両の移動量の真値をもとに、現実の車両がそのシナリオの挙動を行う場合のセンサ検知移動量を特定し、そのセンサ検知移動量において車両に不具合が生じないことを確認することができる。
According to the
以上、本開示を第3実施例をもとに説明した。第3実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the third embodiment. The third embodiment is an example, and it should be understood by those skilled in the art that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure.
第1実施例の第1変形例に記載した曲線フィッティング、および、第1実施例の第2変形例に記載したホワイトノイズの足し込みは、第2実施例の変形例のみならず、第3実施例の変形例としても適用できることはもちろんである。 The curve fitting described in the first modification of the first embodiment and the addition of white noise described in the second modification of the first embodiment can be performed not only in the modification of the second embodiment but also in the third embodiment. Of course, it can also be applied as a modification of the example.
第2実施例、第3実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目1]
車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出する第1導出部と、
前記第1導出部より高い精度で、前記車両に関する属性の状態を導出する第2導出部と、
前記車両のシミュレーションのためのモデルであって、前記第1導出部または前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルを生成する生成部と、
を備えるモデル生成装置。
[項目2]
前記車両の自動走行に関する属性の状態は、前記車両の自動走行を制御するための前記車両周辺の状態であり、
前記第1導出部は、前記車両の周辺が映る画像データから、前記車両周辺の状態を導出し、
前記モデルは、前記車両のシミュレーションにおいて前記第1導出部による導出結果に関して推定するためのモデルであって、前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルである、
項目1に記載のモデル生成装置。
[項目3]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記車両のシミュレーションにおいて前記第2導出部による導出結果に関して推定するためのモデルであって、前記第1導出部により導出された移動量の成分を説明変数とし、前記第2導出部により導出された移動量の成分と、前記第1導出部により導出された移動量の成分との差を目的変数とするモデルである、
項目1に記載のモデル生成装置。
[項目4]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記車両のシミュレーションにおいて前記第1導出部による導出結果に関して推定するためのモデルであって、前記第2導出部により導出された移動量の成分を説明変数とし、前記第2導出部により導出された移動量の成分と、前記第1導出部により導出された移動量の成分との差を目的変数とするモデルである、
項目1に記載のモデル生成装置。
[項目5]
車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出する導出部について、前記導出部により導出される前記属性の状態、または、前記属性の状態の真値に関して推定するためのモデルであって、前記導出部により導出された前記属性の状態、または、前記属性の状態の真値を説明変数とし、前記属性の状態の真値と、前記導出部により導出された前記属性の状態との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのパラメータとして、前記導出部により導出される前記属性の状態と前記属性の状態の真値の一方を前記モデルに入力することにより、前記導出部により導出される前記属性の状態と前記属性の状態の真値の他方を推定する推定部と、
前記推定部による推定結果をもとに前記車両に関するシミュレーションを実行するシミュレーション部と、
を備える車両シミュレーションシステム。
[項目6]
前記導出部は、車両の周辺が映る画像データから、前記車両の自動走行に関する属性の状態として、前記車両の自動走行を制御するための前記車両周辺の状態を導出するものであり、
前記モデルは、前記導出部による導出結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記導出部により導出された状態との差を目的変数とするモデルであり、
前記推定部は、シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記導出部による導出結果を推定する、
項目5に記載の車両シミュレーションシステム。
[項目7]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記移動量の成分の真値に関して推定するためのモデルであって、前記導出部により導出された移動量の成分を説明変数とし、前記移動量の成分の真値と、前記導出部により導出された移動量の成分との差を目的変数とするモデルであり、
前記推定部は、前記導出部により導出される移動量の成分を前記モデルに入力することにより、前記移動量の成分の真値を推定する、
項目5に記載の車両シミュレーションシステム。
[項目8]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記移動量の成分の真値に関して推定するためのモデルであって、前記移動量の成分の真値を説明変数とし、前記移動量の成分の真値と、前記導出部により導出された移動量の成分との差を目的変数とするモデルであり、
前記推定部は、前記移動量の成分の真値を前記モデルに入力することにより、前記導出部により導出される移動量の成分を推定する、
項目5に記載の車両シミュレーションシステム。
[項目9]
前記モデルは、前記説明変数の複数段階の値に対応する複数個のダミー変数を含み、
前記推定部は、前記複数個のダミー変数に係る各々の係数から、曲線フィッティングにより前記説明変数の連続値に対する係数の連続値を求め、前記係数の連続値の中からシミュレーションにおける前記説明変数の値に対応する係数値を前記モデルに適用する、
項目5から8のいずれかに記載の車両シミュレーションシステム。
[項目10]
乱数に関するデータの指定をユーザから受け付ける受付部をさらに備え、
前記推定部は、前記乱数に関するデータをもとに、前記モデルを用いた推定値にホワイトノイズを足す、
項目5から9のいずれかに記載の車両シミュレーションシステム。
[項目11]
第1導出部が、車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出し、
第2導出部が、前記第1導出部より高い精度で、前記車両に関する属性の状態を導出し、
前記車両のシミュレーションのためのモデルであって、前記第1導出部または前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルを生成する、
モデル生成方法。
[項目12]
第1導出部が、車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出し、
第2導出部が、前記第1導出部より高い精度で、前記車両に関する属性の状態を導出し、
前記車両のシミュレーションのためのモデルであって、前記第1導出部または前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルを生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
The techniques described in the second embodiment, the third embodiment, and the modification may be specified by the following items.
[Item 1]
a first derivation unit for deriving a state of an attribute related to automatic driving of the vehicle based on the output result of a sensor mounted on the vehicle;
a second derivation unit that derives the attribute state of the vehicle with higher accuracy than the first derivation unit;
A model for simulating the vehicle, wherein the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the first derivation unit a generator that generates a model whose objective variable is the difference from the state derived by
A model generation device comprising:
[Item 2]
The state of the attributes related to automatic driving of the vehicle is a state of the vehicle surroundings for controlling the automatic driving of the vehicle,
The first derivation unit derives a state of the surroundings of the vehicle from image data showing the surroundings of the vehicle,
The model is a model for estimating the result of derivation by the first derivation unit in the simulation of the vehicle, wherein the state derived by the second derivation unit is used as an explanatory variable, and A model whose objective variable is the difference between the state derived by the first derivation unit and the state derived by the first derivation unit,
The model generation device according to
[Item 3]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the result of derivation by the second derivation unit in the simulation of the vehicle, wherein the movement amount component derived by the first derivation unit is used as an explanatory variable, and the second derivation unit A model whose objective variable is the difference between the movement amount component derived by and the movement amount component derived by the first derivation unit,
The model generation device according to
[Item 4]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the result derived by the first derivation unit in the simulation of the vehicle, and the component of the movement amount derived by the second derivation unit is used as an explanatory variable, and the second derivation unit A model whose objective variable is the difference between the movement amount component derived by and the movement amount component derived by the first derivation unit,
The model generation device according to
[Item 5]
With respect to a derivation unit that derives the state of an attribute related to automatic driving of the vehicle based on the output result of a sensor mounted on the vehicle, the state of the attribute derived by the derivation unit or the truth of the state of the attribute A model for estimating a value, wherein the state of the attribute derived by the derivation unit or the true value of the state of the attribute is used as an explanatory variable, and the true value of the state of the attribute and the true value of the attribute state by the derivation unit a storage unit that stores a model whose objective variable is the difference from the derived state of the attribute;
By inputting one of the state of the attribute derived by the derivation unit and the true value of the state of the attribute into the model as a parameter of the simulation, the state of the attribute derived by the derivation unit and the value of the attribute an estimating unit that estimates the other of the true values of the state;
a simulation unit that executes a simulation of the vehicle based on the estimation result of the estimation unit;
vehicle simulation system.
[Item 6]
The derivation unit derives the state of the vehicle periphery for controlling the automatic running of the vehicle as the attribute state related to the automatic running of the vehicle from the image data showing the periphery of the vehicle,
The model is a model for estimating the result of derivation by the derivation unit, wherein the true value of the state of the vehicle periphery is used as an explanatory variable, and the true value of the state of the vehicle periphery and the model derived by the derivation unit are It is a model with the difference from the state as the objective variable,
The estimation unit estimates the derivation result by the derivation unit by inputting the true value of the state around the vehicle as a simulation parameter into the model.
A vehicle simulation system according to
[Item 7]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the true value of the movement amount component, wherein the movement amount component derived by the derivation unit is used as an explanatory variable, and the movement amount component true value and the derived It is a model whose objective variable is the difference between the component of the amount of movement derived by the part,
The estimation unit estimates the true value of the movement amount component by inputting the movement amount component derived by the derivation unit into the model.
A vehicle simulation system according to
[Item 8]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the true value of the component of the movement amount, the true value of the component of the movement amount is used as an explanatory variable, and the true value of the component of the movement amount is derived by the derivation unit. is a model whose objective variable is the difference between the calculated movement amount component,
The estimation unit estimates the movement amount component derived by the derivation unit by inputting the true value of the movement amount component into the model.
A vehicle simulation system according to
[Item 9]
The model includes a plurality of dummy variables corresponding to multiple stages of values of the explanatory variable,
The estimating unit obtains a continuous value of the coefficient for the continuous value of the explanatory variable by curve fitting from each coefficient related to the plurality of dummy variables, and the value of the explanatory variable in the simulation from among the continuous values of the coefficient. applying to the model a coefficient value corresponding to
9. A vehicle simulation system according to any one of items 5-8.
[Item 10]
further comprising a reception unit that receives a specification of data related to the random number from the user,
The estimation unit adds white noise to the estimated value using the model based on the data on the random number.
A vehicle simulation system according to any one of
[Item 11]
A first derivation unit derives the attribute state related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle,
A second derivation unit derives an attribute state related to the vehicle with higher accuracy than the first derivation unit,
A model for simulating the vehicle, wherein the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the first derivation unit Generate a model whose objective variable is the difference from the state derived by
Model generation method.
[Item 12]
A first derivation unit derives the attribute state related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle,
A second derivation unit derives an attribute state related to the vehicle with higher accuracy than the first derivation unit,
A model for simulating the vehicle, wherein the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the first derivation unit Generate a model whose objective variable is the difference from the state derived by
A computer program that makes a computer do something.
<第4実施例>
本実施例に関して、これまでの実施例と相違する点を中心に以下説明し、共通する点の説明を省略する。本変形例の構成要素のうちこれまでの実施例の構成要素と同一または対応する構成要素には同一の符号を付して説明する。
<Fourth embodiment>
Regarding this embodiment, the following description will focus on the points that are different from the previous embodiments, and the description of the common points will be omitted. Among the constituent elements of this modified example, constituent elements that are the same as or correspond to the constituent elements of the previous embodiments are denoted by the same reference numerals.
従来の車両シミュレーションシステムでは、シミュレーション結果の車両位置として、車両モデルが出力した理想位置としての車両位置のみを描いていた。しかし、理想位置としての車両位置は、タイヤの横滑り等が考慮されておらず、現実の車両位置とは乖離することがある。そのため、車両シミュレーションの結果が、オドメトリセンシングアルゴリズムや車両制御アルゴリズムの評価と課題抽出、およびアルゴリズムの改善に十分に寄与しないことがあった。 In the conventional vehicle simulation system, only the vehicle position as the ideal position output by the vehicle model was drawn as the vehicle position of the simulation result. However, the vehicle position as the ideal position does not take into account side slipping of tires and the like, and may deviate from the actual vehicle position. Therefore, the results of vehicle simulation may not contribute sufficiently to the evaluation and problem extraction of odometry sensing algorithms and vehicle control algorithms, and to the improvement of algorithms.
第4実施例の車両シミュレーションシステムでも、第2実施例および第3実施例と同様に、車両の移動態様に関するセンサモデル(「オドメトリセンシング統計モデル」と言える)を使用して、車両の移動に関するシミュレーションを実行する。第4実施例の車両シミュレーションシステムでは、(1)センサモデル(オドメトリセンシング統計モデル)を用いて算出された、車両の移動態様に関する推定値(実際の車両の移動態様に近い準真値とも言える)と、(2)車両モデルが生成した車両の移動態様に関する理想値、(3)車両内ネットワークを流れる情報に基づくモデルが生成した準理想値とを同時に表示し、それぞれの値の差を明示する。 Similarly to the second and third embodiments, the vehicle simulation system of the fourth embodiment also uses a sensor model (which can be called an "odometry sensing statistical model") regarding the movement of the vehicle to simulate the movement of the vehicle. to run. In the vehicle simulation system of the fourth embodiment, (1) an estimated value (can be said to be a quasi-true value close to the actual movement mode of the vehicle) regarding the movement mode of the vehicle calculated using a sensor model (odometry sensing statistical model); , (2) the ideal value related to the mode of movement of the vehicle generated by the vehicle model, and (3) the quasi-ideal value generated by the model based on the information flowing through the in-vehicle network. .
まず、第4実施例のセンサモデル(オドメトリセンシング統計モデル)を説明する。第4実施例のセンサモデルは、第3実施例のセンサモデルに対応する。第4実施例のセンサモデルは、実際の車両走行時に車両に入力された、車両の挙動を指示する情報を説明変数とし、その情報が指示する車両の挙動と、実際の車両の挙動との差を目的変数とする数理モデルである。 First, the sensor model (odometry sensing statistical model) of the fourth embodiment will be described. The sensor model of the fourth embodiment corresponds to the sensor model of the third embodiment. The sensor model of the fourth embodiment uses, as explanatory variables, information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle. is a mathematical model with as the objective variable.
図13は、第4実施例のセンサモデル(オドメトリセンシング統計モデル)を生成する第4実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第4実施例のセンサモデル生成装置20は、第3実施例のセンサモデル生成装置20に対応する。第4実施例のセンサモデル生成装置20は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、移動量導出部120、指示値導出部130、誤差導出部32、指示値量子化部132、タグ量子化部36、モデル生成部38を備える。
FIG. 13 is a block diagram showing functional blocks of the sensor
センサデータ記憶部22は、実際のテスト走行時においてGPS装置(位置センサとも言える)により検知された車両の挙動に関するデータをセンサデータとして記憶する。第4実施例のセンサデータは、テスト走行時の車両の実際の挙動を示すデータであり、具体的には、車速とハンドル舵角(転舵角、旋回角とも言える)の組を含む。なお、車両には自動運転コントローラが搭載され、テスト走行は、その自動運転コントローラにより制御された自動走行であってもよい。
The sensor
参照データ記憶部24は、実際のテスト走行時においてCANを流れたデータであり、すなわち、実際のテスト走行時に車両に入力された車両の挙動を指示するデータを、センサデータと比較する参照データとして記憶する。第4実施例の参照データは、実際のテスト走行時に自動運転コントローラからCANを介して駆動系ECU等に入力された指示データを含み、具体的には、車速とハンドル舵角の組を含む。
The reference
タグデータ記憶部26は、タグデータとして、車速の誤差とハンドル舵角の誤差の少なくとも一方の要因となる各種定量データまたは定性データを記憶する。第4実施例のタグデータは、テスト走行時の天候(晴れ、曇り、雨等)、テスト走行に用いた車両の重量、タイヤ種別、路面種別を含む。これらのタグデータは、テスト走行時の環境や状態に応じて、開発・試験担当者によりタグデータ記憶部26に格納されてもよい。
The tag
以下、「サンプル」とは、テスト走行中の同一タイミングで収集されたデータ群、または、そのデータ群をもとに導出されるデータを意味する。移動量導出部120は、センサデータ記憶部22に記憶されたセンサデータをもとに、サンプルごとの車両の移動量を導出する。具体的には、移動量導出部120は、サンプルごとの車速とハンドル舵角の真値を導出する。なお、センサデータ記憶部22は、GPS装置により検知された車両の単位時間当りの横移動量と縦移動量、旋回角を含むセンサデータを記憶してもよい。この場合、移動量導出部120は、センサデータが示す横移動量と縦移動量をもとに車速の真値を導出し、センサデータが示す旋回角をハンドル舵角の真値として導出してもよい。
Hereinafter, "sample" means a data group collected at the same timing during test driving, or data derived from the data group. The movement
指示値導出部130は、参照データ記憶部24に記憶された参照データをもとに、サンプルごとの車両の移動に関する指示値(車速とハンドル舵角の指示値)を導出する。この指示値は、後述の車両モデル部18が出力する理想値に対応するものである。なお、参照データ記憶部24は、速度指示データとハンドル舵角指示データを含む参照データを記憶してもよい。この場合、指示値導出部130は、参照データが示す速度指示データとハンドル舵角指示データをもとに、車速とハンドル舵角の指示値を導出してもよい。
Based on the reference data stored in the reference
誤差導出部32は、移動量導出部120により導出された車速の真値と、指示値導出部130により導出された車速の指示値との誤差を導出する。また、誤差導出部32は、移動量導出部120により導出されたハンドル舵角の真値と、指示値導出部130により導出されたハンドル舵角の指示値との誤差を導出する。誤差導出部32は、サンプルごとに車速の誤差とハンドル舵角の誤差の組を導出する。なお、車速の誤差およびハンドル舵角の誤差は、例えば、タイヤの横滑り等により生じたものである。
The
指示値量子化部132は、指示値導出部130により導出された、サンプルごとの車両の移動に関する指示値(車速とハンドル舵角の指示値)を量子化する。第1~第3実施例と同様に(例えば図8)、第4実施例のセンサモデル(オドメトリセンシング統計モデル)も複数個の説明変数(「要因」とも呼ぶ)を含み、各要因は、複数個のカテゴリを含む。第4実施例において説明変数には、車速とハンドル舵角が含まれる。指示値量子化部132は、サンプルごとに、車速とハンドル舵角が該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。
The instruction
タグ量子化部36は、タグデータ記憶部26に格納された、サンプルごとのタグデータを量子化する。第4実施例のセンサモデルにおける説明変数には、天候、車両重量、タイヤ種別、路面種別が含まれる。タグ量子化部36は、サンプルごとに、天候、車両重量、タイヤ種別、路面種別それぞれの該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。
The
モデル生成部38は、複数のサンプルのそれぞれについて、指示値量子化部132により導出された車速の指示値およびハンドル舵角の指示値の量子化データと、タグ量子化部36により導出されたタグデータの量子化データとを説明変数とし、誤差導出部32により導出された車速の誤差を目的変数とする組を生成する。モデル生成部38は、上記複数のサンプルデータの組をもとに重回帰分析を実行することにより、車速の指示値、ハンドル舵角の指示値、天候、車両重量、タイヤ種別、路面種別を説明変数とし、車速の誤差を目的変数とするオドメトリセンシング統計モデルを車速誤差モデルとして生成する。
For each of the plurality of samples, the
また、モデル生成部38は、複数のサンプルのそれぞれについて、指示値量子化部132により導出された車速の指示値およびハンドル舵角の指示値の量子化データと、タグ量子化部36により導出されたタグデータの量子化データとを説明変数とし、誤差導出部32により導出されたハンドル舵角の誤差を目的変数とする組を生成する。モデル生成部38は、上記複数のサンプルデータの組をもとに重回帰分析を実行することにより、車速の指示値、ハンドル舵角の指示値、天候、車両重量、タイヤ種別、路面種別を説明変数とし、ハンドル舵角の誤差を目的変数とするオドメトリセンシング統計モデルである舵角誤差モデルを生成する。
In addition, for each of the plurality of samples, the
車速誤差モデルと舵角誤差モデルのいずれも上記の式1で表すことができる。モデル生成部38は、生成した車速誤差モデルと舵角誤差モデルとをモデル記憶部40に格納する。
Both the vehicle speed error model and the steering angle error model can be expressed by
次に、センサモデル生成装置20により生成されたオドメトリセンシング統計モデルを使用する車両シミュレーションシステムを説明する。図14は、第4実施例の車両シミュレーションシステム110の機能ブロックを示すブロック図である。車両シミュレーションシステム110は、シミュレーション制御部10、ユーザインタフェース12、CANモデル部112、センサモデル部50、車両モデル部18を備える。
Next, a vehicle simulation system using the odometry sensing statistical model generated by the sensor
ユーザインタフェース12は、シミュレーションの結果を表示する表示装置を含む。車両モデル部18は、シミュレーションのシナリオをもとに、車両の挙動に関する理想値を導出する。車両モデル部18は、車両の挙動に関する理想値として、車速とハンドル舵角の理想値を導出する。この理想値は、車両の自動運転において自動運転コントローラから出力される制御コマンドの設定値に対応するものであり、自動運転コントローラの制御アルゴリズムに基づいて導出される。
CANモデル部112は、シミュレーションのシナリオをもとに車両モデル部18により導出された車両の挙動に関する理想値に対応する値であって、その理想値が示す挙動を車両に実行させるために車両内のネットワーク(実施例ではCAN)を介して伝送される値である準理想値を導出する導出部として機能する。例えば、CANモデル部112は、挙動に関する理想値(車速およびハンドル舵角)と、準理想値(車速およびハンドル舵角)とを対応付けたモデルまたはテーブルを記憶し、そのモデルを使用し、またはそのテーブルを参照して、理想値に対応する準理想値を導出してもよい。
The
準理想値は、車両モデル部18により導出された理想値に近似するが、CANで伝送されるデータのビット精度の制限により、理想値とは異なる値になることがある。また、複数の単位時間(「フレーム」とも呼ばれる。)に亘る複数回のシミュレーションの間に理想値と準理想値との誤差が蓄積していき、理想値に基づくシミュレーション結果と準理想値に基づくシミュレーション結果との差異が大きくなることもある。なお、車両モデル部18とCANモデル部112は、公知技術(すなわち公知の車両モデルとCANモデル)により実現されてもよい。
The quasi-ideal value approximates the ideal value derived by the
センサモデル部50は、車両モデル部18により導出された車両の挙動に関する理想値を、センサモデル生成装置20により生成されたオドメトリセンシング統計モデルに入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出する第2導出部として機能する。センサモデル部50の詳細な構成は後述する。
The
シミュレーション制御部10は、車両シミュレーションを制御する。図15は、第4実施例のシミュレーション制御部10の機能ブロックを示すブロック図である。シミュレーション制御部10は、シナリオ記憶部140、シナリオ読出部142、理想値取得部144、準理想値取得部146、推定値取得部148、結果画像生成部150、出力部152を備える。
The
これら複数の機能ブロックの機能が実装されたコンピュータプログラムが、シミュレーション制御部10を実現する1つまたは複数の情報処理装置のストレージにインストールされてもよい。または、上記コンピュータプログラムが、ネットワークを介して、上記情報処理装置のストレージにインストールされてもよい。上記情報処理装置のCPUは、上記コンピュータプログラムをメインメモリに読み出して実行することにより図15に示す各機能ブロックの機能を発揮してもよい。
A computer program in which the functions of these functional blocks are implemented may be installed in the storage of one or more information processing devices that implement the
シナリオ記憶部140は、車両シミュレーションのシナリオを記憶する。車両シミュレーションのシナリオは、例えば、複数の単位時間「フレーム」のそれぞれにおける車両の挙動を示すデータであり、また、天候、車両重量、タイヤ種別、路面種別を示すデータである。シナリオ読出部142は、シナリオ記憶部140に記憶された車両シミュレーションのシナリオをフレームごとに読み出す。
The
理想値取得部144は、シナリオ読出部142により読み出された車両シミュレーションのシナリオが示す車両の挙動データ(フレーム単位)を車両モデル部18に入力する。理想値取得部144は、車両モデル部18から出力された、車両シミュレーションのシナリオに基づく車速とハンドル舵角の理想値(フレーム単位)を受け付ける。
The ideal
準理想値取得部146は、車両モデル部18から出力された、車速とハンドル舵角の理想値(フレーム単位)をCANモデル部112に入力する。準理想値取得部146は、CANモデル部112から出力された、車速とハンドル舵角の理想値(フレーム単位)に対応する車速とハンドル舵角の準理想値(フレーム単位)を受け付ける。
The quasi-ideal
推定値取得部148は、車両モデル部18から出力された、車速とハンドル舵角の理想値(フレーム単位)と、車両シミュレーションのシナリオが示すタグデータ(フレーム単位)をセンサモデル部50に入力する。推定値取得部148は、センサモデル部50から出力された、車速とハンドル舵角の理想値(フレーム単位)に対応する車速とハンドル舵角の推定値(フレーム単位)を受け付ける。車速とハンドル舵角の推定値は、シミュレーションのシナリオが示す状況における車両の実際の挙動を示すものであり、GPS装置により検知される車両の実際の挙動の真値に準ずる準真値とも言える。
The estimated
結果画像生成部150は、車両モデル部18から出力された理想値と、CANモデル部112から出力された準理想値と、センサモデル部50から出力された推定値とをもとに、車両シミュレーションにおける車両の挙動を示す画像であるシミュレーション結果画像を生成する。シミュレーション結果画像の例は後述する。
The result
出力部152は、結果画像生成部150により生成されたシミュレーション結果画像を外部に出力する。第4実施例では、出力部152は、シミュレーション結果画像をユーザインタフェース12の表示装置に表示させる。変形例として、出力部152は、シミュレーション結果画像を所定の記憶装置に記憶させてもよい。
The
図16は、第4実施例のセンサモデル部の詳細を示すブロック図である。センサモデル部50は、モデル記憶部40、理想値量子化部160、タグ量子化部52、誤差導出部56、推定値導出部162を備える。これら複数の機能ブロックの機能が実装されたコンピュータプログラムが、センサモデル部50を実現する1つまたは複数の情報処理装置のストレージにインストールされてもよい。または、上記コンピュータプログラムが、ネットワークを介して、上記情報処理装置のストレージにインストールされてもよい。上記情報処理装置のCPUは、上記コンピュータプログラムをメインメモリに読み出して実行することにより図16に示す各機能ブロックの機能を発揮してもよい。
FIG. 16 is a block diagram showing the details of the sensor model section of the fourth embodiment. The
モデル記憶部40は、センサモデル生成装置20により生成されたオドメトリセンシング統計モデルである車速誤差モデルと舵角誤差モデルとを記憶する。
The
理想値量子化部160は、センサモデル生成装置20の指示値量子化部132に対応する。理想値量子化部160は、シミュレーション制御部10から入力された、シミュレーションのフレームごとの車両の移動に関する理想値(車速とハンドル舵角の理想値)を量子化する。理想値量子化部160は、フレームごとに、オドメトリセンシング統計モデルが定める複数のカテゴリのうち車速とハンドル舵角の理想値が該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。
The ideal
タグ量子化部52は、センサモデル生成装置20のタグ量子化部36に対応する。タグ量子化部52は、シミュレーション制御部10から入力された、シミュレーションのフレームごとのタグデータを量子化する。タグ量子化部52は、フレームごとに、オドメトリセンシング統計モデルが定める複数のカテゴリのうち天候、車両重量、タイヤ種別、路面種別それぞれの該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。
A
誤差導出部56は、理想値量子化部160により導出された車速とハンドル舵角の理想値の量子化データと、タグ量子化部52により導出されたタグデータの量子化データとを車速誤差モデルに入力することにより、車速誤差モデルが出力した車速誤差を取得する。具体的には、誤差導出部56は、車速誤差モデルで規定された複数の説明変数の複数のカテゴリのうち、量子化データで1が設定されたカテゴリのウエイトをモデル記憶部40から読み出し、この読み出したウエイトを用いて、目的変数である車速誤差の値を求める。車速誤差は、車速の理想値が示す車両に入力される速度の指示値と、車両の実際の速度との差である。
The
また、誤差導出部56は、理想値量子化部160により導出された車速とハンドル舵角の理想値の量子化データと、タグ量子化部52により導出されたタグデータの量子化データとを舵角誤差モデルに入力することにより、舵角誤差モデルが出力した舵角誤差を取得する。具体的には、誤差導出部56は、舵角誤差モデルで規定された複数の説明変数の複数のカテゴリのうち、量子化データで1が設定されたカテゴリのウエイトをモデル記憶部40から読み出し、この読み出したウエイトを用いて、目的変数である舵角誤差の値を求める。舵角誤差は、ハンドル舵角の理想値が示す車両に入力されるハンドル舵角の指示値と、車両の実際のハンドル舵角との差である。
Also, the
推定値導出部162は、シミュレーション制御部10から入力されたシミュレーションのフレームごとの車速の理想値に、誤差導出部56により導出された車速誤差を足すことにより、シミュレーションのフレームごとの車速の推定値を導出する。また、推定値導出部162は、シミュレーション制御部10から入力されたシミュレーションのフレームごとのハンドル舵角の理想値に、誤差導出部56により導出された舵角誤差を足すことにより、シミュレーションのフレームごとのハンドル舵角の推定値を導出する。推定値導出部162は、シミュレーションのフレームごとの車両の移動に関する推定値(すなわち車速とハンドル舵角の推定値)をシミュレーション制御部10に出力する。
The estimated
また、推定値導出部162は、シミュレーションのフレームごとの車速の推定値とともに、その推定値導出時の車速誤差を出力した車速誤差モデルにおける複数項目の説明変数それぞれの重みを示す内訳情報をシミュレーション制御部10へ出力する。車速誤差の内訳情報は、車速誤差モデルにおける複数のカテゴリに対する複数のカテゴリ係数のうち、車速誤差の導出において使用されたカテゴリのカテゴリ係数(言い換えれば量子化データで1が設定されたカテゴリに対するウエイトであり、以下「有効カテゴリ係数」と呼ぶ。)を含む。具体的には、車速誤差の内訳情報は、距離誤差モデルにおける説明変数の項目名称(例えば「天候」「車両重量」等)と有効カテゴリ係数の組を複数組含む。
In addition, the estimated
同様に、推定値導出部162は、シミュレーションのフレームごとのハンドル舵角の推定値とともに、その推定値導出時の舵角誤差を出力した舵角誤差モデルにおける複数項目の説明変数それぞれの重みを示す内訳情報をシミュレーション制御部10へ出力する。舵角誤差の内訳情報は、舵角誤差モデルにおける複数のカテゴリに対する複数のカテゴリ係数のうち、舵角誤差の導出において使用された有効カテゴリ係数を含む。具体的には、舵角誤差の内訳情報は、舵角誤差モデルにおける説明変数の項目名称(例えば「天候」「車両重量」等)と有効カテゴリ係数の組を複数組含む。
Similarly, the estimated
シミュレーション結果画像について詳細に説明する。図17は、シミュレーション結果画像の例を示す。シミュレーション結果画像170は、複数の要素として、車両画像172、理想値ベクトル174(図17では破線で示す)、準理想値ベクトル176(図17では一点鎖線で示す)、推定値ベクトル178(図17では実線で示す)を含む。
A simulation result image will be described in detail. FIG. 17 shows an example of a simulation result image. The
シミュレーション制御部10の結果画像生成部150は、車両シミュレーションのフレームごとの車速とハンドル舵角の理想値をもとに、車両の挙動の理想値を示す理想値ベクトル174をシミュレーション結果画像170に設定する。また、結果画像生成部150は、車両シミュレーションのフレームごとの車速とハンドル舵角の準理想値をもとに、車両の挙動の準理想値を示す準理想値ベクトル176をシミュレーション結果画像170に設定する。また、結果画像生成部150は、車両シミュレーションのフレームごとの車速とハンドル舵角の推定値をもとに、車両の挙動の推定値(言い換えれば準真値)を示す推定値ベクトル178をシミュレーション結果画像170に設定する。
The result
結果画像生成部150は、理想値ベクトル174、準理想値ベクトル176、推定値ベクトル178を互いに異なる態様(スタイル)に設定する。例えば、理想値ベクトル174、準理想値ベクトル176、推定値ベクトル178は、線種、形状、模様、色彩、太さ、陰影有無等のうち少なくとも1つが互いに異なるように設定される。これにより、車両の挙動の理想値、準理想値、推定値を直観的に区別可能で、かつ、それらの違いを容易に把握できるシミュレーション結果画像を提供できる。
The result
また、結果画像生成部150は、車両の挙動の理想値と推定値との差を示す要素をシミュレーション結果画像170に設定する。具体的には、結果画像生成部150は、ハンドル舵角の差(舵角誤差)を示す舵角誤差インジケータと、車速の差(車速誤差)を示す車速誤差インジケータとをシミュレーション結果画像170に設定する。図17のシミュレーション結果画像170では、舵角誤差インジケータ180を示している。
In addition, the
また、図17には不図示だが、結果画像生成部150は、車両の挙動の準理想値と推定値との差を示す要素をシミュレーション結果画像170に設定してもよい。具体的には、結果画像生成部150は、準理想値と推定値との差に関する舵角誤差インジケータと車速誤差インジケータとをシミュレーション結果画像170に設定してもよい。このように、舵角誤差インジケータと車速誤差インジケータとを配置することにより、シミュレーション結果において、ハンドル舵角の誤差および車速の誤差の把握を容易なものにできる。
Although not shown in FIG. 17, the result
図18も、シミュレーション結果画像の例を示す。図18に示すように、シミュレーション結果画像170は、所定の操作に応じて、車両の挙動の理想値と推定値との差の内訳を表示するよう構成される。
FIG. 18 also shows an example of a simulation result image. As shown in FIG. 18, the
例えば、結果画像生成部150は、シミュレーション結果画像170上で舵角誤差インジケータ180が選択された場合(例えばマウスオーバされた場合)に、舵角誤差の内訳を示す画像である誤差内訳182をシミュレーション結果画像170上に追加表示させるJavaScript(登録商標)コードをシミュレーション結果画像170のデータに設定する。また、図18には不図示だが、結果画像生成部150は、シミュレーション結果画像170において車速誤差インジケータが選択された場合に、車速誤差の内訳を示す画像である誤差内訳をシミュレーション結果画像170上に追加表示させるJavaScriptコードをシミュレーション結果画像170のデータに設定する。
For example, the
既述したように、センサモデル部50の推定値導出部162は、フレームごとの車速とハンドル舵角の推定値に加えて、フレームごとの車速誤差と舵角誤差の内訳情報をシミュレーション制御部10へ出力する。内訳情報は、車速誤差モデルまたは舵角誤差モデルにおける説明変数の項目名称と有効カテゴリ係数の組を複数組含む。
As described above, the estimated
図18に示すように、結果画像生成部150は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率を示す円グラフを含む誤差内訳182を、舵角誤差インジケータ180に対応付けてシミュレーション結果画像170のデータに設定する。図18の誤差内訳182では、説明変数の項目として天候、車両重量、タイヤ種別、路面種別を示しているが、他の項目を含んでもよく、誤差内訳182に表示する説明変数の項目は、車両シミュレーションシステム110を用いた実験等により、適切な項目が選択されてよい。
As shown in FIG. 18, the result
また、図18には不図示だが、結果画像生成部150は、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率を示す円グラフを含む誤差内訳を、車速誤差インジケータに対応付けてシミュレーション結果画像170のデータに設定する。シミュレーション結果画像170で表示される誤差内訳(例えば誤差内訳182)は、舵角誤差モデルまたは車速誤差モデルにおける複数の説明変数それぞれの重み(言い換えれば相対的な影響度合い)を示す統計図表と言える。
Further, although not shown in FIG. 18, the result
図19も、シミュレーション結果画像の例を示す。図18の誤差内訳182では、各説明変数の有効カテゴリ係数の比率を円グラフで示したが、誤差内訳は、円グラフとは異なる種類の統計図表を含んでもよい。図19の誤差内訳184は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率と、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率とを積み上げ棒グラフにより示すものである。図19のシミュレーション結果画像170では、舵角誤差インジケータ180と車速誤差インジケータ181のどちらが選択された場合にも、同じ内容の誤差内訳184を表示させてもよい。
FIG. 19 also shows an example of a simulation result image. Although the
なお、誤差内訳は、舵角誤差モデルまたは車速誤差モデルの各説明変数の有効カテゴリ係数の比率以外の情報を示すものでもよい。例えば、誤差内訳は、舵角誤差モデルまたは車速誤差モデルの各説明変数の名称のみを示すものであってもよく、また、舵角誤差または車速誤差の値を示すものであってもよい。 The error breakdown may indicate information other than the ratio of the effective category coefficients of each explanatory variable of the steering angle error model or vehicle speed error model. For example, the error breakdown may indicate only the name of each explanatory variable of the steering angle error model or the vehicle speed error model, or may indicate the value of the steering angle error or the vehicle speed error.
図20も、シミュレーション結果画像の例を示す。図20のシミュレーション結果画像170は、車両シミュレーションの複数のフレーム(シミュレーションの単位であり、時間軸方向の粒度とも言える)に亘って蓄積された、車両の挙動の理想値と推定値との差(すなわち蓄積誤差)を示すものである。
FIG. 20 also shows an example of a simulation result image. The
結果画像生成部150は、複数の理想値ベクトル174を合成した理想値合成ベクトル175をシミュレーション結果画像170に設定する。図20の理想値合成ベクトル175は、3フレーム分の理想値ベクトル174を合成したものである。また、結果画像生成部150は、複数の推定値ベクトル178を合成した推定値合成ベクトル179をシミュレーション結果画像170に設定する。図20の推定値合成ベクトル179は、3フレーム分の推定値ベクトル178を合成したものである。さらにまた、結果画像生成部150は、理想値合成ベクトル175と推定値合成ベクトル179との差(すなわち蓄積誤差)を示す舵角誤差インジケータ180と車速誤差インジケータ181をシミュレーション結果画像170に設定する。
The result
図19と同様に、結果画像生成部150は、舵角誤差インジケータ180が選択された場合、または、車速誤差インジケータ181が選択された場合に、誤差内訳184がポップアップ表示されるようにシミュレーション結果画像170を設定する。具体的には、結果画像生成部150は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数に基づいて、合成されるフレーム分の有効カテゴリ係数の平均値を求めるようにしてもよい。結果画像生成部150は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数(平均値)の比率を示す舵角誤差の誤差内訳184を生成し、舵角誤差インジケータ180に対応付けてシミュレーション結果画像170のデータに設定する。
As in FIG. 19 , the
また、結果画像生成部150は、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数に基づいて、合成されるフレーム分の有効カテゴリ係数の平均値を求めるようにしてもよい。結果画像生成部150は、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数(平均値)の比率を示す車速誤差の誤差内訳184を生成し、車速誤差インジケータ181に対応付けてシミュレーション結果画像170のデータに設定する。
Further, the
なお、シミュレーション結果画像170は、準理想値ベクトル176と推定値ベクトル178との差を示す要素を含んでもよい。また、シミュレーション結果画像170は、その要素が選択された場合に、準理想値と推定値との誤差内訳を表示するよう構成されてもよい。あるフレームにおける準理想値と推定値との誤差内訳は、同フレームにおける理想値と推定値との誤差内訳と同じ内容が表示されてもよい。さらにまた、シミュレーション結果画像170は、車両シミュレーションの複数のフレームに亘って蓄積された、準理想値と推定値との差を示すよう構成されてもよい。
Note that the
以上、本開示を第4実施例をもとに説明した。第4実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the fourth embodiment. The fourth embodiment is an example, and it should be understood by those skilled in the art that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure.
上記第4実施例のシミュレーション結果画像170では理想値、準理想値、推定値を同時に表示したが、変形例として、シミュレーション結果画像170に表示する値の種類は、ユーザにより選択可能であってもよい。例えば、シミュレーション制御部10の結果画像生成部150は、ユーザの操作に応じて、理想値と推定値を含むが準理想値を含まないシミュレーション結果画像170を生成してもよい。また、結果画像生成部150は、ユーザの操作に応じて、準理想値と推定値を含むが理想値を含まないシミュレーション結果画像170を生成してもよい。
Although ideal values, quasi-ideal values, and estimated values are displayed simultaneously in the
また、上記第4実施例では言及していないが、シミュレーション結果画像170における車両画像172の向き、言い換えれば、シミュレーション結果画像170における車両画像172の進行方向は、ユーザにより変更可能であってもよい。例えば、シミュレーション結果画像170における車両画像172のデフォルトの向きが右向きである場合、結果画像生成部150は、ユーザの操作に応じて、シミュレーション結果画像170における車両画像172の向きを上向き等に変更してもよい。これにより、シミュレーション結果の分析を支援することができる。
Further, although not mentioned in the fourth embodiment, the orientation of the
第1実施例の第1変形例に記載した曲線フィッティング、および、第1実施例の第2変形例に記載したホワイトノイズの足し込みは、第4実施例の変形例としても適用できることはもちろんである。 Of course, the curve fitting described in the first modification of the first embodiment and the addition of white noise described in the second modification of the first embodiment can also be applied as modifications of the fourth embodiment. be.
第4実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目2-1]
実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、シミュレーション結果の画像にて、車両の挙動の理想値(例えば車両の自動運転における指示値)と、車両の挙動の推定値(例えば車両の実際の挙動を示す値)とが区別容易に示されるため、オドメトリセンシングアルゴリズムや車両制御アルゴリズムの評価と課題抽出、およびアルゴリズムの改善に有用なシミュレーション結果を提供することができる。
[項目2-2]
前記画像は、前記理想値と前記推定値との差を示す要素を含む、
項目2-1に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の挙動の理想値と推定値との差をユーザに直観的に把握させ易くなる。
[項目2-3]
前記画像は、所定の操作に応じて、前記理想値と前記推定値との差の内訳を表示するよう構成される、
項目2-1または2-2に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の挙動の理想値と推定値との差に関する分析を支援することができる。
[項目2-4]
前記モデルは、複数の説明変数それぞれの重みを定めたものであり、
前記理想値と前記推定値との差の内訳は、前記複数の説明変数それぞれの重みを示すものである、
項目2-3に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の挙動の理想値と推定値との差が生じた複数の要因、および、各要因の影響度合いを示すことにより、理想値と推定値との差に関する分析を効果的に支援することができる。
[項目2-5]
前記画像は、前記シミュレーションの複数のフレームに亘って蓄積された、前記理想値と前記推定値との差を示すものである、
項目2-1から2-4のいずれかに記載のシミュレーションシステム。
この車両シミュレーションシステムによると、複数のフレームに亘っての車両の挙動の理想値と推定値との蓄積誤差を示すことにより、理想値と推定値との差が一層明確になり、また、理想値と推定値との差に関する分析を効果的に支援することができる。
[項目2-6]
実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出する第1導出部と、
前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する第2導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、シミュレーション結果の画像にて、車両の挙動の準理想値(例えば車両の自動運転においてCANを介して各ECUに入力される値)と、車両の挙動の推定値(例えば車両の実際の挙動を示す値)とが区別容易に示されるため、オドメトリセンシングアルゴリズムや車両制御アルゴリズムの評価と課題抽出、およびアルゴリズムの改善に有用なシミュレーション結果を提供することができる。
[項目2-7]
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
この車両シミュレーション方法によると、項目2-1の車両シミュレーションシステムと同様の効果を奏する。
[項目2-8]
シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出し、
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
この車両シミュレーション方法によると、項目2-6の車両シミュレーションシステムと同様の効果を奏する。
[項目2-9]
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、項目2-1の車両シミュレーションシステムと同様の効果を奏する。
[項目2-10]
シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出し、
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、項目2-6の車両シミュレーションシステムと同様の効果を奏する。
The techniques described in the fourth embodiment and modifications may be specified by the following items.
[Item 2-1]
A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
a derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the simulation scenario by inputting into the model ideal values regarding the behavior of the vehicle derived based on the simulation scenario;
a generator that generates an image showing the ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
According to this vehicle simulation system, in the image of the simulation result, the ideal value of the behavior of the vehicle (for example, the indicated value in automatic driving of the vehicle) and the estimated value of the behavior of the vehicle (for example, the value indicating the actual behavior of the vehicle). can be easily distinguished, it is possible to provide useful simulation results for evaluating odometry sensing algorithms and vehicle control algorithms, extracting issues, and improving the algorithms.
[Item 2-2]
the image includes elements that indicate the difference between the ideal value and the estimated value;
A vehicle simulation system according to item 2-1.
According to this vehicle simulation system, it becomes easier for the user to intuitively grasp the difference between the ideal value and the estimated value of the behavior of the vehicle.
[Item 2-3]
wherein the image is configured to display a breakdown of the difference between the ideal value and the estimated value in response to a predetermined operation;
A vehicle simulation system according to item 2-1 or 2-2.
According to this vehicle simulation system, it is possible to support the analysis of the difference between the ideal value and the estimated value of the behavior of the vehicle.
[Item 2-4]
The model defines weights for each of a plurality of explanatory variables,
The breakdown of the difference between the ideal value and the estimated value indicates the weight of each of the plurality of explanatory variables,
A vehicle simulation system according to item 2-3.
According to this vehicle simulation system, it is possible to effectively analyze the difference between the ideal and estimated values by showing multiple factors that caused the difference between the ideal and estimated values of vehicle behavior and the degree of influence of each factor. can support
[Item 2-5]
The image shows the difference between the ideal value and the estimated value accumulated over multiple frames of the simulation.
A simulation system according to any one of items 2-1 to 2-4.
According to this vehicle simulation system, by showing the cumulative error between the ideal and estimated values of the behavior of the vehicle over a plurality of frames, the difference between the ideal and estimated values becomes clearer. It can effectively support the analysis on the difference between the estimated value and the
[Item 2-6]
A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
A value corresponding to an ideal value regarding the behavior of the vehicle derived based on a simulation scenario, which is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. a first derivation unit that derives a quasi-ideal value that is a value;
a second derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the scenario of the simulation by inputting ideal values regarding the behavior of the vehicle into the model;
a generation unit that generates an image showing the quasi-ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
According to this vehicle simulation system, in the image of the simulation result, the semi-ideal value of the behavior of the vehicle (for example, the value input to each ECU via CAN in automatic operation of the vehicle) and the estimated value of the behavior of the vehicle (for example, values that indicate the actual behavior of the vehicle), it is possible to provide useful simulation results for evaluating odometry sensing algorithms and vehicle control algorithms, extracting problems, and improving the algorithms.
[Item 2-7]
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in a different manner as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
This vehicle simulation method has the same effect as the vehicle simulation system of item 2-1.
[Item 2-8]
A value corresponding to an ideal value regarding vehicle behavior derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting an ideal value for the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
This vehicle simulation method has the same effect as the vehicle simulation system of item 2-6.
[Item 2-9]
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
This computer program has the same effects as the vehicle simulation system of item 2-1.
[Item 2-10]
A value corresponding to an ideal value regarding the behavior of a vehicle derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle that is input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting ideal values regarding the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
This computer program has the same effect as the vehicle simulation system of item 2-6.
上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。 Any combination of the above-described examples and modifications is also useful as an embodiment of the present disclosure. A new embodiment resulting from the combination has the effects of each combined embodiment and modified example. It should also be understood by those skilled in the art that the functions to be fulfilled by each constituent element described in the claims are realized by each constituent element shown in the embodiments and modified examples singly or in conjunction with each other.
12 ユーザインタフェース、 18 車両モデル部、 20 センサモデル生成装置、 40 モデル記憶部、 50 センサモデル部、 110 車両シミュレーションシステム、 112 CANモデル部、 150 結果画像生成部。
12
Claims (10)
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。 A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
a derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the simulation scenario by inputting into the model ideal values regarding the behavior of the vehicle derived based on the simulation scenario;
a generator that generates an image showing the ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
請求項1に記載の車両シミュレーションシステム。 the image includes elements that indicate the difference between the ideal value and the estimated value;
The vehicle simulation system according to claim 1.
請求項1または2に記載の車両シミュレーションシステム。 wherein the image is configured to display a breakdown of the difference between the ideal value and the estimated value in response to a predetermined operation;
A vehicle simulation system according to claim 1 or 2.
前記理想値と前記推定値との差の内訳は、前記複数の説明変数それぞれの重みを示すものである、
請求項3に記載の車両シミュレーションシステム。 The model defines weights for each of a plurality of explanatory variables,
The breakdown of the difference between the ideal value and the estimated value indicates the weight of each of the plurality of explanatory variables,
A vehicle simulation system according to claim 3.
請求項1から4のいずれかに記載の車両シミュレーションシステム。 The image shows the difference between the ideal value and the estimated value accumulated over multiple frames of the simulation.
A vehicle simulation system according to any one of claims 1 to 4.
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出する第1導出部と、
前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する第2導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。 A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
A value corresponding to an ideal value regarding the behavior of the vehicle derived based on a simulation scenario, which is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. a first derivation unit that derives a quasi-ideal value that is a value;
a second derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the scenario of the simulation by inputting ideal values regarding the behavior of the vehicle into the model;
a generation unit that generates an image showing the quasi-ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。 A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in a different manner as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。 A value corresponding to an ideal value regarding vehicle behavior derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting an ideal value for the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。 A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in a different manner as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。 A value corresponding to an ideal value regarding vehicle behavior derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting an ideal value for the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020007220A JP7320755B2 (en) | 2020-01-21 | 2020-01-21 | Vehicle simulation system, vehicle simulation method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020007220A JP7320755B2 (en) | 2020-01-21 | 2020-01-21 | Vehicle simulation system, vehicle simulation method and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021113768A JP2021113768A (en) | 2021-08-05 |
JP7320755B2 true JP7320755B2 (en) | 2023-08-04 |
Family
ID=77077550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007220A Active JP7320755B2 (en) | 2020-01-21 | 2020-01-21 | Vehicle simulation system, vehicle simulation method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7320755B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118434540A (en) | 2021-12-01 | 2024-08-02 | 索尼集团公司 | Moving body and positioning control method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146086A (en) | 2007-12-13 | 2009-07-02 | Toyota Central R&D Labs Inc | Vehicle fault diagnosis and prediction device |
JP2011070311A (en) | 2009-09-24 | 2011-04-07 | Denso Corp | Driving support display device |
US20110295455A1 (en) | 2008-10-08 | 2011-12-01 | Rene Schenk | Method for adapting a separating clutch in a drive train system of a vehicle and drive train system |
JP2012220378A (en) | 2011-04-11 | 2012-11-12 | Mitsubishi Motors Corp | Vehicle behavior simulation device and method |
JP2016099144A (en) | 2014-11-19 | 2016-05-30 | 日立オートモティブシステムズ株式会社 | Fault simulation system |
WO2017038749A1 (en) | 2015-08-31 | 2017-03-09 | 日立化成株式会社 | Degradation diagnosis device, degradation diagnosis method, and degradation diagnosis system for batteries |
JP2017194302A (en) | 2016-04-19 | 2017-10-26 | クラリオン株式会社 | Position estimation device and estimation method |
-
2020
- 2020-01-21 JP JP2020007220A patent/JP7320755B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146086A (en) | 2007-12-13 | 2009-07-02 | Toyota Central R&D Labs Inc | Vehicle fault diagnosis and prediction device |
US20110295455A1 (en) | 2008-10-08 | 2011-12-01 | Rene Schenk | Method for adapting a separating clutch in a drive train system of a vehicle and drive train system |
JP2011070311A (en) | 2009-09-24 | 2011-04-07 | Denso Corp | Driving support display device |
JP2012220378A (en) | 2011-04-11 | 2012-11-12 | Mitsubishi Motors Corp | Vehicle behavior simulation device and method |
JP2016099144A (en) | 2014-11-19 | 2016-05-30 | 日立オートモティブシステムズ株式会社 | Fault simulation system |
WO2017038749A1 (en) | 2015-08-31 | 2017-03-09 | 日立化成株式会社 | Degradation diagnosis device, degradation diagnosis method, and degradation diagnosis system for batteries |
JP2017194302A (en) | 2016-04-19 | 2017-10-26 | クラリオン株式会社 | Position estimation device and estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP2021113768A (en) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113642633B (en) | Method, device, equipment and medium for classifying driving scene data | |
EP3926582B1 (en) | Model generating apparatus, method, and program, and prediction apparatus | |
US20190096128A1 (en) | Lane Boundary Detection Data Generation In Virtual Environment | |
US20170109458A1 (en) | Testbed for lane boundary detection in virtual driving environment | |
CN106228125B (en) | Method for detecting lane lines based on integrated study cascade classifier | |
CN111179300A (en) | Method, apparatus, system, device and storage medium for obstacle detection | |
CN107622527A (en) | Support the virtual sensor data generation system and method for the rainwater detection algorithm of exploitation view-based access control model | |
US20170083794A1 (en) | Virtual, road-surface-perception test bed | |
CN110986938A (en) | Bumpy road identification method and device and electronic equipment | |
Reway et al. | Test method for measuring the simulation-to-reality gap of camera-based object detection algorithms for autonomous driving | |
EP3859459A1 (en) | A computer implemented machine learning system and a method for operating the machine learning system for determining a time series | |
JP7320756B2 (en) | Vehicle simulation system, vehicle simulation method and computer program | |
US20220092356A1 (en) | Vehicle neural network | |
JP2020109386A (en) | Model generation device, vehicle simulation system, model generation method and computer program | |
CN116702096A (en) | Method and device for measuring and calculating road sliding resistance of vehicle plateau environment | |
JP7320755B2 (en) | Vehicle simulation system, vehicle simulation method and computer program | |
JP7629032B2 (en) | Method and apparatus for providing high resolution digital maps - Patents.com | |
JP7365633B2 (en) | Vehicle simulation system, vehicle simulation method and computer program | |
JP7349626B2 (en) | Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program | |
CN117516956A (en) | Methods, systems and computer program products for objectively evaluating the performance of ADAS/ADS systems | |
CN114677662A (en) | A method, device, device and storage medium for predicting the state of obstacles in front of a vehicle | |
US20240394518A1 (en) | Machine learning model generalization | |
Ginting | Vehicle Detection Simulation using YOLOv4 on Autonomous Vehicle System | |
US12181890B2 (en) | High-definition mapping | |
US20240303978A1 (en) | Measuring the generalization ability of a trained machine learning model with respect to given measurement data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230713 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7320755 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |