JP7729166B2 - Road surface condition estimation system, road surface condition estimation device, road surface condition estimation method, and road surface condition estimation program - Google Patents
Road surface condition estimation system, road surface condition estimation device, road surface condition estimation method, and road surface condition estimation programInfo
- Publication number
- JP7729166B2 JP7729166B2 JP2021169736A JP2021169736A JP7729166B2 JP 7729166 B2 JP7729166 B2 JP 7729166B2 JP 2021169736 A JP2021169736 A JP 2021169736A JP 2021169736 A JP2021169736 A JP 2021169736A JP 7729166 B2 JP7729166 B2 JP 7729166B2
- Authority
- JP
- Japan
- Prior art keywords
- road surface
- host vehicle
- road
- state
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
本開示は、ホスト車両が走行する路面の状態を推定する路面状態推定技術に、関する。 This disclosure relates to road surface condition estimation technology that estimates the condition of the road surface on which a host vehicle is traveling.
特許文献1には、車両が走行する路面の状態を推定する路面状態推定装置が開示されている。この路面状態推定装置は、レーザレーダにより路面上を走査するようにレーザ光を照射し、各照射点に対応する反射強度値を取得する。路面状態推定装置は、機械学習により生成され、反射強度値を用いて路面状態を判別する路面状態判別器を備える。路面状態判別器は、路面状態が未知の路面について取得された多点反射強度値セットを入力として、路面状態を判別して出力する。 Patent Document 1 discloses a road surface condition estimation device that estimates the condition of the road surface on which a vehicle is traveling. This road surface condition estimation device uses a laser radar to emit laser light to scan the road surface and obtain reflection intensity values corresponding to each irradiation point. The road surface condition estimation device is equipped with a road surface condition classifier that is generated by machine learning and uses the reflection intensity values to determine the road surface condition. The road surface condition classifier receives as input a multi-point reflection intensity value set obtained for a road surface with unknown road surface conditions, and determines and outputs the road surface condition.
特許文献1の技術では、レーザ光が路面上を走査するようにレーザレーダを設置する必要がある。しかし、その場合、レーザレーダの検知可能な距離が比較的短くなる。 The technology in Patent Document 1 requires that the laser radar be installed so that the laser light scans the road surface. However, in this case, the detectable distance of the laser radar becomes relatively short.
本開示の課題は、光学センサの検知可能距離を確保しつつ、路面の状態を推定可能な路面状態推定システムを、提供することにある。本開示の別の課題は、路面状態推定装置を、提供することにある。本開示のさらに別の課題は、路面状態推定方法を、提供することにある。本開示のさらに別の課題は、路面状態推定プログラムを、提供することにある。 An object of the present disclosure is to provide a road surface condition estimation system that can estimate the condition of a road surface while ensuring the detectable distance of an optical sensor. Another object of the present disclosure is to provide a road surface condition estimation device. A further object of the present disclosure is to provide a road surface condition estimation method. A further object of the present disclosure is to provide a road surface condition estimation program.
以下、課題を解決するための本開示の技術的手段について、説明する。尚、特許請求の範囲及び本欄に記載された括弧内の符号は、後に詳述する実施形態に記載された具体的手段との対応関係を示すものであり、本開示の技術的範囲を限定するものではない。 The technical means of the present disclosure for solving the problems will be explained below. Note that the reference symbols in parentheses in the claims and this section indicate the correspondence with the specific means described in the embodiments described in detail below, and do not limit the technical scope of the present disclosure.
本開示の第1態様は、プロセッサ(102)を有し、光照射に応じた反射光を検出する光学センサ(10)であってホスト車両(A)の後方をセンシング領域とする光学センサ及びホスト車両の前方をセンシング領域とする光学センサを搭載したホスト車両が走行する路面の状態を推定する路面状態推定システムであって、
プロセッサは、
ホスト車両の後方をセンシング領域とする光学センサによる走行方向後方の反射光情報を取得することと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識することと、
飛散状態に基づいて、路面の状態を推定することと、
を実行するように構成され、
飛散状態を認識することは、ホスト車両の後方に設定された距離範囲内における注目領域(R)での飛散状態を認識することを含み、
路面の状態を推定することは、路面が悪路状態であるか否かを判断することを含み、
プロセッサは、路面が悪路状態であると推定された場合に、悪路状態に対応する対応処理を実行することを、さらに実行するように構成され、
対応処理を実行することは、路面が悪路状態であると推定されると、ホスト車両の前方をセンシング領域とする光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の点群を前走車(B)として認識することを含む。
A first aspect of the present disclosure is a road surface condition estimation system that includes a processor (102) and an optical sensor (10) that detects reflected light in response to light irradiation, the optical sensor having a sensing area behind a host vehicle (A) and an optical sensor having a sensing area in front of the host vehicle, and that estimates the condition of a road surface on which a host vehicle is traveling, the host vehicle being equipped with the optical sensor,
The processor
acquiring reflected light information behind the host vehicle in the traveling direction by an optical sensor having a sensing area behind the host vehicle ;
Recognizing the state of scattering of scattered matter kicked up from the road surface by the running of the host vehicle based on the reflected light information;
Estimating the state of the road surface based on the scattering state;
configured to run
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
Estimating the road surface condition includes determining whether the road surface is in a bad road condition;
The processor is further configured to, when it is estimated that the road surface is in a bad road state, perform a response process corresponding to the bad road state;
Executing the response processing includes, when it is estimated that the road surface is in a bad condition, recognizing the point cloud in front as the vehicle ahead (B) in the case where there are point clouds ahead in the driving direction in the reflected light information ahead in the driving direction obtained by an optical sensor whose sensing area is ahead of the host vehicle .
本開示の第2態様は、プロセッサ(102)を有し、光照射に応じた反射光を検出する光学センサ(10)であってホスト車両(A)の後方をセンシング領域とする光学センサ及びホスト車両の前方をセンシング領域とする光学センサを搭載したホスト車両が走行する路面の状態を推定する路面状態推定装置であって、
プロセッサは、
ホスト車両の後方をセンシング領域とする光学センサによる走行方向後方の反射光情報を取得することと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識することと、
飛散状態に基づいて、路面の状態を推定することと、
を実行するように構成され、
飛散状態を認識することは、ホスト車両の後方に設定された距離範囲内における注目領域(R)での飛散状態を認識することを含み、
路面の状態を推定することは、路面が悪路状態であるか否かを判断することを含み、
プロセッサは、路面が悪路状態であると推定された場合に、悪路状態に対応する対応処理を実行することを、さらに実行するように構成され、
対応処理を実行することは、路面が悪路状態であると推定されると、ホスト車両の前方をセンシング領域とする光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の点群を前走車(B)として認識することを含む。
A second aspect of the present disclosure is a road surface condition estimation device that includes a processor (102) and an optical sensor (10) that detects reflected light in response to light irradiation, the optical sensor having a sensing area behind a host vehicle (A) and an optical sensor having a sensing area in front of the host vehicle, and that estimates the condition of a road surface on which a host vehicle is traveling, the host vehicle being equipped with the optical sensor,
The processor
acquiring reflected light information behind the host vehicle in the traveling direction by an optical sensor having a sensing area behind the host vehicle ;
Recognizing the state of scattering of scattered matter kicked up from the road surface by the running of the host vehicle based on the reflected light information;
Estimating the state of the road surface based on the scattering state;
configured to run
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
Estimating the road surface condition includes determining whether the road surface is in a bad road condition;
The processor is further configured to, when it is estimated that the road surface is in a bad road state, perform a response process corresponding to the bad road state;
Executing the response processing includes, when it is estimated that the road surface is in a bad condition, recognizing the point cloud in front as the vehicle ahead (B) in the case where there are point clouds ahead in the driving direction in the reflected light information ahead in the driving direction obtained by an optical sensor whose sensing area is ahead of the host vehicle .
本開示の第3態様は、光照射に応じた反射光を検出する光学センサ(10)であってホスト車両(A)の後方をセンシング領域とする光学センサ及びホスト車両の前方をセンシング領域とする光学センサを搭載したホスト車両が走行する路面の状態を推定するために、プロセッサ(102)により実行される路面状態推定方法であって、
ホスト車両の後方をセンシング領域とする光学センサによる走行方向後方の反射光情報を取得することと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識することと、
飛散状態に基づいて、路面の状態を推定することと、
を含み、
飛散状態を認識することは、ホスト車両の後方に設定された距離範囲内における注目領域(R)での飛散状態を認識することを含み、
路面の状態を推定することは、路面が悪路状態であるか否かを判断することを含み、
路面が悪路状態であると推定された場合に、悪路状態に対応する対応処理を実行することを含み、
対応処理を実行することは、路面が悪路状態であると推定されると、ホスト車両の前方をセンシング領域とする光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の点群を前走車(B)として認識することを含む。
A third aspect of the present disclosure is a road surface condition estimation method executed by a processor (102) to estimate the condition of a road surface on which a host vehicle (A) is traveling, the host vehicle being equipped with an optical sensor (10) that detects reflected light in response to light irradiation, the optical sensor having a sensing area behind the host vehicle and an optical sensor having a sensing area in front of the host vehicle, the method comprising:
acquiring reflected light information behind the host vehicle in the traveling direction by an optical sensor having a sensing area behind the host vehicle ;
Recognizing the state of scattering of scattered matter kicked up from the road surface by the running of the host vehicle based on the reflected light information;
Estimating the state of the road surface based on the scattering state;
Including,
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
Estimating the road surface condition includes determining whether the road surface is in a bad road condition;
When it is estimated that the road surface is in a bad road state, a corresponding process is executed to correspond to the bad road state;
Executing the response processing includes, when it is estimated that the road surface is in a bad condition, recognizing the point cloud in front as the vehicle ahead (B) in the case where there are point clouds ahead in the driving direction in the reflected light information ahead in the driving direction obtained by an optical sensor whose sensing area is ahead of the host vehicle .
本開示の第4態様は、光照射に応じた反射光を検出する光学センサ(10)であってホスト車両(A)の後方をセンシング領域とする光学センサ及びホスト車両の前方をセンシング領域とする光学センサを搭載したホスト車両が走行する路面の状態を推定するために記憶媒体(101)に記憶され、プロセッサ(102)に実行させる命令を含む路面状態推定プログラムであって、
命令は、
ホスト車両の後方をセンシング領域とする光学センサによる走行方向後方の反射光情報を取得させることと、
反射光情報に基づき、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態を認識させることと、
飛散状態に基づいて、路面の状態を推定させることと、
を含み、
飛散状態を認識させることは、ホスト車両の後方に設定された距離範囲内における注目領域(R)での飛散状態を認識させることを含み、
路面の状態を推定させることは、路面が悪路状態であるか否かを判断させることを含み、
命令は、路面が悪路状態であると推定された場合に、悪路状態に対応する対応処理を実行させることを含み、
対応処理を実行させることは、路面が悪路状態であると推定されると、ホスト車両の前方をセンシング領域とする光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の点群を前走車(B)として認識させることを含む。
A fourth aspect of the present disclosure is a road surface condition estimation program stored in a storage medium (101) for estimating the condition of a road surface on which a host vehicle (A) equipped with an optical sensor (10) that detects reflected light in response to light irradiation, the host vehicle (A) having an optical sensor with a sensing area behind the host vehicle and an optical sensor with a sensing area ahead of the host vehicle, is traveling, the program including instructions to be executed by a processor (102),
The command is,
acquiring reflected light information behind the host vehicle in the traveling direction by an optical sensor having a sensing area behind the host vehicle ;
Based on the reflected light information, the state of scattering of the scattered matter kicked up from the road surface by the running of the host vehicle is recognized;
Estimating the state of the road surface based on the state of scattering;
Including,
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
Estimating the road surface condition includes determining whether the road surface is in a bad road condition,
The instructions include executing a response process corresponding to the bad road condition when it is estimated that the road surface is in a bad road condition;
Executing the response processing includes, when it is estimated that the road surface is in a bad condition, recognizing the point cloud in front as the vehicle ahead (B) in the case where there are point clouds ahead in the driving direction in the reflected light information ahead in the driving direction obtained by an optical sensor whose sensing area is ahead of the host vehicle .
これら第1~第4態様によると、走行方向後方の反射光情報により、ホスト車両の走行により路面から巻き上げられた飛散物質の飛散状態に基づき、路面の状態が推定される。故に、走行により巻き上げられる物質が路面上に存在するか否かが、飛散物質の飛散状態により間接的に推定され得る。したがって、光学センサが路面上を走査する必要性が低下するため、当該センサの検知可能距離を確保し易くなる。以上により、光学センサの検知可能距離を確保しつつ、路面の状態を推定可能となり得る。 According to these first to fourth aspects, the road surface condition is estimated based on the scattering state of airborne material kicked up from the road surface by the host vehicle's travel using reflected light information from behind in the direction of travel. Therefore, whether or not material kicked up by travel is present on the road surface can be indirectly estimated based on the scattering state of the airborne material. This reduces the need for the optical sensor to scan the road surface, making it easier to ensure the sensor's detectable distance. As a result, it is possible to estimate the road surface condition while ensuring the optical sensor's detectable distance.
以下、本開示の実施形態を図面に基づき複数説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことで、重複する説明を省略する場合がある。又、各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。さらに、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。 Below, several embodiments of the present disclosure will be described with reference to the drawings. Note that corresponding components in each embodiment will be given the same reference numerals, and duplicate descriptions may be omitted. Furthermore, when only a portion of the configuration is described in each embodiment, the configuration of another previously described embodiment may be applied to the remaining portions of that configuration. Furthermore, in addition to the combinations of configurations explicitly stated in the description of each embodiment, configurations of multiple embodiments may also be partially combined together even if not explicitly stated, provided that there are no particular problems with the combination.
(第1実施形態)
図1に示す第1実施形態の路面状態推定システム100は、図2に示すホスト車両Aが走行する路面の状態を推定する。ホスト車両Aを中心とする視点において、ホスト車両Aは自車両(ego-vehicle)であるともいえる。ホスト車両Aを中心とする視点において、ターゲット車両Bは他道路ユーザであるともいえる。
(First embodiment)
The road surface condition estimation system 100 of the first embodiment shown in Fig. 1 estimates the condition of the road surface on which a host vehicle A shown in Fig. 2 is traveling. From a perspective centered on the host vehicle A, the host vehicle A can also be said to be an ego-vehicle. From a perspective centered on the host vehicle A, the target vehicle B can also be said to be another road user.
ホスト車両Aにおいては、運転タスクにおける乗員の手動介入度に応じてレベル分けされる、自動運転モードが与えられる。自動運転モードは、条件付運転自動化、高度運転自動化、又は完全運転自動化といった、作動時のシステムが全ての運転タスクを実行する自律走行制御により、実現されてもよい。自動運転モードは、運転支援、又は部分運転自動化といった、乗員が一部若しくは全ての運転タスクを実行する高度運転支援制御により、実現されてもよい。自動運転モードは、それら自律走行制御と高度運転支援制御とのいずれか一方、組み合わせ、又は切り替えにより実現されてもよい。 Host vehicle A is provided with an autonomous driving mode that is divided into levels according to the degree of manual intervention by the occupant in the driving task. The autonomous driving mode may be realized by autonomous driving control, such as conditional driving automation, high driving automation, or full driving automation, in which the system performs all driving tasks when activated. The autonomous driving mode may also be realized by advanced driving assistance control, such as driving assistance or partial driving automation, in which the occupant performs some or all driving tasks. The autonomous driving mode may be realized by either autonomous driving control or advanced driving assistance control, or by a combination of these, or by switching between them.
ホスト車両Aには、図3に示すLiDAR装置10、内界センサ20、通信系30、及び走行制御系40が搭載される。 Host vehicle A is equipped with a LiDAR device 10, an internal sensor 20, a communication system 30, and a driving control system 40, as shown in Figure 3.
LiDAR装置10は、光の照射に対する反射点からの反射光を検出することで、反射点までの距離を測定する光学センサである。ホスト車両Aには、例えば、少なくともホスト車両Aの後方をセンシング領域とするLiDAR装置10が設けられている。ホスト車両Aには、さらに、ホスト車両Aの前方をセンシング領域とするLiDAR装置10が設けられていてもよい。すなわち、LiDAR装置10は、ホスト車両Aに複数設けられていてよい。又は、ホスト車両Aの実質全周囲をセンシング領域とするLiDAR装置10が設けられていてもよい。LiDAR装置10は、発光部11、受光部12、ミラー及び制御回路14を備えている。 The LiDAR device 10 is an optical sensor that measures the distance to a reflection point by detecting light reflected from the reflection point in response to light irradiation. For example, the host vehicle A is provided with a LiDAR device 10 whose sensing area is at least the rear of the host vehicle A. The host vehicle A may also be provided with a LiDAR device 10 whose sensing area is the front of the host vehicle A. That is, multiple LiDAR devices 10 may be provided on the host vehicle A. Alternatively, a LiDAR device 10 whose sensing area is substantially the entire periphery of the host vehicle A may be provided. The LiDAR device 10 includes a light emitter 11, a light receiver 12, a mirror, and a control circuit 14.
発光部11は、例えばレーザダイオード等の、指向性レーザ光を発する半導体素子である。発光部11は、車両Aの外界へ向かうレーザ光を、断続的なパルスビーム状に照射する。受光部12は、例えばSPAD(Single Photon Avalanche Diode)等の、光に対して高感度な受光素子により構成されている。受光素子は、二次元方向にアレイ状に複数配列されている。隣接する複数の受光素子の組により、1つの受光画素(以下、画素ともいう)が構成される。尚、1つの受光画素を構成する受光素子の個数は、制御回路14により変更可能である。受光部12の外界のうち、受光部12の画角により決まるセンシング領域から入射する光により、受光素子が露光される。 The light-emitting unit 11 is a semiconductor element, such as a laser diode, that emits directional laser light. The light-emitting unit 11 emits laser light in the form of an intermittent pulse beam toward the outside of vehicle A. The light-receiving unit 12 is composed of highly sensitive light-receiving elements, such as a SPAD (Single Photon Avalanche Diode). Multiple light-receiving elements are arranged in a two-dimensional array. A set of multiple adjacent light-receiving elements constitutes one light-receiving pixel (hereinafter also referred to as a pixel). The number of light-receiving elements that constitute one light-receiving pixel can be changed by the control circuit 14. The light-receiving elements are exposed to light that enters from a sensing area, determined by the angle of view of the light-receiving unit 12, from the outside of the light-receiving unit 12.
アクチュエータ13は、発光部11から照射されたレーザ光をLiDAR装置10の出射面へと反射する反射鏡の反射角を制御する。アクチュエータ13が反射鏡の反射角を制御することで、レーザ光がスキャンされる。スキャン方向は、水平方向であってもよく、垂直方向であってもよい。尚、アクチュエータ13は、LiDAR装置10の筐体自体の姿勢角を制御することで、レーザ光をスキャンするものであってもよい。 The actuator 13 controls the reflection angle of the reflector that reflects the laser light emitted from the light emitter 11 onto the emission surface of the LiDAR device 10. The laser light is scanned by the actuator 13 controlling the reflection angle of the reflector. The scanning direction may be horizontal or vertical. The actuator 13 may also scan the laser light by controlling the attitude angle of the housing of the LiDAR device 10 itself.
制御回路14は、発光部11、受光部12及びアクチュエータ13を制御する。制御回路14は、メモリ及びプロセッサを、少なくとも1つずつ含んで構成されるコンピュータである。メモリは、コンピュータにより読み取り可能なプログラム及びデータを非一時的に格納又は記憶する、例えば半導体メモリ、磁気媒体及び光学媒体等のうち少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。メモリは、プロセッサによって実行される種々のプログラムを格納している。 The control circuit 14 controls the light-emitting unit 11, the light-receiving unit 12, and the actuator 13. The control circuit 14 is a computer that includes at least one memory and one processor. The memory is at least one type of non-transitory tangible storage medium, such as semiconductor memory, magnetic media, or optical media, that non-temporarily stores or stores computer-readable programs and data. The memory stores various programs executed by the processor.
制御回路14は、受光部12における複数画素の露光及びスキャンを制御すると共に、受光部12からの信号を処理してデータ化する。制御回路14は、発光部11による光照射に対する反射光を受光部12にて検出する反射光検出を実行可能である。 The control circuit 14 controls the exposure and scanning of multiple pixels in the light receiving unit 12, and processes signals from the light receiving unit 12 to convert them into data. The control circuit 14 can also perform reflected light detection, in which the light receiving unit 12 detects reflected light from light emitted by the light emitting unit 11.
反射光検出において、発光部11から照射されたレーザ光は、センシング領域内の物体にあたり、反射する。この反射した部分がレーザ光の反射点となる。反射点にて反射されたレーザ光(以下、反射光という)は入射面を通して受光部12に入射し、露光する。このとき制御回路14は、受光部12の複数画素をスキャンすることで、画角内の様々な角度の反射光を取得する。これにより、制御回路14は、反射物の点群画像を取得する。 In reflected light detection, laser light emitted from the light-emitting unit 11 hits an object within the sensing area and is reflected. This reflected point becomes the reflection point of the laser light. The laser light reflected from the reflection point (hereinafter referred to as reflected light) enters the light-receiving unit 12 through the incident surface and causes exposure. At this time, the control circuit 14 scans multiple pixels of the light-receiving unit 12 to acquire reflected light at various angles within the angle of view. In this way, the control circuit 14 acquires a point cloud image of the reflecting object.
詳記すると、制御回路14は、各画素において、一定時間内にスキャンして得られた反射光の強度、又はその強度に基づいて得られた値(以下、反射強度と表記する)を得られた距離ごとに積算する。これにより、制御回路14は、図5等に示すような距離と反射強度のヒストグラムを取得する。制御回路14は、ヒストグラムの各ビンの反射強度に基づいて反射点までの距離を算出する。具体的には、制御回路14は、所定の閾値以上のビンに対して、近似曲線を生成し、当該近似曲線の極値を、その画素における反射点までの距離とする。制御回路14は、全画素について上述の処理を行うことで、画素ごとに距離情報を含んだ点群画像を生成可能である。点群画像は、「反射光情報」の一例である。 More specifically, the control circuit 14 integrates the intensity of reflected light obtained by scanning each pixel within a certain period of time, or a value obtained based on that intensity (hereinafter referred to as reflection intensity), for each distance obtained. This allows the control circuit 14 to obtain a histogram of distance and reflection intensity, such as that shown in FIG. 5. The control circuit 14 calculates the distance to the reflection point based on the reflection intensity of each bin in the histogram. Specifically, the control circuit 14 generates an approximation curve for bins that are equal to or greater than a predetermined threshold, and sets the extreme value of the approximation curve as the distance to the reflection point at that pixel. By performing the above processing for all pixels, the control circuit 14 can generate a point cloud image containing distance information for each pixel. A point cloud image is an example of "reflected light information."
尚、制御回路14は、発光部11による光照射の停止中に背景光を受光部12にて検出する背景光検出も実行可能である。背景光は、外光又は外乱光と呼称することも可能である。 The control circuit 14 can also perform background light detection, in which the light receiving unit 12 detects background light while light emission by the light emitting unit 11 is stopped. Background light can also be called external light or ambient light.
制御回路14は、以上の反射光検出時及び背景光検出時において、発光部11のスキャン速度及び受光部12の受光周波数を制御可能である。制御回路14は、アクチュエータ13を制御することで、スキャン速度を変更する。 The control circuit 14 can control the scanning speed of the light-emitting unit 11 and the light-receiving frequency of the light-receiving unit 12 when detecting reflected light and background light. The control circuit 14 changes the scanning speed by controlling the actuator 13.
内界センサ20は、ホスト車両Aの内部環境となる内界から、路面状態推定システム100により利用可能な内界情報を取得する。内界センサ20は、ホスト車両Aの内界において特定の運動物理量を検知することで、内界情報を取得する。内界センサ20は、車速センサを含む。内界センサ20は、加速度センサ、及びジャイロセンサ等のうち、少なくとも一種類をさらに含んでいてもよい。 The internal sensor 20 acquires internal information usable by the road surface condition estimation system 100 from the internal environment of the host vehicle A. The internal sensor 20 acquires internal information by detecting specific physical quantities of motion in the internal environment of the host vehicle A. The internal sensor 20 includes a vehicle speed sensor. The internal sensor 20 may further include at least one of an acceleration sensor, a gyro sensor, etc.
通信系30は、路面状態推定システム100により利用可能な通信情報を、無線通信により取得する。通信系30は、ホスト車両Aの外界に存在するGNSS(Global Navigation Satellite System)の人工衛星から、測位信号を受信してもよい。測位タイプの通信系30は、例えばGNSS受信機等である。通信系30は、ホスト車両Aの外界に存在するV2Xシステムとの間において、通信信号を送受信してもよい。V2Xタイプの通信系30は、例えばDSRC(Dedicated Short Range Communications)通信機、及びセルラV2X(C-V2X)通信機等のうち、少なくとも一種類である。通信系30は、ホスト車両Aの内界に存在する端末との間において、通信信号を送受信してもよい。端末通信タイプの通信系30は、例えばBluetooth(登録商標)機器、Wi-Fi(登録商標)機器、及び赤外線通信機器等のうち、少なくとも一種類である。 The communication system 30 acquires communication information usable by the road surface condition estimation system 100 via wireless communication. The communication system 30 may receive positioning signals from GNSS (Global Navigation Satellite System) satellites located outside the host vehicle A. A positioning-type communication system 30 is, for example, a GNSS receiver. The communication system 30 may transmit and receive communication signals to and from a V2X system located outside the host vehicle A. A V2X-type communication system 30 is, for example, at least one of a DSRC (Dedicated Short Range Communications) communication device and a cellular V2X (C-V2X) communication device. The communication system 30 may transmit and receive communication signals to and from a terminal located inside the host vehicle A. A terminal-communication-type communication system 30 is, for example, at least one of a Bluetooth (registered trademark) device, a Wi-Fi (registered trademark) device, an infrared communication device, etc.
走行制御系40は、ホスト車両Aの走行制御を行う構成である。走行制御系40としては、操舵制御を行う操舵ECU、加減速制御を行うパワーユニット制御ECU及びブレーキECU等がある。走行制御系40は、ホスト車両Aに搭載された舵角センサ、車速センサ等の各センサから出力される検出信号を取得し、電子制御スロットル、ブレーキアクチュエータ、EPS(Electric Power Steering)モータ等の各走行制御デバイスへ制御信号を出力する。走行制御系40は、ホスト車両Aの制御指示を路面状態推定システム100等から取得することで、当該制御指示に従う自動走行又は手動運転を実現するように、各走行制御デバイスを制御する。 The driving control system 40 is configured to control the driving of the host vehicle A. The driving control system 40 includes a steering ECU that controls steering, a power unit control ECU that controls acceleration and deceleration, and a brake ECU. The driving control system 40 acquires detection signals output from various sensors mounted on the host vehicle A, such as a steering angle sensor and a vehicle speed sensor, and outputs control signals to various driving control devices, such as an electronically controlled throttle, brake actuator, and EPS (Electric Power Steering) motor. The driving control system 40 acquires control instructions for the host vehicle A from the road surface condition estimation system 100, etc., and controls each driving control device to achieve automatic driving or manual driving in accordance with the control instructions.
路面状態推定システム100は、例えばLAN(Local Area Network)回線、ワイヤハーネス、内部バス、及び無線通信回線等のうち、少なくとも一種類を介してLiDAR装置10、内界センサ20、通信系30及び走行制御系40に接続されている。路面状態推定システム100は、少なくとも一つの専用コンピュータを含んで構成されている。 The road surface condition estimation system 100 is connected to the LiDAR device 10, internal sensor 20, communication system 30, and driving control system 40 via at least one of, for example, a LAN (Local Area Network) line, a wire harness, an internal bus, or a wireless communication line. The road surface condition estimation system 100 is configured to include at least one dedicated computer.
路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転を制御する、運転制御ECU(Electronic Control Unit)であってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの走行経路をナビゲートする、ナビゲーションECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの自己状態量を推定する、ロケータECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの走行アクチュエータを制御する、アクチュエータECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aにおける情報提示を制御する、HCU(HMI(Human Machine Interface) Control Unit)であってもよい。路面状態推定システム100を構成する専用コンピュータは、例えばV2Xタイプの通信系30を介して通信可能な外部センタ又はモバイル端末等を構成する、ホスト車両A以外のコンピュータであってもよい。 The dedicated computer constituting the road surface condition estimation system 100 may be a driving control ECU (Electronic Control Unit) that controls the driving of the host vehicle A. The dedicated computer constituting the road surface condition estimation system 100 may be a navigation ECU that navigates the driving route of the host vehicle A. The dedicated computer constituting the road surface condition estimation system 100 may be a locator ECU that estimates the host vehicle A's own state quantity. The dedicated computer constituting the road surface condition estimation system 100 may be an actuator ECU that controls the driving actuator of the host vehicle A. The dedicated computer constituting the road surface condition estimation system 100 may be an HCU (Human Machine Interface Control Unit) that controls the presentation of information in the host vehicle A. The dedicated computer constituting the road surface condition estimation system 100 may be a computer other than the host vehicle A that constitutes, for example, an external center or mobile terminal that can communicate via a V2X type communication system 30.
路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御を統合する、統合ECU(Electronic Control Unit)であってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御における運転タスクを判断する、判断ECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御を監視する、監視ECUであってもよい。路面状態推定システム100を構成する専用コンピュータは、ホスト車両Aの運転制御を評価する、評価ECUであってもよい。 The dedicated computer that constitutes the road surface condition estimation system 100 may be an integrated ECU (Electronic Control Unit) that integrates the driving control of the host vehicle A. The dedicated computer that constitutes the road surface condition estimation system 100 may be a judgment ECU that determines the driving task in the driving control of the host vehicle A. The dedicated computer that constitutes the road surface condition estimation system 100 may be a monitoring ECU that monitors the driving control of the host vehicle A. The dedicated computer that constitutes the road surface condition estimation system 100 may be an evaluation ECU that evaluates the driving control of the host vehicle A.
路面状態推定システム100を構成する専用コンピュータは、メモリ101及びプロセッサ102を、少なくとも一つずつ有している。メモリ101は、コンピュータにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサ102は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RISC(Reduced Instruction Set Computer)-CPU、DFP(Data Flow Processor)、及びGSP(Graph Streaming Processor)等のうち、少なくとも一種類をコアとして含んでいる。 The dedicated computer that constitutes the road surface condition estimation system 100 has at least one memory 101 and one processor 102. The memory 101 is at least one type of non-transitory tangible storage medium, such as semiconductor memory, magnetic media, or optical media, that non-temporarily stores computer-readable programs and data. The processor 102 includes at least one type of core, such as a CPU (Central Processing Unit), GPU (Graphics Processing Unit), RISC (Reduced Instruction Set Computer)-CPU, DFP (Data Flow Processor), or GSP (Graph Streaming Processor).
路面状態推定システム100においてプロセッサ102は、ホスト車両Aが走行する路面の状態を推定するためにメモリ101に記憶された、路面状態推定プログラムに含まれる複数の命令を実行する。これにより路面状態推定システム100は、ホスト車両Aが走行する路面の状態を推定するための機能ブロックを、複数構築する。路面状態推定システム100において構築される複数の機能ブロックには、図3に示すように取得ブロック110、認識ブロック120、推定ブロック130、及び対応ブロック140が含まれている。 In the road surface condition estimation system 100, the processor 102 executes multiple instructions contained in a road surface condition estimation program stored in the memory 101 to estimate the condition of the road surface on which the host vehicle A is traveling. As a result, the road surface condition estimation system 100 constructs multiple functional blocks for estimating the condition of the road surface on which the host vehicle A is traveling. The multiple functional blocks constructed in the road surface condition estimation system 100 include an acquisition block 110, a recognition block 120, an estimation block 130, and a correspondence block 140, as shown in FIG. 3.
これらのブロック110,120,130,140の共同により、路面状態推定システム100がホスト車両Aの走行する路面の状態を推定する路面状態推定方法のフロー(以下、路面状態推定フローという)を、図4及び図5に従って以下に説明する。本処理フローは、ホスト車両Aの起動中に繰り返し実行される。尚、本処理フローにおける各「S」は、路面状態推定プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味している。 The flow of the road surface condition estimation method (hereinafter referred to as the road surface condition estimation flow) in which the road surface condition estimation system 100 estimates the condition of the road surface on which the host vehicle A is traveling, using the cooperation of these blocks 110, 120, 130, and 140, is described below with reference to Figures 4 and 5. This processing flow is executed repeatedly while the host vehicle A is running. Note that each "S" in this processing flow represents multiple steps executed by multiple commands included in the road surface condition estimation program.
まず、図4のS10では、認識ブロック120が、ホスト車両Aの車速が判定範囲に到達したか否かを判定する。例えば、判定範囲は、車速が閾値(例えば時速50km)以上又は閾値よりも大きい範囲である。車速が判定範囲に到達していないと判定された場合には、本フローが終了される。一方で、車速が判定範囲に到達していると判定された場合には、S10にて路面状態の判定が実行される。 First, in S10 of Figure 4, the recognition block 120 determines whether the vehicle speed of host vehicle A has reached the determination range. For example, the determination range is the range in which the vehicle speed is equal to or greater than a threshold value (e.g., 50 km/h). If it is determined that the vehicle speed has not reached the determination range, this flow ends. On the other hand, if it is determined that the vehicle speed has reached the determination range, a determination of the road surface condition is made in S10.
S10における判定処理では、ホスト車両Aの走行により路面から巻き上げられた飛散物質の飛散状態により、路面の状態を推定する。飛散物質は、例えば、水滴や雪等の水関連物質である。又、ここでの路面の状態とは、水関連物質が路面に許容限度を超えて存在しているか否かの状態である。水関連物質が路面に許容限度を超えて存在している状態とは、路面が湿潤状態、又は積雪状態であるということもできる。このような状態は、路面が悪路であるということもできる。尚、飛散物質は、砂や土等であってもよい。この場合、路面が悪路であるということは、路面が所謂オフロード状態であるということになる。 In the determination process at S10, the road surface condition is estimated based on the state of airborne matter kicked up from the road surface by the travel of host vehicle A. Airborne matter is, for example, water-related matter such as water droplets or snow. The road surface condition here refers to whether or not water-related matter is present on the road surface in excess of the allowable limit. A state in which water-related matter is present on the road surface in excess of the allowable limit can also be said to be a wet state or a state of snow accumulation. Such a state can also be said to be a rough road surface. Note that airborne matter may be sand, soil, etc. In this case, a rough road surface means that the road surface is in a so-called off-road state.
図5に従ってS10の詳細処理を説明すると、まずS100では、取得ブロック110が、走行方向後方をセンシング領域とするLiDAR装置10にて検出された現在フレームの反射光情報を取得する。続くS110では、認識ブロック120が、現在フレームの反射光情報における、注目領域R内の反射点の数(以下、点数)Nkをカウントする。注目領域R内の点数が、当該フレームにおける飛散物質の飛散状態に関連するパラメータとなる。 The detailed processing of S10 will be explained with reference to Figure 5. First, in S100, the acquisition block 110 acquires reflected light information for the current frame detected by the LiDAR device 10, whose sensing area is the rear in the direction of travel. Next, in S110, the recognition block 120 counts the number of reflection points (hereinafter referred to as points) Nk within the region of interest R in the reflected light information for the current frame. The number of points within the region of interest R becomes a parameter related to the state of dispersion of airborne matter in that frame.
注目領域Rは、例えば、図2に示すように、LiDAR装置10の画角と、設定距離lとによって規定される。尚、図2において、x方向がホスト車両Aの前後方向(走行方向)、y方向がホスト車両Aの左右方向、z方向がホスト車両Aの上下方向である。設定距離lは、注目領域Rを規定するx方向の距離範囲である。設定距離lは、原点から画角の下方範囲と路面との交点までのx方向距離から、マージンを差し引いた距離とされる。マージンは、例えば、路面の凹凸及び車体の沈み込みを考慮して設定されればよい。尚、注目領域Rの左右方向の範囲は、LiDAR装置10の左右方向の画角に基づき規定されればよい。 As shown in FIG. 2, the region of interest R is defined by the angle of view of the LiDAR device 10 and a set distance l. In FIG. 2, the x direction is the longitudinal direction (driving direction) of the host vehicle A, the y direction is the lateral direction of the host vehicle A, and the z direction is the vertical direction of the host vehicle A. The set distance l is the distance range in the x direction that defines the region of interest R. The set distance l is the distance in the x direction from the origin to the intersection of the lower range of the angle of view and the road surface, minus a margin. The margin may be set, for example, taking into account unevenness in the road surface and sinking of the vehicle body. The left-right range of the region of interest R may be defined based on the left-right angle of view of the LiDAR device 10.
したがって、点群情報に含まれる複数の反射点を以下の数式(1)のように定義すると、認識ブロック120は、数式(2)及び(3)の両方を満たす反射点を、注目領域R内の反射点としてカウントする。こうした処理により、認識ブロック120は、注目領域R内の反射点を、ホスト車両Aの走行により巻き上げられた飛散物質(図2の黒点参照)の反射点とみなして認識する。
続くS120では、認識ブロック120が、時系列の複数フレームのそれぞれにてカウントされた点数を、積算する。認識ブロック120は、図6に示すように設定された時間窓ΔT内の各フレームにおける点数を積算することで、合計点数Mを算出する。すなわち、認識ブロック120の算出する合計点数Mは、以下の数式(4)にて表すことができる。この合計点数Mが、注目領域R内における飛散物質の飛散状態についての認識結果となる。
続くS130では、推定ブロック130が、合計点数Mが第1閾値M1を上回っているか否かを判定する。上回っていると判定されると、本フローがS140へと移行する。S140では、推定ブロック130が、悪路フラグをオンに設定する。合計点数Mが第1閾値M1を上回っていることは、飛散物質の飛散度が悪路判定範囲に到達していることに相当する。すなわち、合計点数Mは、注目領域R内で認識される飛散物質の反射点数に基づく飛散物質の飛散度の一例である。 Next, in S130, the estimation block 130 determines whether the total score M exceeds the first threshold M1. If it is determined that it does, the flow proceeds to S140. In S140, the estimation block 130 sets the rough road flag to ON. The total score M exceeding the first threshold M1 corresponds to the degree of dispersion of airborne matter reaching the rough road determination range. In other words, the total score M is an example of the degree of dispersion of airborne matter based on the number of reflection points of airborne matter recognized within the attention area R.
一方で、S130にて合計点数Mが第1閾値M1以下である判定された場合は、本フローがS150へと移行する。S150では、推定ブロック130が、合計点数Mが第2閾値M2未満であるか否かを判定する。第2閾値M2は、第1閾値M1よりも小さい閾値である。合計点数Mが第2閾値M2以上であると判定された場合には、直前の悪路フラグの設定を維持した状態で本フローが終了する。 On the other hand, if it is determined in S130 that the total score M is less than or equal to the first threshold M1, the flow proceeds to S150. In S150, the estimation block 130 determines whether the total score M is less than the second threshold M2. The second threshold M2 is a threshold that is smaller than the first threshold M1. If it is determined that the total score M is greater than or equal to the second threshold M2, the flow ends with the previous setting of the bad road flag maintained.
又、S150にて合計点数Mが第2閾値M2未満であると判定された場合には、本フローがS160へと移行する。S160では、推定ブロック130が、悪路フラグをオフに設定する。尚、推定ブロック130は、車速に応じて閾値M1,M2を変更してもよい。例えば、推定ブロック130は、車速が小さいほど、閾値M1,M2を低下させてもよい。又、推定ブロック130は、合計点数Mが第1閾値M1を上回っているか否かの判定の代わりに、合計点数Mが第1閾値M1以上であるか否かを判定してもよい。同様に、推定ブロック130は、合計点数Mが第2閾値M2未満であるか否かの判定の代わりに、合計点数Mが第2閾値を下回っているか否かを判定してもよい。 Also, if it is determined in S150 that the total score M is less than the second threshold value M2, the flow proceeds to S160. In S160, the estimation block 130 sets the rough road flag to OFF. Note that the estimation block 130 may change the threshold values M1 and M2 depending on the vehicle speed. For example, the estimation block 130 may lower the threshold values M1 and M2 as the vehicle speed decreases. Also, instead of determining whether the total score M exceeds the first threshold value M1, the estimation block 130 may determine whether the total score M is equal to or greater than the first threshold value M1. Similarly, instead of determining whether the total score M is less than the second threshold value M2, the estimation block 130 may determine whether the total score M is below the second threshold value M2.
図4に戻り、S20では、対応ブロック140が、悪路フラグがオンに設定されたか否かを判定する。悪路フラグがオフに設定されている場合には、S10へと戻る。S10の詳細処理S100~S160が繰り返し実行されることにより、走行中の路面状態が逐次判断される。 Returning to Figure 4, in S20, the corresponding block 140 determines whether the bad road flag is set to ON. If the bad road flag is set to OFF, the process returns to S10. By repeatedly executing the detailed processing of S10, S100 to S160, the road surface conditions during travel are successively determined.
一方で、悪路フラグがオンに設定されていると判定された場合には、本フローがS30へと移行する。S30では、対応ブロック140が、悪路フラグのオン設定に対応した処理(悪路対応処理)を実行する。 On the other hand, if it is determined that the rough road flag is set to ON, the flow proceeds to S30. In S30, the corresponding block 140 executes processing corresponding to the rough road flag being set to ON (rough road response processing).
悪路対応処理の一例として、対応ブロック140は、自動運転中のホスト車両Aについて、自動運転による走行を中止する。この中止処理において、対応ブロック140は、退避走行及び停車による自動運転の終了を実行してもよい。この処理は、例えば、ドライバの搭乗無しで自動運転により運行するホスト車両Aにおいて実行される。又は、中止処理において、対応ブロック140は、自動運転から手動運転への移行を実行してもよい。この処理は、例えば、ドライバが搭乗した状態で自動運転により走行するホスト車両Aにおいて実行される。 As an example of rough road handling processing, the corresponding block 140 suspends autonomous driving of the host vehicle A that is currently operating autonomously. In this suspension processing, the corresponding block 140 may terminate autonomous driving by making an evacuation maneuver and stopping the vehicle. This processing is executed, for example, in the host vehicle A that is operating autonomously without a driver on board. Alternatively, in the suspension processing, the corresponding block 140 may execute a transition from autonomous driving to manual driving. This processing is executed, for example, in the host vehicle A that is operating autonomously with a driver on board.
以上の処理により、路面状態推定システム100は、路面状態が悪路であるか否かを推定し、悪路である場合には、自動運転走行を中止する。尚、路面状態推定システム100は、自動運転走行を中止した後にも路面状態の判定を継続して繰り返してもよい。この場合、自動運転走行の中止後に悪路フラグがオフに設定されると、対応ブロック140が自動運転走行を再開する処理を実行すればよい。 Through the above processing, the road surface condition estimation system 100 estimates whether the road surface condition is bad, and if so, suspends autonomous driving. The road surface condition estimation system 100 may continue to repeatedly determine the road surface condition even after suspending autonomous driving. In this case, if the bad road flag is set to off after suspending autonomous driving, the corresponding block 140 may execute processing to resume autonomous driving.
以上の第1実施形態によれば、走行方向後方の反射光情報により、ホスト車両Aの走行により路面から巻き上げられた飛散物質の飛散状態に基づき、路面の状態が推定される。故に、走行により巻き上げられる物質が路面上に存在するか否かが、飛散物質の飛散状態により間接的に推定され得る。したがって、LiDAR装置10が路面上を走査する必要性が低下するため、LiDAR装置10の検知可能距離を確保し易くなる。以上により、LiDAR装置10の検知可能距離を確保しつつ、路面の状態を推定可能となり得る。 According to the first embodiment described above, the road surface condition is estimated based on the scattering state of airborne material kicked up from the road surface by the movement of host vehicle A using reflected light information from behind in the direction of travel. Therefore, whether or not material kicked up by the movement is present on the road surface can be indirectly estimated based on the scattering state of the airborne material. This reduces the need for the LiDAR device 10 to scan the road surface, making it easier to ensure the detectable distance of the LiDAR device 10. As a result, it is possible to estimate the road surface condition while ensuring the detectable distance of the LiDAR device 10.
(第2実施形態)
図7に示すように第2実施形態は、第1実施形態の変形例である。
Second Embodiment
As shown in FIG. 7, the second embodiment is a modification of the first embodiment.
第2実施形態の対応ブロック140は、悪路対応処理として、自動運転におけるホスト車両Aの挙動を制限する制限走行を実行する(図7のS41参照)。具体的には、対応ブロック140は、加速度の大きさ及び速度の大きさ少なくとも1つについて、悪路フラグがオフに設定されている場合よりも上限値を小さくする。このように、対応ブロック140は、挙動を制限する方向に加速度プロファイル及び速度プロファイルの少なくとも一方を設定したうえで、自動運転を継続させる。 In the second embodiment, the corresponding block 140 performs restricted driving, which restricts the behavior of the host vehicle A during autonomous driving, as a rough road response process (see S41 in Figure 7). Specifically, the corresponding block 140 reduces the upper limit value for at least one of the acceleration magnitude and the speed magnitude compared to when the rough road flag is set to OFF. In this way, the corresponding block 140 sets at least one of the acceleration profile and the speed profile in a direction that restricts the behavior, and then continues autonomous driving.
(第3実施形態)
図8,9に示すように第3実施形態は、第1実施形態の変形例である。
(Third embodiment)
As shown in FIGS. 8 and 9, the third embodiment is a modification of the first embodiment.
第2実施形態の対応ブロック140は、悪路対応処理として、ホスト車両Aの前方を走行する前走車であるターゲット車両Bについて、LiDAR装置10での検出ロジックを変更する。具体的には、対応ブロック140は、近方側のエコーと遠方側のエコーとのマルチエコーが検出されている場合、遠方側のエコーを、ターゲット車両Bに対応するエコーとして検出する。 In the second embodiment, the correspondence block 140 performs rough road handling processing by changing the detection logic of the LiDAR device 10 for the target vehicle B, which is a leading vehicle traveling ahead of the host vehicle A. Specifically, when multiple echoes, including a near echo and a far echo, are detected, the correspondence block 140 detects the far echo as the echo corresponding to the target vehicle B.
詳記すると、悪路フラグがオフに設定されている場合、対応ブロック140は、近方側のエコーをターゲット車両Bの後端として検出するように、点群の検出ロジックを設定する(図9の上枠参照)。仮にこの検出ロジックが維持された場合、ターゲット車両Bによる飛散物質の巻き上げにより、マルチエコーが検出されると、水関連物質のエコーをターゲット車両Bの後端として認識される(図9の中央枠参照)。 More specifically, when the rough road flag is set to off, the corresponding block 140 sets the point cloud detection logic to detect the near echo as the rear end of target vehicle B (see the upper frame in Figure 9). If this detection logic is maintained, and multiple echoes are detected due to scattering material being kicked up by target vehicle B, the echo of water-related material will be recognized as the rear end of target vehicle B (see the center frame in Figure 9).
そこで、悪路フラグがオンに設定されている場合、対応ブロック140は、遠方側のエコーをターゲット車両Bとして認識するように、検出ロジックを変更する(図8のS42参照)。これにより、対応ブロック140は、ターゲット車両Bにより巻き上げられた飛散物質を、ターゲット車両Bからのエコーとして認識することを回避する(図9の下枠参照)。 Therefore, when the rough road flag is set to ON, the corresponding block 140 changes the detection logic so that the distant echo is recognized as target vehicle B (see S42 in Figure 8). This prevents the corresponding block 140 from recognizing the scattered material kicked up by target vehicle B as an echo from target vehicle B (see the bottom frame in Figure 9).
(第4実施形態)
図10に示すように第4実施形態は、第1実施形態の変形例である。
(Fourth embodiment)
As shown in FIG. 10, the fourth embodiment is a modification of the first embodiment.
第4実施形態の対応ブロック140は、悪路対応処理として、路面状態を外部へと送信する(図10のS43参照)。具体的には、対応ブロック140は、現在走行中の路面が悪路状態である旨の情報を、センタへと通知する。 In the fourth embodiment, the correspondence block 140 transmits road surface conditions to the outside as part of the rough road response process (see S43 in Figure 10). Specifically, the correspondence block 140 notifies the center of information that the road surface on which the vehicle is currently traveling is in a rough road condition.
(第5実施形態)
図11に示すように第5実施形態は、第1実施形態の変形例である。
Fifth Embodiment
As shown in FIG. 11, the fifth embodiment is a modification of the first embodiment.
第5実施形態の対応ブロック140は、悪路対応処理として、路面の轍に対応する処理(轍対応処理)を実行する(図11のS43参照)。具体的には、轍対応処理として、対応ブロック140は、検出した点数が多く飛散物質の量が多いほど、その走行位置における轍の深さが大きいと判断する。轍の深さの大きさは、轍の「発生状態」の一例である。さらに轍対応処理として、対応ブロック140は、判断した轍状態を、センタ等の外部へと送信してもよい。又は、対応ブロック140は、轍対応処理として、轍状態に応じてホスト車両Aの走行位置を変更してもよい。例えば、対応ブロック140は、轍の深さが許容範囲内に収まる左右位置を走行するように、ホスト車両Aを制御する。換言すれば、対応ブロック140は、検出する点数が所定値以下又は未満となる位置を、ホスト車両Aの走行位置に決定する。 In the fifth embodiment, the correspondence block 140 executes a process for dealing with ruts on the road surface (rut response process) as a rough road response process (see S43 in FIG. 11). Specifically, in the rut response process, the correspondence block 140 determines that the greater the number of detected points and the greater the amount of scattered material, the greater the rut depth at that driving position. The rut depth is an example of the rut "occurrence state." Furthermore, in the rut response process, the correspondence block 140 may transmit the determined rut state to an external location, such as a center. Alternatively, in the rut response process, the correspondence block 140 may change the driving position of the host vehicle A depending on the rut state. For example, the correspondence block 140 controls the host vehicle A to travel in a left-right position where the rut depth is within an acceptable range. In other words, the correspondence block 140 determines the driving position of the host vehicle A to be the position where the number of detected points is equal to or less than a predetermined value.
(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although multiple embodiments have been described above, the present disclosure should not be construed as being limited to those embodiments, and can be applied to various embodiments and combinations within the scope that does not deviate from the gist of the present disclosure.
変形例において、推定ブロック130は、悪路状態か否かに加え、悪路状態における悪路の度合を、合計点数Mに基づいて推定してもよい。 In a modified example, the estimation block 130 may estimate the degree of roughness of the road condition based on the total score M, in addition to whether the road condition is rough or not.
変形例において、対応ブロック140は、上述の実施形態にて説明した複数の対応処理のうち、組み合わせ可能な処理を複数実施してもよい。 In a modified example, the response block 140 may perform multiple processes that can be combined from among the multiple response processes described in the above embodiment.
変形例において、認識ブロック120は、注目領域R内においてカウントする点数から、降雨中の雨滴又は降雪中の雪を除く処理を実施してもよい。例えば、認識ブロック120は、ホスト車両Aの停車中の反射光情報を取得し、停車中の注目領域R内の点数を、走行中の注目領域R内の点数から除いてもよい。又は、認識ブロック120は、センタ等から取得した気象情報に基づき、注目領域R内の点数から除く点数を決定してもよい。 In a modified example, the recognition block 120 may perform processing to exclude raindrops during rainfall or snowflakes during snowfall from the points counted within the attention area R. For example, the recognition block 120 may acquire reflected light information while the host vehicle A is stopped, and subtract the points within the attention area R while the host vehicle is stopped from the points within the attention area R while the vehicle is moving. Alternatively, the recognition block 120 may determine the points to exclude from the points within the attention area R based on weather information acquired from a center, etc.
変形例において路面状態推定システム100を構成する専用コンピュータは、デジタル回路及びアナログ回路のうち、少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。 In a modified example, the dedicated computer constituting the road surface condition estimation system 100 may have at least one of a digital circuit and an analog circuit as a processor. Here, a digital circuit is at least one of the following: an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), an SOC (System on a Chip), a PGA (Programmable Gate Array), and a CPLD (Complex Programmable Logic Device). Furthermore, such a digital circuit may have memory that stores a program.
ここまでの説明形態の他、上述の実施形態及び変化例による路面状態推定システム100は、ホスト車両Aに搭載の処理装置(例えば処理ECU等)である路面状態推定装置として、実施されてもよい。又、上述の実施形態及び変化例は、路面状態推定システム100のプロセッサ102及びメモリ101を少なくとも一つずつ有した半導体装置(例えば半導体チップ等)として、実施されてもよい。 In addition to the embodiments described above, the road surface condition estimation system 100 according to the above-described embodiments and variations may be implemented as a road surface condition estimation device that is a processing device (e.g., a processing ECU, etc.) mounted on the host vehicle A. The above-described embodiments and variations may also be implemented as a semiconductor device (e.g., a semiconductor chip, etc.) that has at least one processor 102 and one memory 101 of the road surface condition estimation system 100.
10:LiDAR装置(光学センサ)、100:路面状態推定システム、101:メモリ(記憶媒体)、102:プロセッサ、A:ホスト車両、B:ターゲット車両(前走車)、R:注目領域 10: LiDAR device (optical sensor), 100: Road surface condition estimation system, 101: Memory (storage medium), 102: Processor, A: Host vehicle, B: Target vehicle (vehicle ahead), R: Area of interest
Claims (10)
前記プロセッサは、
前記ホスト車両の後方を前記センシング領域とする前記光学センサによる走行方向後方の反射光情報を取得することと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識することと、
前記飛散状態に基づいて、前記路面の状態を推定することと、
を実行するように構成され、
前記飛散状態を認識することは、前記ホスト車両の後方に設定された距離範囲内における注目領域(R)での前記飛散状態を認識することを含み、
前記路面の状態を推定することは、前記路面が悪路状態であるか否かを判断することを含み、
前記プロセッサは、前記路面が前記悪路状態であると推定された場合に、前記悪路状態に対応する対応処理を実行することを、さらに実行するように構成され、
前記対応処理を実行することは、前記路面が前記悪路状態であると推定されると、前記ホスト車両の前方を前記センシング領域とする前記光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の前記点群を前走車(B)として認識することを含む路面状態推定システム。 A road surface condition estimation system having a processor (102), and estimating the condition of a road surface on which a host vehicle (A) is traveling, the system being equipped with an optical sensor (10) that detects reflected light in response to light irradiation, the optical sensor having a sensing area behind the host vehicle and the optical sensor having a sensing area in front of the host vehicle ,
The processor:
acquiring reflected light information behind the host vehicle in the traveling direction by the optical sensor, the sensing area of which is behind the host vehicle ;
Recognizing the state of scattering of the scattered matter kicked up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
configured to run
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
estimating the road surface condition includes determining whether the road surface is in a bad road condition;
The processor is further configured to, when it is estimated that the road surface is in the bad road state, execute a response process corresponding to the bad road state;
A road surface condition estimation system in which executing the response processing includes, when the road surface is estimated to be in the bad road condition, recognizing the point cloud on the forward side as a preceding vehicle (B) in the case where there are point clouds ahead in the driving direction in the reflected light information ahead in the driving direction obtained by the optical sensor, which has the front of the host vehicle as its sensing area .
前記プロセッサは、
前記ホスト車両の後方を前記センシング領域とする前記光学センサによる走行方向後方の反射光情報を取得することと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識することと、
前記飛散状態に基づいて、前記路面の状態を推定することと、
を実行するように構成され、
前記飛散状態を認識することは、前記ホスト車両の後方に設定された距離範囲内における注目領域(R)での前記飛散状態を認識することを含み、
前記路面の状態を推定することは、前記路面が悪路状態であるか否かを判断することを含み、
前記プロセッサは、前記路面が前記悪路状態であると推定された場合に、前記悪路状態に対応する対応処理を実行することを、さらに実行するように構成され、
前記対応処理を実行することは、前記路面が前記悪路状態であると推定されると、前記ホスト車両の前方を前記センシング領域とする前記光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の前記点群を前走車(B)として認識することを含む路面状態推定装置。 A road surface condition estimation device having a processor (102), and estimating the condition of a road surface on which a host vehicle (A) is traveling, the device being equipped with an optical sensor (10) that detects reflected light in response to light irradiation, the optical sensor having a sensing area behind the host vehicle and the optical sensor having a sensing area in front of the host vehicle ,
The processor:
acquiring reflected light information behind the host vehicle in the traveling direction by the optical sensor, the sensing area of which is behind the host vehicle ;
Recognizing the state of scattering of the scattered matter kicked up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
configured to run
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
estimating the road surface condition includes determining whether the road surface is in a bad road condition;
The processor is further configured to, when it is estimated that the road surface is in the bad road state, execute a response process corresponding to the bad road state;
Executing the response processing includes, when the road surface is estimated to be in the bad road condition, recognizing the point cloud on the forward side as a preceding vehicle (B) in the case where there are point clouds ahead in the driving direction in the reflected light information ahead in the driving direction obtained by the optical sensor, which has the front of the host vehicle as its sensing area .
前記ホスト車両の後方を前記センシング領域とする前記光学センサによる走行方向後方の反射光情報を取得することと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識することと、
前記飛散状態に基づいて、前記路面の状態を推定することと、
を含み、
前記飛散状態を認識することは、前記ホスト車両の後方に設定された距離範囲内における注目領域(R)での前記飛散状態を認識することを含み、
前記路面の状態を推定することは、前記路面が悪路状態であるか否かを判断することを含み、
前記路面が前記悪路状態であると推定された場合に、前記悪路状態に対応する対応処理を実行することを含み、
前記対応処理を実行することは、前記路面が前記悪路状態であると推定されると、前記ホスト車両の前方を前記センシング領域とする前記光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の前記点群を前走車(B)として認識することを含む路面状態推定方法。 A road surface condition estimation method executed by a processor (102) to estimate the condition of a road surface on which a host vehicle (A) is traveling, the host vehicle being equipped with an optical sensor (10) that detects reflected light in response to light irradiation, the optical sensor having a sensing area behind the host vehicle and the optical sensor having a sensing area in front of the host vehicle, the method comprising:
acquiring reflected light information behind the host vehicle in the traveling direction by the optical sensor, the sensing area of which is behind the host vehicle ;
Recognizing the state of scattering of the scattered matter kicked up from the road surface by the running of the host vehicle based on the reflected light information;
estimating the state of the road surface based on the scattering state;
Including,
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
estimating the road surface condition includes determining whether the road surface is in a bad road condition;
When it is estimated that the road surface is in the bad road state, a corresponding process is executed to correspond to the bad road state;
The road surface condition estimation method includes, when the road surface is estimated to be in the bad road condition, performing the response processing, and when there are point clouds ahead in the driving direction, recognizing the point cloud on the forward side as a preceding vehicle (B) in terms of reflected light information ahead in the driving direction obtained by the optical sensor, which has the front of the host vehicle as its sensing area .
前記命令は、
前記ホスト車両の後方を前記センシング領域とする前記光学センサによる走行方向後方の反射光情報を取得させることと、
前記反射光情報に基づき、前記ホスト車両の走行により前記路面から巻き上げられた飛散物質の飛散状態を認識させることと、
前記飛散状態に基づいて、前記路面の状態を推定させることと、
を含み、
前記飛散状態を認識させることは、前記ホスト車両の後方に設定された距離範囲内における注目領域(R)での前記飛散状態を認識させることを含み、
前記路面の状態を推定させることは、前記路面が悪路状態であるか否かを判断させることを含み、
前記命令は、前記路面が前記悪路状態であると推定された場合に、前記悪路状態に対応する対応処理を実行させることを含み、
前記対応処理を実行させることは、前記路面が前記悪路状態であると推定されると、前記ホスト車両の前方を前記センシング領域とする前記光学センサによる走行方向前方の反射光情報について、走行方向に前後する点群が存在する場合に、前方側の前記点群を前走車(B)として認識させることを含む路面状態推定プログラム。 A road surface condition estimation program is stored in a storage medium (101) for estimating the condition of a road surface on which a host vehicle (A) equipped with an optical sensor (10) that detects reflected light in response to light irradiation, the optical sensor having a sensing area behind the host vehicle and the optical sensor having a sensing area in front of the host vehicle, the program including instructions to be executed by a processor (102),
The instruction:
acquiring reflected light information behind the host vehicle in the traveling direction by the optical sensor, the sensing area of which is behind the host vehicle ;
Based on the reflected light information, a scattering state of the scattered matter kicked up from the road surface by the running of the host vehicle is recognized;
Estimating the state of the road surface based on the scattering state;
Including,
Recognizing the scattering state includes recognizing the scattering state in a region of interest (R) within a distance range set behind the host vehicle,
estimating the road surface condition includes determining whether the road surface is in a bad road condition,
the instruction includes, when it is estimated that the road surface is in the bad road state, executing a response process corresponding to the bad road state;
Executing the response processing is a road surface condition estimation program that includes, when the road surface is estimated to be in the bad road condition, recognizing the point cloud in front of the host vehicle (B) as a preceding vehicle (B) when there are point clouds ahead of and ahead in the driving direction, regarding reflected light information ahead of the driving direction obtained by the optical sensor, which has the front of the host vehicle as its sensing area .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021169736A JP7729166B2 (en) | 2021-10-15 | 2021-10-15 | Road surface condition estimation system, road surface condition estimation device, road surface condition estimation method, and road surface condition estimation program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021169736A JP7729166B2 (en) | 2021-10-15 | 2021-10-15 | Road surface condition estimation system, road surface condition estimation device, road surface condition estimation method, and road surface condition estimation program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023059629A JP2023059629A (en) | 2023-04-27 |
| JP7729166B2 true JP7729166B2 (en) | 2025-08-26 |
Family
ID=86096355
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021169736A Active JP7729166B2 (en) | 2021-10-15 | 2021-10-15 | Road surface condition estimation system, road surface condition estimation device, road surface condition estimation method, and road surface condition estimation program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7729166B2 (en) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009085939A (en) | 2007-08-03 | 2009-04-23 | Valeo Vision | Method and device for detecting view field affecting phenomenon by vehicle, and computer program therefor |
| JP2010052601A (en) | 2008-08-28 | 2010-03-11 | Denso Corp | Wiper control device for vehicle |
| US20160167668A1 (en) | 2014-12-11 | 2016-06-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Splash condition detection for vehicles |
| JP2018115990A (en) | 2017-01-19 | 2018-07-26 | トヨタ自動車株式会社 | Object recognition device and collision avoidance device |
| JP2019105648A (en) | 2013-04-11 | 2019-06-27 | ウェイモ エルエルシー | Method for detecting weather state using on-vehicle sensor, and system therefor |
| JP2019123321A (en) | 2018-01-15 | 2019-07-25 | 本田技研工業株式会社 | Vehicle travel control device |
| WO2020112790A1 (en) | 2018-11-26 | 2020-06-04 | Continental Automotive Systems, Inc. | Adverse weather condition detection system with lidar sensor |
| JP2020164017A (en) | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | Vehicle control system |
| JP2020169872A (en) | 2019-04-02 | 2020-10-15 | 株式会社豊田中央研究所 | Inertial navigation device |
-
2021
- 2021-10-15 JP JP2021169736A patent/JP7729166B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009085939A (en) | 2007-08-03 | 2009-04-23 | Valeo Vision | Method and device for detecting view field affecting phenomenon by vehicle, and computer program therefor |
| JP2010052601A (en) | 2008-08-28 | 2010-03-11 | Denso Corp | Wiper control device for vehicle |
| JP2019105648A (en) | 2013-04-11 | 2019-06-27 | ウェイモ エルエルシー | Method for detecting weather state using on-vehicle sensor, and system therefor |
| US20160167668A1 (en) | 2014-12-11 | 2016-06-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Splash condition detection for vehicles |
| JP2018115990A (en) | 2017-01-19 | 2018-07-26 | トヨタ自動車株式会社 | Object recognition device and collision avoidance device |
| JP2019123321A (en) | 2018-01-15 | 2019-07-25 | 本田技研工業株式会社 | Vehicle travel control device |
| WO2020112790A1 (en) | 2018-11-26 | 2020-06-04 | Continental Automotive Systems, Inc. | Adverse weather condition detection system with lidar sensor |
| JP2020164017A (en) | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | Vehicle control system |
| JP2020169872A (en) | 2019-04-02 | 2020-10-15 | 株式会社豊田中央研究所 | Inertial navigation device |
Non-Patent Citations (1)
| Title |
|---|
| VARGASRIVERO, Jose Roberto 外3名,"The Effect of Spray Water on an Automotive LIDAR Sensor: A Real-Time Simulation Study",IEEE TRANSACTIONS ON INTELLIGENT VEHICLES ( EARLY ACCESS )[online],2021年03月23日,< https://doi.org/10.1109/TIV.2021.3067892 > < https://web.archive.org/web/20210325133805/https://ieeexplore.ieee.org/document/9384276 > |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023059629A (en) | 2023-04-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12352862B2 (en) | Lidar-based trailer tracking | |
| CN110389586B (en) | System and method for ground and free space exploration | |
| JP7163589B2 (en) | Driving support device | |
| JP2023175920A (en) | Vehicular cleaner system, vehicle system, method of cleaning by vehicular cleaner system, vehicular cleaner controller | |
| US9260113B2 (en) | Method and device for generating a control parameter for a distance control system of a vehicle | |
| US10518784B2 (en) | Information processing apparatus, information processing method, and computer program product | |
| CN110389359A (en) | System and method for ground level detection | |
| EP3763581A1 (en) | Vehicle cleaner system, and vehicle system | |
| US9506859B2 (en) | Method and device for determining a visual range in daytime fog | |
| CN110647801A (en) | Method and device for setting region of interest, storage medium and electronic equipment | |
| JP2021169235A (en) | Vehicle driving support device | |
| US12444207B2 (en) | Automated driving management system and automated driving management method | |
| KR20240161831A (en) | Lane change decision for vehicles on the shoulder | |
| US20210179115A1 (en) | Method and apparatus for monitoring a yaw sensor | |
| JP7729166B2 (en) | Road surface condition estimation system, road surface condition estimation device, road surface condition estimation method, and road surface condition estimation program | |
| US20250308253A1 (en) | Method for determining free space in a surrounding of a vehicle, and an apparatus thereof | |
| US12459543B2 (en) | Vehicle control device, storage medium for storing computer program for vehicle control, and method for controlling vehicle | |
| KR20220082551A (en) | Vehicle | |
| US12260749B2 (en) | Methods and systems for sensor fusion for traffic intersection assist | |
| CN113573965A (en) | Method for determining the risk of accidents caused by moisture for a vehicle | |
| JP4807763B1 (en) | Outside monitoring device | |
| JP2021165938A (en) | Display control device | |
| US20250299501A1 (en) | Lane division line detection device | |
| US20250229779A1 (en) | Vehicle control device, computer program for vehicle control, and method for controlling vehicle | |
| US20260004405A1 (en) | Methods and Systems for Mitigating the Effects of Weather-related Attenuation on Radar Imagery |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240705 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250423 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250507 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250627 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250715 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250728 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7729166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |