JP6834914B2 - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP6834914B2 JP6834914B2 JP2017214671A JP2017214671A JP6834914B2 JP 6834914 B2 JP6834914 B2 JP 6834914B2 JP 2017214671 A JP2017214671 A JP 2017214671A JP 2017214671 A JP2017214671 A JP 2017214671A JP 6834914 B2 JP6834914 B2 JP 6834914B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- optical axis
- information
- map
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 claims description 63
- 238000000034 method Methods 0.000 claims description 51
- 238000012937 correction Methods 0.000 claims description 29
- 230000005856 abnormality Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、物体認識装置に関する。 The present invention relates to an object recognition device.
特開2017−102861号公報には、車載カメラを用いて車両の周囲の撮像画像を取得し、この撮像画像に含まれる物体の地図上の位置を算出する物体認識装置が開示されている。撮像画像上で成立する物体とランドマークの位置関係は、地図上においても成立することから、この物体認識装置は、撮像画像上で特定した物体とランドマークの位置関係、および、既知情報である地図上のランドマークの位置情報に基づいて、撮像画像上で特定した物体の地図上における位置を算出する。 Japanese Unexamined Patent Publication No. 2017-102861 discloses an object recognition device that acquires an image of the surroundings of a vehicle using an in-vehicle camera and calculates the position of an object included in the image on a map. Since the positional relationship between the object and the landmark that is established on the captured image is also established on the map, this object recognition device is the positional relationship between the object and the landmark that is specified on the captured image, and known information. Based on the position information of the landmark on the map, the position of the object specified on the captured image on the map is calculated.
しかし、車載カメラは前後距離の精度が高くないことから、上述した撮像画像上で特定した物体とランドマークの位置関係は必ずしも正確でない。車載カメラの代わりにミリ波レーダーを用いることもできる。しかし、ミリ波レーダーは横位置精度が高くないことから、車載カメラの代用品として最適であるとは言い難い。 However, since the accuracy of the front-rear distance is not high in the in-vehicle camera, the positional relationship between the object specified on the captured image and the landmark is not always accurate. Millimeter-wave radar can be used instead of the in-vehicle camera. However, millimeter-wave radar does not have high lateral position accuracy, so it cannot be said that it is the most suitable substitute for in-vehicle cameras.
この点、ライダー(LIDAR: Laser Imaging Detection and Ranging)は、物体とランドマークの位置関係を正しく特定することができる。但し、ライダーの光軸が所望の方向からずれていると、この特定の精度が低下する。そのため、ライダーの光軸の補正は、定期的に行われることが望ましい。しかし、光軸の補正は、車両と物体の相対位置や相対速度に基づく確からしさを指標にして行われることが一般的である。そのため、補正に必要な物体のサンプル数が多くなり、補正が完了するまでに時間を要してしまう。従って、光軸の補正を短時間で完了するための技術開発が望まれる。 In this respect, lidar (LIDAR: Laser Imaging Detection and Ranging) can correctly identify the positional relationship between an object and a landmark. However, if the rider's optical axis deviates from the desired direction, this particular accuracy will be reduced. Therefore, it is desirable that the correction of the optical axis of the rider is performed regularly. However, the correction of the optical axis is generally performed by using the certainty based on the relative position and relative speed of the vehicle and the object as an index. Therefore, the number of samples of the object required for the correction increases, and it takes time to complete the correction. Therefore, it is desired to develop a technique for completing the correction of the optical axis in a short time.
本発明は、上述のような課題に鑑みてなされたものであり、物体認識に用いられるライダーの光軸の補正を短時間で完了することのできる技術を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a technique capable of completing correction of the optical axis of a rider used for object recognition in a short time.
第1の発明は、上述した課題を解決するための物体認識装置であり次の特徴を有する。
前記物体認識装置は、カメラと、ライダーと、地図データベースと、車両位置推定部と、方位角推定部と、固定物位置特定部と、光軸基準補正部と、を備える。
前記カメラは、自車両の外部状況を撮像する。
前記ライダーは、前記自車両の周囲の立体物を検出する。
前記地図データベースは、地図情報、および、地図上の固定物の位置情報およびスタイル情報を少なくとも記憶している。
前記車両位置推定部は、前記自車両の地図上の位置を推定する処理を行う。
前記方位角推定部は、前記カメラからの撮像情報と、前記位置情報と、を用いて、前記自車両の前後軸が基準方位となす角度を方位角として推定する処理を行う。
前記固定物位置特定部は、前記ライダーが検出した固定物情報と、前記スタイル情報と、前記位置情報と、を用いて、前記ライダーが検出した固定物の地図上の位置を特定する処理を行う。
前記光軸基準補正部は、前記自車両の地図上の位置と、前記方位角と、前記固定物の地図上の位置と、前記ライダーが前記固定物を検出したときの光軸基準に対するレーザー光の送出角度と、を用いて、前記光軸基準を補正する処理を行う。
The first invention is an object recognition device for solving the above-mentioned problems, and has the following features.
The object recognition device includes a camera, a rider, a map database, a vehicle position estimation unit, an azimuth angle estimation unit, a fixed object position identification unit, and an optical axis reference correction unit.
The camera captures the external situation of the own vehicle.
The rider detects a three-dimensional object around the own vehicle.
The map database stores at least map information and location information and style information of fixed objects on the map.
The vehicle position estimation unit performs a process of estimating the position of the own vehicle on the map.
The azimuth estimation unit performs a process of estimating an angle formed by the front-rear axis of the own vehicle as a reference azimuth by using the image pickup information from the camera and the position information.
The fixed object position specifying unit performs a process of identifying the position of the fixed object detected by the rider on the map by using the fixed object information detected by the rider, the style information, and the position information. ..
The optical axis reference correction unit is a laser beam for a position on the map of the own vehicle, an azimuth angle, a position on the map of the fixed object, and an optical axis reference when the rider detects the fixed object. The optical axis reference is corrected by using the delivery angle of.
第2の発明は、第1の発明において次の特徴を有する。
前記車両位置推定部による推定処理、前記方位角推定部による推定処理、および、前記固定物位置特定部による特定処理が、少なくとも前記自車両の停止中に行われる。
The second invention has the following features in the first invention.
The estimation process by the vehicle position estimation unit, the estimation process by the azimuth angle estimation unit, and the identification process by the fixed object position identification unit are performed at least while the own vehicle is stopped.
第3の発明は、第1または第2の発明において次の特徴を有する。
前記物体認識装置は、光軸異常判定部を更に備える。
前記光軸異常判定部は、前記光軸基準補正部による補正処理後の前記光軸基準と、前記光軸基準の初期角度の角度差が所定角度以上の場合に、前記光軸基準に異常が発生していると判定する。
The third invention has the following features in the first or second invention.
The object recognition device further includes an optical axis abnormality determination unit.
When the angle difference between the optical axis reference after the correction process by the optical axis reference correction unit and the initial angle of the optical axis reference is equal to or greater than a predetermined angle, the optical axis abnormality determination unit has an abnormality in the optical axis reference. Judge that it has occurred.
第1の発明によれば、方位角推定部による推定処理において、地図上の固定物の位置情報が用いられる。また、固定物位置特定部による特定処理において、地図上の固定物の位置情報およびスタイル情報が用いられる。そのため、方位角推定部による推定処理や、固定物位置特定部による特定処理に要する時間を短くすることが可能になる。従って、自車両と物体の相対位置や相対速度に基づく確からしさに基づいて光軸補正を行う場合よりも短い時間で、ライダーの光軸基準の補正を完了させることが可能になる。 According to the first invention, the position information of the fixed object on the map is used in the estimation process by the azimuth angle estimation unit. In addition, the position information and style information of the fixed object on the map are used in the identification process by the fixed object position specifying unit. Therefore, it is possible to shorten the time required for the estimation process by the azimuth angle estimation unit and the identification process by the fixed object position identification unit. Therefore, it is possible to complete the correction of the optical axis reference of the rider in a shorter time than when the optical axis correction is performed based on the certainty based on the relative position and the relative speed of the own vehicle and the object.
第2の発明によれば、車両位置推定部による推定処理、方位角推定部による推定処理、および、固定物位置特定部による特定処理が、少なくとも自車両の停止中に行われる。自車両の停止中であれば、自車両の走行中に比べて、自車両の地図上の位置および方位角の推定精度や、固定物の地図上の位置の特定精度を高めることが可能になる。よって、ライダーの光軸基準の補正の精度を高めることが可能になる。 According to the second invention, the estimation process by the vehicle position estimation unit, the estimation process by the azimuth angle estimation unit, and the identification process by the fixed object position identification unit are performed at least while the own vehicle is stopped. When the own vehicle is stopped, it is possible to improve the estimation accuracy of the position and azimuth of the own vehicle on the map and the accuracy of specifying the position on the map of the fixed object as compared with the running of the own vehicle. .. Therefore, it is possible to improve the accuracy of the correction of the optical axis reference of the rider.
第3の発明によれば、光軸異常判定部による判定処理が可能になる。従って、自車両のドライバーに注意喚起することが可能になる。 According to the third invention, the determination process by the optical axis abnormality determination unit becomes possible. Therefore, it is possible to call attention to the driver of the own vehicle.
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造やステップ等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, when the number, quantity, quantity, range, etc. of each element is referred to in the embodiment shown below, the reference is made unless otherwise specified or clearly specified by the number in principle. The invention is not limited to these numbers. In addition, the structures, steps, and the like described in the embodiments shown below are not necessarily essential to the present invention, except when explicitly stated or clearly specified in principle.
実施の形態1.
1.物体認識装置の構成
図1は、本発明の実施の形態1に係る物体認識装置の構成を示すブロック図である。図1に示す物体認識装置1は、車両に搭載されて、当該車両の前方、側方および後方に存在する立体物を認識するものである。認識対象である立体物は、例えば、歩行者、自転車、自動車などの移動物、および、樹木、電柱、建物、道路構造物などの固定物である。道路構造物には、例えば、ガードレール、道路看板、道路標識が含まれる。本明細書において、この物体認識装置1が搭載された車両を「自車両A」ともいう。
1. 1. Configuration of Object Recognition Device FIG. 1 is a block diagram showing a configuration of an object recognition device according to the first embodiment of the present invention. The
図1に示すように、物体認識装置1は、カメラ10、ライダー11、GPS(Global Positioning System)機器12、速度センサ13、ジャイロセンサ14、地図データベース15、およびECU(Electric Control Unit)20を備えている。
As shown in FIG. 1, the
カメラ10は、自車両Aの外部状況を撮像する機器である。カメラ10は、例えば、自車両Aのフロントガラスの裏側に設けられている。カメラ10は、単眼カメラであってもよく、ステレオカメラであってもよい。ステレオカメラは、例えば、両眼視差を再現するように配置された二つの撮像部を有している。ステレオカメラの撮像情報には、奥行き方向の情報も含まれている。カメラ10は、自車両Aの外部状況に関する撮像情報をECU20に送信する。
The
ライダー11は、自車両Aの周囲の立体物を検出する機器である。ライダー11は、自車両Aの周囲にパルス状に発光するレーザーを照射し、立体物からの反射レーザー光を受信することで反射点までの距離を計測し、これにより自車両Aの周囲の立体物を検出する。ライダー11は、例えば、レーザー制御器と、レーザー発振器と、光学系経路と、受光センサと、を備えている。レーザー制御器がレーザー発振器を稼働させると、光学系経路からレーザー光が送出される。受光センサは、光学系経路を介して受信した反射レーザー光を信号化する。ライダー11は、自車両Aの位置(より詳細には、ライダー11の搭載位置。以下同じ。)から立体物の位置までの距離、同位置を基準とした立体物の方位(即ち、相対方位)、および、立体物の外形(例えば、高さ、幅)を、立体物情報として出力する。ライダー11は、検出した立体物情報をECU20に送信する。
The
図2は、ライダー11による立体物の検出手法の概要を説明する図である。図2には、ライダー11が前方に搭載された自車両Aと、道路看板Bと、道路標識Cとが描かれている。ライダー11から90°以上の広角に照射されたレーザー光は、道路看板Bや道路標識Cで反射する。レーザー光の送出から、反射レーザー光の受光までの時間を計測することで、自車両Aの位置から道路看板Bの位置までの距離dAB、および、自車両Aの位置から道路標識Cの位置までの距離dACが算出される。また、反射レーザー光が受光されるときの光軸基準(レーザー光の照射範囲の中央線をいう。以下同じ。)に対するレーザー光の送出角度θABliderを計測することで道路看板Bの相対方位が算出される。つまり、道路看板Bを検出したときのレーザー光の送出角度θABliderを計測することで道路看板Bの相対方位が算出される。道路看板Bの相対方位と同様、反射レーザー光が受光されるときの光軸基準に対するレーザー光の送出角度θACliderを計測することで道路標識Cの相対方位が算出される。
FIG. 2 is a diagram illustrating an outline of a method for detecting a three-dimensional object by the
GPS機器12は、3個以上のGPS衛星からの信号を受信することにより、自車両Aの現在位置(例えば、自車両Aの緯度および経度)を測定する。GPS機器12は、測定した自車両Aの現在位置情報をECU20に送信する。
The
速度センサ13は、自車両Aの走行速度を検出する機器である。速度センサ13としては、例えば、自車両Aの車輪、または、当該車輪と一体に回転するドライブシャフト等に設けられ、当該車輪の回転速度を検出する車輪速センサが用いられる。速度センサ13は、自車両Aの走行速度情報をECU20に送信する。
The
ジャイロセンサ14は、自車両Aの方向転換に伴う角速度(具体的には、ヨーレート)を検出するための2軸ジャイロセンサである。ジャイロセンサ14は、検出したヨーレート情報をECU20に送信する。ヨーレート情報は、GPS衛星からの電波をGPS機器12が受信できないときに自車両Aの現在位置測定に用いられる。なお、GPS衛星からの電波をGPS機器12が受信できないときの自車両Aの現在位置測定は、ヨーレート情報と、速度センサ13からの走行速度情報と、に基づいて行われる。
The
地図データベース15は、高精度地図情報を備えるデータベースである。地図データベース15は、例えば、自車両Aに搭載されたHDD(Hard Disk Drive)内に形成されている。高精度地図情報には、例えば、道路の位置情報、道路形状の情報(例えば、カーブ、直線の種別、カーブの曲率等)、交差点および分岐点の位置情報が含まれる。高精度地図情報には、また、建物、道路構造物等の固定物の位置情報(例えば、緯度および経度)に関する情報が含まれる。高精度地図情報には、更に、道路や道路構造物の標示情報(例えば、制限速度、行き先、一時停止)、この標示情報の更新日、道路や道路構造物のスタイル情報(例えば、色、高さ、幅)も含まれる。
The
ECU20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信回路等を有する制御ユニットである。ECU20では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU20は、複数の電子制御ユニットから構成されていてもよい。
The
2.ECU20の構成
次に、ECU20の機能的構成について説明する。図1に示すように、ECU20は、車両位置推定部21と、方位角θazimuth推定部22と、固定物位置特定部23と、光軸基準補正部24と、を備えている。
2. 2. Configuration of
車両位置推定部21は、GPS機器12が測定した自車両Aの現在位置情報と、地図データベース15からの高精度地図情報と、に基づいて、高精度地図上での自車両Aの現在位置(xAmap,yAmap)を推定する。GPS衛星からの電波をGPS機器12が受信できない場合、車両位置推定部21は、ジャイロセンサ14から取得したヨーレート情報と、速度センサ13から取得した走行速度情報と、地図データベース15からの高精度地図情報と、に基づいて、現在位置(xAmap,yAmap)を推定する。
The vehicle
方位角θazimuth推定部22は、方位角θazimuthを推定する。方位角θazimuthの推定処理は、例えば、次のように行われる。先ず、カメラ10からの撮像情報が解析され、撮影画像中の任意の固定物の特徴が認識される。続いて、認識した固定物の特徴と、地図データベース15の高精度地図情報と、のマッチング処理が行われる。このマッチング処理では、認識した固定物の位置情報が高精度地図情報内から検索される。そして、位置情報が高精度地図情報内に存在する場合、この位置情報と、現在位置(xAmap,yAmap)と、に基づいて、自車両Aの前部が向いている方位(東、西、南、および北)の何れかが基準方位に設定される。方位角θazimuthは、このようにして設定した基準方位と、自車両Aの前後軸のなす角度として算出される。
The azimuth
固定物位置特定部23は、ライダー11が検出した固定物(以下、「検出固定物D」ともいう。)の位置(xDlider,yDlider)と、検出固定物Dの高精度地図上での位置(xDmap,yDmap)と、を特定する。位置(xDlider,yDlider)は、現在位置(xAmap,yAmap)と、ライダー11からの立体物情報と、に基づいて特定される。位置(xDmap,yDmap)の特定処理は、例えば、次のように行われる。先ず、高精度地図情報に含まれる道路構造物のスタイル情報と、検出固定物Dとのマッチング処理が行われる。このマッチング処理では、道路構造物のスタイル情報と、検出固定物Dの外形と、が照合され、道路構造物の候補Eが抽出される。候補Eは、例えば、検出固定物Dの外形に最も近い道路構造物である。候補Eが抽出された場合、候補Eの高精度地図上での位置(xEmap,yEmap)と、位置(xDlider,yDlider)との間の距離dDEが算出される。そして、距離dDEが所定距離dTH以下の場合、候補Eと検出固定物Dが同一物であると判定され、位置(xEmap,yEmap)が位置(xDmap,yDmap)として特定される。
The fixed object
なお、距離dDEが所定距離dTHよりも大きい場合、道路構造物の他の候補Fの高精度地図上での位置(xFmap,yFmap)と、位置(xDlider,yDlider)との間の距離dDFに基づいた判定が行われる。他の候補Fは、例えば、検出固定物Dの外形に二番目に近い道路構造物である。距離dDFが所定距離dTHよりも大きい場合、ライダー11が検出した別の固定物に対して、上述したマッチング処理が行われる。他の候補Fが抽出されない場合、または、道路構造物の候補Eがそもそも抽出されない場合も、ライダー11が検出した別の固定物に対して、上述したマッチング処理が行われる。
When the distance dDE is larger than the predetermined distance dTH, it is based on the distance dDF between the position (xFmap, yFmap) of another candidate F of the road structure on the high-precision map and the position (xDlider, yDlider). Judgment is made. The other candidate F is, for example, a road structure second closest to the outer shape of the detection fixed object D. When the distance dDF is larger than the predetermined distance dTH, the matching process described above is performed on another fixed object detected by the
位置(xDmap,yDmap)の特定処理では、複数の検出固定物Dと、高精度地図情報に含まれる複数の道路構造物とのマッチング処理が並行して行われてもよい。このマッチング処理では、先ず、複数の検出固定物Dから、道路構造物に該当するものの抽出が行われる。続いて、抽出された複数の検出固定物D(検出固定物D1,D2,・・・)の間の相対的な位置関係と、検出固定物D1,D2,・・・に対応する道路構造物の高精度地図上の相対的な位置関係と、が照合される。そして、相対的な位置関係が一致した場合に、検出固定物D1,D2,・・・対応する道路構造物の高精度地図上での位置(xD1map,yD1map),位置(xD2map,yD2map),・・・が特定される。 In the position (xDmap, yDmap) specifying process, the matching process of the plurality of detected fixed objects D and the plurality of road structures included in the high-precision map information may be performed in parallel. In this matching process, first, the one corresponding to the road structure is extracted from the plurality of detected fixed objects D. Subsequently, the relative positional relationship between the extracted plurality of detected fixed objects D (detected fixed objects D1, D2, ...) And the road structure corresponding to the detected fixed objects D1, D2, ... Is collated with the relative positional relationship on the high-precision map of. Then, when the relative positional relationships match, the detected fixed objects D1, D2, ... The positions (xD1map, yD1map), the positions (xD2map, yD2map), ... Of the corresponding road structures on the high-precision map.・ ・ Is specified.
単一の検出固定物Dに基づくマッチング処理の場合は、上述した同一物判定の結果を短時間で得ることができるメリットがある一方で、次のデメリットがある。即ち、ライダー11の光軸基準が所望の方向から大きくずれている場合に、上述した距離dDEが大きくなり、所定距離dTHに基づく判定が完了しない可能性がある。この点、複数の検出固定物Dに基づくマッチング処理によれば、光軸基準のずれが大きい場合であっても、検出固定物D1,D2,・・・の高精度地図上での位置位置(xD1map,yD1map),位置(xD2map,yD2map),・・・を特定することが可能になる。但し、相対的な位置関係を求めるための検出固定物D1,D2,・・・のサンプル総数を多くするとマッチング処理の完了に時間を要することから、サンプル総数は少数(具体的には、2または3)とすることが望ましい。
In the case of the matching process based on the single detected fixed object D, there is an advantage that the result of the same object determination described above can be obtained in a short time, but there are the following disadvantages. That is, when the optical axis reference of the
なお、位置(xDmap,yDmap)の特定処理では、自車両Aの位置からの距離が近距離〜中距離の検出固定物Dに限定して上述した所定距離dTHに基づくマッチング処理が行われてもよい。自車両Aの位置から検出固定物Dまでの距離dADが短くなるほど、上述した距離dDEが長くなる。そのため、距離dADが短い場合において、検出固定物Dの外形に最も近い候補Eと検出固定物Dの間の距離(即ち、距離dDE)が所定距離dTH以下であるということは、候補Eと検出固定物Dが同一物である可能性が極めて高いことを意味する。また、このような限定条件を、上述した複数の検出固定物D1,D2,・・・に基づくマッチング処理と組み合わせてもよい。 In the position (xDmap, yDmap) identification process, even if the matching process based on the predetermined distance dTH described above is performed only for the detection fixed object D whose distance from the position of the own vehicle A is short to medium distance. Good. The shorter the distance dAD from the position of the own vehicle A to the detected fixed object D, the longer the above-mentioned distance dDE. Therefore, when the distance dAD is short, the fact that the distance (that is, the distance dDE) between the candidate E closest to the outer shape of the detected fixed object D and the detected fixed object D is equal to or less than the predetermined distance dTH means that the candidate E and the detection are detected. It means that the fixed object D is very likely to be the same object. Further, such a limiting condition may be combined with the matching process based on the plurality of detected fixed objects D1, D2, ...
光軸基準補正部24は、現在位置(xAmap,yAmap)と、方位角θazimuthと、位置(xDmap,yDmap)と、送出角度θADliderと、に基づいて、ライダー11の光軸基準の所望の方向からのずれ角θgapを算出し、光軸基準を補正する。図3は、光軸基準補正部24によるずれ角θgapの算出手法を説明する図である。図3に示す例では、xy座標平面の原点に現在位置(xAmap,yAmap)を設定し、このxy座標平面のy軸に基準方位を合わせる。送出角度θADliderは、現在位置(xAmap,yAmap)および位置(xDlider,yDlider)を通る線分VSVDliderと、光軸基準とのなす角である。現在位置(xAmap,yAmap)および位置(xDmap,yDmap)を通る線分VSVDmapと、y軸(即ち、基準方位)とのなす角度θmapは、高精度地図上での検出固定物Dの方位角と言うことができる。角度θmapは、例えばベクトルの内積の定義を用いて算出することができる。
The optical axis
図3から分かるように、方位角θazimuth、送出角度θADlider、角度θmapおよびずれ角θgapの間には、式(1)の関係が成立する。
θmap+θazimuth=θADlider+θgap ・・・(1)
式(1)を変形すると、ずれ角θgapは、式(2)で表すことができる。
θgap=θmap+θazimuth−θADlider ・・・(2)
As can be seen from FIG. 3, the relationship of the equation (1) is established between the azimuth angle θazimuth, the delivery angle θADlider, the angle θmap, and the deviation angle θgap.
θmap + θazimuth = θADlider + θgap ・ ・ ・ (1)
By transforming the equation (1), the deviation angle θgap can be expressed by the equation (2).
θgap = θmap + θazimuth−θADlider ・ ・ ・ (2)
図3では光軸基準が基準方位よりも左側に位置しており、位置(xDmap,yDmap)は位置(xDlider,yDlider)よりも右側に位置している。これらの位置関係を考慮して場合分けすると、ずれ角θgapは、式(3)で表すことができる。
θgap=θmap+θazimuth−θADlider (θazimuth<0、xDmap>xDlider)
θgap=θADlider−(θazimuth+θmap) (θazimuth<0、xDlider>xDmap)
θgap=θmap−(θazimuth+θADlider) (θazimuth>0、xDmap>xDlider)
θgap=θADlider+θazimuth−θmap (θazimuth>0、xDlider>xDmap)
・・・(3)
In FIG. 3, the optical axis reference is located on the left side of the reference direction, and the position (xDmap, yDmap) is located on the right side of the position (xDlider, yDlider). The deviation angle θgap can be expressed by the equation (3) when the cases are classified in consideration of these positional relationships.
θgap = θmap + θazimuth−θADlider (θazimuth <0, xDmap> xDlider)
θgap = θADlider− (θazimuth + θmap) (θazimuth <0, xDlider> xDmap)
θgap = θmap− (θazimuth + θADlider) (θazimuth> 0, xDmap> xDlider)
θgap = θADlider + θazimuth−θmap (θazimuth> 0, xDlider> xDmap)
... (3)
光軸基準補正部24は、このようにして算出されたずれ角θgapを用いて、光軸基準を補正する。補正前後の光軸基準は、式(4)で表される。
補正後の光軸基準=補正前の光軸基準−ずれ角θgap ・・・(4)
The optical axis
Optical axis reference after correction = Optical axis reference before correction-Deviation angle θgap ・ ・ ・ (4)
光軸基準補正部24による処理以外の処理、即ち、車両位置推定部21による現在位置(xAmap,yAmap)の推定処理、方位角θazimuth推定部22による方位角θazimuthの推定処理、および、固定物位置特定部23による位置(xDmap,yDmap)の特定処理は、自車両Aの停止中に行われることが好ましい。本明細書において、「自車両Aの停止中」とは、厳密には自車両Aの走行速度がゼロである間を意味するが、極低速(たとえば、走行速度が5km/h以下)で走行している間も「自車両Aの停止中」に含む。
Processing other than the processing by the optical axis
方位角θazimuthの推定処理、および、位置(xDmap,yDmap)の特定処理では、マッチング処理を行う必要がある。これらのマッチング処理では、カメラ10からの撮像情報やライダー11からの立体物情報の精度が重要である。そのため、自車両Aが停止中にこれらのマッチング処理と、これらのマッチング処理と並行して行われる現在位置(xAmap,yAmap)の推定処理と、を自車両Aの停止中を行うことで、方位角θazimuthの推定精度や位置(xDmap,yDmap)の特定精度を高め、ひいては光軸基準の補正の精度を高めることができる。なお、自車両Aが停止中であるか否かは、速度センサ13からの走行速度情報に基づいて判定される。
In the estimation process of the azimuth angle θazimuth and the identification process of the position (xDmap, yDmap), it is necessary to perform the matching process. In these matching processes, the accuracy of the image pickup information from the
3.実施の形態1に係る物体認識装置の効果
以上説明した実施の形態1に係る物体認識装置によれば、方位角θazimuthの推定に際して行われるマッチング処理が、高精度地図情報に含まれる固定物の位置情報を利用して行われる。また、位置(xDmap,yDmap)の特定に際して行われるマッチング処理が、高精度地図情報に含まれる道路構造物のスタイル情報および位置情報を利用して行われる。そのため、これらのマッチング処理に要する時間を格段に短くすることが可能となる。従って、自車両Aと検出固定物Dの相対位置や相対速度に基づく確からしさに基づいて光軸補正を行う場合よりも短い時間で、ライダー11の光軸基準の補正を完了させることが可能になる。
3. 3. Effect of the object recognition device according to the first embodiment According to the object recognition device according to the first embodiment described above, the matching process performed when estimating the azimuth angle θazimuth is the position of the fixed object included in the high-precision map information. It is done using information. Further, the matching process performed when specifying the position (xDmap, yDmap) is performed by using the style information and the position information of the road structure included in the high-precision map information. Therefore, the time required for these matching processes can be remarkably shortened. Therefore, it is possible to complete the correction of the optical axis reference of the
実施の形態2.
1.実施の形態2の特徴
本発明の実施の形態2に係る物体認識装置は、ECUの機能的構成において上記実施の形態1に係る物体認識装置と異なる。従って、以下においては、この相違点を中心に説明する。
1. 1. Features of the second embodiment The object recognition device according to the second embodiment of the present invention is different from the object recognition device according to the first embodiment in the functional configuration of the ECU. Therefore, in the following, this difference will be mainly described.
2.ECU20の構成
図4を参照して、実施の形態2に係る物体認識装置2が備えるECU20の機能的構成について説明する。図4に示すECU20は、車両位置推定部21と、方位角θazimuth推定部22と、固定物位置特定部23と、光軸基準補正部24と、光軸異常判定部25と、を備えている。光軸異常判定部25以外の構成については、上記実施の形態1で説明した通りである。
2. 2. Configuration of
光軸異常判定部25は、上記式(4)に基づいて算出された補正後の光軸基準と、光軸基準の初期角度との角度差が所定角度(例えば、10°)以上の場合に、ライダー11の光軸基準に異常が発生していると判定する。光軸基準に異常が発生していると判定した場合、光軸異常判定部25は、図示しない警報ECUに異常発生信号を送信する。
The optical axis
警報ECUは、HMI(Human Machine Interface)(例えば、ブザー、スピーカ等の音声出力手段、HUD(Head Up Display)、ナビゲーションシステムのディスプレイ、コンビネーションメータ等の表示手段)に接続されている。警報ECUは、異常発生信号に従って音声出力手段から警告音声を出力し、または、表示手段に警告メッセージ、警告ランプ等を表示して支援制御の作動状況を自車両Aのドライバーに知らせる。 The alarm ECU is connected to an HMI (Human Machine Interface) (for example, an audio output means such as a buzzer or a speaker, a HUD (Head Up Display), a display of a navigation system, a display means such as a combination meter). The alarm ECU outputs a warning voice from the voice output means according to the abnormality occurrence signal, or displays a warning message, a warning lamp, or the like on the display means to notify the driver of the own vehicle A of the operation status of the support control.
3.実施の形態2に係る物体認識装置の効果
以上説明した実施の形態2に係る物体認識装置によれば、上記式(4)に基づいて算出された補正後の光軸基準と、光軸基準の初期角度との角度差が所定角度(例えば、10°)以上の場合に、警報ECUに異常発生信号が送信される。従って、自車両Aのドライバーに注意喚起することができる。
3. 3. Effect of Object Recognition Device According to
1,2 物体認識装置
10 カメラ
11 ライダー
15 地図データベース
20 ECU
21 車両位置推定部
22 方位角θazimuth推定部
23 固定物位置特定部
24 光軸基準補正部
25 光軸異常判定部
A 自車両
B 道路看板
C 道路標識
D 検出固定物
VSVDlider,VSVDmap 線分
θABlider,θAClider,θADlider 送出角度
θazimuth 方位角
θgap ずれ角
1, 2,
21 Vehicle
Claims (3)
前記自車両の周囲の立体物を検出するライダーと、
地図情報、および、地図上の固定物の位置情報およびスタイル情報を少なくとも記憶する地図データベースと、
前記自車両の地図上の位置を推定する処理を行う車両位置推定部と、
前記カメラからの撮像情報と、前記位置情報と、を用いて、前記自車両の前後軸が基準方位となす角度を方位角として推定する処理を行う方位角推定部と、
前記ライダーが検出した固定物情報と、前記スタイル情報と、前記位置情報と、を用いて、前記ライダーが検出した固定物の地図上の位置を特定する処理を行う固定物位置特定部と、
前記自車両の地図上の位置と、前記方位角と、前記固定物の地図上の位置と、前記ライダーが前記固定物を検出したときの光軸基準に対するレーザー光の送出角度と、を用いて、前記光軸基準を補正する処理を行う光軸基準補正部と、
を備えることを特徴とする物体認識装置。 A camera that captures the external situation of your vehicle,
The rider who detects the three-dimensional object around the own vehicle and
A map database that stores at least map information and location and style information of fixed objects on the map,
A vehicle position estimation unit that performs processing for estimating the position of the own vehicle on the map, and
An azimuth angle estimation unit that performs a process of estimating an angle formed by the front-rear axis of the own vehicle as a reference direction using the image pickup information from the camera and the position information.
A fixed object position specifying unit that performs a process of specifying a position on a map of a fixed object detected by the rider by using the fixed object information detected by the rider, the style information, and the position information.
Using the position on the map of the own vehicle, the azimuth, the position on the map of the fixed object, and the transmission angle of the laser beam with respect to the optical axis reference when the rider detects the fixed object. , An optical axis reference correction unit that performs processing to correct the optical axis reference,
An object recognition device characterized by comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214671A JP6834914B2 (en) | 2017-11-07 | 2017-11-07 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214671A JP6834914B2 (en) | 2017-11-07 | 2017-11-07 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019086393A JP2019086393A (en) | 2019-06-06 |
JP6834914B2 true JP6834914B2 (en) | 2021-02-24 |
Family
ID=66764095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017214671A Active JP6834914B2 (en) | 2017-11-07 | 2017-11-07 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6834914B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7103324B2 (en) * | 2019-09-10 | 2022-07-20 | 株式会社デンソー | Anomaly detection device for object recognition and anomaly detection program for object recognition |
JP7439434B2 (en) * | 2019-09-30 | 2024-02-28 | 株式会社デンソー | Lidar tilt detection device installed on a vehicle and method for detecting lidar tilt installed on a vehicle |
WO2022130619A1 (en) * | 2020-12-18 | 2022-06-23 | 三菱電機株式会社 | Correction data generation device, vehicle-mounted device, correction data generation method, error correction method, correction data generation program, and error correction program |
CN116392369B (en) * | 2023-06-08 | 2023-09-08 | 中国电建集团昆明勘测设计研究院有限公司 | Identification induction method, device, equipment and storage medium based on blind sidewalk |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5146716B2 (en) * | 2007-03-01 | 2013-02-20 | マツダ株式会社 | Obstacle detection device for vehicles |
JP2010271166A (en) * | 2009-05-21 | 2010-12-02 | Toyota Motor Corp | Obstacle detection device |
JP5821276B2 (en) * | 2011-05-20 | 2015-11-24 | マツダ株式会社 | Detection device for position and traveling direction of moving body |
JP2015125669A (en) * | 2013-12-27 | 2015-07-06 | 日立オートモティブシステムズ株式会社 | Vehicle controller, vehicle mounting therein vehicle control device, and movable body detection method |
JP6303956B2 (en) * | 2014-09-24 | 2018-04-04 | 株式会社デンソー | Axis deviation estimation device |
US10503983B2 (en) * | 2015-08-19 | 2019-12-10 | Mitsubishi Electric Corporation | Lane recognition apparatus and lane recognition method |
EP3358364A4 (en) * | 2015-09-30 | 2019-03-13 | Sony Corporation | Signal processing device, signal processing method, program, and object detection system |
CN108779984A (en) * | 2016-03-16 | 2018-11-09 | 索尼公司 | Signal handling equipment and signal processing method |
-
2017
- 2017-11-07 JP JP2017214671A patent/JP6834914B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019086393A (en) | 2019-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10788830B2 (en) | Systems and methods for determining a vehicle position | |
CN113710988B (en) | Method for detecting the functional capability of an environmental sensor, control unit and vehicle | |
US10885791B2 (en) | Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method | |
JP6241422B2 (en) | Driving support device, driving support method, and recording medium for storing driving support program | |
JP5304882B2 (en) | In-vehicle information processing apparatus and information processing method | |
US11092442B2 (en) | Host vehicle position estimation device | |
US20100121518A1 (en) | Map enhanced positioning sensor system | |
JP6834914B2 (en) | Object recognition device | |
CN109752741A (en) | vehicle positioning device | |
JP6806891B2 (en) | Information processing equipment, control methods, programs and storage media | |
WO2017199369A1 (en) | Physical object recognition device, physical object recognition method, and program | |
US11908206B2 (en) | Compensation for vertical road curvature in road geometry estimation | |
JP2007218848A (en) | Positional information acquisition system for mobile body | |
KR20210029323A (en) | Apparatus and method for improving cognitive performance of sensor fusion using precise map | |
JP6790951B2 (en) | Map information learning method and map information learning device | |
JP5446559B2 (en) | Vehicle position calculation device and vehicle position calculation method | |
US20200110183A1 (en) | Method of determining location of vehicle, apparatus for determining location, and system for controlling driving | |
JP4596566B2 (en) | Self-vehicle information recognition device and self-vehicle information recognition method | |
JP2020046411A (en) | Data structure, storage device, terminal device, server device, control method, program, and storage medium | |
JP2011209849A (en) | Driving support method and driving support device | |
EP3813020A1 (en) | Camera orientation estimation | |
CN108242163A (en) | The driver assistance system of motor vehicle | |
JP2018036075A (en) | Own vehicle position specification device and own vehicle position specification method | |
JP2023118759A (en) | Measuring device, measuring method and program | |
JP2020046413A (en) | Data structure, storage device, terminal device, server device, control method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210118 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6834914 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |