JP7135579B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP7135579B2 JP7135579B2 JP2018154132A JP2018154132A JP7135579B2 JP 7135579 B2 JP7135579 B2 JP 7135579B2 JP 2018154132 A JP2018154132 A JP 2018154132A JP 2018154132 A JP2018154132 A JP 2018154132A JP 7135579 B2 JP7135579 B2 JP 7135579B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- vehicle
- point group
- ranging
- information acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、自車両に搭載されることで、当該自車両の周囲に存在する物体を検知するように構成された、物体検知装置に関する。 The present invention relates to an object detection device that is mounted on a vehicle and configured to detect objects existing around the vehicle.
この種の装置として、例えば、特許文献1に記載されたものが知られている。特許文献1に記載の装置は、カメラの撮影画像と自車両の挙動とを利用して、周囲の障害物等の物体の三次元位置を検出する。具体的には、この装置は、まず、現在時刻のカメラの撮影画像と、この撮影画像の直前に撮像された撮影画像とを取得する。次に、この装置は、2つの撮影画像中において複数の特徴点をそれぞれ抽出し、各特徴点について複数の撮影画像間での対応付けを行う。その後、この装置は、撮影画像間での特徴点の移動量と、移動体移動量とに基づいて、特徴点の実空間での三次元位置を推定する。
As a device of this type, for example, one described in
例えば、自車両と物体との相対移動方向とカメラの撮影方向とがほぼ一致し、且つ、当該物体がカメラの正面に位置する状況があり得る。このような状況においては、三次元位置を推定するために必要な、充分な視差が得られ難い。特に、当該物体が、上下方向に延設された細長いポール状の障害物である場合に、かかる問題が顕著に生じる。この場合、車両走行に伴う当該物体とカメラとの相対移動の前後で、当該物体の撮影画像中での状態変化が小さいためである。 For example, there may be a situation in which the direction of relative movement between the vehicle and the object substantially coincides with the imaging direction of the camera, and the object is positioned in front of the camera. In such a situation, it is difficult to obtain sufficient parallax necessary for estimating the three-dimensional position. In particular, when the object is an elongated pole-shaped obstacle extending in the vertical direction, such a problem occurs remarkably. In this case, this is because the change in the state of the object in the captured image is small before and after the relative movement between the object and the camera as the vehicle travels.
本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、例えば、本発明は、自車両の周囲に存在する物体を、より良好に検知することが可能な構成を提供する。 The present invention has been made in view of the circumstances exemplified above. That is, for example, the present invention provides a configuration capable of better detecting objects existing around the own vehicle.
請求項1に記載の物体検知装置(20)は、自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
視点の異なる複数の前記撮影画像に基づいて前記特徴点の三次元位置を取得する、三次元情報取得部(274)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記障害物検知部は、前記三次元位置が取得されなかった複数の前記特徴点により前記第一点群および前記第二点群が構成されており、且つ、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点と前記第一点群および前記第二点群とが前記撮影画像中にて前記所定位置関係にある場合、前記第一点群と前記第二点群との間の前記領域を前記障害物として検知し、
前記所定位置関係は、前記三次元位置が取得された前記特徴点である参照特徴点(FP0)が前記第一点群と前記第二点群との間に存在し、且つ、前記参照特徴点の前記自車両からの距離である参照距離と前記測距点の前記自車両からの距離である測距距離との差が所定値以下であることを含む。
請求項2に記載の物体検知装置(20)は、自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、前記第一点群および前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であることを含む。
請求項3に記載の物体検知装置(20)は、自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、
前記第一点群または前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であり、且つ、
前記第一点群と前記第二点群との、前記撮影画像中における間隔が、所定間隔以下であることを含む。
An object detection device (20) according to
This object detection device
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a three-dimensional information acquisition unit (274) that acquires the three-dimensional position of the feature point based on the plurality of captured images from different viewpoints;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
In the obstacle detection unit, the first point group and the second point group are configured by a plurality of the feature points for which the three-dimensional position was not acquired, and the distance measurement information acquisition unit acquires and when the range-finding point corresponding to the range-finding information and the first point group and the second point group are in the predetermined positional relationship in the captured image, the first point group and the second point detecting the area between the group as the obstacle;
The predetermined positional relationship is such that a reference feature point (FP0), which is the feature point from which the three-dimensional position is acquired, exists between the first point group and the second point group, and the reference feature point A difference between a reference distance, which is the distance from the host vehicle, and a ranging distance, which is the distance of the ranging point from the host vehicle, is equal to or less than a predetermined value .
The object detection device (20) according to claim 2 is configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10).
This object detection device
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship includes that the distances of the first point group and the second point group from the range-finding point in the captured image are equal to or less than a predetermined distance.
The object detection device (20) according to claim 3 is configured to detect an object (B) existing around the own vehicle by being mounted on the own vehicle (10).
This object detection device
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship is
The distance of the first point group or the second point group from the range-finding point in the captured image is a predetermined distance or less, and
An interval in the photographed image between the first point group and the second point group is equal to or less than a predetermined interval.
上記構成において、前記画像情報取得部は、前記自車両の周囲の撮影画像に対応する前記画像情報を取得する。前記特徴点抽出部は、前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における前記特徴点を抽出する。周知の通り、前記特徴点の三次元位置は、視点の異なる複数の前記撮影画像に基づいて、視差演算により取得することが可能である。 In the above configuration, the image information acquisition unit acquires the image information corresponding to the captured image of the surroundings of the own vehicle. The feature point extraction unit extracts the feature points in the captured image based on the image information acquired by the image information acquisition unit. As is well known, the three-dimensional positions of the feature points can be obtained by parallax calculation based on the plurality of captured images from different viewpoints.
しかしながら、上記の通り、前記特徴点の三次元位置を取得あるいは推定するために必要な、充分な視差が得られ難い状況が発生し得る。このような状況においては、視差演算が困難となるため、前記特徴点の前記三次元位置が取得困難となる。すると、当該特徴点に対応する、前記自車両の周囲の前記障害物を検知することが困難となる。 However, as described above, a situation may occur in which it is difficult to obtain sufficient parallax necessary for obtaining or estimating the three-dimensional position of the feature point. In such a situation, parallax calculation becomes difficult, and thus the three-dimensional position of the feature point becomes difficult to obtain. Then, it becomes difficult to detect the obstacles around the host vehicle that correspond to the feature points.
この点、例えば、充分な視差が得られないために前記三次元位置が取得されなかった複数の前記特徴点とほぼ同一の方位にて、前記測距情報が取得された場合、当該測距情報に対応する位置には前記物体が存在する可能性が高い。この場合、前記測距情報取得部により前記物体との距離に対応する前記測距情報が取得され、且つ、取得された前記測距情報に対応する前記測距点の近傍にて複数の前記特徴点が所定の態様で配列する。 In this regard, for example, when the distance measurement information is obtained in substantially the same direction as the plurality of feature points for which the three-dimensional positions were not obtained due to insufficient parallax, the distance measurement information There is a high possibility that the object exists at the position corresponding to . In this case, the distance measurement information corresponding to the distance to the object is acquired by the distance measurement information acquisition unit, and the plurality of features are obtained in the vicinity of the distance measurement point corresponding to the acquired distance measurement information. The points are arranged in a predetermined manner.
そこで、上記構成においては、前記点群抽出部は、前記特徴点抽出部による前記特徴点の前記抽出結果から、前記所定条件で配列する複数の前記特徴点からなる前記点群を抽出する。前記測距情報取得部は、前記測距センサにより測定された前記測距点との距離に対応する前記測距情報を取得する。前記障害物検知部は、前記点群抽出部によって抽出された2個の前記点群である前記第一点群および前記第二点群と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて前記所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を前記障害物として検知する。 Therefore, in the above configuration, the point group extraction unit extracts the point group composed of the plurality of feature points arranged under the predetermined condition from the extraction result of the feature points by the feature point extraction unit. The ranging information acquisition unit acquires the ranging information corresponding to the distance to the ranging point measured by the ranging sensor. The obstacle detection unit includes the first point group and the second point group, which are the two point groups extracted by the point group extraction unit, and the distance measurement acquired by the distance measurement information acquisition unit. A region between the first point group and the second point group is detected as the obstacle when the range-finding points corresponding to the information are in the predetermined positional relationship in the captured image.
上記構成においては、前記所定条件で配列する前記第一点群および前記第二点群が抽出され、且つ、前記第一点群および前記第二点群と前記測距点とが前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を前記障害物として検知することができる。したがって、上記構成によれば、前記自車両の周囲に存在する前記物体を、より良好に検知することが可能となる。 In the above configuration, the first point group and the second point group arranged under the predetermined condition are extracted, and the first point group, the second point group, and the range-finding point are located in the captured image. , the area between the first point group and the second point group can be detected as the obstacle. Therefore, according to the above configuration, it is possible to more satisfactorily detect the object existing around the own vehicle.
なお、出願書類中の各欄において、各要素に括弧付きの参照符号が付されている場合がある。この場合、参照符号は、単に、同要素と後述する実施形態に記載の具体的構成との対応関係の一例を示すものである。よって、本発明は、参照符号の記載によって、何ら限定されるものではない。 In addition, in each column of the application documents, each element may be given a reference sign with parentheses. In this case, the reference numerals simply indicate an example of the correspondence relationship between the same element and the specific configuration described in the embodiment described later. Therefore, the present invention is not limited in any way by the description of the reference numerals.
(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(embodiment)
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described based on the drawings. It should be noted that if various modifications applicable to one embodiment are inserted in the middle of a series of explanations related to the embodiment, there is a risk that the understanding of the embodiment will be hindered. Therefore, the modified examples will be collectively described after the series of descriptions regarding the embodiment, not in the middle of the description.
(車両の全体構成)
図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。以下、車両10の車幅方向における中心を通り、且つ車両10における車両全長方向と平行な仮想直線を、車両中心軸線Xと称する。図1において、車幅方向は図中左右方向である。車両全長方向は、車幅方向と直交し且つ車高方向と直交する方向である。車高方向は、車両10の車高を規定する方向であって、車両10を水平面に載置した場合の重力作用方向と平行な方向である。さらに、走行により車両10が移動可能な、車高方向と直交する任意の方向を、車両10の「並進方向」と称することがある。
(Overall configuration of vehicle)
Referring to FIG. 1, a
説明の便宜上、車両10における「前」「後」「左」「右」を、図1中にて矢印で示された通りに定義する。すなわち、車両全長方向は、前後方向と同義である。また、車幅方向は、左右方向と同義である。なお、車高方向は、車両10の載置条件または走行条件により、重力作用方向と平行とはならない場合があり得る。もっとも、車高方向は多くの場合に重力作用方向に沿った方向となるため、車高方向と直交する「並進方向」は、「水平方向」、「面内方向」、「進入方向」、「進行方向」あるいは「進路方向」とも称され得る。
For convenience of explanation, "front", "rear", "left", and "right" of the
車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が装着されている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側の左右一対のドアパネル17のそれぞれには、ドアミラー18が装着されている。
A
車両10には、物体検知装置20が搭載されている。物体検知装置20は、車両10に搭載されることで、当該車両10の外側且つその周囲に存在する物体Bを検知するように構成されている。以下、物体検知装置20を搭載した車両10を、「自車両」と略称することがある。すなわち、物体検知装置20は、自車両の並進方向に存在する物体Bを検知するように構成されている。
An
具体的には、物体検知装置20は、撮像部21と、ソナーセンサ22と、レーダーセンサ23と、車速センサ24と、シフトポジションセンサ25と、舵角センサ26と、物体検知ECU27と、表示部28と、音声出力部29とを備えている。ECUはElectronic Control Unitの略である。以下、物体検知装置20を構成する各部の詳細について説明する。なお、図示の簡略化のため、物体検知装置20を構成する各部の間の電気接続関係は、図1においては省略されている。
Specifically, the
撮像部21は、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得するように設けられている。本実施形態においては、撮像部21は、デジタルカメラ装置であって、CCD等のイメージセンサを備えている。CCDはCharge Coupled Deviceの略である。
The
本実施形態においては、車両10には、複数の撮像部21、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRが搭載されている。フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRのうちの、いずれかであることを特定しない場合に、以下、「撮像部21」という単数形の表現、または「複数の撮像部21」という表現が用いられることがある。
In this embodiment, the
フロントカメラCFは、自車両の前方の画像に対応する画像情報を取得するように設けられている。具体的には、本実施形態においては、フロントカメラCFは、車両10における車室内に配置された不図示のルームミラーに装着されている。
The front camera CF is provided to acquire image information corresponding to an image in front of the vehicle. Specifically, in the present embodiment, the front camera CF is attached to a rearview mirror (not shown) arranged in the vehicle interior of the
リアカメラCBは、自車両の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。左側カメラCLは、自車両の左方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、自車両の右方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。
The rear camera CB is attached to the
複数の撮像部21の各々は、物体検知ECU27に電気接続されている。すなわち、複数の撮像部21の各々は、物体検知ECU27の制御下で画像情報を取得するとともに、取得した画像情報を物体検知ECU27にて受信可能に出力するようになっている。
Each of the
ソナーセンサ22は、物体B上の点との距離を測定する測距センサであって、車体11に装着されている。すなわち、ソナーセンサ22は、自車両の外側に向けて発信された探査波の、物体Bによる反射波を含む受信波を受信することで、物体Bとの距離に対応する信号を出力するように設けられている。具体的には、本実施形態においては、ソナーセンサ22は、いわゆる超音波センサであって、超音波である探査波を自車両の外側に向けて発信するとともに、超音波を含む受信波を受信可能に構成されている。
The
物体検知装置20は、少なくとも一個のソナーセンサ22を備えている。具体的には、本実施形態においては、複数のソナーセンサ22が設けられている。複数のソナーセンサ22は、それぞれ、車両中心軸線Xから車幅方向におけるいずれか一方側にシフトして配置されている。また、複数のソナーセンサ22のうちの少なくとも一部は、車両中心軸線Xと交差する方向に沿って探査波を発信するように設けられている。
The
具体的には、フロントバンパー13には、ソナーセンサ22としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、および第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、ソナーセンサ22としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、および第四リアソナーSR4が装着されている。また、車体11の側面部16には、ソナーセンサ22としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4が装着されている。
Specifically, the
第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、第四フロントソナーSF4、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、第四リアソナーSR4、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4のうちの、いずれかであることを特定しない場合に、以下、「ソナーセンサ22」という単数形の表現、または「複数のソナーセンサ22」という表現が用いられることがある。
1st front sonar SF1, 2nd front sonar SF2, 3rd front sonar SF3, 4th front sonar SF4, 1st rear sonar SR1, 2nd rear sonar SR2, 3rd rear sonar SR3, 4th rear sonar SR4, 1st side sonar SS1, Hereinafter, when not specifying any of the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4, the singular expression "
或る一個のソナーセンサ22を「第一ソナーセンサ」と称し、別の一個のソナーセンサ22を「第二ソナーセンサ」と称して、「直接波」および「間接波」を、以下のように定義する。第一ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「直接波」と称する。これに対し、第一ソナーセンサに受信される受信波であって、第二ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「間接波」と称する。
One
第一フロントソナーSF1は、自車両の左前方に探査波を発信するように、フロントバンパー13の前側表面における左端部に設けられている。第二フロントソナーSF2は、自車両の右前方に探査波を発信するように、フロントバンパー13の前側表面における右端部に設けられている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心軸線Xを挟んで対称に配置されている。
The first front sonar SF1 is provided at the left end of the front surface of the
第三フロントソナーSF3と第四フロントソナーSF4とは、フロントバンパー13の前側表面における中央寄りの位置にて、車幅方向に配列されている。第三フロントソナーSF3は、自車両の略前方に探査波を発信するように、車幅方向について第一フロントソナーSF1と車両中心軸線Xとの間に配置されている。第四フロントソナーSF4は、自車両の略前方に探査波を発信するように、車幅方向について第二フロントソナーSF2と車両中心軸線Xとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心軸線Xを挟んで対称に配置されている。
The third front sonar SF3 and the fourth front sonar SF4 are arranged in the width direction of the vehicle at positions near the center of the front surface of the
上記の通り、車体11の左側に装着された第一フロントソナーSF1および第三フロントソナーSF3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一フロントソナーSF1と第三フロントソナーSF3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
As described above, the first front sonar SF1 and the third front sonar SF3 mounted on the left side of the
すなわち、第一フロントソナーSF1は、自己が発信した探査波に対応する直接波と、第三フロントソナーSF3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三フロントソナーSF3は、自己が発信した探査波に対応する直接波と、第一フロントソナーSF1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first front sonar SF1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third front sonar SF3. Similarly, the third front sonar SF3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first front sonar SF1.
同様に、車体11の車幅方向における中央寄りに装着された第三フロントソナーSF3および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三フロントソナーSF3と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the third front sonar SF3 and the fourth front sonar SF4 mounted near the center of the
同様に、車体11の右側に装着された第二フロントソナーSF2および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二フロントソナーSF2と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the second front sonar SF2 and the fourth front sonar SF4 mounted on the right side of the
第一リアソナーSR1は、自車両の左後方に探査波を発信するように、リアバンパー15の後側表面における左端部に設けられている。第二リアソナーSR2は、自車両の右後方に探査波を発信するように、リアバンパー15の後側表面における右端部に設けられている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心軸線Xを挟んで対称に配置されている。
The first rear sonar SR1 is provided at the left end of the rear surface of the
第三リアソナーSR3と第四リアソナーSR4とは、リアバンパー15の後側表面における中央寄りの位置にて、車幅方向に配列されている。第三リアソナーSR3は、自車両の略後方に探査波を発信するように、車幅方向について第一リアソナーSR1と車両中心軸線Xとの間に配置されている。第四リアソナーSR4は、自車両の略後方に探査波を発信するように、車幅方向について第二リアソナーSR2と車両中心軸線Xとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心軸線Xを挟んで対称に配置されている。
The third rear sonar SR3 and the fourth rear sonar SR4 are arranged in the vehicle width direction at positions near the center of the rear surface of the
上記の通り、車体11の左側に装着された第一リアソナーSR1および第三リアソナーSR3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一リアソナーSR1と第三リアソナーSR3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
As described above, the first rear sonar SR1 and the third rear sonar SR3 mounted on the left side of the
すなわち、第一リアソナーSR1は、自己が発信した探査波に対応する直接波と、第三リアソナーSR3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三リアソナーSR3は、自己が発信した探査波に対応する直接波と、第一リアソナーSR1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first rear sonar SR1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third rear sonar SR3. Similarly, the third rear sonar SR3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first rear sonar SR1.
同様に、車体11の車幅方向における中央寄りに装着された第三リアソナーSR3および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三リアソナーSR3と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the third rear sonar SR3 and the fourth rear sonar SR4, which are mounted near the center of the
同様に、車体11の右側に装着された第二リアソナーSR2および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二リアソナーSR2と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the second rear sonar SR2 and the fourth rear sonar SR4 mounted on the right side of the
第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、側面部16の外側表面である車両側面から探査波を自車両の側方に発信するように設けられている。第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、それぞれ、直接波のみを受信可能に設けられている。
The first side sonar SS1, the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4 are designed to transmit survey waves to the side of the vehicle from the side of the vehicle, which is the outer surface of the
第一サイドソナーSS1は、自車両の左方に探査波を発信するように、前後方向について左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、自車両の右方に探査波を発信するように、前後方向について右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心軸線Xを挟んで対称に設けられている。
The first side sonar SS1 is arranged between the left
第三サイドソナーSS3は、自車両の左方に探査波を発信するように、前後方向について左後側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、自車両の右方に探査波を発信するように、前後方向について右後側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心軸線Xを挟んで対称に設けられている。
The third side sonar SS3 is arranged between the left
複数のソナーセンサ22の各々は、物体検知ECU27に電気接続されている。すなわち、複数のソナーセンサ22の各々は、物体検知ECU27の制御下で探査波を発信するとともに、受信波の受信結果に対応する信号を発生して物体検知ECU27にて受信可能に出力するようになっている。受信波の受信結果に対応する信号に含まれる情報を、以下「測距情報」と称する。測距情報には、受信波の受信強度に関連する情報、および、距離情報が含まれる。「距離情報」は、複数のソナーセンサ22の各々と物体Bとの距離に関連する情報である。具体的には、例えば、距離情報には、探査波の発信から受信波の受信までの時間差に関連する情報が含まれる。
Each of the
レーダーセンサ23は、レーダー波を送受信するレーザーレーダーセンサまたはミリ波レーダーセンサであって、車体11の前面部12に装着されている。レーダーセンサ23は、反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように構成されている。「反射点」は、物体Bの表面上における、レーダー波を反射したと推定される点である。「相対速度」は、反射点すなわちレーダー波を反射した物体Bの、自車両に対する相対速度である。
The
車速センサ24、シフトポジションセンサ25、および舵角センサ26は、物体検知ECU27に電気接続されている。車速センサ24は、自車両の走行速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。自車両の走行速度を、以下単に「車速」と称する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。
物体検知ECU27は、車体11の内側に配置されている。物体検知ECU27は、いわゆる車載マイクロコンピュータであって、図示しないCPU、ROM、RAM、不揮発性RAM、等を備えている。不揮発性RAMは、例えば、フラッシュROM等である。物体検知ECU27のCPU、ROM、RAMおよび不揮発性RAMを、以下単に「CPU」、「ROM」、「RAM」および「不揮発性RAM」と略称する。
The
物体検知ECU27は、CPUがROMまたは不揮発性RAMからプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のルーチンに対応するものが含まれている。また、RAMおよび不揮発性RAMは、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発性RAMには、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。各種のデータには、例えば、初期値、ルックアップテーブル、マップ、等が含まれている。
The
物体検知ECU27は、複数のソナーセンサ22の各々、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作を実行するように構成されている。また、物体検知ECU27は、表示部28および音声出力部29の動作を制御することで、物体検知状態に伴う報知動作を行うようになっている。
The
表示部28および音声出力部29は、車両10における車室内に配置されている。また、表示部28および音声出力部29は、物体検知ECU27に電気接続されている。表示部28は、物体検知状態に伴う報知動作を、表示画面またはインジケータによる表示により行うように構成されている。音声出力部29は、物体検知状態に伴う報知動作を、音声出力により行うように構成されている。
The
(物体検知ECUの機能構成)
図2を参照すると、物体検知ECU27は、マイクロコンピュータ上に実現される機能上の構成として、画像情報取得部271と、移動情報取得部272と、特徴点抽出部273と、三次元座標情報取得部274と、点群抽出部275と、測距情報取得部276と、障害物検知部277とを有している。
(Functional configuration of object detection ECU)
Referring to FIG. 2, the
以下、本実施形態における、物体検知ECU27の機能構成の詳細について、図2のブロック図および図3の動作概要図を用いて説明する。図3は、車両1の後方に存在するポール状の物体Bを含む、リアカメラCBの撮影画像が処理される様子を示す。図3中、VAは撮影画像の画角である。画角VAは、撮像部21の視野に対応する、撮影画像の最大範囲である。また、HLは水平線すなわち地平線であり、DL1は実線状の道路区画線である第一区画線であり、DL2は破線状の道路区画線である第二区画線である。BDは遠方の建物である。
Details of the functional configuration of the
画像情報取得部271は、自車両の周囲の撮影画像に対応する画像情報を取得するように設けられている。具体的には、画像情報取得部271は、撮像部21により生成された画像情報を撮像部21から受信するとともに、受信した画像情報を時系列で不揮発性RAMに格納するようになっている。
The image
移動情報取得部272は、物体検知動作中の、自車両の移動方向および移動量を取得するように設けられている。具体的には、移動情報取得部272は、車速センサ24、シフトポジションセンサ25、および舵角センサ26の出力に基づいて、自車両の移動方向および移動量を算出するとともに、算出結果を時系列で不揮発性RAMに格納するようになっている。
The movement
特徴点抽出部273は、画像情報取得部271にて取得した画像情報に基づいて、撮影画像における特徴点FPを抽出するように設けられている。特徴点FPは、撮影画像中の物体Bの形状を特徴付ける点である。換言すれば、特徴点FPは、画角VA内における、特徴的な点すなわち画素である。具体的には、例えば、特徴点FPは、隣接する画素との間での輝度変化が大きな画素である。
The feature
なお、特徴点FPおよびその抽出手法は、本願の出願時点にて周知である。具体的には、特徴点FPの検出手法として、周知の手法(例えば、Sobelフィルタ、Laplacianフィルタ、Canny法、等。)を用いることが可能である。したがって、本明細書においては、特徴点抽出部273による特徴点FPの抽出手法の詳細については、説明を省略する。なお、特徴点FPの「抽出」は、「検出」とも表現され得る。
Note that the feature point FP and its extraction method are well known at the time of filing the application. Specifically, a well-known method (for example, Sobel filter, Laplacian filter, Canny method, etc.) can be used as a method of detecting feature points FP. Therefore, in this specification, the detailed description of the method of extracting the feature points FP by the feature
三次元座標情報取得部274は、視点の異なる複数の撮影画像に基づいて、特徴点FPの三次元位置を取得するように設けられている。なお、本実施形態においては、リアカメラCB、フロントカメラCF、左側カメラCL、および右側カメラCRは、それぞれ1個ずつ設けられている。そこで、本実施形態においては、三次元座標情報取得部274は、画像情報取得部271により取得および格納された画像情報と、移動情報取得部272によって取得および格納された移動方向および移動量とに基づいて、物体B上の特徴点FPにおける三次元座標情報を取得するように構成されている。
The three-dimensional coordinate
すなわち、三次元座標情報取得部274は、移動ステレオあるいは単眼移動ステレオの手法を用いて、自車両の周囲に存在する物体Bを認識するように構成されている。具体的には、三次元座標情報取得部274は、特定の方向に向けられた一個の撮像部21における画像情報の履歴と、自車両の移動量とに基づいて、当該撮像部21の向けられた方向に存在する物体Bを認識するようになっている。移動ステレオは、SFMとも称される。SFMはStructure from Motionの略である。
That is, the three-dimensional coordinate
なお、移動ステレオあるいはSFMについては、本願の出願時点において、すでに周知技術となっている。例えば、米国特許第7,433,494号明細書、同第8,027,514号明細書、等参照。必要に応じ、これらの記載は、技術的に矛盾しない限り、国内法令の許容する範囲において、記載内容が適宜参照により組み入れられる。したがって、本明細書においては、移動ステレオについての詳細については、説明を省略する。 Moving stereo or SFM has already become a well-known technology at the time of the filing of this application. See, for example, US Pat. Nos. 7,433,494, 8,027,514, etc. As necessary, these descriptions are incorporated by reference as appropriate to the extent permitted by domestic laws and regulations, as long as they are not technically inconsistent. Therefore, the details of the moving stereo are omitted in this specification.
点群抽出部275は、特徴点抽出部273による特徴点FPの抽出結果から、所定条件で配列する複数の特徴点FPからなる点群Gを抽出するように設けられている。本実施形態においては、「所定条件」は、複数の特徴点FPが直線状に配列していることを含む。また、「所定条件」は、複数の特徴点FPが水平線HLと交差するように配列していることを含む。また、本実施形態においては、点群抽出部275は、所定の探索範囲RSにて、点群Gを抽出するようになっている。探索範囲RSは、測距情報取得部276によって取得された測距情報に対応する測距点DPを基準とした、撮影画像中における所定範囲である。本実施形態においては、探索範囲RSの形状は、矩形状に設定されている。探索範囲RSの幅は、三角測量による測距点DPの測距誤差を考慮した所定幅に設定されている。探索範囲RSの高さは、計算負荷を考慮して、探索範囲RSが水平線HLと交差するような所定高さに設定されている。
The point
測距情報取得部276は、ソナーセンサ22により測定された測距点DPとの距離に対応する測距情報を取得するように設けられている。すなわち、測距情報取得部276は、自車両の並進方向における物体Bの自車両に対する相対位置に対応する二次元位置情報、換言すれば、測距点DPに対応する測距情報を取得するとともに、取得結果を時系列で不揮発性RAMに格納するようになっている。具体的には、測距情報取得部276は、自車両の外側に向けて発信された超音波である探査波の物体Bによる反射波を、自車両の車体11に装着されたソナーセンサ22にて受信した結果に基づいて、測距情報を取得するように構成されている。
The distance measurement
本実施形態においては、測距情報取得部276は、探査波の物体Bによる反射波をソナーセンサ22にて受信した結果に基づいて、測距情報を取得および格納するように設けられている。具体的には、測距情報取得部276は、測距点DPに対応する測距情報を取得しつつ時系列で不揮発性RAMに格納するようになっている。「測距点DP」は、物体Bの表面上における、ソナーセンサ22から発信された探査波を反射したと推定される点であって、レーダーセンサ23における「反射点」に対応する点である。なお、測距点DPの取得手法については、本願の出願時点にて周知である。したがって、かかる手法の詳細については、本明細書においては、説明を省略する。
In this embodiment, the ranging
障害物検知部277は、自車両の周囲の物体Bを障害物として検知するように設けられている。具体的には、障害物検知部277は、三次元座標情報取得部274により認識された物体Bを、障害物として検知するように構成されている。すなわち、障害物検知部277は、特徴点FPの三次元位置を取得あるいは推定するために必要な、充分な視差が得られた特徴点FPに基づいて、移動ステレオの手法により障害物を検知するようになっている。
The
また、障害物検知部277は、充分な視差が得られないために三次元座標情報取得部274により三次元位置が取得されなかった、複数の特徴点FPを活用して、障害物を検知するように構成されている。具体的には、障害物検知部277は、第一点群G1および第二点群G2と、その近傍にて測距情報取得部276によって取得された測距情報に対応する測距点DPとが、撮影画像中にて所定位置関係にある場合に、第一点群G1と第二点群G2との間の領域を障害物として検知するようになっている。第一点群G1および第二点群G2は、点群抽出部275によって抽出された、2個の点群Gである。本実施形態においては、「所定位置関係」は、第一点群G1および第二点群G2の、撮影画像中における測距点DPからの距離が、所定距離以下であることを含む。
Further, the
(作用・効果)
以下、本実施形態の物体検知装置20すなわち物体検知ECU27における動作の概要について、本実施形態の構成により奏される効果とともに、図1~図3を参照しつつ説明する。
(action/effect)
An overview of the operation of the
複数の撮像部21の各々、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRは、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得する。また、複数の撮像部21の各々は、取得した画像情報を、物体検知ECU27にて受信可能に出力する。
Each of the plurality of
複数のソナーセンサ22の各々は、自車両の外側に向けて発信された探査波の反射波を含む受信波を受信することで、自車両の周囲に存在する物体B上の点との距離を測定する。また、複数のソナーセンサ22の各々は、取得した測距情報を、物体検知ECU27により受信可能に出力する。
Each of the plurality of
レーダーセンサ23は、物体B上の反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。車速センサ24は、車速に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力する。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。
The
物体検知ECU27は、複数の撮像部21の各々から、画像情報を受信する。また、物体検知ECU27は、複数のソナーセンサ22の各々から、測距情報を受信する。また、物体検知ECU27は、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、および舵角センサ26からの出力信号を受信する。物体検知ECU27は、複数のソナーセンサ22の各々、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作を実行する。
The
具体的には、画像情報取得部271は、自車両の周囲の撮影画像に対応する画像情報を、複数の撮像部21の各々から取得する。また、画像情報取得部271は、取得した画像情報を、時系列で不揮発性RAMに格納する。移動情報取得部272は、車速センサ24、シフトポジションセンサ25、および舵角センサ26の出力に基づいて、自車両の移動方向および移動量を算出する。また、移動情報取得部272は、算出結果を時系列で不揮発性RAMに格納する。特徴点抽出部273は、画像情報取得部271にて取得した画像情報に基づいて、撮影画像における特徴点FPを抽出する。
Specifically, the image
視点の異なる複数の撮影画像の各々で抽出された特徴点FPにて、良好に視差演算可能に、充分な視差が得られる場合がある。この場合、三次元座標情報取得部274は、視点の異なる複数の撮影画像に基づいて、視差演算により特徴点FPの三次元位置を取得する。障害物検知部277は、三次元座標情報取得部274により取得された三次元位置に基づいて、障害物を検知する。すなわち、障害物検知部277は、充分な視差が得られた特徴点FPに基づいて、移動ステレオの手法により、障害物を検知する。
Sufficient parallax may be obtained to enable good parallax calculation at the feature points FP extracted from each of a plurality of captured images from different viewpoints. In this case, the three-dimensional coordinate
しかしながら、上記の通り、特徴点FPの三次元位置を取得あるいは推定するために必要な、充分な視差が得られ難い状況が発生し得る。このような状況においては、視差演算が困難となるため、特徴点FPの三次元位置が取得困難となる。すると、このような特徴点FPに対応する、自車両の周囲の障害物を検知することが困難となる。特に、以下の(1)および(2)が成立する状況にて、このような問題が発生しやすい。(1)自車両と物体Bとの相対移動方向と、当該物体Bを撮像中の撮像部21の撮影方向とが、ほぼ一致すること。(2)当該物体Bが、当該撮像部21の正面に位置すること。図1および図3は、典型例として、後退中の自車両の真後ろにポール状の物体Bが存在し、当該物体BがリアカメラCBの正面に位置する状況を示す。
However, as described above, a situation may occur in which it is difficult to obtain sufficient parallax necessary for obtaining or estimating the three-dimensional position of the feature point FP. In such a situation, it becomes difficult to obtain the three-dimensional position of the feature point FP because the parallax calculation becomes difficult. Then, it becomes difficult to detect obstacles around the own vehicle corresponding to such feature points FP. In particular, such problems are likely to occur in situations where the following (1) and (2) are established. (1) The direction of relative movement between the subject vehicle and the object B should substantially match the direction in which the
この点、例えば、充分な視差が得られないために三次元位置が取得されなかった複数の特徴点FPとほぼ同一の方位にて、測距情報が取得される場合があり得る。具体的には、測距情報取得部276により物体Bとの距離に対応する測距情報が取得され、且つ、取得された測距情報に対応する測距点DPの近傍にて複数の特徴点FPが所定の態様で配列する。この場合、当該測距情報に対応する測距点DPの位置には、物体Bが存在する可能性が高い。
In this respect, for example, there may be a case where distance measurement information is acquired in substantially the same azimuth as a plurality of feature points FP whose three-dimensional positions have not been acquired due to insufficient parallax. Specifically, the ranging information corresponding to the distance to the object B is acquired by the ranging
そこで、本実施形態においては、点群抽出部275は、特徴点抽出部273による特徴点FPの抽出結果から、所定条件で配列する複数の特徴点FPからなる点群Gを抽出する。具体的には、点群抽出部275は、直線状に配列した複数の特徴点FPのうち、水平線HLと交差するものを、点群Gとして抽出する。
Therefore, in the present embodiment, the point
本実施形態においては、点群抽出部275による点群Gの抽出条件として、複数の特徴点FPが直線状に配列していること、および、複数の特徴点FPが水平線HLと交差するように配列していることが挙げられている。これは、上記の典型例のようなポール状の物体Bの外形形状を考慮したものである。
In this embodiment, as conditions for extracting the point group G by the point
すなわち、例えば、図3に示されているように、第一区画線DL1に対応する複数の特徴点FPは、直線状に配列している。しかしながら、これらは、水平線HLとは交差せず、水平線HLよりも下側の領域のみにて配列する。第二区画線DL2に対応する複数の特徴点FPについても同様である。遠方の建物BDに対応する複数の特徴点FPも、直線状に配列するものの、水平線HLとは交差せず、水平線HLよりも上側の領域のみにて配列する。天井の梁あるいは配管に対応する複数の特徴点FPについても同様である。 That is, for example, as shown in FIG. 3, the plurality of feature points FP corresponding to the first marking line DL1 are arranged in a straight line. However, they do not intersect the horizontal line HL and are arranged only in the area below the horizontal line HL. The same applies to the plurality of feature points FP corresponding to the second lane marking DL2. A plurality of feature points FP corresponding to the distant building BD are also arranged in a straight line, but do not intersect the horizontal line HL, and are arranged only in the area above the horizontal line HL. The same applies to a plurality of feature points FP corresponding to ceiling beams or pipes.
これに対し、リアカメラCBの正面に位置するポール状の物体Bの、撮影画像における左側のエッジに対応する複数の特徴点FPは、直線状に配列している。さらに、これら複数の特徴点FPは、水平線HLと交差しつつ、上下方向に配列する。すなわち、これら複数の特徴点FPは、水平線HLを跨るように、水平線HLと交差する第一エッジ直線L1上に配列する。そこで、点群抽出部275は、これら複数の特徴点FPによる第一点群G1を抽出する。
On the other hand, a plurality of feature points FP corresponding to the left edge in the photographed image of the pole-shaped object B located in front of the rear camera CB are arranged in a straight line. Furthermore, these plurality of feature points FP are arranged in the vertical direction while crossing the horizontal line HL. That is, these plurality of feature points FP are arranged on the first edge straight line L1 intersecting the horizontal line HL so as to straddle the horizontal line HL. Therefore, the point
同様に、リアカメラCBの正面に位置するポール状の物体Bの、撮影画像における右側のエッジに対応する複数の特徴点FPは、直線状に配列している。さらに、これら複数の特徴点FPは、水平線HLと交差しつつ上下方向に配列する。すなわち、これら複数の特徴点FPは、水平線HLを跨るように、水平線HLと交差する第二エッジ直線L2上に配列する。そこで、点群抽出部275は、これら複数の特徴点FPによる第二点群G2を抽出する。
Similarly, a plurality of feature points FP corresponding to the right edge of the captured image of the pole-shaped object B located in front of the rear camera CB are arranged in a straight line. Furthermore, these plurality of feature points FP are arranged in the vertical direction while crossing the horizontal line HL. That is, these plurality of feature points FP are arranged on the second edge straight line L2 intersecting the horizontal line HL so as to straddle the horizontal line HL. Therefore, the point
測距情報取得部276は、ソナーセンサ22により測定された測距点DPとの距離に対応する測距情報を、ソナーセンサ22から取得する。また、測距情報取得部276は、取得した測距情報を、時系列で不揮発性RAMに格納する。点群抽出部275は、測距点DPを基準とした、撮影画像中における所定範囲である探索範囲RS内にて、点群Gを抽出する。探索範囲RSを画角VAの全体ではなくその一部に限定することにより、計算負荷の軽減および探索精度の向上が図られている。
The ranging
障害物検知部277は、点群抽出部275によって抽出された2個の点群Gである第一点群G1および第二点群G2と、測距情報取得部276によって取得された測距情報に対応する測距点DPとが、撮影画像中にて所定位置関係にある場合に、第一点群G1と第二点群G2との間の領域を物体Bすなわち障害物として検知する。
The
上記の通り、所定条件で配列する第一点群G1および第二点群G2が抽出され、且つ、第一点群G1および第二点群G2と測距点DPとが撮影画像中にて所定位置関係にある場合がある。この場合、本実施形態の構成によれば、第一点群G1と第二点群G2との間の領域を障害物として検知することができる。したがって、かかる構成によれば、自車両の周囲に存在する障害物としての物体Bを、より良好に検知することが可能となる。 As described above, the first point group G1 and the second point group G2 arranged under predetermined conditions are extracted, and the first point group G1 and the second point group G2 and the range-finding point DP are predetermined in the captured image. There may be a positional relationship. In this case, according to the configuration of this embodiment, the area between the first point group G1 and the second point group G2 can be detected as an obstacle. Therefore, according to such a configuration, it is possible to more satisfactorily detect the object B as an obstacle existing around the own vehicle.
また、本実施形態の構成においては、障害物検知部277は、視差演算により三次元位置が取得された特徴点FPに基づいて、通常のロジックである移動ステレオの手法により、障害物を検知する。一方、障害物検知部277は、三次元位置が取得されなかった特徴点FPに基づいて、追加のロジックにより、障害物を検知する。かかる追加のロジックは、特徴点FPの抽出結果と、測距情報とを用いるものであるため、センサフュージョンあるいは単にフュージョンとも称され得る。
In addition, in the configuration of this embodiment, the
すなわち、障害物検知部277は、以下の2条件が成立する場合、追加のロジックを用いて、第一点群G1と第二点群G2との間の領域を障害物として検知する。(条件1)三次元位置が取得されなかった複数の特徴点FPにより、第一点群G1および第二点群G2が構成されていること。(条件2)測距情報取得部276によって取得された測距情報に対応する測距点DPと第一点群G1および第二点群G2とが、撮影画像中にて所定位置関係にあること。かかる構成によれば、追加のロジックの適用対象が限定されるため、障害物の誤検出の発生が良好に抑制され得る。
That is, when the following two conditions are satisfied, the
(動作例)
以下、本実施形態の構成による、上記の動作概要に対応する具体的な動作例について、図4に示したフローチャートを用いて説明する。なお、図面中において、「ステップ」を単に「S」と略記する。物体検知ECU27のCPUは、所定の起動条件成立中に、図4に示されたルーチンを、所定時間間隔で繰り返し起動する。
(Operation example)
A specific operation example corresponding to the above outline of operation according to the configuration of the present embodiment will be described below with reference to the flowchart shown in FIG. In the drawings, "step" is simply abbreviated as "S". The CPU of the
かかるルーチンが起動されると、まず、ステップ401にて、CPUは、画像情報を取得する。ここで取得される画像情報は、例えば、自車両の後退中は、リアカメラCBによって取得された画像情報である。すなわち、自車両が後退中の場合、CPUは、リアカメラCBによる画像情報を取得する。 When this routine is activated, first, in step 401, the CPU acquires image information. The image information acquired here is, for example, image information acquired by the rear camera CB while the host vehicle is moving backward. That is, when the host vehicle is moving backward, the CPU acquires image information from the rear camera CB.
次に、ステップ402にて、CPUは、取得した画像情報に基づいて、特徴点FPを抽出する。続いて、ステップ403にて、CPUは、自車両の移動方向および移動量を取得する。続いて、ステップ404にて、CPUは、視差演算により特徴点FPの三次元位置を取得すなわち算出する。 Next, at step 402, the CPU extracts feature points FP based on the acquired image information. Subsequently, at step 403, the CPU acquires the movement direction and movement amount of the host vehicle. Subsequently, at step 404, the CPU acquires or calculates the three-dimensional position of the feature point FP by parallax calculation.
ステップ402にて抽出された多数の特徴点FPの中には、上記の通り、視差演算により三次元位置が取得されるものと取得されないものとが生じる。そこで、CPUは、ステップ404に続いて、ステップ405およびステップ406を実行した後、本ルーチンを一旦終了する。ステップ405にて、CPUは、通常のロジックである単眼移動ステレオの手法により、自車両の周囲の物体Bの有無を判定する。また、ステップ406にて、CPUは、追加のロジックであるセンサフュージョンにより、自車両の周囲の物体Bの有無を判定する。 Among the large number of feature points FP extracted in step 402, as described above, there are those whose three-dimensional positions are obtained by parallax calculation and those whose three-dimensional positions are not obtained. Therefore, following step 404, the CPU once executes steps 405 and 406, and then terminates this routine. At step 405, the CPU determines whether or not there is an object B around the host vehicle by a monocular moving stereo method, which is normal logic. Further, at step 406, the CPU determines whether or not there is an object B around the host vehicle by sensor fusion, which is additional logic.
ステップ405の処理は、単眼移動ステレオにおける通常の処理である。かかる処理は、本願の出願時点において、すでに周知である。したがって、本明細書においては、ステップ405の処理内容の詳細については、説明を省略する。 The processing of step 405 is normal processing in monocular moving stereo. Such processing is already well known at the time of filing of this application. Therefore, in this specification, the detailed description of the processing contents of step 405 is omitted.
図5は、図4におけるステップ406の処理内容の詳細を示したものである。かかる処理内容は、図5において、ステップ501~ステップ510として示されている。これらについて、以下順に説明する。 FIG. 5 shows details of the processing contents of step 406 in FIG. Such processing contents are shown as steps 501 to 510 in FIG. These will be described in order below.
まず、ステップ501にて、CPUは、残存特徴点を抽出する。残存特徴点とは、ステップ402にて抽出された多数の特徴点FPのうち、自車両の周囲の物体Bの有無の判定に用いられていないものである。なお、初回のステップ501の処理実行時点において、残存特徴点は、ステップ402にて抽出された全ての特徴点FPから、第一使用済特徴点を除外したものである。第一使用済特徴点とは、ステップ405にて、単眼移動ステレオの手法により、自車両の周囲の物体Bに対応付けられたものである。初回のステップ501の処理実行時点において、残存特徴点は、視差演算により三次元位置が取得されなかった特徴点FPを含むとともに、視差演算により三次元位置が取得された特徴点FPのうちステップ405にて物体Bに対応付けられなかったものをも含む。 First, at step 501, the CPU extracts residual feature points. The remaining feature points are feature points FP extracted in step 402 that are not used to determine whether or not there is an object B around the host vehicle. It should be noted that, at the time when the process of step 501 is executed for the first time, the remaining feature points are all the feature points FP extracted in step 402 excluding the first used feature points. The first used feature point is associated with the object B around the host vehicle in step 405 by the monocular moving stereo technique. At the time when the process of step 501 is executed for the first time, the remaining feature points include feature points FP whose three-dimensional positions have not been obtained by parallax calculation. Also includes those that were not associated with the object B in .
次に、ステップ502にて、CPUは、測距情報を取得する。すなわち、CPUは、測距点DPを1個取得する。続いて、ステップ503にて、CPUは、取得した測距点DPの周囲に探索範囲RSを設定する。また、ステップ504にて、CPUは、探索範囲RS内にて、点群Gを抽出する。 Next, at step 502, the CPU acquires distance measurement information. That is, the CPU acquires one distance measuring point DP. Subsequently, at step 503, the CPU sets a search range RS around the acquired distance measuring point DP. Also, at step 504, the CPU extracts the point group G within the search range RS.
ステップ505にて、CPUは、ステップ504にて抽出した点群Gについて視差演算が成立するか否かを判定する。視差演算が成立する場合(すなわちステップ505=YES)、CPUは、処理をステップ506に進行させる。ステップ506にて、CPUは、単眼移動ステレオの手法により、今回抽出した点群Gについて物体Bすなわち障害物を判定するとともに、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。 At step 505, the CPU determines whether the parallax calculation is established for the point group G extracted at step 504 or not. If the parallax calculation is established (that is, step 505 =YES), the CPU advances the process to step 506 . At step 506, the CPU determines an object B, ie, an obstacle, for the point group G extracted this time, and excludes it from the remaining feature points by the monocular moving stereo method. After that, the CPU advances the process to step 507 .
ステップ507にて、CPUは、残存特徴点が存在するか否かを判定する。残存特徴点が存在しない場合(すなわちステップ507=NO)、CPUは、図4におけるステップ406の処理を終了する。一方、残存特徴点が存在する場合(すなわちステップ507=YES)、CPUは、処理をステップ501に戻す。この場合、続くステップ502においては、前回取得されたものとは異なる測距点DPが取得される。 At step 507, the CPU determines whether or not there are remaining feature points. If there are no remaining feature points (that is, step 507=NO), the CPU terminates the processing of step 406 in FIG. On the other hand, if there are remaining feature points (that is, step 507 =YES), the CPU returns the process to step 501 . In this case, in subsequent step 502, a range-finding point DP different from that previously obtained is obtained.
ステップ504にて抽出した点群Gについて視差演算が成立しない場合(すなわちステップ505=NO)、CPUは、処理をステップ508に進行させる。ステップ508にて、CPUは、位置関係条件が成立するか否かを判定する。位置関係条件とは、今回抽出した第一点群G1および第二点群G2と、測距点DPとの位置関係が、所定位置関係にあることである。 If the parallax calculation does not hold for the point group G extracted in step 504 (that is, step 505 =NO), the CPU advances the process to step 508 . At step 508, the CPU determines whether or not the positional relationship condition is satisfied. The positional relationship condition is that the positional relationship between the first point group G1 and the second point group G2 extracted this time and the range-finding point DP is in a predetermined positional relationship.
位置関係条件が成立する場合(すなわちステップ508=YES)、CPUは、処理をステップ509に進行させる。ステップ509にて、CPUは、今回抽出した点群Gすなわち第一点群G1および第二点群G2について、物体Bすなわち障害物を判定する。具体的には、第一点群G1と第二点群G2との間の領域を、物体Bすなわち障害物として判定する。また、CPUは、今回抽出した点群Gを、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。ステップ507における処理内容は、上記と同様である。 If the positional relationship condition is satisfied (that is, step 508 =YES), the CPU advances the process to step 509 . At step 509, the CPU determines whether the point group G extracted this time, ie, the first point group G1 and the second point group G2, is an object B, ie, an obstacle. Specifically, the area between the first point group G1 and the second point group G2 is determined as the object B, that is, the obstacle. Also, the CPU excludes the point group G extracted this time from the remaining feature points. After that, the CPU advances the process to step 507 . The contents of processing in step 507 are the same as above.
位置関係条件が成立しない場合(すなわちステップ508=NO)、CPUは、処理をステップ510に進行させる。ステップ510にて、CPUは、今回抽出した点群Gについて、物体Bすなわち障害物に対応しないものとして判定するとともに、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。ステップ507における処理内容は、上記と同様である。 If the positional relationship condition does not hold (that is, step 508 =NO), the CPU advances the process to step 510 . At step 510, the CPU determines that the point group G extracted this time does not correspond to the object B, that is, the obstacle, and excludes it from the remaining feature points. After that, the CPU advances the process to step 507 . The contents of processing in step 507 are the same as above.
(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
(Modification)
The present invention is not limited to the above embodiments. Therefore, the above embodiment can be modified as appropriate. A representative modified example will be described below. In the following description of the modified example, differences from the above embodiment will be mainly described. Moreover, in the above-described embodiment and modifications, the same or equivalent portions are denoted by the same reference numerals. Therefore, in the description of the modification below, the description in the above embodiment can be used as appropriate for components having the same reference numerals as those in the above embodiment, unless there is a technical contradiction or special additional description.
本発明は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、物体検知装置20を搭載する車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。
The present invention is not limited to the specific device configurations shown in the above embodiments. That is, for example, the
車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体11の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。ドアパネル17の数も、特段の限定はない。
The type of
物体検知装置20の適用対象についても、特段の限定はない。すなわち、例えば、物体検知装置20は、駐車支援に適用され得る。あるいは、物体検知装置20は、自動運転の定義におけるレベル2~レベル5に相当する、半自動運転あるいは自動運転に対しても、好適に適用可能である。
There is also no particular limitation on the application target of the
撮像部21を構成するイメージセンサは、CCDセンサに限定されない。すなわち、例えば、CCDセンサに代えて、CMOSセンサが用いられ得る。CMOSはComplementary MOSの略である。
The image sensor that constitutes the
撮像部21の配置および個数は、上記の例に限定されない。すなわち、例えば、フロントカメラCFは、車室外に配置され得る。具体的には、例えば、フロントカメラCFは、車体11の前面部12に装着され得る。フロントカメラCFは、一個であってもよいし、二個であってもよい。すなわち、物体検知装置20は、複眼ステレオカメラ構成を有していてもよい。例えば、左側カメラCLおよび右側カメラCRは、ドアミラー18とは異なる位置に配置され得る。あるいは、左側カメラCLおよび右側カメラCRは、省略され得る。
The arrangement and number of
ソナーセンサ22の配置および個数は、上記の具体例に限定されない。すなわち、例えば、図1を参照すると、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3および第四サイドソナーSS4は、省略され得る。
The arrangement and number of
物体検知ECU27は、上記実施形態における物体検知装置20の主要部を構成する。このため、撮像部21、ソナーセンサ22、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、舵角センサ26、表示部28、および音声出力部29は、物体検知装置20の構成要素ではなく、物体検知装置20の付随的要素であるものと把握され得る。あるいは、撮像部21およびソナーセンサ22は、それぞれ、画像情報取得部271および測距情報取得部276を構成するものとして、物体検知装置20の構成要素としても把握され得る。
The
上記実施形態においては、物体検知ECU27は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本発明は、かかる構成に限定されない。すなわち、例えば、物体検知ECU27は、上記のような動作を可能に構成されたデジタル回路、例えばゲートアレイ等のASICであってもよい。ASICはAPPLICATION SPECIFIC INTEGRATED CIRCUITの略である。
In the above-described embodiment, the
本発明は、上記実施形態にて示された具体的な機能構成および動作例に限定されない。すなわち、例えば、移動情報取得部272による、自車両の移動量の取得には、不図示の加速度センサの出力が用いられ得る。
The present invention is not limited to the specific functional configurations and operation examples shown in the above embodiments. That is, for example, the movement
上記の具体例においては、リアカメラCBによる撮影画像を用いた物体Bの検知動作について説明した。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、本発明は、フロントカメラCFによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。同様に、本発明は、左側カメラCLおよび右側カメラCRによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。 In the above specific example, the operation of detecting the object B using the image captured by the rear camera CB has been described. However, the invention is not limited to such aspects. That is, for example, the present invention can be suitably applied to the operation of detecting an object B using an image captured by the front camera CF. Similarly, the present invention can also be suitably applied to the operation of detecting an object B using images captured by the left camera CL and the right camera CR.
特徴点FPは、単一画素によって構成されていてもよいし、複数画素の集合体によって構成されていてもよい。特徴点FPの検出の際に、輝度情報に代えて、あるいはこれとともに、彩度情報が用いられ得る。もっとも、RGB各色の光学フィルタを介して画像情報を取得する場合、彩度情報はRGB各色の画像情報における輝度情報と同義となり得る。 The feature point FP may be composed of a single pixel, or may be composed of an aggregate of a plurality of pixels. Saturation information may be used in place of or along with luminance information when detecting feature points FP. However, when image information is acquired through optical filters of RGB colors, saturation information can be synonymous with luminance information in image information of RGB colors.
三次元座標情報取得部274における処理内容は、単眼移動ステレオに限定されない。具体的には、例えば、複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理が用いられ得る。複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理については、本願の出願時において、すでに公知または周知である。
The processing content of the three-dimensional coordinate
点群Gの抽出の際の、探索範囲RSの高さは、画角VAの高さと同一であってもよい。すなわち、探索範囲RSは、点群Gの抽出範囲を画角VAの幅方向に限定するものであってもよい。また、探索範囲RSの形状は、矩形状に限定されない。すなわち、例えば、探索範囲RSは、測距点DPを中心とする楕円形状あるいは所定半径の円形状であってもよい。 The height of the search range RS in extracting the point group G may be the same as the height of the angle of view VA. That is, the search range RS may limit the extraction range of the point group G in the width direction of the angle of view VA. Also, the shape of the search range RS is not limited to a rectangular shape. That is, for example, the search range RS may be an ellipse centered on the distance measuring point DP or a circle with a predetermined radius.
測距情報取得部276は、ソナーセンサ22の出力に代えて、あるいはこれとともに、レーダーセンサ23の出力に基づいて、測距情報を取得してもよい。すなわち、探査波として、超音波または電磁波が用いられ得る。また、測距点DPとして、レーダーセンサ23により取得された反射点が用いられ得る。この場合、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点DPの代替として用いられ得る。あるいは、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点DPの補正要素として用いられ得る。
The ranging
上記実施形態においては、所定位置関係すなわち位置関係条件は、第一点群G1および第二点群G2の、撮影画像中における測距点DPからの距離が所定距離以下であることであった。しかしながら、本発明は、かかる態様に限定されない。 In the above-described embodiment, the predetermined positional relationship, that is, the positional relationship condition, is that the distance of the first point group G1 and the second point group G2 from the distance measuring point DP in the captured image is a predetermined distance or less. However, the invention is not limited to such aspects.
具体的には、例えば、所定位置関係は、以下の条件MA1および条件MB1のアンド条件を含むものであってもよい。(条件MA1)第一点群G1または第二点群G2の、撮影画像中における測距点DPからの距離が、所定距離以下である。(条件MB1)第一点群G1と第二点群G2との、撮影画像中における間隔が、所定間隔以下である。 Specifically, for example, the predetermined positional relationship may include an AND condition of condition MA1 and condition MB1 below. (Condition MA1) The distance of the first point group G1 or the second point group G2 from the distance measuring point DP in the captured image is equal to or less than a predetermined distance. (Condition MB1) The interval in the captured image between the first point group G1 and the second point group G2 is equal to or less than a predetermined interval.
例えば、図3に示されているように、上下方向に延設された細長いポール状の物体Bの根元にて、三次元位置が取得可能な特徴点FPが生じる場合がある。かかる特徴点FPを参照特徴点FP0と称する。物体Bの根元は、路面あるいは地面と物体Bとが交差する位置とも称される。なお、参照特徴点FP0は、物体Bの根元のみならず、物体Bの表面における汚れあるいは模様に対応しても発生し得る。 For example, as shown in FIG. 3, a feature point FP whose three-dimensional position can be acquired may occur at the base of an elongated pole-shaped object B that extends in the vertical direction. Such a feature point FP is called a reference feature point FP0. The base of the object B is also called a position where the object B intersects with the road surface or the ground. Note that the reference feature point FP0 can be generated not only at the base of the object B, but also in correspondence with stains or patterns on the surface of the object B. FIG.
上記のように、第一点群G1および第二点群G2とその近傍の測距点DPとが撮影画像中にて所定位置関係にあるのみならず、当該測距点DPとほぼ同一の方位にて参照特徴点FP0が検出された場合、物体Bすなわち障害物の存在確率が高くなる。そこで、所定位置関係は、参照特徴点FP0に関する条件をさらに含んでいてもよい。 As described above, not only are the first point group G1 and the second point group G2 and the distance measuring point DP in the vicinity thereof in a predetermined positional relationship in the photographed image, but also the direction substantially the same as that of the distance measuring point DP. When the reference feature point FP0 is detected in , the existence probability of the object B, that is, the obstacle increases. Therefore, the predetermined positional relationship may further include a condition regarding the reference feature point FP0.
具体的には、所定位置関係は、以下の条件MA2および条件MB2のアンド条件を含むものであってもよい。(条件MA2)三次元位置が取得された特徴点FPである参照特徴点FP0が、第一点群G1と第二点群G2との間に存在すること。(条件MB2)距離差ΔDが所定値ΔD0以下であること。距離差ΔDは、参照特徴点FP0の自車両からの距離である参照距離と、測距点DPの自車両からの距離である測距距離との差である。 Specifically, the predetermined positional relationship may include an AND condition of condition MA2 and condition MB2 below. (Condition MA2) The reference feature point FP0, which is the feature point FP whose three-dimensional position is acquired, exists between the first point group G1 and the second point group G2. (Condition MB2) The distance difference ΔD is equal to or less than a predetermined value ΔD0. The distance difference ΔD is the difference between the reference distance, which is the distance of the reference feature point FP0 from the own vehicle, and the distance measurement distance, which is the distance of the distance measurement point DP from the own vehicle.
すなわち、本変形例においては、位置関係条件は、第一位置関係条件に加えて、第二位置関係条件を含む。第一位置関係条件は、上記実施形態における位置関係条件である。第二位置関係条件は、条件MA2および条件MB2のアンド条件であって、参照特徴点FP0に関する条件である。 That is, in this modified example, the positional relationship condition includes the second positional relationship condition in addition to the first positional relationship condition. The first positional relationship condition is the positional relationship condition in the above embodiment. The second positional relationship condition is an AND condition of condition MA2 and condition MB2, and is a condition regarding reference feature point FP0.
図6は、かかる変形例に対応して、図5のフローチャートの一部を変更したものである。なお、図5におけるステップ501~506の処理は、本変形例においても同様である。すなわち、図6に対応する本変形例の処理も、図5におけるステップ501~506の処理を含む。本変形例の処理は、上記実施形態の処理と、ステップ508以降の内容が異なるのみである。このため、図6においては、図5におけるステップ501~506の処理は、図示が省略されている。 FIG. 6 shows a part of the flow chart of FIG. 5 modified in accordance with such a modification. Note that the processing of steps 501 to 506 in FIG. 5 is the same in this modified example. That is, the processing of this modification corresponding to FIG. 6 also includes the processing of steps 501 to 506 in FIG. The processing of this modified example differs from the processing of the above-described embodiment only in the contents after step 508 . Therefore, in FIG. 6, the processing of steps 501 to 506 in FIG. 5 is omitted.
ステップ508にて、CPUは、第一位置関係条件が成立するか否かを判定する。第一位置関係条件は、今回抽出した第一点群G1および第二点群G2と、測距点DPとの位置関係が、所定位置関係にあることである。すなわち、本変形例におけるステップ508の処理内容は、上記実施形態と同様である。 At step 508, the CPU determines whether or not the first positional relationship condition is satisfied. The first positional relationship condition is that the positional relationship between the first point group G1 and the second point group G2 extracted this time and the distance measuring point DP is in a predetermined positional relationship. That is, the processing contents of step 508 in this modified example are the same as those in the above-described embodiment.
第一位置関係条件が成立しない場合(すなわちステップ508=NO)、CPUは、処理をステップ510に進行させる。ステップ510にて、CPUは、今回抽出した点群Gについて、物体Bすなわち障害物に対応しないものとして判定するとともに、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。ステップ507における処理内容は、上記実施形態と同様である If the first positional relationship condition does not hold (that is, step 508 =NO), the CPU advances the process to step 510 . At step 510, the CPU determines that the point group G extracted this time does not correspond to the object B, that is, the obstacle, and excludes it from the remaining feature points. After that, the CPU advances the process to step 507 . The processing contents in step 507 are the same as those in the above embodiment.
第一位置関係条件が成立する場合(すなわちステップ508=YES)、CPUは、処理をステップ511に進行させる。ステップ511にて、CPUは、第一点群G1と第二点群G2との間に参照特徴点FP0が存在するか否かを判定する。第一点群G1と第二点群G2との間に参照特徴点FP0が存在しない場合(すなわちステップ511=NO)、CPUは、処理をステップ510に進行させる。 If the first positional relationship condition is satisfied (that is, step 508 =YES), the CPU advances the process to step 511 . At step 511, the CPU determines whether or not the reference feature point FP0 exists between the first point group G1 and the second point group G2. If the reference feature point FP0 does not exist between the first point group G1 and the second point group G2 (that is, step 511=NO), the CPU advances the process to step 510.
第一点群G1と第二点群G2との間に参照特徴点FP0が存在する場合(すなわちステップ511=YES)、CPUは、処理をステップ512に進行させる。ステップ512にて、CPUは、距離差ΔDが所定値ΔD0以下であるか否かを判定する。すなわち、ステップ511およびステップ512によって、第二位置関係条件の成否が判定される。 If the reference feature point FP0 exists between the first point group G1 and the second point group G2 (that is, step 511=YES), the CPU advances the process to step 512. At step 512, the CPU determines whether or not the distance difference ΔD is equal to or less than a predetermined value ΔD0. That is, step 511 and step 512 determine whether the second positional relationship condition is met.
距離差ΔDが所定値ΔD0以下である場合(すなわちステップ512=YES)、CPUは、処理をステップ509に進行させる。ステップ509にて、CPUは、今回抽出した点群Gすなわち第一点群G1および第二点群G2について、物体Bすなわち障害物を判定する。その後、CPUは、処理をステップ507に進行させる。一方、距離差ΔDが所定値ΔD0を超える場合(すなわちステップ512=NO)、CPUは、処理をステップ510に進行させる。 If the distance difference ΔD is less than or equal to the predetermined value ΔD0 (that is, step 512=YES), the CPU advances the process to step 509. At step 509, the CPU determines whether the point group G extracted this time, ie, the first point group G1 and the second point group G2, is an object B, ie, an obstacle. After that, the CPU advances the process to step 507 . On the other hand, if the distance difference ΔD exceeds the predetermined value ΔD0 (that is, step 512=NO), the CPU advances the process to step 510.
「取得」という表現と、「推定」「検出」「検知」「算出」等の類似の表現とは、技術的に矛盾しない範囲内において、適宜置換可能である。「検出」と「抽出」とも、技術的に矛盾しない範囲内において、適宜置換可能である。各判定処理における不等号は、等号付きであってもよいし、等号無しであってもよい。すなわち、例えば、「所定値未満」と「所定値以下」とは、技術的に矛盾しない範囲内において、互いに置換され得る。 The expression "acquire" and similar expressions such as "estimation", "detection", "detection", and "calculation" can be appropriately replaced within a technically consistent range. Both "detection" and "extraction" can be interchanged as long as they are not technically inconsistent. The inequality sign in each determination process may or may not have an equal sign. That is, for example, "less than a predetermined value" and "not more than a predetermined value" can be interchanged within a technically consistent range.
上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 Needless to say, the elements constituting the above-described embodiments are not necessarily essential, unless explicitly stated as essential or clearly considered essential in principle. In addition, when numerical values such as the number, numerical value, amount, range, etc. of a constituent element are mentioned, unless it is explicitly stated that it is particularly essential or when it is clearly limited to a specific number in principle, The present invention is not limited to the number of . Similarly, when the shape, direction, positional relationship, etc. of a component, etc. are mentioned, unless it is explicitly stated that it is particularly essential, or when it is limited to a specific shape, direction, positional relationship, etc. in principle , the shape, direction, positional relationship, etc., of which the present invention is not limited.
変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, multiple variants can be combined with each other. Furthermore, all or part of the above embodiments and all or part of the modifications may be combined with each other.
10 車両
20 物体検知装置
271 画像情報取得部
272 移動情報取得部
273 特徴点抽出部
274 三次元座標情報取得部
275 点群抽出部
276 測距情報取得部
277 障害物検知部
B 物体
10
Claims (9)
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
視点の異なる複数の前記撮影画像に基づいて前記特徴点の三次元位置を取得する、三次元情報取得部(274)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記障害物検知部は、前記三次元位置が取得されなかった複数の前記特徴点により前記第一点群および前記第二点群が構成されており、且つ、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点と前記第一点群および前記第二点群とが前記撮影画像中にて前記所定位置関係にある場合、前記第一点群と前記第二点群との間の前記領域を前記障害物として検知し、
前記所定位置関係は、前記三次元位置が取得された前記特徴点である参照特徴点(FP0)が前記第一点群と前記第二点群との間に存在し、且つ、前記参照特徴点の前記自車両からの距離である参照距離と前記測距点の前記自車両からの距離である測距距離との差が所定値以下であることを含む、
物体検知装置。 An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a three-dimensional information acquisition unit (274) that acquires the three-dimensional position of the feature point based on the plurality of captured images from different viewpoints;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
In the obstacle detection unit, the first point group and the second point group are configured by a plurality of the feature points for which the three-dimensional position was not acquired, and the distance measurement information acquisition unit acquires and when the range-finding point corresponding to the range-finding information and the first point group and the second point group are in the predetermined positional relationship in the captured image, the first point group and the second point detecting the area between the group as the obstacle;
The predetermined positional relationship is such that a reference feature point (FP0), which is the feature point from which the three-dimensional position is acquired, exists between the first point group and the second point group, and the reference feature point The difference between the reference distance, which is the distance from the own vehicle, and the ranging distance, which is the distance of the ranging point from the own vehicle, is less than or equal to a predetermined value,
Object detection device.
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、前記第一点群および前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であることを含む、
物体検知装置。 An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship includes that the distance of the first point group and the second point group from the range-finding point in the captured image is equal to or less than a predetermined distance ,
Object detection device.
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、
前記第一点群または前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であり、且つ、
前記第一点群と前記第二点群との、前記撮影画像中における間隔が、所定間隔以下であることを含む、
物体検知装置。 An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship is
The distance of the first point group or the second point group from the range-finding point in the captured image is a predetermined distance or less, and
Including that the interval in the captured image between the first point group and the second point group is equal to or less than a predetermined interval ,
Object detection device.
前記障害物検知部は、前記三次元位置が取得されなかった複数の前記特徴点により前記第一点群および前記第二点群が構成されており、且つ、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点と前記第一点群および前記第二点群とが前記撮影画像中にて前記所定位置関係にある場合、前記第一点群と前記第二点群との間の前記領域を前記障害物として検知する、
請求項2または3に記載の物体検知装置。 further comprising a three-dimensional information acquisition unit (274) that acquires the three-dimensional position of the feature point based on the plurality of captured images from different viewpoints,
In the obstacle detection unit, the first point group and the second point group are configured by a plurality of the feature points for which the three-dimensional position was not acquired, and the distance measurement information acquisition unit acquires and when the range-finding point corresponding to the range-finding information and the first point group and the second point group are in the predetermined positional relationship in the captured image, the first point group and the second point detecting the area between the group as the obstacle;
The object detection device according to claim 2 or 3 .
請求項4に記載の物体検知装置。 The predetermined positional relationship is such that a reference feature point (FP0), which is the feature point from which the three-dimensional position is acquired, exists between the first point group and the second point group, and the reference feature point The difference between the reference distance, which is the distance from the own vehicle, and the ranging distance, which is the distance of the ranging point from the own vehicle, is less than or equal to a predetermined value,
The object detection device according to claim 4 .
請求項1~5のいずれか1つに記載の物体検知装置。 The point group extraction unit extracts the plurality of characteristic points arranged in a straight line as the point group,
The object detection device according to any one of claims 1 to 5 .
請求項1~6のいずれか1つに記載の物体検知装置。 The point cloud extraction unit extracts a plurality of the feature points arranged to intersect a horizontal line (HL) as the point cloud,
The object detection device according to any one of claims 1 to 6 .
請求項1~7のいずれか1つに記載の物体検知装置。 The point cloud extraction unit extracts the point cloud within a predetermined range in the captured image with reference to the ranging point corresponding to the ranging information acquired by the ranging information acquisition unit. ,
The object detection device according to any one of claims 1 to 7 .
請求項1~8のいずれか1つに記載の物体検知装置。 The ranging information acquisition unit transmits a reflected wave from the object of the search wave, which is an ultrasonic wave transmitted toward the outside of the vehicle, to the ranging sensor mounted on the vehicle body (11) of the vehicle. obtaining the ranging information based on the results received by
The object detection device according to any one of claims 1 to 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154132A JP7135579B2 (en) | 2018-08-20 | 2018-08-20 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154132A JP7135579B2 (en) | 2018-08-20 | 2018-08-20 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030466A JP2020030466A (en) | 2020-02-27 |
JP7135579B2 true JP7135579B2 (en) | 2022-09-13 |
Family
ID=69622505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018154132A Active JP7135579B2 (en) | 2018-08-20 | 2018-08-20 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7135579B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836681B (en) * | 2021-03-03 | 2024-01-26 | 上海高仙自动化科技发展有限公司 | Obstacle marking method and device and readable non-transitory storage medium |
JP7518804B2 (en) | 2021-09-13 | 2024-07-18 | 株式会社デンソー | Object Recognition Device |
CN116163618B (en) * | 2021-11-25 | 2025-05-09 | 比亚迪股份有限公司 | Door control method, door control device, vehicle terminal, vehicle and medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000030197A (en) | 1998-07-09 | 2000-01-28 | Nissan Motor Co Ltd | Device for detecting warm body |
JP2009169618A (en) | 2008-01-15 | 2009-07-30 | Toyota Central R&D Labs Inc | Roadside boundary surface detection device |
JP2014106704A (en) | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | In-vehicle image processing device |
JP2015194935A (en) | 2014-03-31 | 2015-11-05 | 富士通株式会社 | Lane marking device, lane marking detection method and program |
WO2017057041A1 (en) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Signal processing apparatus, signal processing method, and program |
-
2018
- 2018-08-20 JP JP2018154132A patent/JP7135579B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000030197A (en) | 1998-07-09 | 2000-01-28 | Nissan Motor Co Ltd | Device for detecting warm body |
JP2009169618A (en) | 2008-01-15 | 2009-07-30 | Toyota Central R&D Labs Inc | Roadside boundary surface detection device |
JP2014106704A (en) | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | In-vehicle image processing device |
JP2015194935A (en) | 2014-03-31 | 2015-11-05 | 富士通株式会社 | Lane marking device, lane marking detection method and program |
WO2017057041A1 (en) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Signal processing apparatus, signal processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020030466A (en) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110573905B (en) | Obstacle detection device | |
US20220189180A1 (en) | Vehicular vision system that determines distance to an object | |
US9151626B1 (en) | Vehicle position estimation system | |
US11315348B2 (en) | Vehicular vision system with object detection | |
JP6091977B2 (en) | Construction machinery | |
WO2017057058A1 (en) | Information processing device, information processing method, and program | |
WO2018079252A1 (en) | Object detecting device | |
US20170220875A1 (en) | System and method for determining a visibility state | |
WO2015098344A1 (en) | Mining work machine | |
US10984258B2 (en) | Vehicle traveling environment detecting apparatus and vehicle traveling controlling system | |
JP7135579B2 (en) | Object detection device | |
WO2019151156A1 (en) | Object detection device and parking assistance device | |
JP6778620B2 (en) | Road marking device, road marking system, and road marking method | |
JP6455164B2 (en) | Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program | |
JP6579144B2 (en) | Obstacle detection device | |
JP7318377B2 (en) | Object detection device | |
JP2006072757A (en) | Object detection device | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP6958485B2 (en) | Object detection device | |
JP7334572B2 (en) | Object detection device and object detection program | |
JP7236556B2 (en) | Object detection device and object detection program | |
JP6718295B2 (en) | Surrounding monitoring device and surrounding monitoring method | |
WO2017199676A1 (en) | Stereo camera device | |
EP4299418A1 (en) | Sensor system and method for determining an articulation angle of a vehicle with a trailer | |
EP2919191A1 (en) | Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7135579 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |