[go: up one dir, main page]

JP7135579B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP7135579B2
JP7135579B2 JP2018154132A JP2018154132A JP7135579B2 JP 7135579 B2 JP7135579 B2 JP 7135579B2 JP 2018154132 A JP2018154132 A JP 2018154132A JP 2018154132 A JP2018154132 A JP 2018154132A JP 7135579 B2 JP7135579 B2 JP 7135579B2
Authority
JP
Japan
Prior art keywords
point
vehicle
point group
ranging
information acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018154132A
Other languages
Japanese (ja)
Other versions
JP2020030466A (en
Inventor
陽平 鈴木
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018154132A priority Critical patent/JP7135579B2/en
Publication of JP2020030466A publication Critical patent/JP2020030466A/en
Application granted granted Critical
Publication of JP7135579B2 publication Critical patent/JP7135579B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両に搭載されることで、当該自車両の周囲に存在する物体を検知するように構成された、物体検知装置に関する。 The present invention relates to an object detection device that is mounted on a vehicle and configured to detect objects existing around the vehicle.

この種の装置として、例えば、特許文献1に記載されたものが知られている。特許文献1に記載の装置は、カメラの撮影画像と自車両の挙動とを利用して、周囲の障害物等の物体の三次元位置を検出する。具体的には、この装置は、まず、現在時刻のカメラの撮影画像と、この撮影画像の直前に撮像された撮影画像とを取得する。次に、この装置は、2つの撮影画像中において複数の特徴点をそれぞれ抽出し、各特徴点について複数の撮影画像間での対応付けを行う。その後、この装置は、撮影画像間での特徴点の移動量と、移動体移動量とに基づいて、特徴点の実空間での三次元位置を推定する。 As a device of this type, for example, one described in Patent Document 1 is known. The device described in Patent Literature 1 detects the three-dimensional position of an object such as an obstacle in the surroundings by using an image captured by a camera and the behavior of the own vehicle. Specifically, this device first acquires an image captured by the camera at the current time and a captured image captured immediately before this captured image. Next, this device extracts a plurality of feature points from each of the two captured images, and associates each feature point between the plurality of captured images. After that, this device estimates the three-dimensional position of the feature point in the real space based on the amount of movement of the feature point between the captured images and the amount of movement of the moving object.

特開2014-142241号公報JP 2014-142241 A

例えば、自車両と物体との相対移動方向とカメラの撮影方向とがほぼ一致し、且つ、当該物体がカメラの正面に位置する状況があり得る。このような状況においては、三次元位置を推定するために必要な、充分な視差が得られ難い。特に、当該物体が、上下方向に延設された細長いポール状の障害物である場合に、かかる問題が顕著に生じる。この場合、車両走行に伴う当該物体とカメラとの相対移動の前後で、当該物体の撮影画像中での状態変化が小さいためである。 For example, there may be a situation in which the direction of relative movement between the vehicle and the object substantially coincides with the imaging direction of the camera, and the object is positioned in front of the camera. In such a situation, it is difficult to obtain sufficient parallax necessary for estimating the three-dimensional position. In particular, when the object is an elongated pole-shaped obstacle extending in the vertical direction, such a problem occurs remarkably. In this case, this is because the change in the state of the object in the captured image is small before and after the relative movement between the object and the camera as the vehicle travels.

本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、例えば、本発明は、自車両の周囲に存在する物体を、より良好に検知することが可能な構成を提供する。 The present invention has been made in view of the circumstances exemplified above. That is, for example, the present invention provides a configuration capable of better detecting objects existing around the own vehicle.

請求項1に記載の物体検知装置(20)は、自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
視点の異なる複数の前記撮影画像に基づいて前記特徴点の三次元位置を取得する、三次元情報取得部(274)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記障害物検知部は、前記三次元位置が取得されなかった複数の前記特徴点により前記第一点群および前記第二点群が構成されており、且つ、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点と前記第一点群および前記第二点群とが前記撮影画像中にて前記所定位置関係にある場合、前記第一点群と前記第二点群との間の前記領域を前記障害物として検知し、
前記所定位置関係は、前記三次元位置が取得された前記特徴点である参照特徴点(FP0)が前記第一点群と前記第二点群との間に存在し、且つ、前記参照特徴点の前記自車両からの距離である参照距離と前記測距点の前記自車両からの距離である測距距離との差が所定値以下であることを含む
請求項2に記載の物体検知装置(20)は、自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、前記第一点群および前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であることを含む。
請求項3に記載の物体検知装置(20)は、自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、
前記第一点群または前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であり、且つ、
前記第一点群と前記第二点群との、前記撮影画像中における間隔が、所定間隔以下であることを含む。
An object detection device (20) according to claim 1 is configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10).
This object detection device
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a three-dimensional information acquisition unit (274) that acquires the three-dimensional position of the feature point based on the plurality of captured images from different viewpoints;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
In the obstacle detection unit, the first point group and the second point group are configured by a plurality of the feature points for which the three-dimensional position was not acquired, and the distance measurement information acquisition unit acquires and when the range-finding point corresponding to the range-finding information and the first point group and the second point group are in the predetermined positional relationship in the captured image, the first point group and the second point detecting the area between the group as the obstacle;
The predetermined positional relationship is such that a reference feature point (FP0), which is the feature point from which the three-dimensional position is acquired, exists between the first point group and the second point group, and the reference feature point A difference between a reference distance, which is the distance from the host vehicle, and a ranging distance, which is the distance of the ranging point from the host vehicle, is equal to or less than a predetermined value .
The object detection device (20) according to claim 2 is configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10).
This object detection device
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship includes that the distances of the first point group and the second point group from the range-finding point in the captured image are equal to or less than a predetermined distance.
The object detection device (20) according to claim 3 is configured to detect an object (B) existing around the own vehicle by being mounted on the own vehicle (10).
This object detection device
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship is
The distance of the first point group or the second point group from the range-finding point in the captured image is a predetermined distance or less, and
An interval in the photographed image between the first point group and the second point group is equal to or less than a predetermined interval.

上記構成において、前記画像情報取得部は、前記自車両の周囲の撮影画像に対応する前記画像情報を取得する。前記特徴点抽出部は、前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における前記特徴点を抽出する。周知の通り、前記特徴点の三次元位置は、視点の異なる複数の前記撮影画像に基づいて、視差演算により取得することが可能である。 In the above configuration, the image information acquisition unit acquires the image information corresponding to the captured image of the surroundings of the own vehicle. The feature point extraction unit extracts the feature points in the captured image based on the image information acquired by the image information acquisition unit. As is well known, the three-dimensional positions of the feature points can be obtained by parallax calculation based on the plurality of captured images from different viewpoints.

しかしながら、上記の通り、前記特徴点の三次元位置を取得あるいは推定するために必要な、充分な視差が得られ難い状況が発生し得る。このような状況においては、視差演算が困難となるため、前記特徴点の前記三次元位置が取得困難となる。すると、当該特徴点に対応する、前記自車両の周囲の前記障害物を検知することが困難となる。 However, as described above, a situation may occur in which it is difficult to obtain sufficient parallax necessary for obtaining or estimating the three-dimensional position of the feature point. In such a situation, parallax calculation becomes difficult, and thus the three-dimensional position of the feature point becomes difficult to obtain. Then, it becomes difficult to detect the obstacles around the host vehicle that correspond to the feature points.

この点、例えば、充分な視差が得られないために前記三次元位置が取得されなかった複数の前記特徴点とほぼ同一の方位にて、前記測距情報が取得された場合、当該測距情報に対応する位置には前記物体が存在する可能性が高い。この場合、前記測距情報取得部により前記物体との距離に対応する前記測距情報が取得され、且つ、取得された前記測距情報に対応する前記測距点の近傍にて複数の前記特徴点が所定の態様で配列する。 In this regard, for example, when the distance measurement information is obtained in substantially the same direction as the plurality of feature points for which the three-dimensional positions were not obtained due to insufficient parallax, the distance measurement information There is a high possibility that the object exists at the position corresponding to . In this case, the distance measurement information corresponding to the distance to the object is acquired by the distance measurement information acquisition unit, and the plurality of features are obtained in the vicinity of the distance measurement point corresponding to the acquired distance measurement information. The points are arranged in a predetermined manner.

そこで、上記構成においては、前記点群抽出部は、前記特徴点抽出部による前記特徴点の前記抽出結果から、前記所定条件で配列する複数の前記特徴点からなる前記点群を抽出する。前記測距情報取得部は、前記測距センサにより測定された前記測距点との距離に対応する前記測距情報を取得する。前記障害物検知部は、前記点群抽出部によって抽出された2個の前記点群である前記第一点群および前記第二点群と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて前記所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を前記障害物として検知する。 Therefore, in the above configuration, the point group extraction unit extracts the point group composed of the plurality of feature points arranged under the predetermined condition from the extraction result of the feature points by the feature point extraction unit. The ranging information acquisition unit acquires the ranging information corresponding to the distance to the ranging point measured by the ranging sensor. The obstacle detection unit includes the first point group and the second point group, which are the two point groups extracted by the point group extraction unit, and the distance measurement acquired by the distance measurement information acquisition unit. A region between the first point group and the second point group is detected as the obstacle when the range-finding points corresponding to the information are in the predetermined positional relationship in the captured image.

上記構成においては、前記所定条件で配列する前記第一点群および前記第二点群が抽出され、且つ、前記第一点群および前記第二点群と前記測距点とが前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を前記障害物として検知することができる。したがって、上記構成によれば、前記自車両の周囲に存在する前記物体を、より良好に検知することが可能となる。 In the above configuration, the first point group and the second point group arranged under the predetermined condition are extracted, and the first point group, the second point group, and the range-finding point are located in the captured image. , the area between the first point group and the second point group can be detected as the obstacle. Therefore, according to the above configuration, it is possible to more satisfactorily detect the object existing around the own vehicle.

なお、出願書類中の各欄において、各要素に括弧付きの参照符号が付されている場合がある。この場合、参照符号は、単に、同要素と後述する実施形態に記載の具体的構成との対応関係の一例を示すものである。よって、本発明は、参照符号の記載によって、何ら限定されるものではない。 In addition, in each column of the application documents, each element may be given a reference sign with parentheses. In this case, the reference numerals simply indicate an example of the correspondence relationship between the same element and the specific configuration described in the embodiment described later. Therefore, the present invention is not limited in any way by the description of the reference numerals.

実施形態に係る物体検知装置を搭載した車両の概略構成を示す平面図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a top view which shows schematic structure of the vehicle which mounts the object detection apparatus which concerns on embodiment. 図1に示された物体検知装置の概略的な機能構成を示すブロック図である。2 is a block diagram showing a schematic functional configuration of the object detection device shown in FIG. 1; FIG. 図2に示された物体検知装置の動作概要を示す概念図である。3 is a conceptual diagram showing an outline of the operation of the object detection device shown in FIG. 2; FIG. 図2に示された物体検知装置の第一の動作例を示すフローチャートである。3 is a flowchart showing a first operation example of the object detection device shown in FIG. 2; 図2に示された物体検知装置の第一の動作例を示すフローチャートである。3 is a flowchart showing a first operation example of the object detection device shown in FIG. 2; 図2に示された物体検知装置の第二の動作例を示すフローチャートである。3 is a flowchart showing a second operation example of the object detection device shown in FIG. 2;

(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(embodiment)
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described based on the drawings. It should be noted that if various modifications applicable to one embodiment are inserted in the middle of a series of explanations related to the embodiment, there is a risk that the understanding of the embodiment will be hindered. Therefore, the modified examples will be collectively described after the series of descriptions regarding the embodiment, not in the middle of the description.

(車両の全体構成)
図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。以下、車両10の車幅方向における中心を通り、且つ車両10における車両全長方向と平行な仮想直線を、車両中心軸線Xと称する。図1において、車幅方向は図中左右方向である。車両全長方向は、車幅方向と直交し且つ車高方向と直交する方向である。車高方向は、車両10の車高を規定する方向であって、車両10を水平面に載置した場合の重力作用方向と平行な方向である。さらに、走行により車両10が移動可能な、車高方向と直交する任意の方向を、車両10の「並進方向」と称することがある。
(Overall configuration of vehicle)
Referring to FIG. 1, a vehicle 10 is a so-called four-wheel vehicle and includes a substantially rectangular vehicle body 11 in a plan view. Hereinafter, an imaginary straight line passing through the center of the vehicle 10 in the vehicle width direction and parallel to the vehicle full length direction of the vehicle 10 will be referred to as a vehicle center axis X. As shown in FIG. In FIG. 1, the vehicle width direction is the horizontal direction in the drawing. The vehicle length direction is a direction orthogonal to the vehicle width direction and orthogonal to the vehicle height direction. The vehicle height direction is a direction that defines the vehicle height of the vehicle 10, and is parallel to the direction of gravity when the vehicle 10 is placed on a horizontal plane. Furthermore, an arbitrary direction orthogonal to the vehicle height direction in which the vehicle 10 can move by running is sometimes referred to as the “translational direction” of the vehicle 10 .

説明の便宜上、車両10における「前」「後」「左」「右」を、図1中にて矢印で示された通りに定義する。すなわち、車両全長方向は、前後方向と同義である。また、車幅方向は、左右方向と同義である。なお、車高方向は、車両10の載置条件または走行条件により、重力作用方向と平行とはならない場合があり得る。もっとも、車高方向は多くの場合に重力作用方向に沿った方向となるため、車高方向と直交する「並進方向」は、「水平方向」、「面内方向」、「進入方向」、「進行方向」あるいは「進路方向」とも称され得る。 For convenience of explanation, "front", "rear", "left", and "right" of the vehicle 10 are defined as indicated by arrows in FIG. That is, the vehicle length direction is synonymous with the front-rear direction. Further, the vehicle width direction is synonymous with the left-right direction. Note that the vehicle height direction may not be parallel to the gravity action direction depending on the mounting conditions or running conditions of the vehicle 10 . However, in many cases, the vehicle height direction is along the direction of gravity action, so the "translational direction" orthogonal to the vehicle height direction is "horizontal direction", "in-plane direction", "approach direction", and " It may also be referred to as "heading" or "tracking".

車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が装着されている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側の左右一対のドアパネル17のそれぞれには、ドアミラー18が装着されている。 A front bumper 13 is attached to a front portion 12 that is a front end portion of the vehicle body 11 . A rear bumper 15 is attached to a rear surface portion 14 that is a rear end portion of the vehicle body 11 . A door panel 17 is attached to a side portion 16 of the vehicle body 11 . In the specific example shown in FIG. 1, a total of four door panels 17 are provided, two on each side. A door mirror 18 is attached to each of the pair of left and right door panels 17 on the front side.

車両10には、物体検知装置20が搭載されている。物体検知装置20は、車両10に搭載されることで、当該車両10の外側且つその周囲に存在する物体Bを検知するように構成されている。以下、物体検知装置20を搭載した車両10を、「自車両」と略称することがある。すなわち、物体検知装置20は、自車両の並進方向に存在する物体Bを検知するように構成されている。 An object detection device 20 is mounted on the vehicle 10 . The object detection device 20 is mounted on the vehicle 10 so as to detect an object B existing outside and around the vehicle 10 . Hereinafter, the vehicle 10 equipped with the object detection device 20 may be abbreviated as "own vehicle". That is, the object detection device 20 is configured to detect the object B existing in the translational direction of the own vehicle.

具体的には、物体検知装置20は、撮像部21と、ソナーセンサ22と、レーダーセンサ23と、車速センサ24と、シフトポジションセンサ25と、舵角センサ26と、物体検知ECU27と、表示部28と、音声出力部29とを備えている。ECUはElectronic Control Unitの略である。以下、物体検知装置20を構成する各部の詳細について説明する。なお、図示の簡略化のため、物体検知装置20を構成する各部の間の電気接続関係は、図1においては省略されている。 Specifically, the object detection device 20 includes an imaging unit 21, a sonar sensor 22, a radar sensor 23, a vehicle speed sensor 24, a shift position sensor 25, a steering angle sensor 26, an object detection ECU 27, and a display unit 28. and an audio output unit 29 . ECU is an abbreviation for Electronic Control Unit. The details of each part constituting the object detection device 20 will be described below. For the sake of simplification of illustration, FIG.

撮像部21は、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得するように設けられている。本実施形態においては、撮像部21は、デジタルカメラ装置であって、CCD等のイメージセンサを備えている。CCDはCharge Coupled Deviceの略である。 The imaging unit 21 is provided to capture an image of the surroundings of the own vehicle and generate and acquire image information corresponding to the captured image. In this embodiment, the imaging unit 21 is a digital camera device, and includes an image sensor such as a CCD. CCD is an abbreviation for Charge Coupled Device.

本実施形態においては、車両10には、複数の撮像部21、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRが搭載されている。フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRのうちの、いずれかであることを特定しない場合に、以下、「撮像部21」という単数形の表現、または「複数の撮像部21」という表現が用いられることがある。 In this embodiment, the vehicle 10 is equipped with a plurality of imaging units 21, that is, a front camera CF, a rear camera CB, a left camera CL, and a right camera CR. When not specifying any of the front camera CF, the rear camera CB, the left camera CL, and the right camera CR, hereinafter, the singular expression “imaging unit 21” or “plural imaging units 21” is sometimes used.

フロントカメラCFは、自車両の前方の画像に対応する画像情報を取得するように設けられている。具体的には、本実施形態においては、フロントカメラCFは、車両10における車室内に配置された不図示のルームミラーに装着されている。 The front camera CF is provided to acquire image information corresponding to an image in front of the vehicle. Specifically, in the present embodiment, the front camera CF is attached to a rearview mirror (not shown) arranged in the vehicle interior of the vehicle 10 .

リアカメラCBは、自車両の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。左側カメラCLは、自車両の左方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、自車両の右方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。 The rear camera CB is attached to the rear surface portion 14 of the vehicle body 11 so as to obtain image information corresponding to an image behind the own vehicle. The left camera CL is attached to the left side door mirror 18 so as to acquire image information corresponding to the left side image of the vehicle. The right camera CR is attached to the right side door mirror 18 so as to obtain image information corresponding to the right image of the vehicle.

複数の撮像部21の各々は、物体検知ECU27に電気接続されている。すなわち、複数の撮像部21の各々は、物体検知ECU27の制御下で画像情報を取得するとともに、取得した画像情報を物体検知ECU27にて受信可能に出力するようになっている。 Each of the imaging units 21 is electrically connected to the object detection ECU 27 . That is, each of the plurality of imaging units 21 acquires image information under the control of the object detection ECU 27 and outputs the acquired image information so that the object detection ECU 27 can receive the image information.

ソナーセンサ22は、物体B上の点との距離を測定する測距センサであって、車体11に装着されている。すなわち、ソナーセンサ22は、自車両の外側に向けて発信された探査波の、物体Bによる反射波を含む受信波を受信することで、物体Bとの距離に対応する信号を出力するように設けられている。具体的には、本実施形態においては、ソナーセンサ22は、いわゆる超音波センサであって、超音波である探査波を自車両の外側に向けて発信するとともに、超音波を含む受信波を受信可能に構成されている。 The sonar sensor 22 is a ranging sensor that measures the distance to a point on the object B, and is attached to the vehicle body 11 . That is, the sonar sensor 22 is provided so as to output a signal corresponding to the distance from the object B by receiving the received wave including the reflected wave from the object B among the search waves transmitted toward the outside of the own vehicle. It is Specifically, in the present embodiment, the sonar sensor 22 is a so-called ultrasonic sensor that can transmit search waves, which are ultrasonic waves, toward the outside of the vehicle and can receive received waves including ultrasonic waves. is configured to

物体検知装置20は、少なくとも一個のソナーセンサ22を備えている。具体的には、本実施形態においては、複数のソナーセンサ22が設けられている。複数のソナーセンサ22は、それぞれ、車両中心軸線Xから車幅方向におけるいずれか一方側にシフトして配置されている。また、複数のソナーセンサ22のうちの少なくとも一部は、車両中心軸線Xと交差する方向に沿って探査波を発信するように設けられている。 The object detection device 20 has at least one sonar sensor 22 . Specifically, in this embodiment, a plurality of sonar sensors 22 are provided. The plurality of sonar sensors 22 are arranged so as to be shifted from the vehicle center axis X to one side in the vehicle width direction. Moreover, at least some of the plurality of sonar sensors 22 are provided so as to emit survey waves along the direction intersecting with the vehicle center axis X. As shown in FIG.

具体的には、フロントバンパー13には、ソナーセンサ22としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、および第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、ソナーセンサ22としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、および第四リアソナーSR4が装着されている。また、車体11の側面部16には、ソナーセンサ22としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4が装着されている。 Specifically, the front bumper 13 is equipped with a first front sonar SF1, a second front sonar SF2, a third front sonar SF3, and a fourth front sonar SF4 as sonar sensors 22. FIG. Similarly, the rear bumper 15 is equipped with a first rear sonar SR1, a second rear sonar SR2, a third rear sonar SR3, and a fourth rear sonar SR4 as sonar sensors 22. As shown in FIG. A first side sonar SS1, a second side sonar SS2, a third side sonar SS3, and a fourth side sonar SS4 are mounted as sonar sensors 22 on the side portion 16 of the vehicle body 11. As shown in FIG.

第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、第四フロントソナーSF4、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、第四リアソナーSR4、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4のうちの、いずれかであることを特定しない場合に、以下、「ソナーセンサ22」という単数形の表現、または「複数のソナーセンサ22」という表現が用いられることがある。 1st front sonar SF1, 2nd front sonar SF2, 3rd front sonar SF3, 4th front sonar SF4, 1st rear sonar SR1, 2nd rear sonar SR2, 3rd rear sonar SR3, 4th rear sonar SR4, 1st side sonar SS1, Hereinafter, when not specifying any of the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4, the singular expression "sonar sensor 22" or "plurality of sonar sensors 22” is sometimes used.

或る一個のソナーセンサ22を「第一ソナーセンサ」と称し、別の一個のソナーセンサ22を「第二ソナーセンサ」と称して、「直接波」および「間接波」を、以下のように定義する。第一ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「直接波」と称する。これに対し、第一ソナーセンサに受信される受信波であって、第二ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「間接波」と称する。 One sonar sensor 22 is called a "first sonar sensor" and another sonar sensor 22 is called a "second sonar sensor", and "direct waves" and "indirect waves" are defined as follows. A received wave that is received by the first sonar sensor and is caused by a reflected wave from the object B of the search wave emitted from the first sonar sensor is referred to as a "direct wave". On the other hand, a received wave that is received by the first sonar sensor and that is caused by a wave reflected by the object B in the search wave emitted from the second sonar sensor is referred to as an "indirect wave."

第一フロントソナーSF1は、自車両の左前方に探査波を発信するように、フロントバンパー13の前側表面における左端部に設けられている。第二フロントソナーSF2は、自車両の右前方に探査波を発信するように、フロントバンパー13の前側表面における右端部に設けられている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心軸線Xを挟んで対称に配置されている。 The first front sonar SF1 is provided at the left end of the front surface of the front bumper 13 so as to emit a survey wave to the left front of the vehicle. The second front sonar SF2 is provided at the right end of the front side surface of the front bumper 13 so as to transmit a survey wave to the right front of the vehicle. The first front sonar SF1 and the second front sonar SF2 are arranged symmetrically with the vehicle center axis X interposed therebetween.

第三フロントソナーSF3と第四フロントソナーSF4とは、フロントバンパー13の前側表面における中央寄りの位置にて、車幅方向に配列されている。第三フロントソナーSF3は、自車両の略前方に探査波を発信するように、車幅方向について第一フロントソナーSF1と車両中心軸線Xとの間に配置されている。第四フロントソナーSF4は、自車両の略前方に探査波を発信するように、車幅方向について第二フロントソナーSF2と車両中心軸線Xとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心軸線Xを挟んで対称に配置されている。 The third front sonar SF3 and the fourth front sonar SF4 are arranged in the width direction of the vehicle at positions near the center of the front surface of the front bumper 13 . The third front sonar SF3 is arranged between the first front sonar SF1 and the vehicle center axis X in the vehicle width direction so as to emit survey waves substantially forward of the vehicle. The fourth front sonar SF4 is arranged between the second front sonar SF2 and the vehicle center axis X in the vehicle width direction so as to emit survey waves substantially forward of the vehicle. The third front sonar SF3 and the fourth front sonar SF4 are arranged symmetrically with the vehicle center axis X interposed therebetween.

上記の通り、車体11の左側に装着された第一フロントソナーSF1および第三フロントソナーSF3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一フロントソナーSF1と第三フロントソナーSF3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 As described above, the first front sonar SF1 and the third front sonar SF3 mounted on the left side of the vehicle body 11 are arranged at different positions in plan view. Also, the first front sonar SF1 and the third front sonar SF3, which are adjacent to each other in the vehicle width direction, are in a positional relationship such that the reflected wave of the survey wave emitted by one of them by the object B can be received by the other as a received wave. is provided.

すなわち、第一フロントソナーSF1は、自己が発信した探査波に対応する直接波と、第三フロントソナーSF3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三フロントソナーSF3は、自己が発信した探査波に対応する直接波と、第一フロントソナーSF1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first front sonar SF1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third front sonar SF3. Similarly, the third front sonar SF3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first front sonar SF1.

同様に、車体11の車幅方向における中央寄りに装着された第三フロントソナーSF3および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三フロントソナーSF3と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the third front sonar SF3 and the fourth front sonar SF4 mounted near the center of the vehicle body 11 in the vehicle width direction are arranged at different positions in plan view. Further, the third front sonar SF3 and the fourth front sonar SF4, which are adjacent to each other in the vehicle width direction, are in a positional relationship such that the reflected wave of the survey wave transmitted by one of them by the object B can be received by the other as a received wave. is provided.

同様に、車体11の右側に装着された第二フロントソナーSF2および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二フロントソナーSF2と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the second front sonar SF2 and the fourth front sonar SF4 mounted on the right side of the vehicle body 11 are arranged at positions different from each other in plan view. Further, the second front sonar SF2 and the fourth front sonar SF4, which are adjacent to each other in the vehicle width direction, are in a positional relationship such that the reflected wave of the survey wave transmitted by one of them by the object B can be received by the other as a received wave. is provided.

第一リアソナーSR1は、自車両の左後方に探査波を発信するように、リアバンパー15の後側表面における左端部に設けられている。第二リアソナーSR2は、自車両の右後方に探査波を発信するように、リアバンパー15の後側表面における右端部に設けられている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心軸線Xを挟んで対称に配置されている。 The first rear sonar SR1 is provided at the left end of the rear surface of the rear bumper 15 so as to transmit a survey wave to the left rear of the vehicle. The second rear sonar SR2 is provided at the right end portion of the rear surface of the rear bumper 15 so as to transmit a survey wave to the right rear of the vehicle. The first rear sonar SR1 and the second rear sonar SR2 are arranged symmetrically with the vehicle center axis X interposed therebetween.

第三リアソナーSR3と第四リアソナーSR4とは、リアバンパー15の後側表面における中央寄りの位置にて、車幅方向に配列されている。第三リアソナーSR3は、自車両の略後方に探査波を発信するように、車幅方向について第一リアソナーSR1と車両中心軸線Xとの間に配置されている。第四リアソナーSR4は、自車両の略後方に探査波を発信するように、車幅方向について第二リアソナーSR2と車両中心軸線Xとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心軸線Xを挟んで対称に配置されている。 The third rear sonar SR3 and the fourth rear sonar SR4 are arranged in the vehicle width direction at positions near the center of the rear surface of the rear bumper 15 . The third rear sonar SR3 is arranged between the first rear sonar SR1 and the vehicle center axis X in the vehicle width direction so as to transmit a survey wave substantially behind the own vehicle. The fourth rear sonar SR4 is arranged between the second rear sonar SR2 and the vehicle center axis X in the vehicle width direction so as to emit survey waves substantially behind the vehicle. The third rear sonar SR3 and the fourth rear sonar SR4 are arranged symmetrically with the vehicle center axis X interposed therebetween.

上記の通り、車体11の左側に装着された第一リアソナーSR1および第三リアソナーSR3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一リアソナーSR1と第三リアソナーSR3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 As described above, the first rear sonar SR1 and the third rear sonar SR3 mounted on the left side of the vehicle body 11 are arranged at different positions in plan view. Further, the first rear sonar SR1 and the third rear sonar SR3, which are adjacent to each other in the vehicle width direction, are provided in a positional relationship such that the reflected waves of the survey waves emitted by one of them and reflected by the object B can be received as received waves by the other. ing.

すなわち、第一リアソナーSR1は、自己が発信した探査波に対応する直接波と、第三リアソナーSR3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三リアソナーSR3は、自己が発信した探査波に対応する直接波と、第一リアソナーSR1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first rear sonar SR1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third rear sonar SR3. Similarly, the third rear sonar SR3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first rear sonar SR1.

同様に、車体11の車幅方向における中央寄りに装着された第三リアソナーSR3および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三リアソナーSR3と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the third rear sonar SR3 and the fourth rear sonar SR4, which are mounted near the center of the vehicle body 11 in the vehicle width direction, are arranged at different positions in plan view. Further, the third rear sonar SR3 and the fourth rear sonar SR4, which are adjacent to each other in the vehicle width direction, are provided in a positional relationship such that the reflected waves of the survey waves emitted by one of them and reflected by the object B can be received by the other as received waves. ing.

同様に、車体11の右側に装着された第二リアソナーSR2および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二リアソナーSR2と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the second rear sonar SR2 and the fourth rear sonar SR4 mounted on the right side of the vehicle body 11 are arranged at different positions in plan view. Further, the second rear sonar SR2 and the fourth rear sonar SR4, which are adjacent to each other in the vehicle width direction, are provided in a positional relationship such that the reflected waves of the survey waves emitted by one of them and reflected by the object B can be received as received waves by the other. ing.

第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、側面部16の外側表面である車両側面から探査波を自車両の側方に発信するように設けられている。第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、それぞれ、直接波のみを受信可能に設けられている。 The first side sonar SS1, the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4 are designed to transmit survey waves to the side of the vehicle from the side of the vehicle, which is the outer surface of the side portion 16. is provided. The first side sonar SS1, the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4 are each provided so as to receive only direct waves.

第一サイドソナーSS1は、自車両の左方に探査波を発信するように、前後方向について左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、自車両の右方に探査波を発信するように、前後方向について右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心軸線Xを挟んで対称に設けられている。 The first side sonar SS1 is arranged between the left side door mirror 18 and the first front sonar SF1 in the front-rear direction so as to emit a search wave to the left of the vehicle. The second side sonar SS2 is arranged between the right side door mirror 18 and the second front sonar SF2 in the front-rear direction so as to transmit a search wave to the right of the vehicle. The first side sonar SS1 and the second side sonar SS2 are provided symmetrically with the vehicle center axis X interposed therebetween.

第三サイドソナーSS3は、自車両の左方に探査波を発信するように、前後方向について左後側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、自車両の右方に探査波を発信するように、前後方向について右後側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心軸線Xを挟んで対称に設けられている。 The third side sonar SS3 is arranged between the left rear door panel 17 and the first rear sonar SR1 in the front-rear direction so as to emit a search wave to the left of the vehicle. The fourth side sonar SS4 is arranged between the right rear door panel 17 and the second rear sonar SR2 in the front-rear direction so as to transmit a search wave to the right of the vehicle. The third side sonar SS3 and the fourth side sonar SS4 are provided symmetrically with the vehicle center axis X interposed therebetween.

複数のソナーセンサ22の各々は、物体検知ECU27に電気接続されている。すなわち、複数のソナーセンサ22の各々は、物体検知ECU27の制御下で探査波を発信するとともに、受信波の受信結果に対応する信号を発生して物体検知ECU27にて受信可能に出力するようになっている。受信波の受信結果に対応する信号に含まれる情報を、以下「測距情報」と称する。測距情報には、受信波の受信強度に関連する情報、および、距離情報が含まれる。「距離情報」は、複数のソナーセンサ22の各々と物体Bとの距離に関連する情報である。具体的には、例えば、距離情報には、探査波の発信から受信波の受信までの時間差に関連する情報が含まれる。 Each of the multiple sonar sensors 22 is electrically connected to the object detection ECU 27 . That is, each of the plurality of sonar sensors 22 transmits a survey wave under the control of the object detection ECU 27, generates a signal corresponding to the reception result of the received wave, and outputs the signal so that it can be received by the object detection ECU 27. ing. Information included in the signal corresponding to the reception result of the received wave is hereinafter referred to as "ranging information". The ranging information includes information related to the reception intensity of received waves and distance information. “Distance information” is information related to the distance between each of the plurality of sonar sensors 22 and the object B. FIG. Specifically, for example, the distance information includes information related to the time difference between the transmission of the search wave and the reception of the received wave.

レーダーセンサ23は、レーダー波を送受信するレーザーレーダーセンサまたはミリ波レーダーセンサであって、車体11の前面部12に装着されている。レーダーセンサ23は、反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように構成されている。「反射点」は、物体Bの表面上における、レーダー波を反射したと推定される点である。「相対速度」は、反射点すなわちレーダー波を反射した物体Bの、自車両に対する相対速度である。 The radar sensor 23 is a laser radar sensor or millimeter wave radar sensor that transmits and receives radar waves, and is attached to the front portion 12 of the vehicle body 11 . The radar sensor 23 is configured to generate a signal corresponding to the position and relative velocity of the reflection point and output the signal so that it can be received by the object detection ECU 27 . A “reflection point” is a point on the surface of the object B that is presumed to have reflected the radar wave. "Relative velocity" is the relative velocity of the reflection point, that is, the object B that reflected the radar wave, with respect to the own vehicle.

車速センサ24、シフトポジションセンサ25、および舵角センサ26は、物体検知ECU27に電気接続されている。車速センサ24は、自車両の走行速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。自車両の走行速度を、以下単に「車速」と称する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。 Vehicle speed sensor 24 , shift position sensor 25 and steering angle sensor 26 are electrically connected to object detection ECU 27 . The vehicle speed sensor 24 is provided so as to generate a signal corresponding to the running speed of the own vehicle and output the signal so as to be receivable by the object detection ECU 27 . The running speed of the own vehicle is hereinafter simply referred to as "vehicle speed". The shift position sensor 25 is provided so as to generate a signal corresponding to the shift position of the host vehicle and output the signal so as to be receivable by the object detection ECU 27 . The steering angle sensor 26 is provided so as to generate a signal corresponding to the steering angle of the host vehicle and output the signal so that it can be received by the object detection ECU 27 .

物体検知ECU27は、車体11の内側に配置されている。物体検知ECU27は、いわゆる車載マイクロコンピュータであって、図示しないCPU、ROM、RAM、不揮発性RAM、等を備えている。不揮発性RAMは、例えば、フラッシュROM等である。物体検知ECU27のCPU、ROM、RAMおよび不揮発性RAMを、以下単に「CPU」、「ROM」、「RAM」および「不揮発性RAM」と略称する。 The object detection ECU 27 is arranged inside the vehicle body 11 . The object detection ECU 27 is a so-called in-vehicle microcomputer, and includes a CPU, ROM, RAM, non-volatile RAM, etc. (not shown). Non-volatile RAM is, for example, flash ROM or the like. The CPU, ROM, RAM and nonvolatile RAM of the object detection ECU 27 are hereinafter simply referred to as "CPU", "ROM", "RAM" and "nonvolatile RAM".

物体検知ECU27は、CPUがROMまたは不揮発性RAMからプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のルーチンに対応するものが含まれている。また、RAMおよび不揮発性RAMは、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発性RAMには、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。各種のデータには、例えば、初期値、ルックアップテーブル、マップ、等が含まれている。 The object detection ECU 27 is configured so that various control operations can be realized by the CPU reading and executing a program from the ROM or the nonvolatile RAM. This program includes those corresponding to the routines described below. Also, the RAM and the non-volatile RAM are configured to be able to temporarily store processing data when the CPU executes the program. Furthermore, the ROM and/or the non-volatile RAM pre-store various data used when executing the program. Various data include, for example, initial values, lookup tables, maps, and the like.

物体検知ECU27は、複数のソナーセンサ22の各々、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作を実行するように構成されている。また、物体検知ECU27は、表示部28および音声出力部29の動作を制御することで、物体検知状態に伴う報知動作を行うようになっている。 The object detection ECU 27 executes an object detection operation based on signals and information received from each of the plurality of sonar sensors 22, each of the plurality of imaging units 21, the vehicle speed sensor 24, the shift position sensor 25, the steering angle sensor 26, and the like. is configured to In addition, the object detection ECU 27 controls the operations of the display unit 28 and the audio output unit 29 to perform notification operations associated with the object detection state.

表示部28および音声出力部29は、車両10における車室内に配置されている。また、表示部28および音声出力部29は、物体検知ECU27に電気接続されている。表示部28は、物体検知状態に伴う報知動作を、表示画面またはインジケータによる表示により行うように構成されている。音声出力部29は、物体検知状態に伴う報知動作を、音声出力により行うように構成されている。 The display unit 28 and the audio output unit 29 are arranged in the vehicle interior of the vehicle 10 . Also, the display unit 28 and the audio output unit 29 are electrically connected to the object detection ECU 27 . The display unit 28 is configured to perform a notification operation associated with the object detection state by displaying a display screen or an indicator. The audio output unit 29 is configured to output a notification operation accompanying the object detection state by audio output.

(物体検知ECUの機能構成)
図2を参照すると、物体検知ECU27は、マイクロコンピュータ上に実現される機能上の構成として、画像情報取得部271と、移動情報取得部272と、特徴点抽出部273と、三次元座標情報取得部274と、点群抽出部275と、測距情報取得部276と、障害物検知部277とを有している。
(Functional configuration of object detection ECU)
Referring to FIG. 2, the object detection ECU 27 includes an image information acquisition unit 271, a movement information acquisition unit 272, a feature point extraction unit 273, and a three-dimensional coordinate information acquisition unit as functional components realized on a microcomputer. It has a section 274 , a point group extraction section 275 , a distance measurement information acquisition section 276 and an obstacle detection section 277 .

以下、本実施形態における、物体検知ECU27の機能構成の詳細について、図2のブロック図および図3の動作概要図を用いて説明する。図3は、車両1の後方に存在するポール状の物体Bを含む、リアカメラCBの撮影画像が処理される様子を示す。図3中、VAは撮影画像の画角である。画角VAは、撮像部21の視野に対応する、撮影画像の最大範囲である。また、HLは水平線すなわち地平線であり、DL1は実線状の道路区画線である第一区画線であり、DL2は破線状の道路区画線である第二区画線である。BDは遠方の建物である。 Details of the functional configuration of the object detection ECU 27 in this embodiment will be described below with reference to the block diagram of FIG. 2 and the operation schematic diagram of FIG. FIG. 3 shows how an image captured by the rear camera CB, including the pole-shaped object B existing behind the vehicle 1, is processed. In FIG. 3, VA is the angle of view of the captured image. The angle of view VA is the maximum range of the captured image corresponding to the field of view of the imaging unit 21 . Further, HL is a horizontal line, that is, the horizon line, DL1 is a first division line that is a solid road division line, and DL2 is a second division line that is a broken road division line. BD is a distant building.

画像情報取得部271は、自車両の周囲の撮影画像に対応する画像情報を取得するように設けられている。具体的には、画像情報取得部271は、撮像部21により生成された画像情報を撮像部21から受信するとともに、受信した画像情報を時系列で不揮発性RAMに格納するようになっている。 The image information acquisition unit 271 is provided so as to acquire image information corresponding to a photographed image of the surroundings of the own vehicle. Specifically, the image information acquisition section 271 receives image information generated by the imaging section 21 from the imaging section 21 and stores the received image information in time series in the non-volatile RAM.

移動情報取得部272は、物体検知動作中の、自車両の移動方向および移動量を取得するように設けられている。具体的には、移動情報取得部272は、車速センサ24、シフトポジションセンサ25、および舵角センサ26の出力に基づいて、自車両の移動方向および移動量を算出するとともに、算出結果を時系列で不揮発性RAMに格納するようになっている。 The movement information acquisition unit 272 is provided so as to acquire the movement direction and movement amount of the own vehicle during the object detection operation. Specifically, the movement information acquisition unit 272 calculates the movement direction and movement amount of the own vehicle based on the outputs of the vehicle speed sensor 24, the shift position sensor 25, and the steering angle sensor 26, and displays the calculation results in time series. is stored in the non-volatile RAM.

特徴点抽出部273は、画像情報取得部271にて取得した画像情報に基づいて、撮影画像における特徴点FPを抽出するように設けられている。特徴点FPは、撮影画像中の物体Bの形状を特徴付ける点である。換言すれば、特徴点FPは、画角VA内における、特徴的な点すなわち画素である。具体的には、例えば、特徴点FPは、隣接する画素との間での輝度変化が大きな画素である。 The feature point extraction section 273 is provided to extract feature points FP in the captured image based on the image information acquired by the image information acquisition section 271 . The feature point FP is a point that characterizes the shape of the object B in the captured image. In other words, the feature point FP is a characteristic point, ie, a pixel within the angle of view VA. Specifically, for example, the feature point FP is a pixel with a large change in luminance between adjacent pixels.

なお、特徴点FPおよびその抽出手法は、本願の出願時点にて周知である。具体的には、特徴点FPの検出手法として、周知の手法(例えば、Sobelフィルタ、Laplacianフィルタ、Canny法、等。)を用いることが可能である。したがって、本明細書においては、特徴点抽出部273による特徴点FPの抽出手法の詳細については、説明を省略する。なお、特徴点FPの「抽出」は、「検出」とも表現され得る。 Note that the feature point FP and its extraction method are well known at the time of filing the application. Specifically, a well-known method (for example, Sobel filter, Laplacian filter, Canny method, etc.) can be used as a method of detecting feature points FP. Therefore, in this specification, the detailed description of the method of extracting the feature points FP by the feature point extraction unit 273 will be omitted. Note that "extraction" of the feature points FP can also be expressed as "detection".

三次元座標情報取得部274は、視点の異なる複数の撮影画像に基づいて、特徴点FPの三次元位置を取得するように設けられている。なお、本実施形態においては、リアカメラCB、フロントカメラCF、左側カメラCL、および右側カメラCRは、それぞれ1個ずつ設けられている。そこで、本実施形態においては、三次元座標情報取得部274は、画像情報取得部271により取得および格納された画像情報と、移動情報取得部272によって取得および格納された移動方向および移動量とに基づいて、物体B上の特徴点FPにおける三次元座標情報を取得するように構成されている。 The three-dimensional coordinate information acquisition section 274 is provided so as to acquire the three-dimensional position of the feature point FP based on a plurality of captured images from different viewpoints. In this embodiment, one rear camera CB, one front camera CF, one left camera CL, and one right camera CR are provided. Therefore, in the present embodiment, the three-dimensional coordinate information acquisition unit 274 combines the image information acquired and stored by the image information acquisition unit 271 with the movement direction and movement amount acquired and stored by the movement information acquisition unit 272. Based on this, the three-dimensional coordinate information of the feature point FP on the object B is obtained.

すなわち、三次元座標情報取得部274は、移動ステレオあるいは単眼移動ステレオの手法を用いて、自車両の周囲に存在する物体Bを認識するように構成されている。具体的には、三次元座標情報取得部274は、特定の方向に向けられた一個の撮像部21における画像情報の履歴と、自車両の移動量とに基づいて、当該撮像部21の向けられた方向に存在する物体Bを認識するようになっている。移動ステレオは、SFMとも称される。SFMはStructure from Motionの略である。 That is, the three-dimensional coordinate information acquisition unit 274 is configured to recognize the object B existing around the own vehicle using a moving stereo or monocular moving stereo technique. Specifically, the three-dimensional coordinate information acquisition unit 274 determines the direction of the imaging unit 21 based on the history of image information in one imaging unit 21 directed in a specific direction and the amount of movement of the vehicle. It recognizes an object B existing in the direction of Motion stereo is also referred to as SFM. SFM is an abbreviation for Structure from Motion.

なお、移動ステレオあるいはSFMについては、本願の出願時点において、すでに周知技術となっている。例えば、米国特許第7,433,494号明細書、同第8,027,514号明細書、等参照。必要に応じ、これらの記載は、技術的に矛盾しない限り、国内法令の許容する範囲において、記載内容が適宜参照により組み入れられる。したがって、本明細書においては、移動ステレオについての詳細については、説明を省略する。 Moving stereo or SFM has already become a well-known technology at the time of the filing of this application. See, for example, US Pat. Nos. 7,433,494, 8,027,514, etc. As necessary, these descriptions are incorporated by reference as appropriate to the extent permitted by domestic laws and regulations, as long as they are not technically inconsistent. Therefore, the details of the moving stereo are omitted in this specification.

点群抽出部275は、特徴点抽出部273による特徴点FPの抽出結果から、所定条件で配列する複数の特徴点FPからなる点群Gを抽出するように設けられている。本実施形態においては、「所定条件」は、複数の特徴点FPが直線状に配列していることを含む。また、「所定条件」は、複数の特徴点FPが水平線HLと交差するように配列していることを含む。また、本実施形態においては、点群抽出部275は、所定の探索範囲RSにて、点群Gを抽出するようになっている。探索範囲RSは、測距情報取得部276によって取得された測距情報に対応する測距点DPを基準とした、撮影画像中における所定範囲である。本実施形態においては、探索範囲RSの形状は、矩形状に設定されている。探索範囲RSの幅は、三角測量による測距点DPの測距誤差を考慮した所定幅に設定されている。探索範囲RSの高さは、計算負荷を考慮して、探索範囲RSが水平線HLと交差するような所定高さに設定されている。 The point group extraction unit 275 is provided so as to extract a point group G composed of a plurality of feature points FP arranged under a predetermined condition from the extraction result of the feature points FP by the feature point extraction unit 273 . In this embodiment, the "predetermined condition" includes that the plurality of feature points FP are arranged in a straight line. Also, the "predetermined condition" includes that the plurality of feature points FP are arranged so as to intersect the horizontal line HL. Moreover, in this embodiment, the point group extraction unit 275 extracts the point group G in a predetermined search range RS. The search range RS is a predetermined range in the captured image with reference to the ranging point DP corresponding to the ranging information acquired by the ranging information acquiring section 276 . In this embodiment, the shape of the search range RS is set to be rectangular. The width of the search range RS is set to a predetermined width in consideration of the ranging error of the ranging point DP by triangulation. The height of the search range RS is set to a predetermined height such that the search range RS intersects the horizontal line HL in consideration of the computational load.

測距情報取得部276は、ソナーセンサ22により測定された測距点DPとの距離に対応する測距情報を取得するように設けられている。すなわち、測距情報取得部276は、自車両の並進方向における物体Bの自車両に対する相対位置に対応する二次元位置情報、換言すれば、測距点DPに対応する測距情報を取得するとともに、取得結果を時系列で不揮発性RAMに格納するようになっている。具体的には、測距情報取得部276は、自車両の外側に向けて発信された超音波である探査波の物体Bによる反射波を、自車両の車体11に装着されたソナーセンサ22にて受信した結果に基づいて、測距情報を取得するように構成されている。 The distance measurement information acquisition unit 276 is provided to acquire distance measurement information corresponding to the distance to the distance measurement point DP measured by the sonar sensor 22 . That is, the ranging information acquisition unit 276 acquires two-dimensional position information corresponding to the relative position of the object B with respect to the own vehicle in the translational direction of the own vehicle, in other words, acquires ranging information corresponding to the ranging point DP. , the acquired results are stored in a non-volatile RAM in chronological order. Specifically, the ranging information acquisition unit 276 detects the reflected wave of the probe wave, which is an ultrasonic wave emitted toward the outside of the vehicle, by the object B using the sonar sensor 22 mounted on the vehicle body 11 of the vehicle. It is configured to acquire ranging information based on the received result.

本実施形態においては、測距情報取得部276は、探査波の物体Bによる反射波をソナーセンサ22にて受信した結果に基づいて、測距情報を取得および格納するように設けられている。具体的には、測距情報取得部276は、測距点DPに対応する測距情報を取得しつつ時系列で不揮発性RAMに格納するようになっている。「測距点DP」は、物体Bの表面上における、ソナーセンサ22から発信された探査波を反射したと推定される点であって、レーダーセンサ23における「反射点」に対応する点である。なお、測距点DPの取得手法については、本願の出願時点にて周知である。したがって、かかる手法の詳細については、本明細書においては、説明を省略する。 In this embodiment, the ranging information acquisition unit 276 is provided so as to acquire and store ranging information based on the result of the sonar sensor 22 receiving the reflected wave of the search wave from the object B. FIG. Specifically, the distance measurement information acquisition unit 276 acquires the distance measurement information corresponding to the distance measurement point DP and stores it in time series in the non-volatile RAM. The “distance measurement point DP” is a point on the surface of the object B that is estimated to have reflected the search wave transmitted from the sonar sensor 22 , and corresponds to the “reflection point” on the radar sensor 23 . Incidentally, the method of obtaining the distance measuring point DP is well known at the time of filing of the present application. Therefore, the detailed description of such a technique is omitted in this specification.

障害物検知部277は、自車両の周囲の物体Bを障害物として検知するように設けられている。具体的には、障害物検知部277は、三次元座標情報取得部274により認識された物体Bを、障害物として検知するように構成されている。すなわち、障害物検知部277は、特徴点FPの三次元位置を取得あるいは推定するために必要な、充分な視差が得られた特徴点FPに基づいて、移動ステレオの手法により障害物を検知するようになっている。 The obstacle detection unit 277 is provided to detect an object B around the vehicle as an obstacle. Specifically, the obstacle detection unit 277 is configured to detect the object B recognized by the three-dimensional coordinate information acquisition unit 274 as an obstacle. That is, the obstacle detection unit 277 detects an obstacle by moving stereo based on the feature points FP with sufficient parallax necessary for obtaining or estimating the three-dimensional positions of the feature points FP. It's like

また、障害物検知部277は、充分な視差が得られないために三次元座標情報取得部274により三次元位置が取得されなかった、複数の特徴点FPを活用して、障害物を検知するように構成されている。具体的には、障害物検知部277は、第一点群G1および第二点群G2と、その近傍にて測距情報取得部276によって取得された測距情報に対応する測距点DPとが、撮影画像中にて所定位置関係にある場合に、第一点群G1と第二点群G2との間の領域を障害物として検知するようになっている。第一点群G1および第二点群G2は、点群抽出部275によって抽出された、2個の点群Gである。本実施形態においては、「所定位置関係」は、第一点群G1および第二点群G2の、撮影画像中における測距点DPからの距離が、所定距離以下であることを含む。 Further, the obstacle detection unit 277 utilizes a plurality of feature points FP whose three-dimensional positions have not been acquired by the three-dimensional coordinate information acquisition unit 274 due to insufficient parallax to detect obstacles. is configured as Specifically, the obstacle detection unit 277 detects the first point group G1, the second point group G2, and the distance measurement point DP corresponding to the distance measurement information acquired by the distance measurement information acquisition unit 276 in the vicinity thereof. However, when there is a predetermined positional relationship in the captured image, the area between the first point group G1 and the second point group G2 is detected as an obstacle. A first point group G<b>1 and a second point group G<b>2 are two point groups G extracted by the point group extraction unit 275 . In this embodiment, the "predetermined positional relationship" includes that the distance of the first point group G1 and the second point group G2 from the distance measuring point DP in the captured image is equal to or less than a predetermined distance.

(作用・効果)
以下、本実施形態の物体検知装置20すなわち物体検知ECU27における動作の概要について、本実施形態の構成により奏される効果とともに、図1~図3を参照しつつ説明する。
(action/effect)
An overview of the operation of the object detection device 20, that is, the object detection ECU 27 of the present embodiment will be described below, together with the effects achieved by the configuration of the present embodiment, with reference to FIGS. 1 to 3. FIG.

複数の撮像部21の各々、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRは、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得する。また、複数の撮像部21の各々は、取得した画像情報を、物体検知ECU27にて受信可能に出力する。 Each of the plurality of imaging units 21, that is, the front camera CF, the rear camera CB, the left camera CL, and the right camera CR captures an image of the surroundings of the own vehicle, and generates and acquires image information corresponding to the captured image. do. Further, each of the plurality of imaging units 21 outputs the acquired image information so that it can be received by the object detection ECU 27 .

複数のソナーセンサ22の各々は、自車両の外側に向けて発信された探査波の反射波を含む受信波を受信することで、自車両の周囲に存在する物体B上の点との距離を測定する。また、複数のソナーセンサ22の各々は、取得した測距情報を、物体検知ECU27により受信可能に出力する。 Each of the plurality of sonar sensors 22 measures the distance to a point on an object B existing around the vehicle by receiving received waves including reflected waves of the search waves transmitted toward the outside of the vehicle. do. Further, each of the plurality of sonar sensors 22 outputs the acquired distance measurement information so that it can be received by the object detection ECU 27 .

レーダーセンサ23は、物体B上の反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。車速センサ24は、車速に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力する。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。 The radar sensor 23 generates a signal corresponding to the position and relative speed of the reflection point on the object B, and outputs the signal so that it can be received by the object detection ECU 27 . The vehicle speed sensor 24 generates a signal corresponding to the vehicle speed and outputs the signal so that it can be received by the object detection ECU 27 . The shift position sensor 25 generates a signal corresponding to the shift position of the host vehicle and outputs the signal so that the object detection ECU 27 can receive the signal. The steering angle sensor 26 generates a signal corresponding to the steering angle of the host vehicle and outputs the signal so that it can be received by the object detection ECU 27 .

物体検知ECU27は、複数の撮像部21の各々から、画像情報を受信する。また、物体検知ECU27は、複数のソナーセンサ22の各々から、測距情報を受信する。また、物体検知ECU27は、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、および舵角センサ26からの出力信号を受信する。物体検知ECU27は、複数のソナーセンサ22の各々、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作を実行する。 The object detection ECU 27 receives image information from each of the plurality of imaging units 21 . The object detection ECU 27 also receives ranging information from each of the plurality of sonar sensors 22 . The object detection ECU 27 also receives output signals from the radar sensor 23 , vehicle speed sensor 24 , shift position sensor 25 and steering angle sensor 26 . The object detection ECU 27 executes an object detection operation based on signals and information received from each of the plurality of sonar sensors 22, each of the plurality of imaging units 21, the vehicle speed sensor 24, the shift position sensor 25, the steering angle sensor 26, and the like. do.

具体的には、画像情報取得部271は、自車両の周囲の撮影画像に対応する画像情報を、複数の撮像部21の各々から取得する。また、画像情報取得部271は、取得した画像情報を、時系列で不揮発性RAMに格納する。移動情報取得部272は、車速センサ24、シフトポジションセンサ25、および舵角センサ26の出力に基づいて、自車両の移動方向および移動量を算出する。また、移動情報取得部272は、算出結果を時系列で不揮発性RAMに格納する。特徴点抽出部273は、画像情報取得部271にて取得した画像情報に基づいて、撮影画像における特徴点FPを抽出する。 Specifically, the image information acquisition unit 271 acquires image information corresponding to the captured images around the host vehicle from each of the plurality of imaging units 21 . In addition, the image information acquisition unit 271 stores the acquired image information in the nonvolatile RAM in chronological order. Movement information acquisition section 272 calculates the movement direction and movement amount of the host vehicle based on the outputs of vehicle speed sensor 24 , shift position sensor 25 , and steering angle sensor 26 . In addition, the movement information acquisition unit 272 stores the calculation results in time series in the nonvolatile RAM. The feature point extraction unit 273 extracts feature points FP in the captured image based on the image information acquired by the image information acquisition unit 271 .

視点の異なる複数の撮影画像の各々で抽出された特徴点FPにて、良好に視差演算可能に、充分な視差が得られる場合がある。この場合、三次元座標情報取得部274は、視点の異なる複数の撮影画像に基づいて、視差演算により特徴点FPの三次元位置を取得する。障害物検知部277は、三次元座標情報取得部274により取得された三次元位置に基づいて、障害物を検知する。すなわち、障害物検知部277は、充分な視差が得られた特徴点FPに基づいて、移動ステレオの手法により、障害物を検知する。 Sufficient parallax may be obtained to enable good parallax calculation at the feature points FP extracted from each of a plurality of captured images from different viewpoints. In this case, the three-dimensional coordinate information acquisition unit 274 acquires the three-dimensional position of the feature point FP by parallax calculation based on a plurality of captured images from different viewpoints. The obstacle detection section 277 detects obstacles based on the three-dimensional position acquired by the three-dimensional coordinate information acquisition section 274 . That is, the obstacle detection unit 277 detects an obstacle by moving stereo based on the feature points FP with sufficient parallax.

しかしながら、上記の通り、特徴点FPの三次元位置を取得あるいは推定するために必要な、充分な視差が得られ難い状況が発生し得る。このような状況においては、視差演算が困難となるため、特徴点FPの三次元位置が取得困難となる。すると、このような特徴点FPに対応する、自車両の周囲の障害物を検知することが困難となる。特に、以下の(1)および(2)が成立する状況にて、このような問題が発生しやすい。(1)自車両と物体Bとの相対移動方向と、当該物体Bを撮像中の撮像部21の撮影方向とが、ほぼ一致すること。(2)当該物体Bが、当該撮像部21の正面に位置すること。図1および図3は、典型例として、後退中の自車両の真後ろにポール状の物体Bが存在し、当該物体BがリアカメラCBの正面に位置する状況を示す。 However, as described above, a situation may occur in which it is difficult to obtain sufficient parallax necessary for obtaining or estimating the three-dimensional position of the feature point FP. In such a situation, it becomes difficult to obtain the three-dimensional position of the feature point FP because the parallax calculation becomes difficult. Then, it becomes difficult to detect obstacles around the own vehicle corresponding to such feature points FP. In particular, such problems are likely to occur in situations where the following (1) and (2) are established. (1) The direction of relative movement between the subject vehicle and the object B should substantially match the direction in which the image capturing unit 21 captures the image of the object B. FIG. (2) The object B is positioned in front of the imaging unit 21 . As a typical example, FIGS. 1 and 3 show a situation in which a pole-shaped object B exists directly behind the vehicle that is reversing, and the object B is positioned in front of the rear camera CB.

この点、例えば、充分な視差が得られないために三次元位置が取得されなかった複数の特徴点FPとほぼ同一の方位にて、測距情報が取得される場合があり得る。具体的には、測距情報取得部276により物体Bとの距離に対応する測距情報が取得され、且つ、取得された測距情報に対応する測距点DPの近傍にて複数の特徴点FPが所定の態様で配列する。この場合、当該測距情報に対応する測距点DPの位置には、物体Bが存在する可能性が高い。 In this respect, for example, there may be a case where distance measurement information is acquired in substantially the same azimuth as a plurality of feature points FP whose three-dimensional positions have not been acquired due to insufficient parallax. Specifically, the ranging information corresponding to the distance to the object B is acquired by the ranging information acquisition unit 276, and a plurality of feature points are obtained in the vicinity of the ranging point DP corresponding to the acquired ranging information. FPs are arranged in a predetermined manner. In this case, there is a high possibility that the object B exists at the position of the ranging point DP corresponding to the ranging information.

そこで、本実施形態においては、点群抽出部275は、特徴点抽出部273による特徴点FPの抽出結果から、所定条件で配列する複数の特徴点FPからなる点群Gを抽出する。具体的には、点群抽出部275は、直線状に配列した複数の特徴点FPのうち、水平線HLと交差するものを、点群Gとして抽出する。 Therefore, in the present embodiment, the point group extraction unit 275 extracts a point group G composed of a plurality of feature points FP arranged under a predetermined condition from the extraction result of the feature points FP by the feature point extraction unit 273 . Specifically, the point group extracting unit 275 extracts, as a point group G, feature points FP that intersect the horizontal line HL from among the plurality of linearly arranged feature points FP.

本実施形態においては、点群抽出部275による点群Gの抽出条件として、複数の特徴点FPが直線状に配列していること、および、複数の特徴点FPが水平線HLと交差するように配列していることが挙げられている。これは、上記の典型例のようなポール状の物体Bの外形形状を考慮したものである。 In this embodiment, as conditions for extracting the point group G by the point group extraction unit 275, the plurality of feature points FP are arranged in a straight line, and the plurality of feature points FP are arranged so that they intersect the horizontal line HL. It is mentioned that they are arranged. This takes into account the external shape of the pole-like object B, such as the typical example described above.

すなわち、例えば、図3に示されているように、第一区画線DL1に対応する複数の特徴点FPは、直線状に配列している。しかしながら、これらは、水平線HLとは交差せず、水平線HLよりも下側の領域のみにて配列する。第二区画線DL2に対応する複数の特徴点FPについても同様である。遠方の建物BDに対応する複数の特徴点FPも、直線状に配列するものの、水平線HLとは交差せず、水平線HLよりも上側の領域のみにて配列する。天井の梁あるいは配管に対応する複数の特徴点FPについても同様である。 That is, for example, as shown in FIG. 3, the plurality of feature points FP corresponding to the first marking line DL1 are arranged in a straight line. However, they do not intersect the horizontal line HL and are arranged only in the area below the horizontal line HL. The same applies to the plurality of feature points FP corresponding to the second lane marking DL2. A plurality of feature points FP corresponding to the distant building BD are also arranged in a straight line, but do not intersect the horizontal line HL, and are arranged only in the area above the horizontal line HL. The same applies to a plurality of feature points FP corresponding to ceiling beams or pipes.

これに対し、リアカメラCBの正面に位置するポール状の物体Bの、撮影画像における左側のエッジに対応する複数の特徴点FPは、直線状に配列している。さらに、これら複数の特徴点FPは、水平線HLと交差しつつ、上下方向に配列する。すなわち、これら複数の特徴点FPは、水平線HLを跨るように、水平線HLと交差する第一エッジ直線L1上に配列する。そこで、点群抽出部275は、これら複数の特徴点FPによる第一点群G1を抽出する。 On the other hand, a plurality of feature points FP corresponding to the left edge in the photographed image of the pole-shaped object B located in front of the rear camera CB are arranged in a straight line. Furthermore, these plurality of feature points FP are arranged in the vertical direction while crossing the horizontal line HL. That is, these plurality of feature points FP are arranged on the first edge straight line L1 intersecting the horizontal line HL so as to straddle the horizontal line HL. Therefore, the point group extracting unit 275 extracts the first point group G1 from these plurality of feature points FP.

同様に、リアカメラCBの正面に位置するポール状の物体Bの、撮影画像における右側のエッジに対応する複数の特徴点FPは、直線状に配列している。さらに、これら複数の特徴点FPは、水平線HLと交差しつつ上下方向に配列する。すなわち、これら複数の特徴点FPは、水平線HLを跨るように、水平線HLと交差する第二エッジ直線L2上に配列する。そこで、点群抽出部275は、これら複数の特徴点FPによる第二点群G2を抽出する。 Similarly, a plurality of feature points FP corresponding to the right edge of the captured image of the pole-shaped object B located in front of the rear camera CB are arranged in a straight line. Furthermore, these plurality of feature points FP are arranged in the vertical direction while crossing the horizontal line HL. That is, these plurality of feature points FP are arranged on the second edge straight line L2 intersecting the horizontal line HL so as to straddle the horizontal line HL. Therefore, the point group extracting section 275 extracts the second point group G2 from these plurality of feature points FP.

測距情報取得部276は、ソナーセンサ22により測定された測距点DPとの距離に対応する測距情報を、ソナーセンサ22から取得する。また、測距情報取得部276は、取得した測距情報を、時系列で不揮発性RAMに格納する。点群抽出部275は、測距点DPを基準とした、撮影画像中における所定範囲である探索範囲RS内にて、点群Gを抽出する。探索範囲RSを画角VAの全体ではなくその一部に限定することにより、計算負荷の軽減および探索精度の向上が図られている。 The ranging information acquisition unit 276 acquires ranging information corresponding to the distance to the ranging point DP measured by the sonar sensor 22 from the sonar sensor 22 . In addition, the ranging information acquisition unit 276 stores the acquired ranging information in the non-volatile RAM in chronological order. The point group extraction unit 275 extracts the point group G within a search range RS, which is a predetermined range in the captured image with reference to the distance measuring point DP. By limiting the search range RS to a part of the field angle VA instead of the entire field angle VA, the calculation load is reduced and the search accuracy is improved.

障害物検知部277は、点群抽出部275によって抽出された2個の点群Gである第一点群G1および第二点群G2と、測距情報取得部276によって取得された測距情報に対応する測距点DPとが、撮影画像中にて所定位置関係にある場合に、第一点群G1と第二点群G2との間の領域を物体Bすなわち障害物として検知する。 The obstacle detection unit 277 extracts the first point group G1 and the second point group G2, which are the two point groups G extracted by the point group extraction unit 275, and the distance measurement information acquired by the distance measurement information acquisition unit 276. is in a predetermined positional relationship in the captured image, the area between the first point group G1 and the second point group G2 is detected as an object B, that is, an obstacle.

上記の通り、所定条件で配列する第一点群G1および第二点群G2が抽出され、且つ、第一点群G1および第二点群G2と測距点DPとが撮影画像中にて所定位置関係にある場合がある。この場合、本実施形態の構成によれば、第一点群G1と第二点群G2との間の領域を障害物として検知することができる。したがって、かかる構成によれば、自車両の周囲に存在する障害物としての物体Bを、より良好に検知することが可能となる。 As described above, the first point group G1 and the second point group G2 arranged under predetermined conditions are extracted, and the first point group G1 and the second point group G2 and the range-finding point DP are predetermined in the captured image. There may be a positional relationship. In this case, according to the configuration of this embodiment, the area between the first point group G1 and the second point group G2 can be detected as an obstacle. Therefore, according to such a configuration, it is possible to more satisfactorily detect the object B as an obstacle existing around the own vehicle.

また、本実施形態の構成においては、障害物検知部277は、視差演算により三次元位置が取得された特徴点FPに基づいて、通常のロジックである移動ステレオの手法により、障害物を検知する。一方、障害物検知部277は、三次元位置が取得されなかった特徴点FPに基づいて、追加のロジックにより、障害物を検知する。かかる追加のロジックは、特徴点FPの抽出結果と、測距情報とを用いるものであるため、センサフュージョンあるいは単にフュージョンとも称され得る。 In addition, in the configuration of this embodiment, the obstacle detection unit 277 detects an obstacle by a moving stereo technique, which is normal logic, based on the feature points FP whose three-dimensional positions are obtained by parallax calculation. . On the other hand, the obstacle detection unit 277 detects obstacles using additional logic based on the feature points FP for which the three-dimensional positions have not been obtained. Such additional logic uses the extraction results of the feature points FP and the distance measurement information, so it can also be called sensor fusion or simply fusion.

すなわち、障害物検知部277は、以下の2条件が成立する場合、追加のロジックを用いて、第一点群G1と第二点群G2との間の領域を障害物として検知する。(条件1)三次元位置が取得されなかった複数の特徴点FPにより、第一点群G1および第二点群G2が構成されていること。(条件2)測距情報取得部276によって取得された測距情報に対応する測距点DPと第一点群G1および第二点群G2とが、撮影画像中にて所定位置関係にあること。かかる構成によれば、追加のロジックの適用対象が限定されるため、障害物の誤検出の発生が良好に抑制され得る。 That is, when the following two conditions are satisfied, the obstacle detection unit 277 uses additional logic to detect the area between the first point group G1 and the second point group G2 as an obstacle. (Condition 1) The first point group G1 and the second point group G2 are composed of a plurality of feature points FP whose three-dimensional positions have not been obtained. (Condition 2) The distance measurement point DP corresponding to the distance measurement information acquired by the distance measurement information acquisition unit 276 and the first point group G1 and the second point group G2 have a predetermined positional relationship in the captured image. . According to such a configuration, the application target of the additional logic is limited, so the occurrence of erroneous detection of obstacles can be suppressed satisfactorily.

(動作例)
以下、本実施形態の構成による、上記の動作概要に対応する具体的な動作例について、図4に示したフローチャートを用いて説明する。なお、図面中において、「ステップ」を単に「S」と略記する。物体検知ECU27のCPUは、所定の起動条件成立中に、図4に示されたルーチンを、所定時間間隔で繰り返し起動する。
(Operation example)
A specific operation example corresponding to the above outline of operation according to the configuration of the present embodiment will be described below with reference to the flowchart shown in FIG. In the drawings, "step" is simply abbreviated as "S". The CPU of the object detection ECU 27 repeatedly activates the routine shown in FIG. 4 at predetermined time intervals while a predetermined activation condition is satisfied.

かかるルーチンが起動されると、まず、ステップ401にて、CPUは、画像情報を取得する。ここで取得される画像情報は、例えば、自車両の後退中は、リアカメラCBによって取得された画像情報である。すなわち、自車両が後退中の場合、CPUは、リアカメラCBによる画像情報を取得する。 When this routine is activated, first, in step 401, the CPU acquires image information. The image information acquired here is, for example, image information acquired by the rear camera CB while the host vehicle is moving backward. That is, when the host vehicle is moving backward, the CPU acquires image information from the rear camera CB.

次に、ステップ402にて、CPUは、取得した画像情報に基づいて、特徴点FPを抽出する。続いて、ステップ403にて、CPUは、自車両の移動方向および移動量を取得する。続いて、ステップ404にて、CPUは、視差演算により特徴点FPの三次元位置を取得すなわち算出する。 Next, at step 402, the CPU extracts feature points FP based on the acquired image information. Subsequently, at step 403, the CPU acquires the movement direction and movement amount of the host vehicle. Subsequently, at step 404, the CPU acquires or calculates the three-dimensional position of the feature point FP by parallax calculation.

ステップ402にて抽出された多数の特徴点FPの中には、上記の通り、視差演算により三次元位置が取得されるものと取得されないものとが生じる。そこで、CPUは、ステップ404に続いて、ステップ405およびステップ406を実行した後、本ルーチンを一旦終了する。ステップ405にて、CPUは、通常のロジックである単眼移動ステレオの手法により、自車両の周囲の物体Bの有無を判定する。また、ステップ406にて、CPUは、追加のロジックであるセンサフュージョンにより、自車両の周囲の物体Bの有無を判定する。 Among the large number of feature points FP extracted in step 402, as described above, there are those whose three-dimensional positions are obtained by parallax calculation and those whose three-dimensional positions are not obtained. Therefore, following step 404, the CPU once executes steps 405 and 406, and then terminates this routine. At step 405, the CPU determines whether or not there is an object B around the host vehicle by a monocular moving stereo method, which is normal logic. Further, at step 406, the CPU determines whether or not there is an object B around the host vehicle by sensor fusion, which is additional logic.

ステップ405の処理は、単眼移動ステレオにおける通常の処理である。かかる処理は、本願の出願時点において、すでに周知である。したがって、本明細書においては、ステップ405の処理内容の詳細については、説明を省略する。 The processing of step 405 is normal processing in monocular moving stereo. Such processing is already well known at the time of filing of this application. Therefore, in this specification, the detailed description of the processing contents of step 405 is omitted.

図5は、図4におけるステップ406の処理内容の詳細を示したものである。かかる処理内容は、図5において、ステップ501~ステップ510として示されている。これらについて、以下順に説明する。 FIG. 5 shows details of the processing contents of step 406 in FIG. Such processing contents are shown as steps 501 to 510 in FIG. These will be described in order below.

まず、ステップ501にて、CPUは、残存特徴点を抽出する。残存特徴点とは、ステップ402にて抽出された多数の特徴点FPのうち、自車両の周囲の物体Bの有無の判定に用いられていないものである。なお、初回のステップ501の処理実行時点において、残存特徴点は、ステップ402にて抽出された全ての特徴点FPから、第一使用済特徴点を除外したものである。第一使用済特徴点とは、ステップ405にて、単眼移動ステレオの手法により、自車両の周囲の物体Bに対応付けられたものである。初回のステップ501の処理実行時点において、残存特徴点は、視差演算により三次元位置が取得されなかった特徴点FPを含むとともに、視差演算により三次元位置が取得された特徴点FPのうちステップ405にて物体Bに対応付けられなかったものをも含む。 First, at step 501, the CPU extracts residual feature points. The remaining feature points are feature points FP extracted in step 402 that are not used to determine whether or not there is an object B around the host vehicle. It should be noted that, at the time when the process of step 501 is executed for the first time, the remaining feature points are all the feature points FP extracted in step 402 excluding the first used feature points. The first used feature point is associated with the object B around the host vehicle in step 405 by the monocular moving stereo technique. At the time when the process of step 501 is executed for the first time, the remaining feature points include feature points FP whose three-dimensional positions have not been obtained by parallax calculation. Also includes those that were not associated with the object B in .

次に、ステップ502にて、CPUは、測距情報を取得する。すなわち、CPUは、測距点DPを1個取得する。続いて、ステップ503にて、CPUは、取得した測距点DPの周囲に探索範囲RSを設定する。また、ステップ504にて、CPUは、探索範囲RS内にて、点群Gを抽出する。 Next, at step 502, the CPU acquires distance measurement information. That is, the CPU acquires one distance measuring point DP. Subsequently, at step 503, the CPU sets a search range RS around the acquired distance measuring point DP. Also, at step 504, the CPU extracts the point group G within the search range RS.

ステップ505にて、CPUは、ステップ504にて抽出した点群Gについて視差演算が成立するか否かを判定する。視差演算が成立する場合(すなわちステップ505=YES)、CPUは、処理をステップ506に進行させる。ステップ506にて、CPUは、単眼移動ステレオの手法により、今回抽出した点群Gについて物体Bすなわち障害物を判定するとともに、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。 At step 505, the CPU determines whether the parallax calculation is established for the point group G extracted at step 504 or not. If the parallax calculation is established (that is, step 505 =YES), the CPU advances the process to step 506 . At step 506, the CPU determines an object B, ie, an obstacle, for the point group G extracted this time, and excludes it from the remaining feature points by the monocular moving stereo method. After that, the CPU advances the process to step 507 .

ステップ507にて、CPUは、残存特徴点が存在するか否かを判定する。残存特徴点が存在しない場合(すなわちステップ507=NO)、CPUは、図4におけるステップ406の処理を終了する。一方、残存特徴点が存在する場合(すなわちステップ507=YES)、CPUは、処理をステップ501に戻す。この場合、続くステップ502においては、前回取得されたものとは異なる測距点DPが取得される。 At step 507, the CPU determines whether or not there are remaining feature points. If there are no remaining feature points (that is, step 507=NO), the CPU terminates the processing of step 406 in FIG. On the other hand, if there are remaining feature points (that is, step 507 =YES), the CPU returns the process to step 501 . In this case, in subsequent step 502, a range-finding point DP different from that previously obtained is obtained.

ステップ504にて抽出した点群Gについて視差演算が成立しない場合(すなわちステップ505=NO)、CPUは、処理をステップ508に進行させる。ステップ508にて、CPUは、位置関係条件が成立するか否かを判定する。位置関係条件とは、今回抽出した第一点群G1および第二点群G2と、測距点DPとの位置関係が、所定位置関係にあることである。 If the parallax calculation does not hold for the point group G extracted in step 504 (that is, step 505 =NO), the CPU advances the process to step 508 . At step 508, the CPU determines whether or not the positional relationship condition is satisfied. The positional relationship condition is that the positional relationship between the first point group G1 and the second point group G2 extracted this time and the range-finding point DP is in a predetermined positional relationship.

位置関係条件が成立する場合(すなわちステップ508=YES)、CPUは、処理をステップ509に進行させる。ステップ509にて、CPUは、今回抽出した点群Gすなわち第一点群G1および第二点群G2について、物体Bすなわち障害物を判定する。具体的には、第一点群G1と第二点群G2との間の領域を、物体Bすなわち障害物として判定する。また、CPUは、今回抽出した点群Gを、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。ステップ507における処理内容は、上記と同様である。 If the positional relationship condition is satisfied (that is, step 508 =YES), the CPU advances the process to step 509 . At step 509, the CPU determines whether the point group G extracted this time, ie, the first point group G1 and the second point group G2, is an object B, ie, an obstacle. Specifically, the area between the first point group G1 and the second point group G2 is determined as the object B, that is, the obstacle. Also, the CPU excludes the point group G extracted this time from the remaining feature points. After that, the CPU advances the process to step 507 . The contents of processing in step 507 are the same as above.

位置関係条件が成立しない場合(すなわちステップ508=NO)、CPUは、処理をステップ510に進行させる。ステップ510にて、CPUは、今回抽出した点群Gについて、物体Bすなわち障害物に対応しないものとして判定するとともに、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。ステップ507における処理内容は、上記と同様である。 If the positional relationship condition does not hold (that is, step 508 =NO), the CPU advances the process to step 510 . At step 510, the CPU determines that the point group G extracted this time does not correspond to the object B, that is, the obstacle, and excludes it from the remaining feature points. After that, the CPU advances the process to step 507 . The contents of processing in step 507 are the same as above.

(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
(Modification)
The present invention is not limited to the above embodiments. Therefore, the above embodiment can be modified as appropriate. A representative modified example will be described below. In the following description of the modified example, differences from the above embodiment will be mainly described. Moreover, in the above-described embodiment and modifications, the same or equivalent portions are denoted by the same reference numerals. Therefore, in the description of the modification below, the description in the above embodiment can be used as appropriate for components having the same reference numerals as those in the above embodiment, unless there is a technical contradiction or special additional description.

本発明は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、物体検知装置20を搭載する車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。 The present invention is not limited to the specific device configurations shown in the above embodiments. That is, for example, the vehicle 10 equipped with the object detection device 20 is not limited to a four-wheeled vehicle. Specifically, the vehicle 10 may be a three-wheeled vehicle, or a six-wheeled or eight-wheeled vehicle such as a freight truck.

車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体11の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。ドアパネル17の数も、特段の限定はない。 The type of vehicle 10 may be an automobile equipped only with an internal combustion engine, an electric vehicle or a fuel cell vehicle without an internal combustion engine, or a so-called hybrid vehicle. The shape and structure of the vehicle body 11 are also not limited to a box shape, that is, a substantially rectangular shape in plan view. The number of door panels 17 is also not particularly limited.

物体検知装置20の適用対象についても、特段の限定はない。すなわち、例えば、物体検知装置20は、駐車支援に適用され得る。あるいは、物体検知装置20は、自動運転の定義におけるレベル2~レベル5に相当する、半自動運転あるいは自動運転に対しても、好適に適用可能である。 There is also no particular limitation on the application target of the object detection device 20 . That is, for example, the object detection device 20 can be applied to parking assistance. Alternatively, the object detection device 20 can be suitably applied to semi-automatic driving or automatic driving corresponding to levels 2 to 5 in the definition of automatic driving.

撮像部21を構成するイメージセンサは、CCDセンサに限定されない。すなわち、例えば、CCDセンサに代えて、CMOSセンサが用いられ得る。CMOSはComplementary MOSの略である。 The image sensor that constitutes the imaging unit 21 is not limited to a CCD sensor. That is, for example, CMOS sensors can be used instead of CCD sensors. CMOS is an abbreviation for Complementary MOS.

撮像部21の配置および個数は、上記の例に限定されない。すなわち、例えば、フロントカメラCFは、車室外に配置され得る。具体的には、例えば、フロントカメラCFは、車体11の前面部12に装着され得る。フロントカメラCFは、一個であってもよいし、二個であってもよい。すなわち、物体検知装置20は、複眼ステレオカメラ構成を有していてもよい。例えば、左側カメラCLおよび右側カメラCRは、ドアミラー18とは異なる位置に配置され得る。あるいは、左側カメラCLおよび右側カメラCRは、省略され得る。 The arrangement and number of imaging units 21 are not limited to the above example. That is, for example, the front camera CF can be arranged outside the vehicle compartment. Specifically, for example, the front camera CF can be attached to the front portion 12 of the vehicle body 11 . The number of front cameras CF may be one or two. That is, the object detection device 20 may have a compound-eye stereo camera configuration. For example, the left camera CL and the right camera CR may be arranged at positions different from the door mirrors 18 . Alternatively, the left camera CL and right camera CR may be omitted.

ソナーセンサ22の配置および個数は、上記の具体例に限定されない。すなわち、例えば、図1を参照すると、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3および第四サイドソナーSS4は、省略され得る。 The arrangement and number of sonar sensors 22 are not limited to the above specific examples. That is, for example, referring to FIG. 1, when the third front sonar SF3 is arranged at the center position in the vehicle width direction, the fourth front sonar SF4 is omitted. Similarly, when the third rear sonar SR3 is arranged at the central position in the vehicle width direction, the fourth rear sonar SR4 is omitted. The third side sonar SS3 and fourth side sonar SS4 may be omitted.

物体検知ECU27は、上記実施形態における物体検知装置20の主要部を構成する。このため、撮像部21、ソナーセンサ22、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、舵角センサ26、表示部28、および音声出力部29は、物体検知装置20の構成要素ではなく、物体検知装置20の付随的要素であるものと把握され得る。あるいは、撮像部21およびソナーセンサ22は、それぞれ、画像情報取得部271および測距情報取得部276を構成するものとして、物体検知装置20の構成要素としても把握され得る。 The object detection ECU 27 constitutes a main part of the object detection device 20 in the above embodiment. Therefore, the imaging unit 21, the sonar sensor 22, the radar sensor 23, the vehicle speed sensor 24, the shift position sensor 25, the steering angle sensor 26, the display unit 28, and the audio output unit 29 are not components of the object detection device 20, but rather It may be understood to be an ancillary element of sensing device 20 . Alternatively, the imaging unit 21 and the sonar sensor 22 may be grasped as components of the object detection device 20 as components of the image information acquisition unit 271 and the ranging information acquisition unit 276, respectively.

上記実施形態においては、物体検知ECU27は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本発明は、かかる構成に限定されない。すなわち、例えば、物体検知ECU27は、上記のような動作を可能に構成されたデジタル回路、例えばゲートアレイ等のASICであってもよい。ASICはAPPLICATION SPECIFIC INTEGRATED CIRCUITの略である。 In the above-described embodiment, the object detection ECU 27 is configured such that the CPU reads a program from the ROM or the like and starts it. However, the invention is not limited to such a configuration. That is, for example, the object detection ECU 27 may be a digital circuit, such as an ASIC such as a gate array, capable of performing the above operations. ASIC is an abbreviation for APPLICATION SPECIFIC INTEGRATED CIRCUIT.

本発明は、上記実施形態にて示された具体的な機能構成および動作例に限定されない。すなわち、例えば、移動情報取得部272による、自車両の移動量の取得には、不図示の加速度センサの出力が用いられ得る。 The present invention is not limited to the specific functional configurations and operation examples shown in the above embodiments. That is, for example, the movement information acquisition unit 272 may use the output of an acceleration sensor (not shown) to acquire the amount of movement of the host vehicle.

上記の具体例においては、リアカメラCBによる撮影画像を用いた物体Bの検知動作について説明した。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、本発明は、フロントカメラCFによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。同様に、本発明は、左側カメラCLおよび右側カメラCRによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。 In the above specific example, the operation of detecting the object B using the image captured by the rear camera CB has been described. However, the invention is not limited to such aspects. That is, for example, the present invention can be suitably applied to the operation of detecting an object B using an image captured by the front camera CF. Similarly, the present invention can also be suitably applied to the operation of detecting an object B using images captured by the left camera CL and the right camera CR.

特徴点FPは、単一画素によって構成されていてもよいし、複数画素の集合体によって構成されていてもよい。特徴点FPの検出の際に、輝度情報に代えて、あるいはこれとともに、彩度情報が用いられ得る。もっとも、RGB各色の光学フィルタを介して画像情報を取得する場合、彩度情報はRGB各色の画像情報における輝度情報と同義となり得る。 The feature point FP may be composed of a single pixel, or may be composed of an aggregate of a plurality of pixels. Saturation information may be used in place of or along with luminance information when detecting feature points FP. However, when image information is acquired through optical filters of RGB colors, saturation information can be synonymous with luminance information in image information of RGB colors.

三次元座標情報取得部274における処理内容は、単眼移動ステレオに限定されない。具体的には、例えば、複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理が用いられ得る。複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理については、本願の出願時において、すでに公知または周知である。 The processing content of the three-dimensional coordinate information acquisition unit 274 is not limited to monocular movement stereo. Specifically, for example, compound eye stereo processing or integrated processing of SFM and compound eye stereo may be used. Compound-eye stereo processing, or integration processing of SFM and compound-eye stereo, is already publicly known or well-known at the time of filing of this application.

点群Gの抽出の際の、探索範囲RSの高さは、画角VAの高さと同一であってもよい。すなわち、探索範囲RSは、点群Gの抽出範囲を画角VAの幅方向に限定するものであってもよい。また、探索範囲RSの形状は、矩形状に限定されない。すなわち、例えば、探索範囲RSは、測距点DPを中心とする楕円形状あるいは所定半径の円形状であってもよい。 The height of the search range RS in extracting the point group G may be the same as the height of the angle of view VA. That is, the search range RS may limit the extraction range of the point group G in the width direction of the angle of view VA. Also, the shape of the search range RS is not limited to a rectangular shape. That is, for example, the search range RS may be an ellipse centered on the distance measuring point DP or a circle with a predetermined radius.

測距情報取得部276は、ソナーセンサ22の出力に代えて、あるいはこれとともに、レーダーセンサ23の出力に基づいて、測距情報を取得してもよい。すなわち、探査波として、超音波または電磁波が用いられ得る。また、測距点DPとして、レーダーセンサ23により取得された反射点が用いられ得る。この場合、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点DPの代替として用いられ得る。あるいは、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点DPの補正要素として用いられ得る。 The ranging information acquisition unit 276 may acquire ranging information based on the output of the radar sensor 23 instead of or together with the output of the sonar sensor 22 . That is, ultrasonic waves or electromagnetic waves can be used as probe waves. A reflection point acquired by the radar sensor 23 may be used as the ranging point DP. In this case, the relative position information regarding the reflection point can be used as a substitute for the ranging point DP acquired by the sonar sensor 22 . Alternatively, the relative position information about the reflection points can be used as a correction factor for the ranging point DP acquired by the sonar sensor 22 .

上記実施形態においては、所定位置関係すなわち位置関係条件は、第一点群G1および第二点群G2の、撮影画像中における測距点DPからの距離が所定距離以下であることであった。しかしながら、本発明は、かかる態様に限定されない。 In the above-described embodiment, the predetermined positional relationship, that is, the positional relationship condition, is that the distance of the first point group G1 and the second point group G2 from the distance measuring point DP in the captured image is a predetermined distance or less. However, the invention is not limited to such aspects.

具体的には、例えば、所定位置関係は、以下の条件MA1および条件MB1のアンド条件を含むものであってもよい。(条件MA1)第一点群G1または第二点群G2の、撮影画像中における測距点DPからの距離が、所定距離以下である。(条件MB1)第一点群G1と第二点群G2との、撮影画像中における間隔が、所定間隔以下である。 Specifically, for example, the predetermined positional relationship may include an AND condition of condition MA1 and condition MB1 below. (Condition MA1) The distance of the first point group G1 or the second point group G2 from the distance measuring point DP in the captured image is equal to or less than a predetermined distance. (Condition MB1) The interval in the captured image between the first point group G1 and the second point group G2 is equal to or less than a predetermined interval.

例えば、図3に示されているように、上下方向に延設された細長いポール状の物体Bの根元にて、三次元位置が取得可能な特徴点FPが生じる場合がある。かかる特徴点FPを参照特徴点FP0と称する。物体Bの根元は、路面あるいは地面と物体Bとが交差する位置とも称される。なお、参照特徴点FP0は、物体Bの根元のみならず、物体Bの表面における汚れあるいは模様に対応しても発生し得る。 For example, as shown in FIG. 3, a feature point FP whose three-dimensional position can be acquired may occur at the base of an elongated pole-shaped object B that extends in the vertical direction. Such a feature point FP is called a reference feature point FP0. The base of the object B is also called a position where the object B intersects with the road surface or the ground. Note that the reference feature point FP0 can be generated not only at the base of the object B, but also in correspondence with stains or patterns on the surface of the object B. FIG.

上記のように、第一点群G1および第二点群G2とその近傍の測距点DPとが撮影画像中にて所定位置関係にあるのみならず、当該測距点DPとほぼ同一の方位にて参照特徴点FP0が検出された場合、物体Bすなわち障害物の存在確率が高くなる。そこで、所定位置関係は、参照特徴点FP0に関する条件をさらに含んでいてもよい。 As described above, not only are the first point group G1 and the second point group G2 and the distance measuring point DP in the vicinity thereof in a predetermined positional relationship in the photographed image, but also the direction substantially the same as that of the distance measuring point DP. When the reference feature point FP0 is detected in , the existence probability of the object B, that is, the obstacle increases. Therefore, the predetermined positional relationship may further include a condition regarding the reference feature point FP0.

具体的には、所定位置関係は、以下の条件MA2および条件MB2のアンド条件を含むものであってもよい。(条件MA2)三次元位置が取得された特徴点FPである参照特徴点FP0が、第一点群G1と第二点群G2との間に存在すること。(条件MB2)距離差ΔDが所定値ΔD0以下であること。距離差ΔDは、参照特徴点FP0の自車両からの距離である参照距離と、測距点DPの自車両からの距離である測距距離との差である。 Specifically, the predetermined positional relationship may include an AND condition of condition MA2 and condition MB2 below. (Condition MA2) The reference feature point FP0, which is the feature point FP whose three-dimensional position is acquired, exists between the first point group G1 and the second point group G2. (Condition MB2) The distance difference ΔD is equal to or less than a predetermined value ΔD0. The distance difference ΔD is the difference between the reference distance, which is the distance of the reference feature point FP0 from the own vehicle, and the distance measurement distance, which is the distance of the distance measurement point DP from the own vehicle.

すなわち、本変形例においては、位置関係条件は、第一位置関係条件に加えて、第二位置関係条件を含む。第一位置関係条件は、上記実施形態における位置関係条件である。第二位置関係条件は、条件MA2および条件MB2のアンド条件であって、参照特徴点FP0に関する条件である。 That is, in this modified example, the positional relationship condition includes the second positional relationship condition in addition to the first positional relationship condition. The first positional relationship condition is the positional relationship condition in the above embodiment. The second positional relationship condition is an AND condition of condition MA2 and condition MB2, and is a condition regarding reference feature point FP0.

図6は、かかる変形例に対応して、図5のフローチャートの一部を変更したものである。なお、図5におけるステップ501~506の処理は、本変形例においても同様である。すなわち、図6に対応する本変形例の処理も、図5におけるステップ501~506の処理を含む。本変形例の処理は、上記実施形態の処理と、ステップ508以降の内容が異なるのみである。このため、図6においては、図5におけるステップ501~506の処理は、図示が省略されている。 FIG. 6 shows a part of the flow chart of FIG. 5 modified in accordance with such a modification. Note that the processing of steps 501 to 506 in FIG. 5 is the same in this modified example. That is, the processing of this modification corresponding to FIG. 6 also includes the processing of steps 501 to 506 in FIG. The processing of this modified example differs from the processing of the above-described embodiment only in the contents after step 508 . Therefore, in FIG. 6, the processing of steps 501 to 506 in FIG. 5 is omitted.

ステップ508にて、CPUは、第一位置関係条件が成立するか否かを判定する。第一位置関係条件は、今回抽出した第一点群G1および第二点群G2と、測距点DPとの位置関係が、所定位置関係にあることである。すなわち、本変形例におけるステップ508の処理内容は、上記実施形態と同様である。 At step 508, the CPU determines whether or not the first positional relationship condition is satisfied. The first positional relationship condition is that the positional relationship between the first point group G1 and the second point group G2 extracted this time and the distance measuring point DP is in a predetermined positional relationship. That is, the processing contents of step 508 in this modified example are the same as those in the above-described embodiment.

第一位置関係条件が成立しない場合(すなわちステップ508=NO)、CPUは、処理をステップ510に進行させる。ステップ510にて、CPUは、今回抽出した点群Gについて、物体Bすなわち障害物に対応しないものとして判定するとともに、残存特徴点から除外する。その後、CPUは、処理をステップ507に進行させる。ステップ507における処理内容は、上記実施形態と同様である If the first positional relationship condition does not hold (that is, step 508 =NO), the CPU advances the process to step 510 . At step 510, the CPU determines that the point group G extracted this time does not correspond to the object B, that is, the obstacle, and excludes it from the remaining feature points. After that, the CPU advances the process to step 507 . The processing contents in step 507 are the same as those in the above embodiment.

第一位置関係条件が成立する場合(すなわちステップ508=YES)、CPUは、処理をステップ511に進行させる。ステップ511にて、CPUは、第一点群G1と第二点群G2との間に参照特徴点FP0が存在するか否かを判定する。第一点群G1と第二点群G2との間に参照特徴点FP0が存在しない場合(すなわちステップ511=NO)、CPUは、処理をステップ510に進行させる。 If the first positional relationship condition is satisfied (that is, step 508 =YES), the CPU advances the process to step 511 . At step 511, the CPU determines whether or not the reference feature point FP0 exists between the first point group G1 and the second point group G2. If the reference feature point FP0 does not exist between the first point group G1 and the second point group G2 (that is, step 511=NO), the CPU advances the process to step 510.

第一点群G1と第二点群G2との間に参照特徴点FP0が存在する場合(すなわちステップ511=YES)、CPUは、処理をステップ512に進行させる。ステップ512にて、CPUは、距離差ΔDが所定値ΔD0以下であるか否かを判定する。すなわち、ステップ511およびステップ512によって、第二位置関係条件の成否が判定される。 If the reference feature point FP0 exists between the first point group G1 and the second point group G2 (that is, step 511=YES), the CPU advances the process to step 512. At step 512, the CPU determines whether or not the distance difference ΔD is equal to or less than a predetermined value ΔD0. That is, step 511 and step 512 determine whether the second positional relationship condition is met.

距離差ΔDが所定値ΔD0以下である場合(すなわちステップ512=YES)、CPUは、処理をステップ509に進行させる。ステップ509にて、CPUは、今回抽出した点群Gすなわち第一点群G1および第二点群G2について、物体Bすなわち障害物を判定する。その後、CPUは、処理をステップ507に進行させる。一方、距離差ΔDが所定値ΔD0を超える場合(すなわちステップ512=NO)、CPUは、処理をステップ510に進行させる。 If the distance difference ΔD is less than or equal to the predetermined value ΔD0 (that is, step 512=YES), the CPU advances the process to step 509. At step 509, the CPU determines whether the point group G extracted this time, ie, the first point group G1 and the second point group G2, is an object B, ie, an obstacle. After that, the CPU advances the process to step 507 . On the other hand, if the distance difference ΔD exceeds the predetermined value ΔD0 (that is, step 512=NO), the CPU advances the process to step 510.

「取得」という表現と、「推定」「検出」「検知」「算出」等の類似の表現とは、技術的に矛盾しない範囲内において、適宜置換可能である。「検出」と「抽出」とも、技術的に矛盾しない範囲内において、適宜置換可能である。各判定処理における不等号は、等号付きであってもよいし、等号無しであってもよい。すなわち、例えば、「所定値未満」と「所定値以下」とは、技術的に矛盾しない範囲内において、互いに置換され得る。 The expression "acquire" and similar expressions such as "estimation", "detection", "detection", and "calculation" can be appropriately replaced within a technically consistent range. Both "detection" and "extraction" can be interchanged as long as they are not technically inconsistent. The inequality sign in each determination process may or may not have an equal sign. That is, for example, "less than a predetermined value" and "not more than a predetermined value" can be interchanged within a technically consistent range.

上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 Needless to say, the elements constituting the above-described embodiments are not necessarily essential, unless explicitly stated as essential or clearly considered essential in principle. In addition, when numerical values such as the number, numerical value, amount, range, etc. of a constituent element are mentioned, unless it is explicitly stated that it is particularly essential or when it is clearly limited to a specific number in principle, The present invention is not limited to the number of . Similarly, when the shape, direction, positional relationship, etc. of a component, etc. are mentioned, unless it is explicitly stated that it is particularly essential, or when it is limited to a specific shape, direction, positional relationship, etc. in principle , the shape, direction, positional relationship, etc., of which the present invention is not limited.

変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, multiple variants can be combined with each other. Furthermore, all or part of the above embodiments and all or part of the modifications may be combined with each other.

10 車両
20 物体検知装置
271 画像情報取得部
272 移動情報取得部
273 特徴点抽出部
274 三次元座標情報取得部
275 点群抽出部
276 測距情報取得部
277 障害物検知部
B 物体
10 vehicle 20 object detection device 271 image information acquisition unit 272 movement information acquisition unit 273 feature point extraction unit 274 three-dimensional coordinate information acquisition unit 275 point group extraction unit 276 ranging information acquisition unit 277 obstacle detection unit B object

Claims (9)

自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成された、物体検知装置(20)であって、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
視点の異なる複数の前記撮影画像に基づいて前記特徴点の三次元位置を取得する、三次元情報取得部(274)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記障害物検知部は、前記三次元位置が取得されなかった複数の前記特徴点により前記第一点群および前記第二点群が構成されており、且つ、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点と前記第一点群および前記第二点群とが前記撮影画像中にて前記所定位置関係にある場合、前記第一点群と前記第二点群との間の前記領域を前記障害物として検知し、
前記所定位置関係は、前記三次元位置が取得された前記特徴点である参照特徴点(FP0)が前記第一点群と前記第二点群との間に存在し、且つ、前記参照特徴点の前記自車両からの距離である参照距離と前記測距点の前記自車両からの距離である測距距離との差が所定値以下であることを含む、
体検知装置。
An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a three-dimensional information acquisition unit (274) that acquires the three-dimensional position of the feature point based on the plurality of captured images from different viewpoints;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
In the obstacle detection unit, the first point group and the second point group are configured by a plurality of the feature points for which the three-dimensional position was not acquired, and the distance measurement information acquisition unit acquires and when the range-finding point corresponding to the range-finding information and the first point group and the second point group are in the predetermined positional relationship in the captured image, the first point group and the second point detecting the area between the group as the obstacle;
The predetermined positional relationship is such that a reference feature point (FP0), which is the feature point from which the three-dimensional position is acquired, exists between the first point group and the second point group, and the reference feature point The difference between the reference distance, which is the distance from the own vehicle, and the ranging distance, which is the distance of the ranging point from the own vehicle, is less than or equal to a predetermined value,
Object detection device.
自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成された、物体検知装置(20)であって、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、前記第一点群および前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であることを含む、
体検知装置。
An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship includes that the distance of the first point group and the second point group from the range-finding point in the captured image is equal to or less than a predetermined distance ,
Object detection device.
自車両(10)に搭載されることで、当該自車両の周囲に存在する物体(B)を検知するように構成された、物体検知装置(20)であって、
前記自車両の周囲の撮影画像に対応する画像情報を取得する、画像情報取得部(271)と、
前記画像情報取得部にて取得した前記画像情報に基づいて、前記撮影画像における特徴点(FP)を抽出する、特徴点抽出部(273)と、
前記特徴点抽出部による前記特徴点の抽出結果から、所定条件で配列する複数の前記特徴点からなる点群(G)を抽出する、点群抽出部(275)と、
測距センサ(22)により測定された測距点(DP)との距離に対応する測距情報を取得する、測距情報取得部(276)と、
前記点群抽出部によって抽出された2個の前記点群である第一点群(G1)および第二点群(G2)と、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点とが、前記撮影画像中にて所定位置関係にある場合に、前記第一点群と前記第二点群との間の領域を障害物として検知する、障害物検知部(277)と、
を備え、
前記所定位置関係は、
前記第一点群または前記第二点群の、前記撮影画像中における前記測距点からの距離が、所定距離以下であり、且つ、
前記第一点群と前記第二点群との、前記撮影画像中における間隔が、所定間隔以下であることを含む、
体検知装置。
An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
an image information acquisition unit (271) for acquiring image information corresponding to a photographed image of the surroundings of the own vehicle;
a feature point extraction unit (273) for extracting feature points (FP) in the captured image based on the image information acquired by the image information acquisition unit;
a point group extraction unit (275) for extracting a point group (G) consisting of a plurality of the feature points arranged under a predetermined condition from the result of extraction of the feature points by the feature point extraction unit;
a ranging information acquisition unit (276) that acquires ranging information corresponding to the distance to the ranging point (DP) measured by the ranging sensor (22);
Corresponding to the first point group (G1) and the second point group (G2), which are the two point groups extracted by the point cloud extraction unit, and the ranging information acquired by the ranging information acquisition unit an obstacle detection unit ( 277) and
with
The predetermined positional relationship is
The distance of the first point group or the second point group from the range-finding point in the captured image is a predetermined distance or less, and
Including that the interval in the captured image between the first point group and the second point group is equal to or less than a predetermined interval ,
Object detection device.
視点の異なる複数の前記撮影画像に基づいて前記特徴点の三次元位置を取得する、三次元情報取得部(274)をさらに備え、
前記障害物検知部は、前記三次元位置が取得されなかった複数の前記特徴点により前記第一点群および前記第二点群が構成されており、且つ、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点と前記第一点群および前記第二点群とが前記撮影画像中にて前記所定位置関係にある場合、前記第一点群と前記第二点群との間の前記領域を前記障害物として検知する、
請求項2または3に記載の物体検知装置。
further comprising a three-dimensional information acquisition unit (274) that acquires the three-dimensional position of the feature point based on the plurality of captured images from different viewpoints,
In the obstacle detection unit, the first point group and the second point group are configured by a plurality of the feature points for which the three-dimensional position was not acquired, and the distance measurement information acquisition unit acquires and when the range-finding point corresponding to the range-finding information and the first point group and the second point group are in the predetermined positional relationship in the captured image, the first point group and the second point detecting the area between the group as the obstacle;
The object detection device according to claim 2 or 3 .
前記所定位置関係は、前記三次元位置が取得された前記特徴点である参照特徴点(FP0)が前記第一点群と前記第二点群との間に存在し、且つ、前記参照特徴点の前記自車両からの距離である参照距離と前記測距点の前記自車両からの距離である測距距離との差が所定値以下であることを含む、
請求項4に記載の物体検知装置。
The predetermined positional relationship is such that a reference feature point (FP0), which is the feature point from which the three-dimensional position is acquired, exists between the first point group and the second point group, and the reference feature point The difference between the reference distance, which is the distance from the own vehicle, and the ranging distance, which is the distance of the ranging point from the own vehicle, is less than or equal to a predetermined value,
The object detection device according to claim 4 .
前記点群抽出部は、直線状に配列した複数の前記特徴点を、前記点群として抽出する、
請求項1~5のいずれか1つに記載の物体検知装置。
The point group extraction unit extracts the plurality of characteristic points arranged in a straight line as the point group,
The object detection device according to any one of claims 1 to 5 .
前記点群抽出部は、水平線(HL)と交差するように配列した複数の前記特徴点を、前記点群として抽出する、
請求項1~6のいずれか1つに記載の物体検知装置。
The point cloud extraction unit extracts a plurality of the feature points arranged to intersect a horizontal line (HL) as the point cloud,
The object detection device according to any one of claims 1 to 6 .
前記点群抽出部は、前記測距情報取得部によって取得された前記測距情報に対応する前記測距点を基準とした、前記撮影画像中における所定範囲内にて、前記点群を抽出する、
請求項1~7のいずれか1つに記載の物体検知装置。
The point cloud extraction unit extracts the point cloud within a predetermined range in the captured image with reference to the ranging point corresponding to the ranging information acquired by the ranging information acquisition unit. ,
The object detection device according to any one of claims 1 to 7 .
前記測距情報取得部は、前記自車両の外側に向けて発信された超音波である探査波の前記物体による反射波を、前記自車両の車体(11)に装着された前記測距センサにて受信した結果に基づいて、前記測距情報を取得する、
請求項1~8のいずれか1つに記載の物体検知装置。
The ranging information acquisition unit transmits a reflected wave from the object of the search wave, which is an ultrasonic wave transmitted toward the outside of the vehicle, to the ranging sensor mounted on the vehicle body (11) of the vehicle. obtaining the ranging information based on the results received by
The object detection device according to any one of claims 1 to 8.
JP2018154132A 2018-08-20 2018-08-20 Object detection device Active JP7135579B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018154132A JP7135579B2 (en) 2018-08-20 2018-08-20 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018154132A JP7135579B2 (en) 2018-08-20 2018-08-20 Object detection device

Publications (2)

Publication Number Publication Date
JP2020030466A JP2020030466A (en) 2020-02-27
JP7135579B2 true JP7135579B2 (en) 2022-09-13

Family

ID=69622505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154132A Active JP7135579B2 (en) 2018-08-20 2018-08-20 Object detection device

Country Status (1)

Country Link
JP (1) JP7135579B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836681B (en) * 2021-03-03 2024-01-26 上海高仙自动化科技发展有限公司 Obstacle marking method and device and readable non-transitory storage medium
JP7518804B2 (en) 2021-09-13 2024-07-18 株式会社デンソー Object Recognition Device
CN116163618B (en) * 2021-11-25 2025-05-09 比亚迪股份有限公司 Door control method, door control device, vehicle terminal, vehicle and medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000030197A (en) 1998-07-09 2000-01-28 Nissan Motor Co Ltd Device for detecting warm body
JP2009169618A (en) 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc Roadside boundary surface detection device
JP2014106704A (en) 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP2015194935A (en) 2014-03-31 2015-11-05 富士通株式会社 Lane marking device, lane marking detection method and program
WO2017057041A1 (en) 2015-09-30 2017-04-06 ソニー株式会社 Signal processing apparatus, signal processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000030197A (en) 1998-07-09 2000-01-28 Nissan Motor Co Ltd Device for detecting warm body
JP2009169618A (en) 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc Roadside boundary surface detection device
JP2014106704A (en) 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP2015194935A (en) 2014-03-31 2015-11-05 富士通株式会社 Lane marking device, lane marking detection method and program
WO2017057041A1 (en) 2015-09-30 2017-04-06 ソニー株式会社 Signal processing apparatus, signal processing method, and program

Also Published As

Publication number Publication date
JP2020030466A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
CN110573905B (en) Obstacle detection device
US20220189180A1 (en) Vehicular vision system that determines distance to an object
US9151626B1 (en) Vehicle position estimation system
US11315348B2 (en) Vehicular vision system with object detection
JP6091977B2 (en) Construction machinery
WO2017057058A1 (en) Information processing device, information processing method, and program
WO2018079252A1 (en) Object detecting device
US20170220875A1 (en) System and method for determining a visibility state
WO2015098344A1 (en) Mining work machine
US10984258B2 (en) Vehicle traveling environment detecting apparatus and vehicle traveling controlling system
JP7135579B2 (en) Object detection device
WO2019151156A1 (en) Object detection device and parking assistance device
JP6778620B2 (en) Road marking device, road marking system, and road marking method
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6579144B2 (en) Obstacle detection device
JP7318377B2 (en) Object detection device
JP2006072757A (en) Object detection device
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP6958485B2 (en) Object detection device
JP7334572B2 (en) Object detection device and object detection program
JP7236556B2 (en) Object detection device and object detection program
JP6718295B2 (en) Surrounding monitoring device and surrounding monitoring method
WO2017199676A1 (en) Stereo camera device
EP4299418A1 (en) Sensor system and method for determining an articulation angle of a vehicle with a trailer
EP2919191A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150