[go: up one dir, main page]

JP7514139B2 - Outside environment recognition device - Google Patents

Outside environment recognition device Download PDF

Info

Publication number
JP7514139B2
JP7514139B2 JP2020135392A JP2020135392A JP7514139B2 JP 7514139 B2 JP7514139 B2 JP 7514139B2 JP 2020135392 A JP2020135392 A JP 2020135392A JP 2020135392 A JP2020135392 A JP 2020135392A JP 7514139 B2 JP7514139 B2 JP 7514139B2
Authority
JP
Japan
Prior art keywords
width
overlap
dimensional object
threshold value
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020135392A
Other languages
Japanese (ja)
Other versions
JP2021140723A (en
Inventor
稔 倉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to US17/143,748 priority Critical patent/US11842552B2/en
Priority to CN202110022897.8A priority patent/CN113361310A/en
Publication of JP2021140723A publication Critical patent/JP2021140723A/en
Application granted granted Critical
Publication of JP7514139B2 publication Critical patent/JP7514139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両の進行方向に存在する特定物を特定する車外環境認識装置に関する。 The present invention relates to an external environment recognition device that identifies specific objects that exist in the traveling direction of the vehicle.

従来、特許文献1のように、自車両の前方に位置する先行車両を検出し、先行車両との衝突による被害を軽減したり、先行車両との車間距離を安全な距離に保つように追従制御する技術が知られている。 Conventionally, there is known a technology, such as that described in Patent Document 1, that detects a preceding vehicle located in front of the vehicle and performs tracking control to reduce damage caused by a collision with the preceding vehicle and to maintain a safe distance between the vehicle and the preceding vehicle.

特許第3349060号公報Japanese Patent No. 3349060

自車両と先行車両との衝突被害を軽減したり、自車両を先行車両に追従させる追従制御を実現するためには、まず、自車両周辺に位置する立体物が車両等の特定物であるか否か判断しなくてはならない。例えば、撮像部で撮像した輝度画像内における立体物の形状を認識して先行車両と判定したり、距離画像内における立体物の相対距離や速度を認識して先行車両と判定していた。 In order to reduce the damage caused by a collision between the vehicle and the vehicle ahead, or to achieve tracking control to make the vehicle follow the vehicle ahead, it is first necessary to determine whether a three-dimensional object located around the vehicle is a specific object such as a vehicle. For example, a three-dimensional object is determined to be a leading vehicle by recognizing the shape of the object in a brightness image captured by an imaging unit, or the relative distance and speed of the object in a distance image.

しかし、立体物が自車両から遠方に位置している場合、画像中における立体物自体が占有する面積が小さくなるので、輝度画像における形状や距離画像における相対距離が揺らぎ、特定物の判定精度の低下を招いていた。 However, when a three-dimensional object is located far away from the vehicle, the area that the object itself occupies in the image becomes smaller, causing fluctuations in the shape in the brightness image and the relative distance in the distance image, resulting in a decrease in the accuracy of identifying specific objects.

本発明は、このような課題に鑑み、特定物の判定精度を向上することが可能な、車外環境認識装置を提供することを目的としている。 In view of these problems, the present invention aims to provide an exterior environment recognition device that can improve the accuracy of determining specific objects.

上記課題を解決するために、本発明の車外環境認識装置は、撮像対象の輝度を特定可能な輝度画像に基づいて第1立体物の第1幅を導出する第1幅導出部と、撮像対象の距離を特定可能な距離画像に基づいて第2立体物の第2幅を導出する第2幅導出部と、第1幅と第2幅とが水平方向において重複する重複幅を求め、重複幅/第1幅、および、重複幅/第2幅のうち大きい方を重複度とする重複度導出部と、重複度が所定の閾値以上であれば、第1立体物と第2立体物とを同一の特定物と判定する特定物判定部と、を備える。 To solve the above problem, the vehicle exterior environment recognition device of the present invention includes a first width derivation unit that derives a first width of a first three-dimensional object based on a luminance image that can identify the luminance of an imaged object, a second width derivation unit that derives a second width of a second three-dimensional object based on a distance image that can identify the distance of the imaged object, an overlap degree derivation unit that determines an overlap width where the first width and the second width overlap in the horizontal direction and determines the overlap degree as the larger of the overlap width/first width and the overlap width/second width, and a specific object determination unit that determines that the first three-dimensional object and the second three-dimensional object are the same specific object if the overlap degree is equal to or greater than a predetermined threshold value.

特定物判定部は、同一の特定物と判定した重複度に対する閾値を下げるとしてもよい。 The specific object determination unit may lower the threshold for the degree of overlap when determining that the specific objects are the same.

特定物判定部は、重複度に対する閾値を下げた後、同一の特定物ではないと判定した重複度に対する閾値を上げるとしてもよい。 The specific object determination unit may lower the threshold for the degree of overlap, and then raise the threshold for the degree of overlap that is determined not to be the same specific object.

特定物判定部は、同一の特定物と判定した回数に応じて重複度に対する閾値を段階的に変化させるとしてもよい。 The specific object determination unit may gradually change the threshold for the degree of overlap depending on the number of times the specific object is determined to be the same.

特定物判定部は、ワイパーの作動有無に応じて閾値を変化させるとしてもよい。 The specific object determination unit may change the threshold value depending on whether the wipers are operating.

特定物判定部は、自車両の速度に応じて閾値を変化させるとしてもよい。 The specific object determination unit may change the threshold value depending on the speed of the vehicle.

本発明によれば、特定物の判定精度を向上することが可能となる。 The present invention makes it possible to improve the accuracy of determining specific objects.

図1は、車外環境認識システムの接続関係を示したブロック図である。FIG. 1 is a block diagram showing the connections of the exterior environment recognition system. 図2は、車外環境認識装置の概略的な機能を示した機能ブロック図である。FIG. 2 is a functional block diagram showing a schematic function of the vehicle exterior environment recognition device. 図3は、車外環境認識方法の流れを示すフローチャートである。FIG. 3 is a flowchart showing the flow of the vehicle exterior environment recognition method. 図4は、輝度画像および距離画像を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining a luminance image and a distance image. 図5は、重複度を説明するための説明図である。FIG. 5 is a diagram illustrating the overlapping degree. 図6は、特定物判定部で参照される閾値の求め方を説明するためのグラフである。FIG. 6 is a graph for explaining how to obtain a threshold value referred to by the specific object determination unit. 図7は、閾値の変化態様を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining a change in the threshold value. 図8は、閾値の変化態様を説明するための説明図である。FIG. 8 is an explanatory diagram for explaining a change in the threshold value.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 The preferred embodiment of the present invention will be described in detail below with reference to the attached drawings. The dimensions, materials, and other specific values shown in the embodiment are merely examples to facilitate understanding of the invention, and do not limit the present invention unless otherwise specified. In this specification and drawings, elements having substantially the same functions and configurations are given the same reference numerals to avoid duplicated explanations, and elements not directly related to the present invention are not illustrated.

(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、撮像装置110と、車外環境認識装置120と、車両制御装置130とを含む。
(Exterior environment recognition system 100)
1 is a block diagram showing connections in a vehicle exterior environment recognition system 100. The vehicle exterior environment recognition system 100 includes an imaging device 110, an exterior environment recognition device 120, and a vehicle control device 130.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成することができる。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。 The imaging device 110 is configured to include imaging elements such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and can capture an image of the external environment in front of the vehicle 1 and generate a luminance image (color image or monochrome image) that contains at least luminance information. The imaging devices 110 are arranged in the direction of travel of the vehicle 1, spaced apart in the approximately horizontal direction so that the optical axes of the two imaging devices 110 are approximately parallel. The imaging device 110 continuously generates luminance images of three-dimensional objects present in the detection area in front of the vehicle 1, for example, at every 1/60th of a second frame (60 fps).

また、車外環境認識装置120は、撮像装置110から取得した輝度画像や、2の輝度画像に基づく距離画像を通じて車外の境を認識する。そして、車外環境認識装置120は、認識した車外環境と、自車両1の走行状況とに基づいて、自車両1の走行における速度制御や舵角制御を行う。車外環境認識装置120については後程詳述する。 In addition, the vehicle exterior environment recognition device 120 recognizes the environment outside the vehicle through the brightness image acquired from the imaging device 110 and a distance image based on the brightness image 2. The vehicle exterior environment recognition device 120 then performs speed control and steering angle control during the traveling of the vehicle 1 based on the recognized vehicle exterior environment and the traveling conditions of the vehicle 1. The vehicle exterior environment recognition device 120 will be described in detail later.

車両制御装置130は、ECU(Electronic Control Unit)で構成され、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、車軸に設けられた速度センサ138を参照し、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。また、雨天時の走行において、車両制御装置130は、運転手の操作に応じ、自車両1のフロントガラスおよびリアガラスの汚れや不純物を拭き取るワイパー148を動作させる。 The vehicle control device 130 is composed of an ECU (Electronic Control Unit) and receives operational inputs from the driver via the steering wheel 132, accelerator pedal 134, and brake pedal 136, and controls the host vehicle 1 by referring to a speed sensor 138 mounted on the axle and transmitting the inputs to the steering mechanism 142, drive mechanism 144, and braking mechanism 146. The vehicle control device 130 also controls the steering mechanism 142, drive mechanism 144, and braking mechanism 146 according to instructions from the exterior environment recognition device 120. When driving in the rain, the vehicle control device 130 also operates wipers 148 that wipe away dirt and impurities from the front and rear windows of the host vehicle 1 in response to the driver's operation.

(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Exterior environment recognition device 120)
2 is a functional block diagram showing the schematic functions of the vehicle exterior environment recognition device 120. As shown in FIG. 2, the vehicle exterior environment recognition device 120 includes an I/F unit 150, a data storage unit 152, and a central control unit 154.

I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。 The I/F unit 150 is an interface for two-way information exchange with the imaging device 110 and the vehicle control device 130. The data storage unit 152 is composed of RAM, flash memory, HDD, etc., and stores various information required for the processing of each functional unit shown below.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像取得部160、距離画像生成部162、立体物特定部163、第1幅導出部164、第2幅導出部166、重複度導出部168、特定物判定部170としても機能する。以下、本実施形態に特徴的な、自車両1前方の立体物を抽出し、先行車両等の特定物を判定する車外環境認識方法について、当該中央制御部154の各機能部の動作も踏まえて詳述する。 The central control unit 154 is composed of a semiconductor integrated circuit including a central processing unit (CPU), a ROM in which programs and the like are stored, a RAM as a work area, and the like, and controls the I/F unit 150, the data storage unit 152, and the like through a system bus 156. In this embodiment, the central control unit 154 also functions as an image acquisition unit 160, a distance image generation unit 162, a three-dimensional object identification unit 163, a first width derivation unit 164, a second width derivation unit 166, an overlap derivation unit 168, and a specific object determination unit 170. Below, the external environment recognition method characteristic of this embodiment, which extracts a three-dimensional object in front of the vehicle 1 and determines a specific object such as a preceding vehicle, will be described in detail, taking into account the operation of each functional unit of the central control unit 154.

(車外環境認識方法)
図3は、車外環境認識方法の流れを示すフローチャートである。車外環境認識装置120は、所定の割込時間毎に当該車外環境認識方法を実行する。車外環境認識方法では、まず、画像取得部160が、複数の輝度画像を取得する(S200)。距離画像生成部162が、距離画像を生成する(S202)。立体物特定部163が、立体物を特定する(S203)。第1幅導出部164が、撮像対象の輝度を特定可能な輝度画像に基づいて第1立体物の第1幅を導出する(S204)。第2幅導出部166が、撮像対象の距離を特定可能な距離画像に基づいて第2立体物の第2幅を導出する(S206)。重複度導出部168が、第1幅と第2幅とが画像水平方向において重複する領域の幅である重複幅を求める。そして、重複度導出部168は、重複幅/第1幅、および、重複幅/第2幅のうち大きい方を重複度とする(S208)。特定物判定部170が、重複度が所定の閾値以上であれば、第1立体物と第2立体物とを同一の特定物と判定する(S210)。以下、車外環境認識方法の各処理について詳細に説明し、本実施形態の特徴と無関係な処理については説明を省略する。なお、本実施形態において「/」は除算を意味し、例えば、重複幅/第1幅は、重複幅を第1幅で除算することを示す。
(Method of recognizing the external environment)
FIG. 3 is a flowchart showing the flow of the vehicle exterior environment recognition method. The vehicle exterior environment recognition device 120 executes the vehicle exterior environment recognition method at each predetermined interruption time. In the vehicle exterior environment recognition method, first, the image acquisition unit 160 acquires a plurality of luminance images (S200). The distance image generation unit 162 generates a distance image (S202). The three-dimensional object identification unit 163 identifies a three-dimensional object (S203). The first width derivation unit 164 derives a first width of the first three-dimensional object based on a luminance image capable of identifying the luminance of the imaging target (S204). The second width derivation unit 166 derives a second width of the second three-dimensional object based on a distance image capable of identifying the distance of the imaging target (S206). The overlap degree derivation unit 168 calculates an overlap width, which is the width of an area where the first width and the second width overlap in the horizontal direction of the image. Then, the overlapping degree derivation unit 168 determines the overlapping degree to be the larger of the overlapping width/first width and the overlapping width/second width (S208). If the overlapping degree is equal to or greater than a predetermined threshold, the specific object determination unit 170 determines that the first three-dimensional object and the second three-dimensional object are the same specific object (S210). Each process of the vehicle exterior environment recognition method will be described in detail below, and a description of processes unrelated to the features of this embodiment will be omitted. In this embodiment, "/" means division, and for example, overlapping width/first width indicates that the overlapping width is divided by the first width.

(画像取得処理S200)
図4(図4A~図4C)は、輝度画像および距離画像を説明するための説明図である。画像取得部160は、撮像装置110で光軸を異として撮像された複数(ここでは2)の輝度画像をそれぞれ取得する。ここで、画像取得部160は、輝度画像180として、図4Aに示す、自車両1の比較的右側に位置する撮像装置110で撮像された第1輝度画像180aと、図4Bに示す、自車両1の比較的左側に位置する撮像装置110で撮像された第2輝度画像180bとを取得したとする。
(Image acquisition process S200)
4 (FIGS. 4A to 4C) are explanatory diagrams for explaining a luminance image and a distance image. The image acquisition unit 160 acquires a plurality of (here, two) luminance images captured by the imaging device 110 with different optical axes. Here, it is assumed that the image acquisition unit 160 acquires, as the luminance image 180, a first luminance image 180a captured by the imaging device 110 located relatively to the right of the vehicle 1 as shown in FIG. 4A, and a second luminance image 180b captured by the imaging device 110 located relatively to the left of the vehicle 1 as shown in FIG. 4B.

図4を参照すると、撮像装置110の撮像位置の違いから、第1輝度画像180aと第2輝度画像180bとで、画像に含まれる立体物の画像位置が水平方向に異なるのが理解できる。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。 With reference to FIG. 4, it can be seen that the image positions of the three-dimensional objects included in the first luminance image 180a and the second luminance image 180b differ in the horizontal direction due to differences in the imaging position of the imaging device 110. Here, horizontal refers to the horizontal direction of the screen of the captured image, and vertical refers to the vertical direction of the screen of the captured image.

(距離画像生成処理S202)
距離画像生成部162は、画像取得部160が取得した、図4Aに示す第1輝度画像180aと、図4Bに示す第2輝度画像180bとに基づいて、図4Cのような、撮像対象の距離を特定可能な距離画像182を生成する。
(Distance image generation process S202)
The distance image generation unit 162 generates a distance image 182, as shown in FIG. 4C, capable of identifying the distance to the imaging subject, based on the first luminance image 180a shown in FIG. 4A and the second luminance image 180b shown in FIG. 4B, acquired by the image acquisition unit 160.

具体的に、距離画像生成部162は、所謂パターンマッチングを用いて視差、および、任意のブロックの画像内の位置を示す画像位置を含む視差情報を導出する。具体的に、一方の輝度画像(ここでは第1輝度画像180a)から任意に抽出したブロックに対応するブロックを他方の輝度画像(ここでは第2輝度画像180b)から検索する。ここで、ブロックは、例えば、水平4画素×垂直4画素の配列で表される。また、パターンマッチングは、一方の輝度画像から任意に抽出したブロックに対応するブロックを他方の輝度画像から検索する手法である。 Specifically, the distance image generating unit 162 derives disparity information including disparity and an image position indicating the position of an arbitrary block in an image by using so-called pattern matching. Specifically, a block corresponding to a block arbitrarily extracted from one luminance image (here, first luminance image 180a) is searched for in the other luminance image (here, second luminance image 180b). Here, the block is represented, for example, by an array of 4 pixels horizontally by 4 pixels vertically. Also, pattern matching is a technique for searching for a block corresponding to a block arbitrarily extracted from one luminance image in the other luminance image.

例えば、パターンマッチングにおけるブロック間の一致度を評価する関数として、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。 For example, functions for evaluating the degree of agreement between blocks in pattern matching include SAD (Sum of Absolute Difference), which takes the difference in luminance, SSD (Sum of Squared Intensity Difference), which uses the squared difference, and NCC (Normalized Cross Correlation), which takes the similarity of the variance value obtained by subtracting the average value from the luminance of each pixel.

距離画像生成部162は、このようなブロック単位の視差導出処理を、例えば、600画素×200画素の検出領域に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。 The distance image generating unit 162 performs this type of block-based parallax derivation processing for all blocks displayed in a detection area of, for example, 600 pixels x 200 pixels. Here, the blocks are 4 pixels x 4 pixels, but the number of pixels in a block can be set arbitrarily.

ただし、距離画像生成部162は、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような立体物の一部であるかを認識できない。したがって、視差情報は、立体物単位ではなく、検出領域における検出分解能単位、例えばブロック単位で独立して導出されることとなる。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。 However, although the distance image generating unit 162 can derive the parallax for each block, which is the detection resolution unit, it cannot recognize what kind of three-dimensional object the block is a part of. Therefore, the parallax information is derived independently for each detection resolution unit in the detection area, for example, for each block, rather than for each three-dimensional object. Here, for ease of explanation, the blocks from which the parallax is derived are represented by black dots.

距離画像生成部162は、距離画像182におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換し、相対距離を導出する。ここで、ステレオ法は、三角測量法を用いることで、ブロックの視差からそのブロックの撮像装置110に対する相対距離を導出する方法である。 The distance image generating unit 162 converts the parallax information for each block in the distance image 182 into three-dimensional position information using a so-called stereo method, and derives the relative distance. Here, the stereo method is a method of deriving the relative distance of a block to the imaging device 110 from the parallax of that block by using a triangulation method.

車外環境認識装置120では、このように導出された輝度画像180および距離画像182を通じて車外環境を認識し、例えば、自車両1より前方の立体物を、先行車両等の特定物と判定する。しかし、図4Aにおける立体物184、および、図4Cにおける立体物186が自車両1から遠方に位置している場合、画像中における立体物自体が占有する面積が小さく、輝度画像180における形状や距離画像182における相対距離が揺らぐので、特定物の判定精度の低下を招いていた。そこで、輝度画像180および距離画像182それぞれで特定された立体物同士が重複する重複度を導出し、その重複度に応じて両立体物が同一の特定物であるか否か判定する。 The vehicle exterior environment recognition device 120 recognizes the vehicle exterior environment through the brightness image 180 and distance image 182 derived in this manner, and for example, determines that a three-dimensional object ahead of the vehicle 1 is a specific object such as a leading vehicle. However, when the three-dimensional object 184 in FIG. 4A and the three-dimensional object 186 in FIG. 4C are located far from the vehicle 1, the area occupied by the three-dimensional object itself in the image is small, and the shape in the brightness image 180 and the relative distance in the distance image 182 fluctuate, resulting in a decrease in the accuracy of determining the specific object. Therefore, the degree of overlap between the three-dimensional objects identified in the brightness image 180 and the distance image 182 is derived, and it is determined whether the two three-dimensional objects are the same specific object according to the degree of overlap.

(立体物特定処理S203)
立体物特定部163は、まず、自車両1前方の路面を特定する。そして、立体物特定部163は、特定した路面の鉛直上方に高さを有する立体物を特定する。具体的に、立体物特定部163は、路面からの高さが所定距離(例えば0.3m)以上に位置するブロックを、路面から高さ方向に突出している立体物の候補とする。立体物特定部163は、路面の鉛直上方に高さを有する立体物の候補とされた複数のブロックのうち、自車両1との相対距離が等しいブロックをグループ化し、立体物として特定する。
(Three-dimensional object identification process S203)
The three-dimensional object identification unit 163 first identifies the road surface in front of the vehicle 1. Then, the three-dimensional object identification unit 163 identifies a three-dimensional object having a height vertically above the identified road surface. Specifically, the three-dimensional object identification unit 163 identifies blocks located at a height from the road surface that is a predetermined distance (e.g., 0.3 m) or more as candidates for a three-dimensional object protruding in the height direction from the road surface. Among the multiple blocks that are candidates for a three-dimensional object having a height vertically above the road surface, the three-dimensional object identification unit 163 groups blocks that are at the same relative distance from the vehicle 1, and identifies them as three-dimensional objects.

(第1幅導出処理S204)
第1幅導出部164は、2つの輝度画像180のうちいずれか一方、例えば、第1輝度画像180a中の所定の立体物184(第1立体物)の水平方向の幅である第1幅を導出する。第1幅は、例えば、ピクセル数や距離の換算値で表される。
(First width derivation process S204)
The first width derivation unit 164 derives a first width, which is the horizontal width of a predetermined three-dimensional object 184 (first three-dimensional object) in one of the two luminance images 180, for example, the first luminance image 180a. The first width is expressed, for example, by the number of pixels or a converted value of distance.

なお、輝度画像180から立体物を抽出する際には機械学習技術が用いられる。例えば、輝度画像180のエッジパターンおよび時間的変化を入力とし、一体形成されているとみなすことができる立体物を出力する。かかる機械学習技術は、既存の様々な技術を適用できるので、ここでは、その詳細な説明を省略する。 Note that machine learning technology is used to extract three-dimensional objects from the brightness image 180. For example, the edge pattern and temporal changes of the brightness image 180 are input, and a three-dimensional object that can be considered to be integrally formed is output. Since various existing technologies can be applied to such machine learning technology, a detailed description thereof will be omitted here.

(第2幅導出処理S206)
第2幅導出部166は、距離画像182中の所定の立体物186(第2立体物)の水平方向の幅である第2幅を導出する。第2幅は、例えば、ピクセル数や距離の換算値で表される。
(Second width derivation process S206)
The second width derivation unit 166 derives a second width, which is the horizontal width of a predetermined three-dimensional object 186 (second three-dimensional object) in the distance image 182. The second width is expressed, for example, by the number of pixels or a converted value of distance.

ここでは、第1幅導出部164および第2幅導出部166のいずれもが、立体物184、186の水平方向の幅を導出している。これは以下の理由による。自車両1は、道路の凹凸により、ピッチ方向およびロール方向に揺動するおそれがある。一方、ヨー方向は、ピッチ方向およびロール方向ほど揺動しない。したがって、安定したヨー方向に相当する水平方向の幅を対象とすることで、特定物の判定精度を向上することができる。なお、平坦な道路では、ヨー方向に相当する水平方向の幅に代えて、または、加えて、ピッチ方向に相当する垂直方向の幅を対象とすることができるのは言うまでもない。 Here, both the first width derivation unit 164 and the second width derivation unit 166 derive the horizontal width of the three-dimensional objects 184, 186. This is for the following reason. The vehicle 1 may sway in the pitch and roll directions due to unevenness in the road. On the other hand, the yaw direction does not sway as much as the pitch and roll directions. Therefore, by targeting the horizontal width corresponding to the stable yaw direction, it is possible to improve the accuracy of determining a specific object. It goes without saying that on a flat road, the vertical width corresponding to the pitch direction can be targeted instead of or in addition to the horizontal width corresponding to the yaw direction.

(重複度導出処理S208)
図5(図5A~図5F)は、重複度を説明するための説明図である。重複度導出部168は、まず、第1幅導出部164が導出した第1幅190と、第2幅導出部166が導出した第2幅192とを取得し、第1幅と第2幅とが画像水平方向において重複する領域の幅である重複幅194を導出する。
(Overlap derivation process S208)
5 (FIGS. 5A to 5F) are diagrams for explaining the overlap degree. The overlap degree derivation unit 168 first obtains the first width 190 derived by the first width derivation unit 164 and the second width 192 derived by the second width derivation unit 166, and derives an overlap width 194, which is the width of the area where the first width and the second width overlap in the horizontal direction of the image.

図5A~図5Cでは、立体物184の第1幅190の方が、立体物186の第2幅192より長い。図5Aでは、水平方向において立体物186が立体物184に含まれている。したがって、重複幅194は、第2幅192と等しくなる。図5Bでは、水平方向において立体物184と立体物186とのそれぞれ一部が重複している。したがって、重複幅194は、第1幅190および第2幅192より短くなる。図5Cでは、水平方向において立体物184と立体物186とが重複していない。したがって、重複幅194は0となる。 In Figures 5A to 5C, the first width 190 of the three-dimensional object 184 is longer than the second width 192 of the three-dimensional object 186. In Figure 5A, the three-dimensional object 186 is included in the three-dimensional object 184 in the horizontal direction. Therefore, the overlap width 194 is equal to the second width 192. In Figure 5B, the three-dimensional object 184 and the three-dimensional object 186 each partially overlap in the horizontal direction. Therefore, the overlap width 194 is shorter than the first width 190 and the second width 192. In Figure 5C, the three-dimensional object 184 and the three-dimensional object 186 do not overlap in the horizontal direction. Therefore, the overlap width 194 is 0.

図5D~図5Fでは、立体物184の第1幅190の方が、立体物186の第2幅192より短い。図5Dでは、水平方向において立体物184が立体物186に含まれている。したがって、重複幅194は、第1幅190と等しくなる。図5Eでは、水平方向において立体物184と立体物186とのそれぞれ一部が重複している。したがって、重複幅194は、第1幅190および第2幅192より短くなる。図5Fでは、水平方向において立体物184と立体物186とが重複していない。したがって、重複幅194は0となる。 In Figures 5D to 5F, the first width 190 of the three-dimensional object 184 is shorter than the second width 192 of the three-dimensional object 186. In Figure 5D, the three-dimensional object 184 is included in the three-dimensional object 186 in the horizontal direction. Therefore, the overlap width 194 is equal to the first width 190. In Figure 5E, the three-dimensional object 184 and the three-dimensional object 186 each partially overlap in the horizontal direction. Therefore, the overlap width 194 is shorter than the first width 190 and the second width 192. In Figure 5F, the three-dimensional object 184 and the three-dimensional object 186 do not overlap in the horizontal direction. Therefore, the overlap width 194 is 0.

続いて、重複度導出部168は、重複幅が0以外の値を示す場合、すなわち、少なくとも重複していると判定した場合、重複幅194/第1幅190、および、重複幅194/第2幅192を導出し、重複幅194/第1幅190、および、重複幅194/第2幅192のうち大きい方を重複度とする。 Next, when the overlap width indicates a value other than 0, i.e., when it is determined that there is at least an overlap, the overlap derivation unit 168 derives the overlap width 194/first width 190 and the overlap width 194/second width 192, and determines the overlap width to be the larger of the overlap width 194/first width 190 and the overlap width 194/second width 192.

図5Aの例では、重複幅194/第1幅190<重複幅194/第2幅192なので、重複度は重複幅194/第2幅192(=1)となる。図5Bの例では、重複幅194/第1幅190<重複幅194/第2幅192なので、重複度は重複幅194/第2幅192となる。図5Cの例では、重複幅194が0なので、すなわち、重複していないので、重複度も0となる。 In the example of FIG. 5A, overlap width 194/first width 190<overlap width 194/second width 192, so the overlap degree is overlap width 194/second width 192 (=1). In the example of FIG. 5B, overlap width 194/first width 190<overlap width 194/second width 192, so the overlap degree is overlap width 194/second width 192. In the example of FIG. 5C, overlap width 194 is 0, meaning there is no overlap, so the overlap degree is also 0.

図5Dの例では、重複幅194/第1幅190>重複幅194/第2幅192なので、重複度は重複幅194/第1幅190(=1)となる。図5Eの例では、重複幅194/第1幅190>重複幅194/第2幅192なので、重複度は重複幅194/第1幅190となる。図5Fの例では、重複幅194が0なので、すなわち、重複していないので、重複度も0となる。 In the example of FIG. 5D, overlap width 194/first width 190>overlap width 194/second width 192, so the overlap degree is overlap width 194/first width 190 (=1). In the example of FIG. 5E, overlap width 194/first width 190>overlap width 194/second width 192, so the overlap degree is overlap width 194/first width 190. In the example of FIG. 5F, overlap width 194 is 0, meaning there is no overlap, so the overlap degree is also 0.

(特定物判定処理S210)
特定物判定部170は、閾値を参照して、立体物184と立体物186とが同一の特定物であるか否か判定する。
(Specific object determination process S210)
The specific object determination unit 170 refers to a threshold value to determine whether the three-dimensional object 184 and the three-dimensional object 186 are the same specific object.

図6は、特定物判定部170で参照される閾値の求め方を説明するためのグラフである。図6のグラフにおける横軸は相対距離を示し、縦軸は重複度を示す。ここで、重複度は0~1の範囲で表される。かかる重複度グラフは予め準備される。 Figure 6 is a graph to explain how to determine the threshold value referenced by the specific object determination unit 170. The horizontal axis of the graph in Figure 6 indicates the relative distance, and the vertical axis indicates the degree of overlap. Here, the degree of overlap is expressed in the range from 0 to 1. Such an overlap graph is prepared in advance.

例えば、自車両1が、事前に、所定の地域において走行し、その間に抽出した複数の立体物のうち車両に相当する特定物のみを特定して、その相対距離と重複度の実測値をプロットする。そうすると、図6の点群を得ることができる。ここでは、相対距離が長くなる程、重複度として小さい値が生じることが理解できる。図6において、全ての相対距離における点群の下限値以下となる直線が生成される。かかる直線が閾値196となる。したがって、閾値196は、相対距離の一次関数として表すことができる。なお、全ての相対距離における点群の下限値以下であれば、閾値196は、直線に限らず曲線、すなわち複数次の関数で表されてもよい。なお、ここでは、自車両1自体が、相対距離と重複度の実測値をプロットする例を挙げて説明したが、かかる場合に限らず、他の車両でプロットした相対距離と重複度の実測値を自車両1に反映するとしてもよい。 For example, the vehicle 1 travels in advance in a specified area, and among the multiple three-dimensional objects extracted during that time, only the specific object corresponding to the vehicle is identified, and the actual measured values of the relative distance and overlap are plotted. In this way, the point cloud of FIG. 6 can be obtained. It can be seen that the longer the relative distance, the smaller the overlap value. In FIG. 6, a straight line that is equal to or smaller than the lower limit value of the point cloud at all relative distances is generated. This straight line becomes the threshold 196. Therefore, the threshold 196 can be expressed as a linear function of the relative distance. Note that, as long as the threshold 196 is equal to or smaller than the lower limit value of the point cloud at all relative distances, it may be expressed as a curve, that is, a multi-order function, rather than as a straight line. Note that, here, an example in which the vehicle 1 itself plots the actual measured values of the relative distance and overlap is given, but this is not limited to such a case, and the actual measured values of the relative distance and overlap plotted by another vehicle may be reflected on the vehicle 1.

特定物判定部170は、このようにして準備された閾値196を参照し、重複度導出部168が導出した立体物184と立体物186とが位置する相対距離における立体物184と立体物186との重複度が閾値196以上であれば、立体物184と立体物186とが同一の特定物であると判定する。 The specific object determination unit 170 refers to the threshold value 196 thus prepared, and if the overlap between the three-dimensional object 184 and the three-dimensional object 186 at the relative distance at which the three-dimensional object 184 and the three-dimensional object 186 are located, derived by the overlap derivation unit 168, is equal to or greater than the threshold value 196, it determines that the three-dimensional object 184 and the three-dimensional object 186 are the same specific object.

ここでは、立体物184と立体物186とが同一の特定物であることを厳格に判定するために、閾値196として高い値を採用している。しかし、立体物184と立体物186とが同一の特定物であると判定した後にまで、閾値196を高くする必要はない。そこで、ヒステリシス機能を設け、一旦、同一の特定物と判定されれば、重複度が多少低下しても、同一の特定物として判定し続けられるようにする。 Here, a high value is used as the threshold value 196 in order to strictly determine that the three-dimensional object 184 and the three-dimensional object 186 are the same specified object. However, it is not necessary to set the threshold value 196 high until it has been determined that the three-dimensional object 184 and the three-dimensional object 186 are the same specified object. Therefore, a hysteresis function is provided so that once it has been determined that the three-dimensional object is the same specified object, it can continue to be determined that the three-dimensional object is the same specified object even if the degree of overlap decreases slightly.

図7、図8は、閾値196の変化態様を説明するための説明図である。具体的に、特定物判定部170は、立体物184と立体物186とを同一の特定物と判定すると、その立体物184と立体物186との重複度を比較する閾値196を、例えば、図7において破線で示した閾値196aから、一点鎖線で示した閾値196bに下げる。 7 and 8 are explanatory diagrams for explaining the change in threshold value 196. Specifically, when specific object determination unit 170 determines that three-dimensional object 184 and three-dimensional object 186 are the same specific object, threshold value 196 for comparing the overlapping degree between three-dimensional object 184 and three-dimensional object 186 is lowered, for example, from threshold value 196a shown by the dashed line in FIG. 7 to threshold value 196b shown by the dashed line.

こうして、同一の特定物と判定された立体物184と立体物186との重複度が閾値196a近傍で揺動したとしても、少なくとも閾値196b以上となるので、その後も継続して同一の特定物と判定され易くなる。したがって、安定して特定物を判定することが可能となる。 Thus, even if the overlap between three-dimensional object 184 and three-dimensional object 186, which have been determined to be the same specified object, fluctuates near threshold value 196a, it will be at least equal to or greater than threshold value 196b, so it will be easier to continue to determine them as the same specified object thereafter. Therefore, it is possible to stably determine a specified object.

なお、特定物判定部170は、連続して同一の特定物と判定した回数を計数する。そして、特定物判定部170は、同一の特定物と判定した回数に応じて重複度に対する閾値196を、図7において破線で示した閾値196a→一点鎖線で示した閾値196b→実線で示した閾値196cといったように予め準備された複数段階の閾値を段階的に下げてもよい。 The specific object determination unit 170 counts the number of consecutive times that it has determined that the specific object is the same. Then, the specific object determination unit 170 may gradually lower the threshold value 196 for the degree of overlap according to the number of times that it has determined that the specific object is the same, through multiple threshold values that have been prepared in advance, such as threshold value 196a shown by the dashed line in FIG. 7 → threshold value 196b shown by the dashed line → threshold value 196c shown by the solid line.

具体的に、閾値196aにより、所定回数(例えば、10回)、同一の特定物と判定されると、特定物判定部170は、同一の特定物と判定された立体物184と立体物186との重複度に対する閾値196を、例えば、図7の閾値196aから閾値196bに下げる。さらに、閾値196bにより、所定回数(例えば、10回)、同一の特定物と判定されると、特定物判定部170は、同一の特定物と判定された立体物184と立体物186との重複度に対する閾値196を、例えば、図7の閾値196bから閾値196cに下げる。 Specifically, when the specified object is determined to be the same a predetermined number of times (e.g., 10 times) based on threshold value 196a, the specified object determination unit 170 lowers the threshold value 196 for the overlap between three-dimensional object 184 and three-dimensional object 186 determined to be the same specified object from threshold value 196a in FIG. 7 to threshold value 196b, for example. Furthermore, when the specified object is determined to be the same specified object a predetermined number of times (e.g., 10 times) based on threshold value 196b, the specified object determination unit 170 lowers the threshold value 196 for the overlap between three-dimensional object 184 and three-dimensional object 186 determined to be the same specified object from threshold value 196b in FIG. 7 to threshold value 196c, for example.

こうして、立体物184と立体物186とが、同一の特定物と判定されると、閾値196が段階的に低くなり、その後も継続して同一の特定物と判定され易くなる。したがって、より安定して特定物を判定することが可能となる。 In this way, when three-dimensional object 184 and three-dimensional object 186 are determined to be the same specified object, threshold value 196 is gradually lowered, making it easier for them to continue to be determined to be the same specified object thereafter. Therefore, it becomes possible to more stably determine the specified object.

また、閾値196が下げられているにも拘わらず、重複度が閾値196未満となり、立体物184と立体物186とが同一の特定物ではないと判定されれば、最早、その閾値196を維持すべきではない。そこで、同一の特定物と判定されなくなった場合にもヒステリシス機能を設け、一旦、同一の特定物ではないと判定され、重複度が高まらなければ、同一の特定物として判定しないこととする。 Furthermore, even if threshold value 196 has been lowered, if the degree of overlap falls below threshold value 196 and it is determined that three-dimensional object 184 and three-dimensional object 186 are not the same specified object, then threshold value 196 should no longer be maintained. Therefore, even when it is no longer determined that they are the same specified object, a hysteresis function is provided, so that once it is determined that they are not the same specified object, they will not be determined to be the same specified object unless the degree of overlap increases.

具体的に、特定物判定部170は、閾値196が図8において実線で示した閾値196cであった場合に、立体物184と立体物186とを同一の特定物ではないと判定すると、その立体物184と立体物186との重複度を比較する閾値196を、例えば、閾値196cから、図8において一点鎖線で示した閾値196bに上げる。 Specifically, when the threshold value 196 is threshold value 196c shown by a solid line in FIG. 8, if the specific object determination unit 170 determines that the three-dimensional object 184 and the three-dimensional object 186 are not the same specific object, the threshold value 196 for comparing the overlapping degree between the three-dimensional object 184 and the three-dimensional object 186 is increased, for example, from threshold value 196c to threshold value 196b shown by a dashed line in FIG. 8.

こうして、同一の特定物ではないと判定された立体物184と立体物186との重複度が閾値196c以上となったとしても、少なくとも閾値196b以上となるまで、同一の特定物と判定され難くなる。したがって、特定物ではない立体物を安定して排除できる。 In this way, even if the overlap between three-dimensional object 184 and three-dimensional object 186, which have been determined not to be the same specific object, exceeds threshold value 196c, they are unlikely to be determined to be the same specific object until they exceed threshold value 196b. Therefore, three-dimensional objects that are not specific objects can be stably eliminated.

なお、特定物判定部170は、同一の特定物ではないと判定した回数に応じて重複度に対する閾値196を、図8において実線で示した閾値196c→一点鎖線で示した閾値196b→破線で示した閾値196aといったように段階的に上げてもよい。 The specific object determination unit 170 may increase the threshold value 196 for the degree of overlap in stages according to the number of times it has determined that the specific objects are not the same, such as from threshold value 196c shown by the solid line in FIG. 8 to threshold value 196b shown by the dashed line to threshold value 196a shown by the dotted line.

同一の特定物と判定された立体物184と立体物186が、閾値196cにより、所定回数(例えば、10回)、同一の特定物ではないと判定されると、特定物判定部170は、同一の特定物と判定された立体物184と立体物186との重複度に対する閾値196を、例えば、図8の閾値196cから閾値196bに上げる。さらに、閾値196bにより、所定回数(例えば、10回)、同一の特定物ではないと判定されると、特定物判定部170は、同一の特定物と判定された立体物184と立体物186との重複度に対する閾値196を、例えば、図8の閾値196bから閾値196aに上げる。 When the three-dimensional object 184 and the three-dimensional object 186 that have been determined to be the same specified object are determined not to be the same specified object a predetermined number of times (e.g., 10 times) by the threshold value 196c, the specified object determination unit 170 increases the threshold value 196 for the overlap between the three-dimensional object 184 and the three-dimensional object 186 that have been determined to be the same specified object, for example, from the threshold value 196c in FIG. 8 to the threshold value 196b. Furthermore, when the three-dimensional object 184 and the three-dimensional object 186 that have been determined to be the same specified object are determined not to be the same specified object a predetermined number of times (e.g., 10 times) by the threshold value 196b, the specified object determination unit 170 increases the threshold value 196 for the overlap between the three-dimensional object 184 and the three-dimensional object 186 that have been determined to be the same specified object, for example, from the threshold value 196b in FIG. 8 to the threshold value 196a.

こうして、同一の特定物と判定された立体物184と立体物186とが、同一の特定物ではないと判定されると、閾値196が段階的に高くなり、その後も同一の特定物と判定され難くなる。したがって、特定物ではない立体物をより安定して排除できる。 In this way, when three-dimensional object 184 and three-dimensional object 186, which have been determined to be the same specific object, are determined to not be the same specific object, threshold value 196 is raised in stages, and it becomes more difficult to determine them as the same specific object thereafter. Therefore, three-dimensional objects that are not specific objects can be more stably eliminated.

なお、降雨時における走行では、撮像装置110前方の例えばフロントガラスやレンズに雨滴が付着し輝度画像180や距離画像182がぼやける場合がある。その場合、立体物184と立体物186との重複度が本来の値より小さくなる場合がある。そうすると、特定物判定部170は、本来、同一の特定物と判定すべき立体物184と立体物186とを、同一の特定物ではないと判定するおそれがある。そこで、特定物判定部170は、雨滴の付着が想定される場合、例えば、ワイパー148が作動している場合、ワイパー148が作動していない場合より閾値196を下げるとしてもよい。かかる構成により、降雨時の走行においても、特定物を適切に判定することが可能となる。 When driving in the rain, raindrops may adhere to the front of the imaging device 110, for example, on the windshield or lens, causing the brightness image 180 and the distance image 182 to become blurred. In that case, the overlap between the three-dimensional object 184 and the three-dimensional object 186 may become smaller than the original value. In that case, the specific object determination unit 170 may determine that the three-dimensional object 184 and the three-dimensional object 186, which should be determined to be the same specific object, are not the same specific object. Therefore, when raindrops are expected to adhere, for example, when the wiper 148 is operating, the specific object determination unit 170 may lower the threshold value 196 compared to when the wiper 148 is not operating. With this configuration, it becomes possible to appropriately determine a specific object even when driving in the rain.

また、自車両1の速度が高いと、遠くに位置する特定物としての先行車両をより適切に判定しなければならないが、自車両1の速度が低いと、自車両1の速度が高い場合ほど確実に判定しなくてもよい。そこで、特定物判定部170は、自車両1の速度に応じて閾値196を変化させる。例えば、速度センサ138で検出された自車両1の速度が高いと、速度が低いときに比べ閾値196を上げ、自車両1の速度が低いと、速度が高いときに比べ閾値196を下げる。ここで、自車両1の速度に比例して線形的に、または、段階的に閾値196を変化させてもよい。こうして、自車両1の速度に拘わらず、特定物を適切に判定することが可能となる。 In addition, when the speed of the host vehicle 1 is high, a preceding vehicle must be more appropriately determined as a specific object located far away, but when the speed of the host vehicle 1 is low, the determination does not need to be made as reliably as when the speed of the host vehicle 1 is high. Therefore, the specific object determination unit 170 changes the threshold value 196 according to the speed of the host vehicle 1. For example, when the speed of the host vehicle 1 detected by the speed sensor 138 is high, the threshold value 196 is increased compared to when the speed is low, and when the speed of the host vehicle 1 is low, the threshold value 196 is decreased compared to when the speed is high. Here, the threshold value 196 may be changed linearly or stepwise in proportion to the speed of the host vehicle 1. In this way, it becomes possible to appropriately determine a specific object regardless of the speed of the host vehicle 1.

そして、特定物判定部170は、重複度が所定の閾値以上となった同一の特定物が、いずれの特定物であるか特定する。例えば、特定物判定部170は、まず、距離画像182において、路面からの高さが所定距離以上に位置する複数のブロックのうち自車両1との相対距離が等しく、かつ、互いに垂直方向および水平方向の距離が近いブロックをグループ化し、例えば、先行車両の候補とする。次に、特定物判定部170は、このように特定した立体物全てを含む第1輝度画像180aにおける矩形の領域を立体物領域として特定する。ここで、矩形は、垂直方向に延伸し、立体物の左右エッジにそれぞれ接する2本の直線、および、水平方向に延伸し、立体物の上下エッジにそれぞれ接する2本の直線で構成される。 Then, the specific object determination unit 170 identifies which of the identical specific objects has an overlapping degree equal to or greater than a predetermined threshold. For example, the specific object determination unit 170 first groups, among a plurality of blocks in the distance image 182 that are located at a height from the road surface equal to or greater than a predetermined distance, blocks that are at the same relative distance from the vehicle 1 and are close to each other in the vertical and horizontal directions, and sets them as candidates for the preceding vehicle, for example. Next, the specific object determination unit 170 identifies a rectangular area in the first luminance image 180a that includes all the three-dimensional objects thus identified as a three-dimensional object area. Here, the rectangle is composed of two straight lines that extend vertically and touch the left and right edges of the three-dimensional object, respectively, and two straight lines that extend horizontally and touch the top and bottom edges of the three-dimensional object, respectively.

特定物判定部170は、このように形成された立体物領域に含まれる特定物を、車両らしさを示す様々な条件に基づいて、先行車両と特定する。このように、立体物領域が先行車両と特定されると、車外環境認識装置120は、先行車両との衝突による被害を軽減したり、先行車両との車間距離を安全な距離に保つように制御する。 The specific object determination unit 170 identifies specific objects contained in the solid object area thus formed as leading vehicles based on various conditions that indicate vehicle-likeness. When a solid object area is thus identified as a leading vehicle, the exterior environment recognition device 120 controls the vehicle to reduce damage caused by a collision with the leading vehicle and to maintain a safe distance from the leading vehicle.

また、特定物判定部170は、同一の特定物と判定した立体物184と立体物186の位置および速度をデータ保持部152に記憶し、位置や速度に基づいて立体物184および立体物186を追跡する。こうして、特定物判定部170は、前回のフレームで同一の特定物と判定された立体物184や立体物186を特定することが可能となる。 The specific object determination unit 170 also stores the positions and velocities of the three-dimensional objects 184 and 186 determined to be the same specific object in the data storage unit 152, and tracks the three-dimensional objects 184 and 186 based on their positions and velocities. In this way, the specific object determination unit 170 is able to identify the three-dimensional objects 184 and 186 determined to be the same specific object in the previous frame.

本実施形態では、輝度画像および距離画像を用い、それぞれにおける立体物の重複度に応じて同一の特定物であるか否かを判定する構成により、特定物の判定精度を向上することが可能となる。 In this embodiment, the accuracy of identifying specific objects can be improved by using a brightness image and a distance image to determine whether or not the specific objects are the same depending on the degree of overlap of the three-dimensional objects in each image.

また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。 Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120, and a storage medium, such as a computer-readable flexible disk, optical magnetic disk, ROM, CD, DVD, or BD, on which the program is recorded. Here, a program refers to a data processing means written in any language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiment of the present invention has been described above with reference to the attached drawings, it goes without saying that the present invention is not limited to such an embodiment. It is clear that a person skilled in the art can come up with various modified or revised examples within the scope of the claims, and it is understood that these also naturally fall within the technical scope of the present invention.

例えば、上述した実施形態では、自車両1の前方の特に遠くに位置する特定物としての先行車両を判定する例を挙げて説明したが、かかる場合に限らず、近傍に位置する特定物にも適用できることは言うまでもない。 For example, in the above embodiment, an example was given of determining a preceding vehicle as a specific object located particularly far ahead of the vehicle 1, but it goes without saying that the present invention is not limited to such a case and can also be applied to specific objects located in the vicinity.

また、上述した実施形態では、2つの撮像装置110で撮像された2つの輝度画像180を用い、その一方である第1輝度画像180aと、両方に基づく距離画像182とを利用する例を挙げて説明した。しかし、輝度画像180と距離画像182とは、それぞれ独立して取得されてもよく、例えば、3つの撮像装置110の1の撮像装置110から輝度画像180を、2の撮像装置110から距離画像182を導出するとしてもよい。 In the above-described embodiment, an example was given in which two luminance images 180 captured by two imaging devices 110 are used, and one of the images, a first luminance image 180a, and a distance image 182 based on both images are used. However, the luminance image 180 and the distance image 182 may be acquired independently of each other. For example, the luminance image 180 may be derived from one imaging device 110 of the three imaging devices 110, and the distance image 182 may be derived from the second imaging device 110.

なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 Note that each step of the vehicle exterior environment recognition method in this specification does not necessarily need to be processed in chronological order according to the order described in the flowchart, and may include parallel or subroutine processing.

本発明は、自車両の進行方向に存在する特定物を特定する車外環境認識装置に利用することができる。 The present invention can be used in an exterior environment recognition device that identifies specific objects that exist in the direction of travel of the vehicle.

110 撮像装置
120 車外環境認識装置
130 車両制御装置
164 第1幅導出部
166 第2幅導出部
168 重複度導出部
170 特定物判定部
180 輝度画像
182 距離画像
190 第1幅
192 第2幅
194 重複幅
196 閾値
110 Imaging device 120 Vehicle exterior environment recognition device 130 Vehicle control device 164 First width derivation unit 166 Second width derivation unit 168 Overlap degree derivation unit 170 Specific object determination unit 180 Brightness image 182 Distance image 190 First width 192 Second width 194 Overlap width 196 Threshold

Claims (6)

撮像対象の輝度を特定可能な輝度画像に基づいて第1立体物の第1幅を導出する第1幅導出部と、
撮像対象の距離を特定可能な距離画像に基づいて第2立体物の第2幅を導出する第2幅導出部と、
前記第1幅と前記第2幅とが水平方向において重複する重複幅を求め、前記重複幅/前記第1幅、および、前記重複幅/前記第2幅のうち大きい方を重複度とする重複度導出部と、
前記重複度が所定の閾値以上であれば、前記第1立体物と第2立体物とを同一の特定物と判定する特定物判定部と、
を備える車外環境認識装置。
a first width derivation unit that derives a first width of the first three-dimensional object based on a luminance image that can identify the luminance of an imaging target;
a second width derivation unit that derives a second width of the second three-dimensional object based on a distance image that can specify a distance to an imaging target;
an overlapping degree derivation unit that determines an overlapping width where the first width and the second width overlap in a horizontal direction, and sets the larger of the overlapping width/the first width and the overlapping width/the second width as an overlapping degree;
a specific object determination unit that determines that the first three-dimensional object and the second three-dimensional object are the same specific object if the overlap degree is equal to or greater than a predetermined threshold value;
An exterior environment recognition device comprising:
前記特定物判定部は、同一の特定物と判定した前記重複度に対する前記閾値を下げる請求項1に記載の車外環境認識装置。 The vehicle exterior environment recognition device according to claim 1, wherein the specific object determination unit lowers the threshold value for the degree of overlap determined to be the same specific object. 前記特定物判定部は、前記重複度に対する前記閾値を下げた後、同一の特定物ではないと判定した前記重複度に対する前記閾値を上げる請求項2に記載の車外環境認識装置。 The vehicle exterior environment recognition device according to claim 2, wherein the specific object determination unit lowers the threshold for the degree of overlap, and then raises the threshold for the degree of overlap that is determined not to be the same specific object. 前記特定物判定部は、同一の特定物と判定した回数に応じて前記重複度に対する前記閾値を段階的に変化させる請求項2または3に記載の車外環境認識装置。 The vehicle exterior environment recognition device according to claim 2 or 3, wherein the specific object determination unit gradually changes the threshold value for the degree of overlap depending on the number of times the specific object is determined to be the same. 前記特定物判定部は、ワイパーの作動有無に応じて前記閾値を変化させる請求項1から4のいずれか1項に記載の車外環境認識装置。 The vehicle exterior environment recognition device according to any one of claims 1 to 4, wherein the specific object determination unit changes the threshold value depending on whether the wipers are operating. 前記特定物判定部は、自車両の速度に応じて前記閾値を変化させる請求項1から5のいずれか1項に記載の車外環境認識装置。 The vehicle exterior environment recognition device according to any one of claims 1 to 5, wherein the specific object determination unit changes the threshold value according to the speed of the vehicle.
JP2020135392A 2020-03-06 2020-08-07 Outside environment recognition device Active JP7514139B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/143,748 US11842552B2 (en) 2020-03-06 2021-01-07 Vehicle exterior environment recognition apparatus
CN202110022897.8A CN113361310A (en) 2020-03-06 2021-01-08 Vehicle exterior environment recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020039047 2020-03-06
JP2020039047 2020-03-06

Publications (2)

Publication Number Publication Date
JP2021140723A JP2021140723A (en) 2021-09-16
JP7514139B2 true JP7514139B2 (en) 2024-07-10

Family

ID=77668824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020135392A Active JP7514139B2 (en) 2020-03-06 2020-08-07 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP7514139B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007073058A (en) 2006-09-28 2007-03-22 Sumitomo Electric Ind Ltd Vehicle detector
WO2017130639A1 (en) 2016-01-28 2017-08-03 株式会社リコー Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP2018106511A (en) 2016-12-27 2018-07-05 株式会社デンソー Object detection apparatus and object detection method
JP2018106749A (en) 2018-03-05 2018-07-05 株式会社Subaru Driving support device for vehicle
JP2019185640A (en) 2018-04-17 2019-10-24 株式会社デンソー Driving support system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007073058A (en) 2006-09-28 2007-03-22 Sumitomo Electric Ind Ltd Vehicle detector
WO2017130639A1 (en) 2016-01-28 2017-08-03 株式会社リコー Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP2018106511A (en) 2016-12-27 2018-07-05 株式会社デンソー Object detection apparatus and object detection method
JP2018106749A (en) 2018-03-05 2018-07-05 株式会社Subaru Driving support device for vehicle
JP2019185640A (en) 2018-04-17 2019-10-24 株式会社デンソー Driving support system and method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
3D-LiDARとカメラを用いたリアルタイム物体位置検出,ロボティクスメカトロニクス講演会2018講演会論文集,2018年06月01日
An Object Detection and Classification Method using Radar and Camera Data Fusion,IEEE International Conference on Signal, Information and Data Processing (ICSIDP),2019年12月11日,https://ieeexplore.ieee.org/abstract/document/9173452

Also Published As

Publication number Publication date
JP2021140723A (en) 2021-09-16

Similar Documents

Publication Publication Date Title
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
JP6795027B2 (en) Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs
US7542835B2 (en) Vehicle image processing device
US10885351B2 (en) Image processing apparatus to estimate a plurality of road surfaces
JP4714104B2 (en) Object tilt detection device
JP6003673B2 (en) 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method
JP6316976B2 (en) In-vehicle image recognition device
JP6733302B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6992356B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
CN112758086B (en) External environment recognition device
JP6564218B2 (en) Outside environment recognition device
JP7514139B2 (en) Outside environment recognition device
JP6701905B2 (en) Detection device, parallax value derivation device, object recognition device, device control system, and program
CN113361310A (en) Vehicle exterior environment recognition device
JP7466695B2 (en) Image Processing Device
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2016173248A (en) Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program
JP7644844B2 (en) IMAGE RECOGNITION DEVICE AND IMAGE RECOGNITION METHOD
JP6082293B2 (en) Vehicle white line recognition device
JP7616844B2 (en) Outside environment recognition device
JP2020038446A (en) Vehicle exterior environment recognition apparatus and method of recognizing exterior environment outside vehicle
WO2024247216A1 (en) Environment recognition device and environment recognition method
JP2015099556A (en) Position locating device and headlamp control system
JP2022175157A (en) Vehicle surroundings recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240628

R150 Certificate of patent or registration of utility model

Ref document number: 7514139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150