[go: up one dir, main page]

JP5280768B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5280768B2
JP5280768B2 JP2008209620A JP2008209620A JP5280768B2 JP 5280768 B2 JP5280768 B2 JP 5280768B2 JP 2008209620 A JP2008209620 A JP 2008209620A JP 2008209620 A JP2008209620 A JP 2008209620A JP 5280768 B2 JP5280768 B2 JP 5280768B2
Authority
JP
Japan
Prior art keywords
parallax
vehicle
offset amount
distance
imaging devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008209620A
Other languages
Japanese (ja)
Other versions
JP2010044009A (en
Inventor
伸治 長岡
弘 服部
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008209620A priority Critical patent/JP5280768B2/en
Publication of JP2010044009A publication Critical patent/JP2010044009A/en
Application granted granted Critical
Publication of JP5280768B2 publication Critical patent/JP5280768B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle vicinity monitoring apparatus capable of highly precisely calculating a parallax offset amount by taking an object for reference in calculating the parallax offset amount as an object to be moved. <P>SOLUTION: The vehicle vicinity monitoring apparatus calculates the parallax offset amount resulting from a deviation of parallelism between optical axes of two imaging devices. When prescribed conditions that only one object exists in an irradiation area in which a distance is detected by a radar apparatus and only one extracted object exists in a local image area for a captured image corresponding to the one irradiation area are satisfied, a distance to the object is detected by the radar apparatus and a parallax between the objects obtained by the two imaging devices is calculated. Thus, the parallax offset amount can be calculated with high precision. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、車両に搭載された撮像装置によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging device mounted on the vehicle.

車両に搭載された2つの撮像手段によって得られる2つの画像に基づいて対象物の視差を算出し、この視差から対象物までの距離を検出する技術が知られている(例えば、特許文献1参照)。上記従来技術では、第1および第2の時刻において静止している対象物の視差を算出するとともに、車速センサから第1の時刻から第2の時刻までの期間における車両の移動量を算出する。そして、前記視差ならびに車両の移動量に基づいて、2つの撮像手段の光軸間平行度ずれに起因する視差オフセット量を算出し、この算出した視差オフセット量により視差を補正する。
特開2001−169310号公報
A technique is known in which the parallax of an object is calculated based on two images obtained by two imaging means mounted on a vehicle, and the distance from the parallax to the object is detected (see, for example, Patent Document 1). ). In the conventional technique, the parallax of the object stationary at the first and second times is calculated, and the movement amount of the vehicle in the period from the first time to the second time is calculated from the vehicle speed sensor. Then, based on the parallax and the amount of movement of the vehicle, a parallax offset amount caused by a deviation in parallelism between the optical axes of the two imaging units is calculated, and the parallax is corrected by the calculated parallax offset amount.
JP 2001-169310 A

しかし、上記従来技術は、視差オフセット量を算出する際に第1および第2の時刻における視差の基準となる対象物を静止している対象物としている。このため、視差オフセット量を算出するに際に第1および第2の時刻における視差の基準となる対象物を移動する対象物とすると、第1および第2の時刻における視差の変化量と車両の移動量との対応関係は一定しないので、上記従来技術の手法により算出される視差オフセット量が保証できなくなる。   However, in the above-described prior art, when the parallax offset amount is calculated, the target object serving as a reference for the parallax at the first and second times is set as a stationary target object. For this reason, when calculating the parallax offset amount, if the target object for parallax at the first and second times is a moving object, the amount of change in parallax at the first and second times and the vehicle Since the correspondence with the movement amount is not constant, the parallax offset amount calculated by the above-described conventional technique cannot be guaranteed.

そこで、本発明は、視差オフセット量を算出する際に基準とする対象物を移動する対象物として高精度に視差オフセット量を算出することができる車両周辺監視装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a vehicle periphery monitoring device that can calculate a parallax offset amount with high accuracy as a target object that moves a target object when calculating the parallax offset amount.

第1発明の車両環境認識装置は、車両に搭載された2つの撮像装置により得られた2つの撮像画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出して車両の周辺を監視する車両周辺監視装置であって、前記車両から放射状に広がる複数の送信波の照射領域ごとにおける反射波の強度を検知することにより第1の対象物までの距離を検出するレーダ装置と、前記2つの撮像装置により得られた第2の対象物の視差を算出する視差算出手段と、前記第1の対象物と前記第2の対象物とが同一対象物であるか否かを判定する同一対象物判定手段と、前記同一対象物判定手段により前記第1の対象物と前記第2の対象物とが前記同一対象物であると判定された場合、前記レーダ装置で検出された前記車両から前記同一対象物までの距離と前記視差算出手段により算出された前記2つの撮像装置により得られた前記同一対象物の視差とに基づいて、前記2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量を算出する視差オフセット量算出手段と、前記視差オフセット量算出手段により算出された視差オフセット量に基づいて視差を補正する視差補正手段とを備える
そして、前記同一対象物判定手段は、前記レーダ装置により距離が検出された一の前記照射領域に第1の対象物が1つのみ存在し、かつ、前記撮像画像を前記照射領域に対応するように分割した局所画像領域に関して、前記一の照射領域に対応する前記撮像画像における一の局所画像領域に、前記2つの撮像装置により得られた第2の対象物が1つのみ存在するという所定条件が満たされているか否かに応じて、前記第1の対象物と前記第2の対象物とが同一対象物であるか否かを判定することを特徴とする。
A vehicle environment recognition device according to a first aspect of the invention calculates a parallax of an object based on two captured images obtained by two imaging devices mounted on a vehicle, and detects a distance from the parallax to the object. A vehicle periphery monitoring device that monitors the periphery of the vehicle, and detects the distance to the first object by detecting the intensity of the reflected wave in each of the irradiation areas of the plurality of transmission waves that radiate from the vehicle. Whether the radar apparatus, the parallax calculation means for calculating the parallax of the second object obtained by the two imaging apparatuses, and the first object and the second object are the same object When the same object determination means and the same object determination means determine that the first object and the second object are the same object, the radar device detects The same object from the vehicle The amount of parallax offset caused by the deviation in parallelism between the optical axes of the two imaging devices based on the distance up to and the parallax of the same object obtained by the two imaging devices calculated by the parallax calculation means And a parallax correction unit that corrects the parallax based on the parallax offset amount calculated by the parallax offset amount calculation unit .
Then, the same object determination means includes only one first object in the one irradiation area where the distance is detected by the radar device, and corresponds the captured image to the irradiation area. A predetermined condition that only one second object obtained by the two imaging devices exists in one local image region in the captured image corresponding to the one irradiation region. Whether the first object and the second object are the same object or not is determined according to whether or not is satisfied.

第1発明の車両周辺監視装置によれば、レーダ装置により車両からの距離が検出された第1の対象物と2つの撮像装置により得られた第2の対象物とが同一対象物であると判定された場合、レーダ装置で検出された車両から同一対象物までの距離と2つの撮像装置により得られた同一対象物の視差とに基づいて、2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量を算出する視差オフセット量が算出される。レーダ装置により車両から第1の対象物までの距離が静止している対象物または移動する対象物によらず正確に検出されることに鑑みて、前記のような手法により視差オフセット量を高精度に算出することができる。   According to the vehicle periphery monitoring device of the first aspect of the invention, the first object whose distance from the vehicle is detected by the radar device and the second object obtained by the two imaging devices are the same object. If determined, based on the distance from the vehicle to the same object detected by the radar device and the parallax of the same object obtained by the two imaging devices, the parallel deviation between the optical axes of the two imaging devices is detected. A parallax offset amount for calculating the resulting parallax offset amount is calculated. In view of the fact that the distance from the vehicle to the first object is accurately detected by the radar device regardless of the stationary object or the moving object, the parallax offset amount can be accurately determined by the method as described above. Can be calculated.

そして、レーダ装置により距離が検出される一の照射領域に対象物が1つのみ存在し、かつ、一の照射領域に対応する撮像画像における一の局所画像領域に、抽出された対象物が1つのみ存在するという所定条件を満たさなければ、一の照射領域においてレーダ装置により距離が検出された対象物とこれに対応する一の局所画像領域から抽出された対象物が同一の対象物であるか否かを判定するのが困難であり、視差オフセット量を高精度に算出することができない。一方、前記所定条件が満たされれば一の照射領域においてレーダ装置により距離が検出された対象物とこれに対応する一の局所画像領域から抽出された対象物が同一の対象物である可能性が高い。この点に鑑みて、前記所定条件が満たす場合に、レーダ装置により対象物までの距離が検出されるとともに、2つの撮像装置により得られた対象物の視差が算出される。前記のことにより、視差オフセット量を高精度に算出することができる。 Then, there is only one object in one irradiation area where the distance is detected by the radar apparatus, and one object extracted in one local image area in the captured image corresponding to one irradiation area. If the predetermined condition that there is only one object is not satisfied, the object whose distance is detected by the radar device in one irradiation area and the object extracted from one corresponding local image area are the same object. It is difficult to determine whether or not, and the amount of parallax offset cannot be calculated with high accuracy. On the other hand, if the predetermined condition is satisfied, there is a possibility that the object whose distance is detected by the radar device in one irradiation area and the object extracted from one corresponding local image area are the same object. high. In view of this point, when the predetermined condition is satisfied, the distance to the target is detected by the radar device and the parallax of the target obtained by the two imaging devices is calculated. As described above, the parallax offset amount can be calculated with high accuracy.

第2発明の車両周辺監視装置は、第1発明の車両周辺監視装置において、前記視差オフセット量算出手段は、前記同一対象物判定手段により複数の前記照射領域と該複数の照射領域にそれぞれ対応する複数の前記局所画像領域とについて前記所定条件が満たされている場合、前記第1の対象物と前記第2の対象物とが同一であると判定された複数の前記同一対象物における前記視差オフセット量を平均し、前記視差補正手段は、前記平均された視差オフセット量に基づいて視差を補正することを特徴とする。 The vehicle periphery monitoring device according to a second aspect is the vehicle periphery monitoring device according to the first aspect, wherein the parallax offset amount calculation means corresponds to the plurality of irradiation regions and the plurality of irradiation regions by the same object determination unit, respectively. When the predetermined condition is satisfied for a plurality of the local image regions, the parallax offset in the plurality of the same objects determined to be the same as the first object and the second object The amount is averaged, and the parallax correction unit corrects the parallax based on the averaged parallax offset amount.

第2発明の車両周辺監視装置によれば、複数の照射領域とこの複数の照射領域にそれぞれ対応する複数の局所画像領域について所定条件が満たされていると判定された場合、所定条件を満たす複数の対象物における視差オフセット量が平均される。したがって、所定条件を満たす複数の照射領域における対象物までの測定距離誤差にばらつきがあるような場合でも、測定誤差ばらつきの影響が低減され高精度に視差オフセット量を算出することができる。 According to the vehicle periphery monitoring device of the second invention , when it is determined that the predetermined condition is satisfied for the plurality of irradiation regions and the plurality of local image regions respectively corresponding to the plurality of irradiation regions, the plurality of conditions that satisfy the predetermined condition are satisfied. The amount of parallax offset in the target object is averaged. Therefore, even when there are variations in measurement distance errors to the object in a plurality of irradiation regions that satisfy a predetermined condition, the influence of measurement error variations can be reduced and the parallax offset amount can be calculated with high accuracy.

第3発明の車両周辺監視装置は、車両に搭載された2つの撮像装置により得られた2つの撮像画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出して車両の周辺を監視する車両周辺監視装置であって、前記車両から放射状に広がる複数の送信波の照射領域ごとにおける反射波の強度を検知することにより対象物までの距離を検出するレーダ装置と、前記レーダ装置により前記対象物までの距離に基づいて前記対象物が前方車両であるか否かを判定する車両判定手段と、前記2つの撮像装置により得られた前記対象物の視差を算出する視差算出手段と、前記車両判定手段により前記対象物が前方車両であると判定された場合、前記レーダ装置で検出された前記車両から前記前方車両までの距離と前記視差算出手段により算出された前記2つの撮像装置により得られた前記前方車両の視差とに基づいて、前記2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量を算出する視差オフセット量算出手段と、前記視差オフセット量算出手段により算出された視差オフセット量に基づいて視差を補正する視差補正手段とを備え、前記視差オフセット量算出手段は、前記車両判定手段により前記対象物が前方車両であると判定された場合、前記視差オフセット量を前記前方車両のみに基づいて算出することを特徴とする。 A vehicle periphery monitoring device according to a third aspect of the invention calculates a parallax of an object based on two captured images obtained by two imaging devices mounted on the vehicle, and detects a distance from the parallax to the object. A vehicle periphery monitoring device for monitoring the periphery of the vehicle, wherein the radar device detects the distance to the object by detecting the intensity of the reflected wave in each of the irradiation areas of the plurality of transmission waves radiating from the vehicle; The radar device calculates the parallax of the object obtained by the two imaging devices and vehicle determination means for determining whether the object is a forward vehicle based on the distance to the object. a parallax calculating unit, when the object by the vehicle determining means is determined to be a forward vehicle, the distance between the parallax calculating unit from the vehicle detected by the radar device to the front vehicle Parallax offset amount calculating means for calculating a parallax offset amount caused by a parallelism shift between the optical axes of the two imaging devices based on the calculated parallax of the preceding vehicle obtained by the two imaging devices. A parallax correction unit that corrects the parallax based on the parallax offset amount calculated by the parallax offset amount calculation unit, and the parallax offset amount calculation unit determines that the object is a forward vehicle by the vehicle determination unit. When it is determined, the parallax offset amount is calculated based only on the preceding vehicle .

第3発明の車両周辺監視装置によれば、レーダ装置により対象物までの距離に基づいて対象物が前方車両であると判定された場合、レーダ装置で検出された車両から前方車両までの距離と2つの撮像装置により得られた前方車両の視差とに基づいて、2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量が算出される。レーダ装置により車両から前方車両までの距離が正確に検出されることに鑑みて、前記のような手法により視差オフセット量を高精度に算出することができる。 According to the vehicle periphery monitoring device of the third invention , when the radar device determines that the object is a forward vehicle based on the distance to the object, the distance from the vehicle detected by the radar device to the preceding vehicle is Based on the parallax of the preceding vehicle obtained by the two imaging devices, a parallax offset amount caused by the deviation in parallelism between the optical axes of the two imaging devices is calculated. In view of the fact that the distance from the vehicle to the preceding vehicle is accurately detected by the radar device, the parallax offset amount can be calculated with high accuracy by the method as described above.

第4発明の車両周辺監視装置は、車両に搭載された2つの撮像装置により得られた2つの撮像画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出して車両の周辺を監視する車両周辺監視装置であって、前記車両から放射状に広がる複数の送信波の照射領域ごとにおける反射波の強度を検知することにより対象物までの距離を検出するレーダ装置と、前記2つの撮像装置により得られた前記対象物が前方車両であるか否かを判定する車両判定手段と、前記2つの撮像装置により得られた前記対象物の視差を算出する視差算出手段と、前記車両判定手段により前記対象物が前方車両であると判定された場合、前記レーダ装置で検出された前記車両から前記前方車両までの距離と前記視差算出手段により算出された前記2つの撮像装置により得られた前記前方車両の視差とに基づいて、前記2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量を算出する視差オフセット量算出手段と、前記視差オフセット量算出手段により算出された視差オフセット量に基づいて視差を補正する視差補正手段とを備え、前記視差オフセット量算出手段は、前記車両判定手段により前記対象物が前方車両であると判定された場合、前記視差オフセット量を前記前方車両のみに基づいて算出することを特徴とする。 A vehicle periphery monitoring device according to a fourth aspect of the invention calculates a parallax of an object based on two captured images obtained by two imaging devices mounted on the vehicle, and detects a distance from the parallax to the object. A vehicle periphery monitoring device for monitoring the periphery of the vehicle, wherein the radar device detects the distance to the object by detecting the intensity of the reflected wave in each of the irradiation areas of the plurality of transmission waves radiating from the vehicle; Vehicle determination means for determining whether or not the object obtained by the two image pickup devices is a preceding vehicle, and parallax calculation means for calculating the parallax of the object obtained by the two image pickup devices. , when the object by the vehicle determining means is determined to be a forward vehicle, the calculated by the distance between the parallax calculating unit from the vehicle detected by the radar device to the front vehicle Parallax offset amount calculating means for calculating a parallax offset amount caused by a parallelism shift between the optical axes of the two imaging devices based on the parallax of the preceding vehicle obtained by two imaging devices; and the parallax offset amount calculation Parallax correction means for correcting parallax based on the parallax offset amount calculated by the means, and when the vehicle determination means determines that the object is a forward vehicle, the parallax offset amount calculation means The parallax offset amount is calculated based only on the preceding vehicle .

第4発明の車両周辺監視装置によれば、2つの撮像装置により得られた対象物が前方車両であると判定された場合、レーダ装置で検出された車両から前方車両までの距離と2つの撮像装置により得られた前方車両の視差とに基づいて、2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量が算出される。レーダ装置により車両から前方車両までの距離が正確に検出されることに鑑みて、前記のような手法により視差オフセット量を高精度に算出することができる。 According to the vehicle periphery monitoring device of the fourth aspect of the present invention , when it is determined that the object obtained by the two imaging devices is a forward vehicle, the distance from the vehicle to the forward vehicle detected by the radar device and the two imagings are detected. Based on the parallax of the preceding vehicle obtained by the apparatus, a parallax offset amount caused by a deviation in parallelism between the optical axes of the two imaging apparatuses is calculated. In view of the fact that the distance from the vehicle to the preceding vehicle is accurately detected by the radar device, the parallax offset amount can be calculated with high accuracy by the method as described above.

[第1実施形態]
本発明の車両周辺監視装置の第1実施形態について説明する。まず、本実施形態の車両周辺監視装置の構成について説明する。車両周辺監視装置は図1および図2に示されている画像処理ユニット1を備えている。画像処理ユニット1には、自車両10の前方の画像を撮像する撮像装置としての2つの赤外線カメラ2R,2Lおよび自車両10の前方の対象物までの距離を検出するレーダ装置3が接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ4、自車両10の走行速度(車速)を検出する車速センサ5、および自車両10のブレーキ操作の有無を検出するブレーキセンサ6とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な通報情報を出力するためのスピーカ7、および赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な通報情報を表示するための表示装置8が接続されている。なお、赤外線カメラ2R,2Lが本発明における撮像装置に相当する。
[First embodiment]
1st Embodiment of the vehicle periphery monitoring apparatus of this invention is described. First, the structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. The vehicle periphery monitoring device includes an image processing unit 1 shown in FIGS. 1 and 2. Connected to the image processing unit 1 are two infrared cameras 2R and 2L as imaging devices that capture an image ahead of the host vehicle 10 and a radar device 3 that detects a distance to an object ahead of the host vehicle 10. At the same time, as sensors for detecting the traveling state of the host vehicle 10, the yaw rate sensor 4 that detects the yaw rate of the host vehicle 10, the vehicle speed sensor 5 that detects the traveling speed (vehicle speed) of the host vehicle 10, and the brake operation of the host vehicle 10. A brake sensor 6 that detects presence or absence is connected. Further, the image processing unit 1 includes a speaker 7 for outputting auditory notification information such as voice, and a display device for displaying captured images and visual notification information captured by the infrared cameras 2R and 2L. 8 is connected. The infrared cameras 2R and 2L correspond to the imaging device in the present invention.

画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、レーダ装置3、ヨーレートセンサ4、車速センサ5およびブレーキセンサ6から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の通報要件を満す場合にスピーカ7や表示装置8により運転者に通報を発する処理を実行する。   Although not shown in detail, the image processing unit 1 includes electronic circuits including an A / D conversion circuit, a microcomputer (having a CPU, a RAM, a ROM, and the like), an image memory, and the like. The infrared cameras 2R, 2L, Analog signals output from the radar device 3, the yaw rate sensor 4, the vehicle speed sensor 5, and the brake sensor 6 are converted into digital data by an A / D conversion circuit and input to a microcomputer. The microcomputer detects an object such as a person (pedestrian or person riding a bicycle) based on the input data, and the speaker 7 when the detected object satisfies a predetermined notification requirement. And a process of issuing a report to the driver by the display device 8.

図2に示されているように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それら位置は、自車両10の車幅方向の中心に対して左右対称である。赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、かつ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion (the front grill portion in the figure) of the host vehicle 10 in order to image the front of the host vehicle 10. In this case, the infrared cameras 2R and 2L are respectively disposed at a position on the right side and a position on the left side of the center of the host vehicle 10 in the vehicle width direction. These positions are symmetrical with respect to the center of the vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are fixed so that their optical axes extend in parallel in the front-rear direction of the host vehicle 10, and the heights of the respective optical axes from the road surface are equal to each other. The infrared cameras 2R and 2L have sensitivity in the far-infrared region, and have a characteristic that the higher the temperature of an object to be imaged, the higher the level of the output video signal (the higher the luminance of the video signal). doing.

レーダ装置3は自車両10の前側に赤外線カメラ2R,2Lの上方に位置するように取り付けられている。レーダ装置3は上方から見たときに図3に示されているように赤外線カメラ2R,2Lの撮像領域より狭い幅で広がるミリ波(電磁波)のビームBMを自車両10の前方に送信する。レーダ装置3における照射領域は、第1の照射領域BM1〜第7の照射領域BM7に分かれている。レーダ装置3は走査型のレーダ装置であり、自車両3の前方領域が自車両10の左右方向に走査されるように、一定強度のビームBMがその送信角度を一定角度ずつずらしながら送信される。ビームBMの左右方向の走査範囲は赤外線カメラ2R,2Lの撮像領域を水平方向についてすべて包含するように設定されている。また、ビームBMの上下方向の幅は、赤外線カメラ2R,2Lの上下方向の視野を含むように設定されている。そして、レーダ装置3はこのミリ波の反射波、すなわち、自車両10の前方に存在する対象物により反射されたミリ波を上下方向に配列された受信アンテナ(図示略)により受信する。また、レーダ装置3は照射領域ごとに反射波の強度を測定し、かつ、反射強度と、自車両10から、反射波の原因となった物体までの距離との相関関係を表わす反射強度データを画像処理ユニット1に出力する。なお、レーダ装置としてはミリ波等の電磁波(レーザー光など)のほか、超音波等の弾性振動波を用いるレーダ装置が採用されてもよい。   The radar device 3 is attached to the front side of the host vehicle 10 so as to be positioned above the infrared cameras 2R and 2L. When viewed from above, the radar apparatus 3 transmits a millimeter wave (electromagnetic wave) beam BM spreading in a narrower width than the imaging area of the infrared cameras 2R and 2L to the front of the host vehicle 10 as shown in FIG. The irradiation area in the radar device 3 is divided into a first irradiation area BM1 to a seventh irradiation area BM7. The radar apparatus 3 is a scanning radar apparatus, and a beam BM having a constant intensity is transmitted while shifting its transmission angle by a certain angle so that the front area of the host vehicle 3 is scanned in the left-right direction of the host vehicle 10. . The scanning range of the beam BM in the left-right direction is set so as to include all the imaging areas of the infrared cameras 2R, 2L in the horizontal direction. The vertical width of the beam BM is set so as to include the vertical field of view of the infrared cameras 2R and 2L. The radar apparatus 3 receives this millimeter wave reflected wave, that is, the millimeter wave reflected by the object existing in front of the host vehicle 10 by a receiving antenna (not shown) arranged in the vertical direction. Further, the radar device 3 measures the intensity of the reflected wave for each irradiation area, and uses reflection intensity data representing the correlation between the reflection intensity and the distance from the vehicle 10 to the object causing the reflected wave. Output to the image processing unit 1. As the radar apparatus, a radar apparatus using an elastic vibration wave such as an ultrasonic wave as well as an electromagnetic wave such as a millimeter wave (laser light or the like) may be employed.

また、本実施形態では、表示装置8として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ8a(以下、HUD8aという)を備えている。なお、表示装置8として、HUD8aの代わりに、もしくは、HUD8aとともに、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。   In the present embodiment, the display device 8 includes a head-up display 8a (hereinafter referred to as HUD 8a) that displays image information on the front window of the host vehicle 10. In addition, as a display device 8, instead of the HUD 8a or together with the HUD 8a, a display provided integrally with a meter for displaying a traveling state such as the vehicle speed of the host vehicle 10 or a display provided in an in-vehicle navigation device is provided. It may be used.

次に、本実施形態の車両周辺監視装置の主要な機能である視差オフセット量算出処理について図4のフローチャートを用いて説明する。   Next, parallax offset amount calculation processing, which is a main function of the vehicle periphery monitoring device of the present embodiment, will be described with reference to the flowchart of FIG.

まず、レーダ装置3により対象物までの距離を検出する(図4/STEP100)。具体的には、レーダ装置3は照射領域ごとに反射波の強度を測定し、かつ、反射強度と、自車両10から、反射波の原因となった物体までの距離との相関関係を表わす反射強度データを画像処理ユニット1に出力する。   First, the distance to the object is detected by the radar device 3 (FIG. 4 / STEP 100). Specifically, the radar device 3 measures the intensity of the reflected wave for each irradiation area, and reflects the correlation between the reflected intensity and the distance from the vehicle 10 to the object that caused the reflected wave. The intensity data is output to the image processing unit 1.

次いで、レーダ装置3により距離が検出された一の照射領域に対象物が1つのみ存在し、かつ、一の照射領域に対応する撮像画像における一の局所画像領域に、対象物抽出手段により抽出された対象物が1つのみ存在するという所定条件を満たしている照射領域および局所画像領域の組の有無を判定する(図4/STEP102)。なお、レーダ装置3の第1の照射領域BM1〜第7のBM7では、たとえば図5に示すように対象物が検出される。第1の照射領域BM1〜第7の照射領域BM7における「○」は対象物を示している。また、レーダ装置3における各照射領域BM1〜BM7に対応する赤外線カメラ2R,2Lの撮像画像における各局所画像領域は、たとえば図6に示すように、レーダ装置3における第1の照射領域BM1〜第7の照射領域BM7に対応するように赤外線カメラ2R,2Lの撮像画像を左右方向に分割した第1の局所画像領域LA1〜第7の局所画像領域LA7である。第1の局所画像領域LA1〜第7の局所画像領域LA7における「○」は対象物を示している。第1の照射領域では、距離が検出された対象物が重なって2つ検出され、かつ、第1の照射領域BM1に対応する第1の局所画像領域LA1では、対象物が1つのみ抽出される。したがって、第1の照射領域BM1と第1の局所画像領域LA1との組は前記所定条件を満たしていないと判定される。また、第2の照射領域BM2では、距離が検出された対象物が離れて2つ検出され、かつ、第2の照射領域BM2に対応する第2の局所画像領域LA2には対象物が離れて2つ抽出される。したがって、第2の照射領域BM2と第2の局所画像領域LA2との組は前記所定条件を満たしていないと判定される。また、第3の照射領域BM3では、距離が検出された対象物が1つのみ検出され、かつ、第3の照射領域BM3に対応する第3の局所画像領域LA3では、対象物が1つのみ抽出される。したがって、第3の照射領域BM3と第3の局所画像領域LA3との組は前記所定条件を満たしていると判定される。また、第4の照射領域BM4では、距離が検出された対象物が1のみ検出され、かつ、第4の照射領域BM4に対応する第4の局所画像領域では、対象物が1のみ抽出される。したがって、第4の照射領域BM4と第4の局所画像領域LA4との組は前記所定条件を満たしている判定される。また、第5の照射領域BM5では、距離が検出された対象物が1つのみ検出され、かつ、第5の照射領域BM5に対応する第5の局所画像領域では、対象物が1つのみ抽出される。したがって、第5の照射領域BM5と第5の局所画像領域LA5との組は前記所定条件を満たしている判定される。また、第6の照射領域BM6では、距離が検出された対象物が2つ検出され、かつ、第6の照射領域BM6に対応する第6の局所画像領域LA6では、対象物が2つ抽出される。したがって、第6の照射領域BM6と第6の局所画像領域LA6との組は前記所定条件を満たしていないと判定される。また、第7の照射領域BM7では、対象物が検出されなく、かつ、第7の照射領域BM7に対応する第7の局所画像領域LA7では、対象物が抽出されない。したがって、第7の照射領域BM7と第7の局所画像領域LA7との組は前記所定条件を満たしていないと判定される。以上より、前記所定条件を満たすと判定される照射領域と局所画像領域は、第3の照射領域と第3の局所画像領域、第4の照射領域と第4の局所画像領域、および、第5の照射領域と第5の局所画像領域である。   Next, there is only one target in one irradiation area where the distance is detected by the radar apparatus 3, and extraction is performed by the target extracting unit in one local image area in the captured image corresponding to the one irradiation area. The presence / absence of a set of an irradiation area and a local image area that satisfies a predetermined condition that only one target object exists is determined (FIG. 4 / STEP 102). In the first irradiation area BM1 to the seventh BM7 of the radar apparatus 3, for example, an object is detected as shown in FIG. “◯” in the first irradiation area BM1 to the seventh irradiation area BM7 indicates an object. Further, the local image areas in the captured images of the infrared cameras 2R and 2L corresponding to the irradiation areas BM1 to BM7 in the radar apparatus 3 are, for example, as shown in FIG. The first local image region LA1 to the seventh local image region LA7 obtained by dividing the captured images of the infrared cameras 2R and 2L in the left-right direction so as to correspond to the seven irradiation regions BM7. “◯” in the first local image area LA1 to the seventh local image area LA7 indicates an object. In the first irradiation area, two objects whose distances are detected are overlapped to be detected, and only one object is extracted in the first local image area LA1 corresponding to the first irradiation area BM1. The Therefore, it is determined that the set of the first irradiation region BM1 and the first local image region LA1 does not satisfy the predetermined condition. In the second irradiation area BM2, two objects whose distances are detected are detected apart from each other, and the object is separated in the second local image area LA2 corresponding to the second irradiation area BM2. Two are extracted. Therefore, it is determined that the set of the second irradiation region BM2 and the second local image region LA2 does not satisfy the predetermined condition. In the third irradiation area BM3, only one object whose distance is detected is detected, and in the third local image area LA3 corresponding to the third irradiation area BM3, only one object is detected. Extracted. Therefore, it is determined that the set of the third irradiation region BM3 and the third local image region LA3 satisfies the predetermined condition. Further, in the fourth irradiation area BM4, only one object whose distance is detected is detected, and in the fourth local image area corresponding to the fourth irradiation area BM4, only one object is extracted. . Therefore, it is determined that the set of the fourth irradiation region BM4 and the fourth local image region LA4 satisfies the predetermined condition. Further, in the fifth irradiation area BM5, only one target whose distance is detected is detected, and in the fifth local image area corresponding to the fifth irradiation area BM5, only one target is extracted. Is done. Therefore, it is determined that the set of the fifth irradiation region BM5 and the fifth local image region LA5 satisfies the predetermined condition. In the sixth irradiation area BM6, two objects whose distances are detected are detected, and in the sixth local image area LA6 corresponding to the sixth irradiation area BM6, two objects are extracted. The Therefore, it is determined that the set of the sixth irradiation region BM6 and the sixth local image region LA6 does not satisfy the predetermined condition. In addition, no object is detected in the seventh irradiation area BM7, and no object is extracted in the seventh local image area LA7 corresponding to the seventh irradiation area BM7. Therefore, it is determined that the set of the seventh irradiation region BM7 and the seventh local image region LA7 does not satisfy the predetermined condition. As described above, the irradiation area and the local image area determined to satisfy the predetermined condition are the third irradiation area and the third local image area, the fourth irradiation area and the fourth local image area, and the fifth area. These are the irradiation region and the fifth local image region.

そして、前記所定条件が満たされていると判定された照射領域と局所画像領域が存在する場合(図4/STEP102‥YES)、一の照射領域に存在する1つの対象物までの距離を、レーダ装置3から画像処理ユニット1に送信された反射強度データに基づいて算出する(図4/STEP104)。   If there is an irradiation area and a local image area determined to satisfy the predetermined condition (FIG. 4 / STEP 102... YES), the distance to one object existing in one irradiation area is calculated using the radar. Calculation is performed based on the reflection intensity data transmitted from the apparatus 3 to the image processing unit 1 (FIG. 4 / STEP 104).

その後、赤外線カメラ2R,2Lの撮像画像により得られた一の照射領域に対応する一の局所画像領域に存在する対象物の視差を算出する(図4/STEP106)。なお、当該視差は、図6に示すように、基準画像の対象物BOと同一の探索画像の対象物SOを水平方向の位置が一致するようにするエピポーラ拘束の基で算出する。   Thereafter, the parallax of the object existing in one local image region corresponding to one irradiation region obtained from the captured images of the infrared cameras 2R and 2L is calculated (FIG. 4 / STEP 106). As shown in FIG. 6, the parallax is calculated based on the epipolar constraint that causes the horizontal direction of the object SO of the search image identical to the object BO of the reference image to match.

次いで、STEP104により算出された自車両10から対象物までの距離と、STEP106により算出された対象物の視差とに基づいて視差オフセット量が算出される(図4/STEP108)。具体的に視差オフセット量Offsetは式(1)で算出される。なお、Zは、STEP104により算出された自車両10から対象物までの距離、Dnは、STEP106により算出された対象物の視差、Dは、赤外線カメラ2R,2Lの左右の間隔である基線長、および、Fは、赤外線カメラ2R,2Lのレンズの焦点距離を画素ピッチで割った値である。   Next, the parallax offset amount is calculated based on the distance from the host vehicle 10 calculated in STEP 104 to the target and the parallax of the target calculated in STEP 106 (FIG. 4 / STEP 108). Specifically, the parallax offset amount Offset is calculated by Expression (1). Z is the distance from the host vehicle 10 to the object calculated in STEP 104, Dn is the parallax of the object calculated in STEP 106, D is the baseline length that is the distance between the left and right of the infrared cameras 2R and 2L, And F is a value obtained by dividing the focal length of the lenses of the infrared cameras 2R and 2L by the pixel pitch.

Figure 0005280768
Figure 0005280768

そして、視差オフセット量を、本視差オフセット量算出処理の結果により得られた値に更新する(視差補正手段)。   Then, the parallax offset amount is updated to a value obtained as a result of this parallax offset amount calculation process (parallax correcting unit).

なお、図5および図6に示すように、前記所定条件を満たしている照射領域および局所画像領域の組の有無を複数の対象物について判定して、複数の組について所定条件が満たされる場合には複数の視差オフセット量を平均するようにしてもよい。   In addition, as shown in FIG. 5 and FIG. 6, when the presence or absence of the set of the irradiation area | region and local image area | region which satisfy | fills the said predetermined condition is determined about several target objects, and predetermined conditions are satisfy | filled about several sets May average a plurality of parallax offset amounts.

前記機能を発揮する車両周辺監視装置によれば、レーダ装置3により検出された自車両10から対象物までの距離と赤外線カメラ2R,2Lにより得られた対象物から算出された視差とに基づいて、赤外線カメラ2R,2Lの光軸間平行度ずれに起因する視差オフセット量が算出される(図4/S100〜S108、図5、図6参照)。レーダ装置3により距離が検出される一の照射領域に対象物が1つのみ存在し、かつ、一の照射領域に対応する撮像画像における一の局所画像領域に、抽出された対象物が1つのみ存在するという所定条件を満たさなければ、一の照射領域のレーダ装置3により距離が検出された対象物とこれに対応する一の局所画像領域から抽出された対象物が同一の対象物であるか否かを判定するのが困難であり、視差オフセット量を高精度に算出することができない。一方、前記所定条件が満たされれば一の照射領域のレーダ装置3により距離が検出された対象物とこれに対応する一の局所画像領域から抽出された対象物が同一の対象物である可能性が高い。この点に鑑みて、前記所定条件が満たす場合に、レーダ装置3により対象物までの距離が検出されるとともに、赤外線カメラ2R,2Lにより得られた対象物の視差が算出される。前記のことにより、視差オフセット量を高精度に算出することができる。   According to the vehicle periphery monitoring device that exhibits the above function, based on the distance from the own vehicle 10 to the target detected by the radar device 3 and the parallax calculated from the target obtained by the infrared cameras 2R and 2L. Then, the parallax offset amount resulting from the deviation in parallelism between the optical axes of the infrared cameras 2R and 2L is calculated (see FIGS. 4 / S100 to S108, FIGS. 5 and 6). There is only one object in one irradiation area where the distance is detected by the radar apparatus 3, and one extracted object is in one local image area in the captured image corresponding to one irradiation area. If the predetermined condition is not satisfied, the object whose distance is detected by the radar device 3 in one irradiation area and the object extracted from one corresponding local image area are the same object. It is difficult to determine whether or not, and the amount of parallax offset cannot be calculated with high accuracy. On the other hand, if the predetermined condition is satisfied, there is a possibility that an object whose distance is detected by the radar device 3 in one irradiation area and an object extracted from one corresponding local image area are the same object. Is expensive. In view of this point, when the predetermined condition is satisfied, the radar apparatus 3 detects the distance to the object and calculates the parallax of the object obtained by the infrared cameras 2R and 2L. As described above, the parallax offset amount can be calculated with high accuracy.

また、前記所定条件を満たす複数の対象物があり、STEP104により算出される各対象物における自車両10からこの対象物までの距離の差が所定値以下の場合、複数のこの対象物における視差オフセット量を平均するようにしてもよい。たとえば、図7に示すように、視差オフセット量を算出する際に基準とする対象物を赤外線カメラ2R,2Lの撮像画像により得られた前方車両FBとすることができる。前方車両FBは、複数の局所画像領域LA3〜LA5に亘る1つの対象物である。なお、この場合に視差は、基準画像の対象物BOと同一の探索画像の対象物SOを水平方向の位置が一致するようにするエピポーラ拘束の基で算出する。なお、赤外線カメラ2R,2Lの撮像画像から抽出された対象物が車両であるか否かの判定は、例えば本出願人による特開2004−348645号の図7に記載されている処理で行うことができる。本例によれば、複数の照射領域におけるそれぞれの自車両10から対象物までの距離の差が所定値以下の場合、複数の対象物における視差オフセット量を平均する。したがって、所定条件を満たす複数の照射領域における対象物までの測定距離誤差にばらつきがあるような場合でも、測定誤差ばらつきの影響が低減され、当該複数の照射領域のそれぞれにおいて距離が測定された複数の対象物を一部として有する1つの物体(具体的には、前方車両)について高精度に視差オフセット量を算出することができる。   In addition, when there are a plurality of objects that satisfy the predetermined condition and the difference in distance from the vehicle 10 to the object in each object calculated in STEP 104 is equal to or less than a predetermined value, the parallax offsets in the plurality of objects The amount may be averaged. For example, as shown in FIG. 7, the object to be used as a reference when calculating the parallax offset amount can be the front vehicle FB obtained from the captured images of the infrared cameras 2R and 2L. The forward vehicle FB is one object that spans a plurality of local image areas LA3 to LA5. In this case, the parallax is calculated based on the epipolar constraint that causes the horizontal position of the object SO of the search image that is the same as the object BO of the reference image to match. Note that whether or not the object extracted from the captured images of the infrared cameras 2R and 2L is a vehicle is determined by, for example, the process described in FIG. 7 of Japanese Patent Application Laid-Open No. 2004-348645 by the present applicant. Can do. According to this example, when the difference in distance from each vehicle 10 to the object in the plurality of irradiation areas is equal to or less than the predetermined value, the parallax offset amounts in the plurality of objects are averaged. Therefore, even when there are variations in measurement distance errors to the object in a plurality of irradiation regions that satisfy a predetermined condition, the influence of measurement error variations is reduced, and the plurality of distances measured in each of the plurality of irradiation regions. It is possible to calculate the parallax offset amount with high accuracy for one object (specifically, the preceding vehicle) having the target object as a part.

なお、画像処理ユニット1によりSTEP102の処理を実行する構成が、本発明の同一対象物判定手段に相当し、STEP106の処理を実行する構成が、本発明の視差算出手段に相当し、STEP108の処理を実行する構成が、本発明の視差オフセット量算出手段に相当する。
[第2実施形態]
次に、本発明の車両周辺監視装置における第2実施形態について説明する。本実施形態は、第1実施形態における図4に示す視差オフセット量算出処理を、図8に示す視差オフセット量算出処理にしたものである。
The configuration in which the processing of STEP 102 is performed by the image processing unit 1 corresponds to the same object determination unit of the present invention, and the configuration of executing the processing in STEP 106 corresponds to the parallax calculation unit of the present invention. The configuration for executing this corresponds to the parallax offset amount calculation means of the present invention.
[Second Embodiment]
Next, a second embodiment of the vehicle periphery monitoring device of the present invention will be described. In the present embodiment, the parallax offset amount calculation process shown in FIG. 4 in the first embodiment is changed to the parallax offset amount calculation process shown in FIG.

まず、レーダ装置3により対象物までの距離に基づいて対象物が前方車両があるか否かを判定する(図8/STEP200)。具体的には、第1の時刻においてレーダ装置3で測定した対象物までの距離と、第2の時刻においてレーダ装置3で測定した対象物までの距離との差が、あらかじめ設定した所定値以内である場合に、レーダ装置3により距離を測定した対象物が前方車両であると判定する。   First, the radar device 3 determines whether or not there is a vehicle ahead of the object based on the distance to the object (FIG. 8 / STEP 200). Specifically, the difference between the distance to the object measured by the radar device 3 at the first time and the distance to the object measured by the radar device 3 at the second time is within a predetermined value set in advance. In this case, it is determined that the object whose distance is measured by the radar device 3 is a forward vehicle.

次いで、レーダ装置3により距離を測定した対象物が前方車両であると判定された場合(図8/STEP200‥YES)、前方車両までの距離を、レーダ装置3から画像処理ユニット1に送信された反射強度データに基づいて算出する(図8/STEP202)。   Next, when it is determined that the object whose distance has been measured by the radar device 3 is a preceding vehicle (FIG. 8 / STEP 200... YES), the distance to the preceding vehicle is transmitted from the radar device 3 to the image processing unit 1. Calculation is based on the reflection intensity data (FIG. 8 / STEP 202).

そして、赤外線カメラ2R,2Lの撮像画像により得られた前方車両の視差を算出する(図8/STEP204)。なお、当該視差は、図7に示すように、基準画像の対象物BOと同一の探索画像の対象物SOを水平方向の位置が一致するようにするエピポーラ拘束の基で算出する。   Then, the parallax of the front vehicle obtained from the captured images of the infrared cameras 2R and 2L is calculated (FIG. 8 / STEP 204). As shown in FIG. 7, the parallax is calculated based on epipolar restraint so that the horizontal position of the object SO of the search image identical to the object BO of the reference image matches.

その後、STEP202により算出された自車両10から対象物までの距離と、STEP204により算出された対象物の視差とに基づいて視差オフセット量が算出される(図8/STEP206)。具体的に視差オフセット量Offsetは式(1)で算出される。   Thereafter, a parallax offset amount is calculated based on the distance from the host vehicle 10 calculated in STEP 202 to the object and the parallax of the object calculated in STEP 204 (FIG. 8 / STEP 206). Specifically, the parallax offset amount Offset is calculated by Expression (1).

そして、視差オフセット量を、本視差オフセット量算出処理の結果により得られた値に更新する(視差補正手段)。   Then, the parallax offset amount is updated to a value obtained as a result of this parallax offset amount calculation process (parallax correcting unit).

なお、レーダ装置3により距離測定した対象物が前方車両であると判定された対象物が複数ある場合には、複数の対象物における視差オフセット量を平均するようにしてもよい。   In addition, when there are a plurality of objects in which it is determined that the object whose distance is measured by the radar apparatus 3 is a forward vehicle, the parallax offset amounts of the plurality of objects may be averaged.

前記機能を発揮する車両周辺監視装置によれば、レーダ装置3により対象物までの距離に基づいて対象物が前方車両があると判定された場合、レーダ装置3で検出された車両から前方車両までの距離と赤外線カメラ2R,2Lにより得られた前方車両の視差とに基づいて、2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量が算出される(図8/S200〜206、図7参照)。自車両と同一速度で移動している対象物は、自車両との相対距離が変化しないため視差は一定であることに鑑みて、前記のような方法により視差オフセット量を高精度に算出することができる。   According to the vehicle periphery monitoring device that exhibits the above function, when the radar device 3 determines that the target object is a forward vehicle based on the distance to the target object, from the vehicle detected by the radar device 3 to the forward vehicle. , And the parallax of the vehicle ahead of the vehicle obtained by the infrared cameras 2R and 2L, the amount of parallax offset due to the deviation in parallelism between the optical axes of the two imaging devices is calculated (FIGS. 8 / S200 to S206, (See FIG. 7). An object moving at the same speed as the host vehicle, the parallax is constant because the relative distance to the host vehicle does not change, and the parallax offset amount is calculated with high accuracy by the method as described above. Can do.

なお、画像処理ユニット1によりSTEP200の処理を実行する構成が、本発明の車両判定手段に相当し、STEP204の処理を実行する構成が、本発明の視差算出手段に相当し、STEP206の処理を実行する構成が、本発明の視差オフセット量算出手段に相当する。
[第3実施形態]
次に、本発明の車両周辺監視装置における第3実施形態について説明する。本実施形態は、第1実施形態における図4に示す視差オフセット量算出処理を、図9に示す視差オフセット量算出処理にしたものである。
Note that the configuration in which the processing of STEP 200 is performed by the image processing unit 1 corresponds to the vehicle determination unit of the present invention, and the configuration of executing the processing in STEP 204 corresponds to the parallax calculation unit of the present invention and executes the processing of STEP 206. This configuration corresponds to the parallax offset amount calculation means of the present invention.
[Third embodiment]
Next, a third embodiment of the vehicle periphery monitoring device of the present invention will be described. In the present embodiment, the parallax offset amount calculation processing shown in FIG. 4 in the first embodiment is changed to the parallax offset amount calculation processing shown in FIG.

まず、赤外線カメラ2R,2Lにより得られた対象物が前方車両があるか否かを判定する(図9/STEP300)。たとえば、メモリにあらかじめ保存されているテンプレートとパターンマッチングすることにより判定する。   First, it is determined whether or not the object obtained by the infrared cameras 2R and 2L has a forward vehicle (FIG. 9 / STEP 300). For example, the determination is made by pattern matching with a template stored in advance in a memory.

次いで、赤外線カメラ2R,2Lにより得られた対象物が前方車両であると判定された場合(図9/STEP300‥YES)、前方車両までの距離を、レーダ装置3から画像処理ユニット1に送信された反射強度データに基づいて算出する(図9/STEP302)。   Next, when it is determined that the object obtained by the infrared cameras 2R and 2L is a front vehicle (FIG. 9 / STEP 300... YES), the distance to the front vehicle is transmitted from the radar device 3 to the image processing unit 1. It is calculated based on the reflected intensity data (FIG. 9 / STEP 302).

そして、赤外線カメラ2R,2Lの撮像画像により得られた前方車両の視差を算出する(図9/STEP304)。なお、当該視差は、図7に示すように、基準画像の対象物BOと同一の探索画像の対象物SOを水平方向の位置が一致するようにするエピポーラ拘束の基で算出する。   Then, the parallax of the front vehicle obtained from the captured images of the infrared cameras 2R and 2L is calculated (FIG. 9 / STEP 304). As shown in FIG. 7, the parallax is calculated based on epipolar restraint so that the horizontal position of the object SO of the search image identical to the object BO of the reference image matches.

その後、STEP302により算出された自車両10から対象物までの距離と、STEP304により算出された対象物の視差とに基づいて視差オフセット量が算出される(図9/STEP306)。具体的に視差オフセット量Offsetは式(1)で算出される。   Thereafter, a parallax offset amount is calculated based on the distance from the host vehicle 10 calculated in STEP 302 to the object and the parallax of the object calculated in STEP 304 (FIG. 9 / STEP 306). Specifically, the parallax offset amount Offset is calculated by Expression (1).

そして、視差オフセット量を、本視差オフセット量算出処理の結果により得られた値に更新する(視差補正手段)。   Then, the parallax offset amount is updated to a value obtained as a result of this parallax offset amount calculation process (parallax correcting unit).

前記機能を発揮する車両周辺監視装置によれば、赤外線カメラ2R,2Lにより得られた対象物が前方車両があると判定された場合、レーダ装置3で検出された車両から前方車両までの距離と赤外線カメラ2R,2Lにより得られた前方車両の視差とに基づいて、赤外線カメラ2R,2Lの光軸間平行度ずれに起因する視差オフセット量が算出される(図9/S300〜306、図7参照)。自車両と同一速度で移動している対象物は、自車両との相対距離が変化しないため視差は一定であることに鑑みて、前記のような方法により視差オフセット量を高精度に算出することができる。   According to the vehicle periphery monitoring device that exhibits the above function, when it is determined that the object obtained by the infrared cameras 2R and 2L is a front vehicle, the distance from the vehicle detected by the radar device 3 to the front vehicle is Based on the parallax of the preceding vehicle obtained by the infrared cameras 2R and 2L, the parallax offset amount resulting from the deviation in parallelism between the optical axes of the infrared cameras 2R and 2L is calculated (FIGS. 9 / S300 to 306, FIG. 7). reference). An object moving at the same speed as the host vehicle, the parallax is constant because the relative distance to the host vehicle does not change, and the parallax offset amount is calculated with high accuracy by the method as described above. Can do.

なお、画像処理ユニット1によりSTEP300の処理を実行する構成が、本発明の車両判定手段に相当し、STEP304の処理を実行する構成が、本発明の視差算出手段に相当し、STEP306の処理を実行する構成が、本発明の視差オフセット量算出手段に相当する。   The configuration in which the processing of STEP 300 is performed by the image processing unit 1 corresponds to the vehicle determination unit of the present invention, and the configuration of executing the processing in STEP 304 corresponds to the parallax calculation unit of the present invention and executes the processing of STEP 306. This configuration corresponds to the parallax offset amount calculation means of the present invention.

本発明の車両の周辺監視装置の一実施形態の全体構成を示す図The figure which shows the whole structure of one Embodiment of the periphery monitoring apparatus of the vehicle of this invention. 図1の周辺監視装置を備えた車両の斜視図The perspective view of the vehicle provided with the periphery monitoring apparatus of FIG. レーダ装置の走査範囲に関する説明図Explanatory drawing about the scanning range of the radar device 第1実施形態における視差オフセット量算出処理を示すフローチャートThe flowchart which shows the parallax offset amount calculation process in 1st Embodiment. 画像処理ユニットの処理を説明するための図The figure for demonstrating the process of an image processing unit 画像処理ユニットの処理を説明するための図The figure for demonstrating the process of an image processing unit 画像処理ユニットの処理を説明するための図The figure for demonstrating the process of an image processing unit 第2実施形態における視差オフセット量算出処理を示すフローチャートThe flowchart which shows the parallax offset amount calculation process in 2nd Embodiment. 第3実施形態における視差オフセット量算出処理を示すフローチャートThe flowchart which shows the parallax offset amount calculation process in 3rd Embodiment.

符号の説明Explanation of symbols

1…画像処理ユニット(同一対象物判定手段、車両判定手段、視差オフセット量算出手段、視差補正手段)、2R,2L…赤外線カメラ(撮像装置)、3…レーダ装置 DESCRIPTION OF SYMBOLS 1 ... Image processing unit (same object determination means, vehicle determination means, parallax offset amount calculation means, parallax correction means), 2R, 2L ... infrared camera (imaging device), 3 ... radar device

Claims (4)

車両に搭載された2つの撮像装置により得られた2つの撮像画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出して車両の周辺を監視する車両周辺監視装置であって、
前記車両から放射状に広がる複数の送信波の照射領域ごとにおける反射波の強度を検知することにより第1の対象物までの距離を検出するレーダ装置と、
前記2つの撮像装置により得られた第2の対象物の視差を算出する視差算出手段と、
前記第1の対象物と前記第2の対象物とが同一対象物であるか否かを判定する同一対象物判定手段と、
前記同一対象物判定手段により前記第1の対象物と前記第2の対象物とが前記同一対象物であると判定された場合、前記レーダ装置で検出された前記車両から前記同一対象物までの距離と前記視差算出手段により算出された前記2つの撮像装置により得られた前記同一対象物の視差とに基づいて、前記2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量を算出する視差オフセット量算出手段と、
前記視差オフセット量算出手段により算出された視差オフセット量に基づいて視差を補正する視差補正手段とを備え、
前記同一対象物判定手段は、前記レーダ装置により距離が検出された一の前記照射領域に第1の対象物が1つのみ存在し、かつ、前記撮像画像を前記照射領域に対応するように分割した局所画像領域に関して、前記一の照射領域に対応する前記撮像画像における一の局所画像領域に、前記2つの撮像装置により得られた第2の対象物が1つのみ存在するという所定条件が満たされているか否かに応じて、前記第1の対象物と前記第2の対象物とが同一対象物であるか否かを判定することを特徴とする車両周辺監視装置。
Vehicle periphery monitoring for calculating the parallax of an object based on two captured images obtained by two imaging devices mounted on the vehicle, and detecting the distance from the parallax to the object to monitor the periphery of the vehicle A device,
A radar device that detects the distance to the first object by detecting the intensity of the reflected wave in each of the irradiation areas of the plurality of transmission waves that radiate from the vehicle;
Parallax calculation means for calculating parallax of the second object obtained by the two imaging devices;
The same object determining means for determining whether or not the first object and the second object are the same object;
When it is determined that the first object and the second object are the same object by the same object determination unit, the vehicle from the vehicle detected by the radar device to the same object Based on the distance and the parallax of the same object obtained by the two imaging devices calculated by the parallax calculation means, a parallax offset amount caused by a deviation in parallelism between the optical axes of the two imaging devices is calculated. Parallax offset amount calculating means for performing,
Parallax correction means for correcting parallax based on the parallax offset amount calculated by the parallax offset amount calculation means ,
The same object determination unit divides the captured image so that only one first object exists in one irradiation area where the distance is detected by the radar apparatus, and the captured image corresponds to the irradiation area. The predetermined condition that only one second object obtained by the two imaging devices is present in one local image region in the captured image corresponding to the one irradiation region is satisfied with respect to the local image region thus obtained. A vehicle periphery monitoring device that determines whether or not the first object and the second object are the same object, depending on whether or not the operation is performed .
請求項1に記載の車両周辺監視装置において、
前記視差オフセット量算出手段は、前記同一対象物判定手段により複数の前記照射領域と該複数の照射領域にそれぞれ対応する複数の前記局所画像領域とについて前記所定条件が満たされている場合、前記第1の対象物と前記第2の対象物とが同一であると判定された複数の前記同一対象物における前記視差オフセット量を平均し、
前記視差補正手段は、前記平均された視差オフセット量に基づいて視差を補正することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 ,
The parallax offset amount calculating means, when the predetermined condition is satisfied for the plurality of irradiation areas and the plurality of local image areas respectively corresponding to the plurality of irradiation areas by the same object determination means, Average the parallax offset amounts of the plurality of the same objects determined to be the same as the one object and the second object;
The vehicle periphery monitoring apparatus, wherein the parallax correction unit corrects parallax based on the averaged parallax offset amount.
車両に搭載された2つの撮像装置により得られた2つの撮像画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出して車両の周辺を監視する車両周辺監視装置であって、
前記車両から放射状に広がる複数の送信波の照射領域ごとにおける反射波の強度を検知することにより対象物までの距離を検出するレーダ装置と、
前記レーダ装置により前記対象物までの距離に基づいて前記対象物が前方車両であるか否かを判定する車両判定手段と、
前記2つの撮像装置により得られた前記対象物の視差を算出する視差算出手段と、
前記車両判定手段により前記対象物が前方車両であると判定された場合、前記レーダ装置で検出された前記車両から前記前方車両までの距離と前記視差算出手段により算出された前記2つの撮像装置により得られた前記前方車両の視差とに基づいて、前記2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量を算出する視差オフセット量算出手段と、
前記視差オフセット量算出手段により算出された視差オフセット量に基づいて視差を補正する視差補正手段とを備え、
前記視差オフセット量算出手段は、前記車両判定手段により前記対象物が前方車両であると判定された場合、前記視差オフセット量を前記前方車両のみに基づいて算出することを特徴とする車両周辺監視装置。
Vehicle periphery monitoring for calculating the parallax of an object based on two captured images obtained by two imaging devices mounted on the vehicle, and detecting the distance from the parallax to the object to monitor the periphery of the vehicle A device,
A radar device that detects a distance to an object by detecting an intensity of a reflected wave in each irradiation region of a plurality of transmission waves that radiate from the vehicle;
Vehicle determination means for determining whether or not the object is a forward vehicle based on a distance to the object by the radar device;
Parallax calculating means for calculating parallax of the object obtained by the two imaging devices;
When the vehicle determination means determines that the object is a front vehicle, the distance from the vehicle to the front vehicle detected by the radar device and the two imaging devices calculated by the parallax calculation means Parallax offset amount calculation means for calculating a parallax offset amount caused by a parallelism shift between the optical axes of the two imaging devices based on the obtained parallax of the preceding vehicle;
Parallax correction means for correcting parallax based on the parallax offset amount calculated by the parallax offset amount calculation means ,
The parallax offset amount calculation unit calculates the parallax offset amount based on only the front vehicle when the vehicle determination unit determines that the object is a front vehicle. .
車両に搭載された2つの撮像装置により得られた2つの撮像画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出して車両の周辺を監視する車両周辺監視装置であって、
前記車両から放射状に広がる複数の送信波の照射領域ごとにおける反射波の強度を検知することにより対象物までの距離を検出するレーダ装置と、
前記2つの撮像装置により得られた前記対象物が前方車両であるか否かを判定する車両判定手段と、
前記2つの撮像装置により得られた前記対象物の視差を算出する視差算出手段と、
前記車両判定手段により前記対象物が前方車両であると判定された場合、前記レーダ装置で検出された前記車両から前記前方車両までの距離と前記視差算出手段により算出された前記2つの撮像装置により得られた前記前方車両の視差とに基づいて、前記2つの撮像装置の光軸間平行度ずれに起因する視差オフセット量を算出する視差オフセット量算出手段と、
前記視差オフセット量算出手段により算出された視差オフセット量に基づいて視差を補正する視差補正手段とを備え、
前記視差オフセット量算出手段は、前記車両判定手段により前記対象物が前方車両であると判定された場合、前記視差オフセット量を前記前方車両のみに基づいて算出することを特徴とする車両周辺監視装置。
Vehicle periphery monitoring for calculating the parallax of an object based on two captured images obtained by two imaging devices mounted on the vehicle, and detecting the distance from the parallax to the object to monitor the periphery of the vehicle A device,
A radar device that detects a distance to an object by detecting an intensity of a reflected wave in each irradiation region of a plurality of transmission waves that radiate from the vehicle;
Vehicle determination means for determining whether or not the object obtained by the two imaging devices is a forward vehicle;
Parallax calculating means for calculating parallax of the object obtained by the two imaging devices;
When the vehicle determination means determines that the object is a front vehicle, the distance from the vehicle to the front vehicle detected by the radar device and the two imaging devices calculated by the parallax calculation means Parallax offset amount calculation means for calculating a parallax offset amount caused by a parallelism shift between the optical axes of the two imaging devices based on the obtained parallax of the preceding vehicle;
Parallax correction means for correcting parallax based on the parallax offset amount calculated by the parallax offset amount calculation means ,
The parallax offset amount calculation unit calculates the parallax offset amount based on only the front vehicle when the vehicle determination unit determines that the object is a front vehicle. .
JP2008209620A 2008-08-18 2008-08-18 Vehicle periphery monitoring device Expired - Fee Related JP5280768B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008209620A JP5280768B2 (en) 2008-08-18 2008-08-18 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008209620A JP5280768B2 (en) 2008-08-18 2008-08-18 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010044009A JP2010044009A (en) 2010-02-25
JP5280768B2 true JP5280768B2 (en) 2013-09-04

Family

ID=42015503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008209620A Expired - Fee Related JP5280768B2 (en) 2008-08-18 2008-08-18 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5280768B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10338211B2 (en) 2016-11-24 2019-07-02 Denso Corporation Apparatus for measuring distance
US10713807B2 (en) 2017-09-29 2020-07-14 Denso Corporation Vicinity supervising device and vicinity supervising method of vehicle
US10733749B2 (en) 2017-09-22 2020-08-04 Denso Corporation Vehicle vicinity supervising device and vicinity supervising method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5440461B2 (en) * 2010-09-13 2014-03-12 株式会社リコー Calibration apparatus, distance measurement system, calibration method, and calibration program
JP6187609B2 (en) * 2010-09-14 2017-08-30 株式会社リコー Arithmetic device, stereo camera device, device control system and program
JP6443502B2 (en) * 2012-03-21 2018-12-26 株式会社リコー Image processing apparatus, photographing apparatus, control system, moving object, and program
JP6182866B2 (en) 2012-03-21 2017-08-23 株式会社リコー Calibration device, distance measuring device, and vehicle
CN103278134A (en) * 2013-04-29 2013-09-04 苏州百纳思光学科技有限公司 Car far-infrared night-vision range finding system
JP6319030B2 (en) * 2014-10-08 2018-05-09 三菱電機株式会社 Target detection device
JP6521796B2 (en) * 2015-08-26 2019-05-29 株式会社Subaru Stereo image processing device
JP6617524B2 (en) * 2015-11-12 2019-12-11 豊田合成株式会社 Vehicle driving support system
JP6970577B2 (en) * 2017-09-29 2021-11-24 株式会社デンソー Peripheral monitoring device and peripheral monitoring method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3913878B2 (en) * 1998-01-14 2007-05-09 本田技研工業株式会社 Vehicle object detection device
JP3592531B2 (en) * 1998-06-17 2004-11-24 本田技研工業株式会社 Vehicle distance measuring device
JP4479174B2 (en) * 2003-06-30 2010-06-09 株式会社豊田中央研究所 Object detection device
JP3941765B2 (en) * 2003-09-11 2007-07-04 トヨタ自動車株式会社 Object detection device
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detection device
JP4655961B2 (en) * 2006-02-27 2011-03-23 トヨタ自動車株式会社 Structure shape estimation device, obstacle detection device, and structure shape estimation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10338211B2 (en) 2016-11-24 2019-07-02 Denso Corporation Apparatus for measuring distance
US10733749B2 (en) 2017-09-22 2020-08-04 Denso Corporation Vehicle vicinity supervising device and vicinity supervising method
US10713807B2 (en) 2017-09-29 2020-07-14 Denso Corporation Vicinity supervising device and vicinity supervising method of vehicle

Also Published As

Publication number Publication date
JP2010044009A (en) 2010-02-25

Similar Documents

Publication Publication Date Title
JP5280768B2 (en) Vehicle periphery monitoring device
EP3100002B1 (en) Camera calibration method
US20200278202A1 (en) Ranging apparatus and moving object capable of high-accuracy ranging
JP5615441B2 (en) Image processing apparatus and image processing method
US7697029B2 (en) Image display apparatus and method
CN102187367B (en) Vehicle periphery monitoring device
CN107407558B (en) Measurement tool, calibration method, calibration device, and program
WO2012120856A1 (en) Object detection device and object detection method
US9766067B2 (en) Method of acquiring horizontal distance between camera and target, and camera and surveillance system adopting the method
JP6791341B2 (en) Calibration method, calibration equipment, and program
JP6209833B2 (en) Inspection tool, inspection method, stereo camera production method and system
JP2009014445A (en) Range finder
JP6920159B2 (en) Vehicle peripheral monitoring device and peripheral monitoring method
CN102016921A (en) Image processing device
JP4894771B2 (en) Calibration apparatus and calibration method
JP4486997B2 (en) Vehicle periphery monitoring device
JP2008309637A (en) Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system
JP2008292278A (en) Optical deviation detection method of distance detection device, and distance detection device
US12069234B2 (en) Distance measurement device, moving device, distance measurement method, control method for moving device, and storage medium
JP2006322853A (en) Distance measuring device, distance measuring method and distance measuring program
JP2006322795A (en) Image processing device, image processing method and image processing program
JP4165966B2 (en) Object recognition device
EP4030746B1 (en) Image processing device and stereo camera device using same
US11410338B2 (en) Measuring device and measuring system
JP5580062B2 (en) Obstacle detection alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130523

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5280768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees