[go: up one dir, main page]

JP2001169310A - Distance detection device - Google Patents

Distance detection device

Info

Publication number
JP2001169310A
JP2001169310A JP34599699A JP34599699A JP2001169310A JP 2001169310 A JP2001169310 A JP 2001169310A JP 34599699 A JP34599699 A JP 34599699A JP 34599699 A JP34599699 A JP 34599699A JP 2001169310 A JP2001169310 A JP 2001169310A
Authority
JP
Japan
Prior art keywords
parallax
image
vehicle
distance
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34599699A
Other languages
Japanese (ja)
Other versions
JP2001169310A5 (en
Inventor
Takayuki Tsuji
孝之 辻
Shinji Nagaoka
伸治 長岡
Hiroshi Hattori
弘 服部
Masato Watanabe
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP34599699A priority Critical patent/JP2001169310A/en
Publication of JP2001169310A publication Critical patent/JP2001169310A/en
Publication of JP2001169310A5 publication Critical patent/JP2001169310A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 従来に比べて少ない演算量で、車両に搭載さ
れた2つの撮像装置の光軸間平行度ずれに起因する誤差
を補正して正確な視差を算出し、距離検出精度を向上さ
せることできる距離検出装置を提供する。 【解決手段】 時刻t0及びt1において、静止対象物
の視差δd(t0)δd(t1)の検出を行うととも
に、時刻t0からt1までの車両の走行距離Lを算出す
る。検出視差δd(t0)、δd(t1)及び走行距離
Lに基づいて、カメラ1R、1Lの光軸間平行度ずれに
起因する誤差を視差オフセット量D(φ)として求め、
視差オフセット量D(φ)により検出視差δdを補正す
る。
(57) [Summary] [Problem] To calculate an accurate parallax by correcting an error caused by a parallelism shift between optical axes of two imaging devices mounted on a vehicle with a small amount of calculation compared with the related art, and calculating a distance. Provided is a distance detection device capable of improving detection accuracy. SOLUTION: At times t0 and t1, a parallax δd (t0) δd (t1) of a stationary object is detected, and a traveling distance L of the vehicle from time t0 to t1 is calculated. Based on the detected parallaxes δd (t0) and δd (t1) and the traveling distance L, an error due to the parallelism deviation between the optical axes of the cameras 1R and 1L is obtained as a parallax offset amount D (φ),
The detected parallax δd is corrected by the parallax offset amount D (φ).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両に搭載された
2つ撮像装置により得られる2つの画像から対象物の視
差を算出し、その視差に基づいて対象物までの距離を検
出する距離検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to distance detection for calculating a parallax of an object from two images obtained by two image pickup devices mounted on a vehicle and detecting a distance to the object based on the parallax. Related to the device.

【0002】[0002]

【従来の技術】2つの撮像装置により得られる2つの画
像に基づいて、画像内に含まれる対象物までの距離を検
出するための手法は従来より知られており、この手法で
は2つの撮像装置の光軸の平行度が距離検出精度に大き
く影響する。すなわち、2つの撮像装置の光軸が平行で
ない場合(光軸間平行度ずれがある場合)には、2つの
撮像装置の取り付け間隔に比べて十分遠い位置にある対
象物(事実上無限遠にあるとみなせる対象物)の視差が
「0」とならないため、検出される視差に常に誤差が含
まれることとなる。
2. Description of the Related Art A method for detecting a distance to an object included in an image based on two images obtained by two image pickup devices has been conventionally known. In this method, two image pickup devices are used. The parallelism of the optical axis greatly affects the distance detection accuracy. That is, when the optical axes of the two imaging devices are not parallel (when there is a parallelism shift between the optical axes), an object located at a position sufficiently far from the mounting interval of the two imaging devices (effectively at infinity) Since the parallax of the object that can be regarded as being present is not “0”, the detected parallax always includes an error.

【0003】そこで、2つの撮像装置の取り付け間隔
(基線長)を短くして小型堅牢な構造とし、光軸間平行
度を正確に保持することが考えられるが、基線長を短く
すると光軸の平行度が確保されても、距離検出精度が低
下するという問題がある。また車両などに搭載される場
合には、小型堅牢であっても運転にともなう振動や車体
の歪みによって、光軸平行度が経年変化する可能性が高
い。
Therefore, it is conceivable to shorten the mounting interval (base line length) between the two image pickup devices to obtain a compact and robust structure and to maintain the parallelism between the optical axes accurately. Even if the parallelism is ensured, there is a problem that the distance detection accuracy is reduced. Further, when mounted on a vehicle or the like, even if it is small and robust, there is a high possibility that the optical axis parallelism changes over time due to vibration and vehicle body distortion accompanying driving.

【0004】そこで、車両の搭載された2つ撮像装置の
取り付け角度差を、各撮像装置から得られる画像に基づ
いて算出し、該算出した取り付け角度差を考慮して距離
を検出する測距装置が、既に提案されている(特開平9
−126759号公報)。この公報に示された取り付け
角度差算出手法は、自車両近傍の道路上の白線を認識
し、その白線に基づいて各撮像装置の無限遠点に対応す
る画像上の位置を求め、その位置のずれから取り付け角
度差を算出するものである。
[0004] Accordingly, a distance measuring device that calculates a mounting angle difference between two imaging devices mounted on a vehicle based on images obtained from the respective imaging devices, and detects a distance in consideration of the calculated mounting angle difference. Has already been proposed (Japanese Unexamined Patent Application Publication No.
-126759). The mounting angle difference calculation method disclosed in this publication recognizes a white line on a road near the host vehicle, finds a position on an image corresponding to an infinity point of each imaging device based on the white line, and calculates the position of the position. The attachment angle difference is calculated from the displacement.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記公
報に示された手法は、自車両の近傍の白線を認識し、そ
の白線に基づいて無限遠点に対応する画像上の位置を求
めるものであるため、演算量が多くなる上、精度が出に
くく、安定した結果を得ることが困難であった。
However, the technique disclosed in the above publication recognizes a white line near the host vehicle and obtains a position on an image corresponding to a point at infinity based on the white line. Therefore, the amount of calculation is increased, the accuracy is hardly obtained, and it is difficult to obtain a stable result.

【0006】本発明は上述した点に鑑みなされたもので
あり、従来に比べて少ない演算量で、車両に搭載された
2つの撮像装置の光軸間平行度ずれに起因する誤差を補
正して正確な視差を算出し、距離検出精度を向上させる
ことできる距離検出装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and has been made to correct an error caused by a shift in parallelism between optical axes of two image pickup devices mounted on a vehicle with a smaller amount of calculation than in the related art. It is an object of the present invention to provide a distance detection device that can calculate an accurate parallax and improve the distance detection accuracy.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
請求項1に記載の発明は、車両に搭載された2つの撮像
手段によって得られる2つの画像に基づいて対象物の視
差を算出し、該視差から前記対象物までの距離を検出す
る距離検出装置において、第1及び第2の時刻において
静止対象物の視差を算出する静止対象物視差算出手段
と、前記第1の時刻から前記第2の時刻までの期間にお
ける前記車両の移動量を算出する車両移動量算出手段
と、前記第1及び第2の時刻における前記静止対象物の
視差並びに前記車両移動量に基づいて、前記2つの撮像
手段の光軸間平行度ずれに起因する視差オフセット量を
算出し、該算出した視差オフセット量により視差を補正
する視差補正手段とを備えることを特徴とする。
According to the first aspect of the present invention, a parallax of an object is calculated based on two images obtained by two image pickup units mounted on a vehicle. A distance detection device that detects a distance from the parallax to the object, a stationary object parallax calculating unit that calculates a parallax of the stationary object at first and second times, and a second object from the first time. A vehicle moving amount calculating unit that calculates a moving amount of the vehicle during a period up to the time, and the two imaging units based on a parallax of the stationary target object and the vehicle moving amount at the first and second times. And a parallax correcting unit that calculates a parallax offset amount caused by the deviation of the parallelism between the optical axes, and corrects the parallax based on the calculated parallax offset amount.

【0008】この構成によれば、第1及び第2の時刻に
おいて静止対象物の視差が算出されるとともに、第1の
時刻から第2の時刻までの間の車両移動量が算出され、
第1及び第2の時刻における静止対象物の視差並びに車
両移動量に基づいて、2つの撮像手段の光軸間平行度ず
れに起因する誤差を補正するための視差オフセット量が
算出され、この視差オフセット量により視差が補正され
るので、従来に比べて少ない演算量で、2つの撮像手段
の光軸間平行度ずれに起因する誤差を補正して正確な視
差を算出し、距離検出精度を向上させることできる。
According to this configuration, the parallax of the stationary target object is calculated at the first and second times, and the vehicle movement amount from the first time to the second time is calculated.
Based on the parallax of the stationary object and the vehicle movement amount at the first and second times, a parallax offset amount for correcting an error caused by a shift in parallelism between the optical axes of the two imaging units is calculated, and the parallax offset amount is calculated. Since the parallax is corrected by the offset amount, the error due to the deviation of the parallelism between the optical axes of the two imaging units is corrected with a smaller amount of calculation than in the past, the correct parallax is calculated, and the distance detection accuracy is improved. Can be done.

【0009】静止対象物視差算出手段は、車両走行中に
検知される可能性が高く、且つ確実に静止している対象
物(例えば、信号機や電柱)の特徴の有無により、静止
対象物を判定することが望ましい。
The stationary object parallax calculating means determines the stationary object based on the presence or absence of the characteristic of the object (for example, a traffic light or a telephone pole) which has a high possibility of being detected during traveling of the vehicle and is surely stationary. It is desirable to do.

【0010】[0010]

【発明の実施の形態】以下本発明の実施の形態を図面を
参照して説明する。図1は本発明の一実施形態にかかる
車両の周辺監視装置の構成を示す図であり、この装置
は、遠赤外線を検出可能な2つの赤外線カメラ1R,1
Lと、当該車両のヨーレートを検出するヨーレートセン
サ5と、当該車両の走行速度(車速)VCARを検出す
る車速センサ6と、ブレーキの操作量を検出するための
ブレーキセンサ7と、これらのカメラ1R,1Lによっ
て得られる画像データの基づいて車両前方の動物等の対
象物を検出し、衝突の可能性が高い場合に警報を発する
画像処理ユニット2と、音声で警報を発するためのスピ
ーカ3と、カメラ1Rまたは1Lによって得られる画像
を表示するとともに、衝突の可能性が高い対象物を運転
者に認識させるためのヘッドアップディスプレイ(以下
「HUD」という)4とを備えている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. This device includes two infrared cameras 1R and 1 capable of detecting far infrared rays.
L, a yaw rate sensor 5 for detecting a yaw rate of the vehicle, a vehicle speed sensor 6 for detecting a traveling speed (vehicle speed) VCAR of the vehicle, a brake sensor 7 for detecting a brake operation amount, and a camera 1R for these cameras. , An image processing unit 2 that detects an object such as an animal in front of the vehicle based on the image data obtained by 1L, and issues an alarm when the possibility of collision is high, and a speaker 3 that issues an alarm by voice; A head-up display (hereinafter, referred to as "HUD") 4 for displaying an image obtained by the camera 1R or 1L and for allowing the driver to recognize an object having a high possibility of collision is provided.

【0011】カメラ1R、1Lは、図2に示すように車
両10の前部に、車両10の横方向の中心軸に対してほ
ぼ対象な位置に配置されており、2つのカメラ1R、1
Lの光軸が互いに平行となり、両者の路面からの高さが
等しくなるように固定されている。赤外線カメラ1R、
1Lは、対象物の温度が高いほど、その出力信号レベル
が高くなる(輝度が増加する)特性を有している。
As shown in FIG. 2, the cameras 1R and 1L are arranged in front of the vehicle 10 at positions substantially symmetric with respect to the center axis of the vehicle 10 in the lateral direction.
The optical axes of L are fixed so that they are parallel to each other and their heights from the road surface are equal. Infrared camera 1R,
1L has the characteristic that the higher the temperature of the object, the higher the output signal level (the higher the luminance).

【0012】画像処理ユニット2は、入力アナログ信号
をディジタル信号に変換するA/D変換回路、ディジタ
ル化した画像信号を記憶する画像メモリ、各種演算処理
を行うCPU(Central Processing Unit)、CPUが
演算途中のデータを記憶するために使用するRAM(Ra
ndom Access Memory)、CPUが実行するプログラムや
テーブル、マップなどを記憶するROM(Read Only Me
mory)、スピーカ3の駆動信号、HUD4の表示信号な
どを出力する出力回路などを備えており、カメラ1R,
1L及びセンサ5〜7の出力信号は、ディジタル信号に
変換されて、CPUに入力されるように構成されてい
る。HUD4は、図2に示すように、車両10のフロン
トウインドウの、運転者の前方位置に画面4aが表示さ
れるように設けられている。
The image processing unit 2 includes an A / D conversion circuit for converting an input analog signal into a digital signal, an image memory for storing digitized image signals, a CPU (Central Processing Unit) for performing various types of arithmetic processing, and a CPU for performing arithmetic operations. RAM used to store intermediate data (Ra
ROM (Read Only Memory) for storing programs, tables, maps, etc., executed by the CPU.
mory), an output circuit for outputting a drive signal for the speaker 3, a display signal for the HUD 4, and the like.
1L and the output signals of the sensors 5 to 7 are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided such that a screen 4a is displayed at a position in front of the driver in a front window of the vehicle 10.

【0013】図3及び4は画像処理ユニット2における
処理の手順を示すフローチャートである。先ずステップ
S10では、カメラ1R、1Lの光軸間平行度のずれに
対応した視差オフセット量D(φ)を初期値(例えば工
場出荷時に設定された値、あるいは前回運転時に算出さ
れ、記憶装置に格納されていた視差オフセット量)に設
定し、次いでカメラ1R、1Lの出力信号をA/D変換
して画像メモリに格納する(ステップS11,S12,
S13)。画像メモリに格納される画像は、輝度情報を
含んだグレースケール画像である。図5(a)(b)
は、それぞれはカメラ1R,1Lによって得られるグレ
ースケール画像(カメラ1Rにより右画像が得られ、カ
メラ1Lにより左画像が得られる)を説明するための図
であり、ハッチングを付した領域は、中間階調(グレ
ー)の領域であり、太い実線で囲んだ領域が、輝度レベ
ルが高く(高温で)、画面上に白色として表示される対
象物の領域(以下「高輝度領域」という)である。右画
像と左画像では、同一の対象物の画面上の水平位置がず
れて表示されるので、このずれ(視差)によりその対象
物までの距離を算出することができる。
FIGS. 3 and 4 are flowcharts showing the processing procedure in the image processing unit 2. FIG. First, in step S10, the parallax offset amount D (φ) corresponding to the deviation of the parallelism between the optical axes of the cameras 1R and 1L is calculated as an initial value (for example, a value set at the time of factory shipment, or calculated at the time of the previous operation, and stored in the storage device). (The stored parallax offset amount), then A / D convert the output signals of the cameras 1R and 1L and store them in the image memory (steps S11, S12,
S13). The image stored in the image memory is a gray scale image including luminance information. FIGS. 5A and 5B
Is a diagram for explaining a grayscale image (a right image is obtained by the camera 1R and a left image is obtained by the camera 1L) obtained by the cameras 1R and 1L, respectively. An area surrounded by a thick solid line, which is a grayscale (gray) area, is an area of an object having a high luminance level (at high temperature) and displayed as white on a screen (hereinafter, referred to as a “high luminance area”). . In the right image and the left image, the horizontal position of the same object on the screen is shifted, so that the distance to the object can be calculated from the shift (parallax).

【0014】図3のステップS14では、右画像を基準
画像とし、その画像信号の2値化、すなわち、実験的に
決定される輝度閾値ITHより明るい領域を「1」
(白)とし、暗い領域を「0」(黒)とする処理を行
う。図6に図5(a)の画像を2値化した画像を示す。
この図は、ハッチングを付した領域が黒であり、太い実
線で囲まれた高輝度領域が白であることを示している。
In step S14 of FIG. 3, the right image is used as a reference image, and the image signal is binarized, that is, an area brighter than a luminance threshold ITH determined experimentally is set to "1".
(White) and the dark area is set to “0” (black). FIG. 6 shows an image obtained by binarizing the image shown in FIG.
This figure shows that the hatched area is black, and the high-luminance area surrounded by the thick solid line is white.

【0015】続くステップS15では、2値化した画像
データをランレングスデータに変換する処理を行う。図
7(a)はこれを説明するための図であり、この図では
2値化により白となった領域を画素レベルでラインL1
〜L8として示している。ラインL1〜L8は、いずれ
もy方向には1画素の幅を有しており、実際にはy方向
には隙間なく並んでいるが、説明のために離間して示し
ている。またラインL1〜L8は、x方向にはそれぞれ
2画素、2画素、3画素、8画素、7画素、8画素、8
画素、8画素の長さを有している。ランレングスデータ
は、ラインL1〜L8を各ラインの開始点(各ラインの
左端の点)の座標と、開始点から終了点(各ラインの右
端の点)までの長さ(画素数)とで示したものである。
例えばラインL3は、(x3,y5)、(x4,y5)
及び(x5,y5)の3画素からなるので、ランレング
スデータとしては、(x3,y5,3)となる。
In the following step S15, a process for converting the binarized image data into run-length data is performed. FIG. 7A is a diagram for explaining this. In FIG. 7A, an area whitened due to binarization is represented by a line L1 at a pixel level.
LL8. Each of the lines L1 to L8 has a width of one pixel in the y direction and is actually arranged without a gap in the y direction, but is shown apart for the sake of explanation. Lines L1 to L8 are respectively 2 pixels, 2 pixels, 3 pixels, 8 pixels, 7 pixels, 8 pixels, 8 pixels in the x direction.
Pixels have a length of 8 pixels. The run-length data indicates the lines L1 to L8 by using the coordinates of the start point of each line (the left end point of each line) and the length (the number of pixels) from the start point to the end point (the right end point of each line). It is shown.
For example, the line L3 is (x3, y5), (x4, y5)
And (x5, y5), the run-length data is (x3, y5, 3).

【0016】ステップS16、S17では、図7(b)
に示すように対象物のラベリングをすることにより、対
象物を抽出する処理を行う。すなわち、ランレングスデ
ータ化したラインL1〜L8のうち、y方向に重なる部
分のあるラインL1〜L3を1つの対象物1とみなし、
ラインL4〜L8を1つの対象物2とみなし、ランレン
グスデータに対象物ラベル1,2を付加する。この処理
により、例えば図6に示す高輝度領域が、それぞれ対象
物1から4として把握されることになる。
In steps S16 and S17, FIG.
A process of extracting the target object is performed by labeling the target object as shown in FIG. That is, among the lines L1 to L8 converted into run-length data, the lines L1 to L3 having a portion overlapping in the y direction are regarded as one object 1,
The lines L4 to L8 are regarded as one object 2, and object labels 1 and 2 are added to the run-length data. By this processing, for example, the high luminance areas shown in FIG.

【0017】ステップS18では図7(c)に示すよう
に、抽出した対象物の重心G、面積S及び破線で示す外
接四角形の縦横比ASPECTを算出する。面積Sは、
ランレングスデータの長さを同一対象物について積算す
ることにより算出し、重心Gの座標は、面積Sをx方向
に2等分する線のx座標及びy方向に2等分する線のy
座標として算出し、縦横比APECTは、図7(c)に
示すDyとDxとの比Dy/Dxとして算出する。な
お、重心Gの位置は、外接四角形の重心位置で代用して
もよい。
In step S18, as shown in FIG. 7C, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle indicated by the broken line are calculated. The area S is
The length of the run-length data is calculated by integrating the same object, and the coordinates of the center of gravity G are calculated as x-coordinates of a line that bisects the area S in the x-direction and y of a line that bisects the area S in the y-direction.
Calculated as coordinates, and the aspect ratio APECT is calculated as the ratio Dy / Dx between Dy and Dx shown in FIG. The position of the center of gravity G may be replaced by the position of the center of gravity of a circumscribed rectangle.

【0018】ステップS19では、対象物の時刻間追
跡、すなわちサンプリング周期毎に同一対象物の認識を
行う。アナログ量としての時刻tをサンプリング周期で
離散化した時刻をkとし、図8(a)に示すように時刻
kで対象物1,2を抽出した場合において、時刻(k+
1)で抽出した対象物3,4と、対象物1,2との同一
性判定を行う。具体的には、以下の同一性判定条件1)
〜3)を満たすときに、対象物1、2と対象物3、4と
は同一であると判定し、対象物3、4をそれぞれ1,2
というラベルに変更することにより、時刻間追跡が行わ
れる。
In step S19, tracking of the object between times, that is, recognition of the same object at each sampling period is performed. The time at which the time t as the analog quantity is discretized at the sampling period is k, and when the objects 1 and 2 are extracted at the time k as shown in FIG.
The identity of the objects 3 and 4 extracted in 1) and the objects 1 and 2 is determined. Specifically, the following identity determination conditions 1)
When 3) are satisfied, it is determined that the objects 1 and 2 are the same as the objects 3 and 4, and the objects 3 and 4 are respectively 1 and 2.
The time tracking is performed by changing the label to "."

【0019】1)時刻kにおける対象物i(=1,2)
の画像上での重心位置座標を、それぞれ(xi(k),
yi(k))とし、時刻(k+1)における対象物j
(=3,4)の画像上での重心位置座標を、(xj(k
+1),yj(k+1))としたとき、 |xj(k+1)−xi(k)|<Δx |yj(k+1)−yi(k)|<Δy であること。ただし、Δx、Δyは、それぞれx方向及
びy方向の画像上の移動量の許容値である。
1) Object i at time k (= 1, 2)
The coordinates of the position of the center of gravity on the image of (xi (k),
yi (k)) and the object j at time (k + 1)
The coordinates of the position of the center of gravity of the image of (= 3, 4) are represented by (xj (k
+1), yj (k + 1)), | xj (k + 1) −xi (k) | <Δx | yj (k + 1) −yi (k) | <Δy. Here, Δx and Δy are allowable values of the moving amount on the image in the x direction and the y direction, respectively.

【0020】2)時刻kにおける対象物i(=1,2)
の画像上での面積をSi(k)とし、時刻(k+1)に
おける対象物j(=3,4)の画像上での面積をSj
(k+1)としたとき、 Sj(k+1)/Si(k)<1±ΔS であること。ただし、ΔSは面積変化の許容値である。
2) Object i at time k (= 1, 2)
Is the area on the image Si (k), and the area of the object j (= 3, 4) on the image at time (k + 1) is Sj
When (k + 1), Sj (k + 1) / Si (k) <1 ± ΔS. Here, ΔS is an allowable value of the area change.

【0021】3)時刻kにおける対象物i(=1,2)
の外接四角形の縦横比をASPECTi(k)とし、時
刻(k+1)における対象物j(=3,4)の外接四角
形の縦横比をASPECTj(k+1)としたとき、 ASPECTj(k+1)/ASPECTi(k)<1
±ΔASPECT であること。ただし、ΔASPECTは縦横比変化の許
容値である。
3) Object i at time k (= 1, 2)
Let ASPECTi (k) denote the aspect ratio of the circumscribed rectangle of ASPECTj (k + 1), and let ASPECTj (k + 1) denote the aspect ratio of the circumscribed rectangle of the object j (= 3, 4) at time (k + 1). ) <1
± ΔASPECT. However, ΔASPECT is an allowable value of the change in the aspect ratio.

【0022】図8(a)と(b)とを対比すると、各対
象物は画像上での大きさが大きくなっているが、対象物
1と3とが上記同一性判定条件を満たし、対象物2と4
とが上記同一性判定条件を満たすので、対象物3、4は
それぞれ対象物1、2と認識される。このようにして認
識された各対象物の(重心の)位置座標は、時系列位置
データとしてメモリに格納され、後の演算処理に使用さ
れる。なお以上説明したステップS14〜S19の処理
は、2値化した基準画像(本実施形態では、右画像)つ
いて実行する。
8 (a) and 8 (b), each object has a larger size on the image, but the objects 1 and 3 satisfy the above-described identity determination condition, and Things 2 and 4
Satisfy the above-described identity determination condition, the objects 3 and 4 are recognized as the objects 1 and 2, respectively. The position coordinates (of the center of gravity) of each object recognized in this way are stored in a memory as time-series position data, and are used in subsequent arithmetic processing. The processes in steps S14 to S19 described above are executed for the binarized reference image (the right image in the present embodiment).

【0023】図3のステップS20では、車速センサ6
により検出される車速VCAR及びヨーレートセンサ5
より検出されるヨーレートYRを読み込み、ヨーレート
YRを時間積分することより、自車両10の回頭角θr
(図16参照)を算出する。
In step S20 of FIG. 3, the vehicle speed sensor 6
Speed VCAR and yaw rate sensor 5 detected by
By reading the detected yaw rate YR and integrating the yaw rate YR with time, the turning angle θr of the host vehicle 10 is obtained.
(See FIG. 16).

【0024】一方、ステップS31〜S34では、ステ
ップS19,S20の処理と平行して、対象物と自車両
10と距離zを算出する処理を行う。この演算はステッ
プS19,S20より長い時間を要するため、ステップ
S19,S20より長い周期(例えばステップS11〜
S20の実行周期の3倍程度の周期)で実行される。
On the other hand, in steps S31 to S34, processing for calculating the distance z between the object and the host vehicle 10 is performed in parallel with the processing in steps S19 and S20. Since this operation requires a longer time than steps S19 and S20, a period longer than steps S19 and S20 (for example, steps S11 to S20)
(The cycle is about three times the execution cycle of S20).

【0025】ステップS31では、基準画像(右画像)
の2値化画像によって追跡される対象物の中の1つを選
択することにより、図9(a)に示すように右画像から
探索画像R1(ここでは、外接四角形で囲まれる領域全
体を探索画像とする)を抽出する。続くステップS32
では、左画像中から探索画像に対応する画像(以下「対
応画像」という)を探索する探索領域を設定し、相関演
算を実行して対応画像を抽出する。具体的には、探索画
像R1の各頂点座標に応じて左画像中に図9(b)に示
すように、探索領域R2を設定し、探索領域R2内で探
索画像R1との相関の高さを示す輝度差分総和値C
(a,b)を下記式(1)により算出し、この総和値C
(a,b)が最小となる領域を対応画像として抽出す
る。なお、この相関演算は、2値画像ではなくグレース
ケール画像を用いて行う。また同一対象物についての過
去の位置データがあるときは、その位置データに基づい
て探索領域R2より狭い領域R2a(図9(b)に破線
で示す)を探索領域として設定する。
In step S31, a reference image (right image)
By selecting one of the objects tracked by the binarized image of (1), the search image R1 (here, the entire region surrounded by the circumscribed rectangle is searched from the right image as shown in FIG. Image). Subsequent step S32
Then, a search area for searching for an image corresponding to the search image (hereinafter referred to as “corresponding image”) is set from the left image, and a correlation operation is executed to extract the corresponding image. Specifically, as shown in FIG. 9B, a search region R2 is set in the left image according to each vertex coordinate of the search image R1, and the height of the correlation with the search image R1 in the search region R2. Brightness difference sum C indicating
(A, b) is calculated by the following equation (1), and the sum C
An area where (a, b) is minimum is extracted as a corresponding image. Note that this correlation operation is performed using a grayscale image instead of a binary image. When there is past position data for the same object, a region R2a (shown by a broken line in FIG. 9B) smaller than the search region R2 is set as a search region based on the position data.

【数1】 (Equation 1)

【0026】ここで、IR(m,n)は、図10に示す
探索画像R1内の座標(m,n)の位置の輝度値であ
り、IL(a+m−M,b+n−N)は、探索領域内の
座標(a,b)を基点とした、探索画像R1と同一形状
の局所領域R3内の座標(m,n)の位置の輝度値であ
る。基点の座標(a,b)を変化させて輝度差分総和値
C(a,b)が最小となる位置を求めることにより、対
応画像の位置が特定される。
Here, IR (m, n) is the luminance value at the position of the coordinates (m, n) in the search image R1 shown in FIG. 10, and IL (a + m-M, b + n-N) is the search value. The luminance value at the position of the coordinates (m, n) in the local region R3 having the same shape as the search image R1 with the coordinates (a, b) in the region as a base point. The position of the corresponding image is specified by changing the coordinates (a, b) of the base point and obtaining the position where the luminance difference total value C (a, b) is minimized.

【0027】ステップS32の処理により、図11に示
すように探索画像R1と、この対象物に対応する対応画
像R4とが抽出されるので、ステップS33では、探索
画像R1の重心位置と、画像中心線LCTRとの距離d
R(画素数)及び対応画像R4の重心位置と画像中心線
LCTRとの距離dL(画素数)を求め、距離dR及び
dLを加算することにより、検出視差δd(=dR+d
L)を算出し、下記式(2)に検出視差δd及び視差オ
フセット量D(φ)を適用して、視差Δdを算出する。
視差オフセット量D(φ)は、後述するステップS27
(図4)において、運転中に検出される静止対象物を用
いた演算により更新されるので、式(2)により検出視
差δdを補正することにより、2つのカメラ1R、1L
の光軸間平行度ずれに起因する誤差を除き、正確な視
差、ひいては正確な距離zを得ることができる。 Δd=δd−D(φ) (2)
By the process of step S32, the search image R1 and the corresponding image R4 corresponding to this object are extracted as shown in FIG. 11, so in step S33, the center of gravity of the search image R1 and the center of the image are extracted. Distance d from line LCTR
R (the number of pixels) and the distance dL (the number of pixels) between the center of gravity position of the corresponding image R4 and the image center line LCTR are obtained, and the distances dR and dL are added to obtain the detected parallax δd (= dR + d).
L) is calculated, and the parallax Δd is calculated by applying the detected parallax δd and the parallax offset D (φ) to the following equation (2).
The parallax offset amount D (φ) is determined in step S27 described later.
In FIG. 4, the two cameras 1 </ b> R and 1 </ b> L are updated by a calculation using a stationary target object detected during driving, and by correcting the detected parallax δd by Expression (2).
Except for the error caused by the deviation of the parallelism between the optical axes, it is possible to obtain an accurate parallax and, consequently, an accurate distance z. Δd = δd-D (φ) (2)

【0028】図12に示すように、カメラ1Lの光軸2
1Lが、カメラ1Rの光軸21Rに平行な直線22に対
して角度φ(以下「パン角φ」という)分だけ平行度が
ずれている場合の視差オフセット量をD(φ)とする
と、図13に示すように、距離zにかかわらず、検出視
差δdは、真の視差Δdより視差オフセット量D(φ)
分だけ大きくなるので、上記式(2)により正確な視差
を得ることができる。本実施形態では、2つカメラの光
軸が互いに開く方向(図12の方向)にずれたときのパ
ン角φ及び視差オフセット量D(φ)を正の値とし、逆
にずれたときを負の値としている。また検出視差δd
は、パン角φが負の値の場合、すなわち2つカメラの光
軸が互いに閉じる方向(図12の方向と逆方向)にずれ
たときは、右画像中の対象物像が、左画像中の対象物像
より右側に位置することがあるので、そのような場合
は、検出視差δdを負の値とする。
As shown in FIG. 12, the optical axis 2 of the camera 1L
Assuming that the amount of parallax offset when D is parallel to the straight line 22 parallel to the optical axis 21R of the camera 1R by an angle φ (hereinafter referred to as “pan angle φ”) is D (φ). As shown in FIG. 13, regardless of the distance z, the detected parallax δd is larger than the true parallax Δd by the parallax offset amount D (φ).
Since the distance becomes larger by an amount, an accurate parallax can be obtained by the above equation (2). In the present embodiment, the pan angle φ and the parallax offset amount D (φ) when the optical axes of the two cameras are shifted in a direction in which they are open to each other (direction of FIG. 12) are positive values, and when the optical axes are shifted, the negative values are negative. Value. Also, the detected parallax δd
Is that when the pan angle φ is a negative value, that is, when the optical axes of the two cameras are shifted in a direction to close each other (a direction opposite to the direction of FIG. 12), the object image in the right image is In such a case, the detected parallax δd is set to a negative value.

【0029】続くステップS33では、視差Δdを下記
式(3)に適用して、自車両10と、対象物との距離z
を算出する。
In the following step S33, the parallax Δd is applied to the following equation (3), and the distance z between the host vehicle 10 and the object is calculated.
Is calculated.

【数2】 ここで、Bは基線長、すなわち図14に示すようにカメ
ラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮
像素子11Lの中心位置との水平方向(x方向)の距離
(両カメラの光軸の間隔)、Fはレンズ12R、12L
の焦点距離、pは、撮像素子11R、11L内の画素間
隔である。
(Equation 2) Here, B is the base line length, that is, the distance in the horizontal direction (x direction) between the center position of the image sensor 11R of the camera 1R and the center position of the image sensor 11L of the camera 1L as shown in FIG. F is the lens 12R, 12L
Is the pixel distance in the image sensors 11R and 11L.

【0030】図4のステップS21では、画像内の座標
(x,y)及び式(3)により算出した距離zを下記式
(4)に適用し、実空間座標(X,Y,Z)に変換す
る。ここで、実空間座標(X,Y,Z)は、図15
(a)に示すように、カメラ1R、1Lの取り付け位置
の中点の位置(自車両10に固定された位置)を原点O
として、図示のように定め、画像内の座標は同図(b)
に示すように、画像の中心を原点として水平方向をx、
垂直方向をyと定めている。
In step S21 of FIG. 4, the coordinates (x, y) in the image and the distance z calculated by the equation (3) are applied to the following equation (4) to obtain the real space coordinates (X, Y, Z). Convert. Here, the real space coordinates (X, Y, Z) are shown in FIG.
As shown in (a), the position of the middle point of the mounting positions of the cameras 1R and 1L (the position fixed to the host vehicle 10) is the origin O
The coordinates in the image are determined as shown in FIG.
As shown in the figure, the horizontal direction is x,
The vertical direction is defined as y.

【数3】 (Equation 3)

【0031】ここで、(xc,yc)は、右画像上の座
標(x,y)を、カメラ1Rの取り付け位置と、実空間
原点Oとの相対位置関係に基づいて、実空間原点Oと画
像の中心とを一致させた仮想的な画像内の座標に変換し
たものである。またfは、焦点距離Fと画素間隔pとの
比である。
Here, (xc, yc) represents the coordinates (x, y) on the right image with the real space origin O based on the relative positional relationship between the mounting position of the camera 1R and the real space origin O. This is converted into coordinates in a virtual image in which the center of the image is matched. F is a ratio between the focal length F and the pixel interval p.

【0032】ステップS22では、自車両10が回頭す
ることによる画像上の位置ずれを補正するための回頭角
補正を行う。図16に示すように、時刻kから(k+
1)までの期間中に自車両が例えば左方向に回頭角θr
だけ回頭すると、カメラによって得られる画像上では、
図17に示すようにΔxだけx方向にずれるので、これ
を補正する処理である。具体的には、下記式(5)に実
空間座標(X,Y,Z)を適用して、補正座標(Xr,
Yr,Zr)を算出する。算出した実空間位置データ
(Xr,Yr,Zr)は、対象物毎に対応づけてメモリ
に格納する。なお、以下の説明では、回頭角補正後の座
標を(X,Y,Z)と表示する。
In step S22, a turning angle correction for correcting a positional shift on the image due to the turning of the host vehicle 10 is performed. As shown in FIG. 16, from time k (k +
During the period up to 1), the own vehicle is turned to the left, for example, by a turning angle θr
Just turning around, on the image obtained by the camera,
Since it is shifted in the x direction by Δx as shown in FIG. 17, this is a process for correcting this. Specifically, by applying the real space coordinates (X, Y, Z) to the following equation (5), the corrected coordinates (Xr,
Yr, Zr) is calculated. The calculated real space position data (Xr, Yr, Zr) is stored in the memory in association with each object. In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).

【数4】 (Equation 4)

【0033】ステップS23では、図18に示すように
同一対象物について、ΔTの期間内に得られた、回頭角
補正後のN個の実空間位置データ(例えばN=10程
度)、すなわち時系列データから、対象物と自車両10
との相対移動ベクトルに対応する近似直線LMVを求め
る。具体的には、近似直線LMVの方向を示す方向ベク
トルLu=(lx,ly,lz)(|Lu|=1)とす
ると、下記式(6)で表される直線を求める。
In step S23, as shown in FIG. 18, for the same object, N real space position data (for example, about N = 10) obtained during the period of ΔT after turning angle correction, ie, time series From the data, the object and the vehicle 10
An approximate straight line LMV corresponding to the relative movement vector is obtained. Specifically, assuming that a direction vector Lu = (lx, ly, lz) (| Lu | = 1) indicating the direction of the approximate straight line LMV, a straight line represented by the following equation (6) is obtained.

【数5】 (Equation 5)

【0034】ここでuは、任意の値をとる媒介変数であ
り、Xav,Yav及びZavは、それぞれ実空間位置
データ列のX座標の平均値、Y座標の平均値及びZ座標
の平均値である。なお、式(6)は媒介変数uを消去す
れば下記式(6a)のようになる。 (X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz …(6a)
Here, u is a parameter having an arbitrary value, and Xav, Yav, and Zav are the average value of the X coordinate, the average value of the Y coordinate, and the average value of the Z coordinate of the real space position data sequence, respectively. is there. The equation (6) becomes the following equation (6a) if the parameter u is eliminated. (X-Xav) / lx = (Y-Yav) / ly = (Z-Zav) / lz (6a)

【0035】図18は、近似直線LMVを説明するため
の図であり、同図のP(0),P(1),P(2),
…,P(N−2),P(N−1)が回頭角補正後の時系
列データを示し、近似直線LMVは、この時系列データ
の平均位置座標Pav(=(Xav,Yav,Za
v))を通り、各データ点からの距離の2乗の平均値が
最小となるような直線として求められる。ここで各デー
タ点の座標を示すPに付した()内の数値はその値が増
加するほど過去のデータであることを示す。例えば、P
(0)は最新の位置座標、P(1)は1サンプル周期前
の位置座標、P(2)は2サンプル周期前の位置座標を
示す。以下の説明におけるD(j)、X(j)、Y
(j)、Z(j)等も同様である。
FIG. 18 is a diagram for explaining the approximate straight line LMV, in which P (0), P (1), P (2),
, P (N-2) and P (N-1) indicate the time series data after the turning angle correction, and the approximate straight line LMV indicates the average position coordinates Pav (= (Xav, Yav, Za) of the time series data.
v)) is obtained as a straight line that minimizes the average value of the square of the distance from each data point. Here, the numerical value in parentheses attached to P indicating the coordinates of each data point indicates that the larger the value is, the more past the data is. For example, P
(0) indicates the latest position coordinates, P (1) indicates the position coordinates one sample cycle ago, and P (2) indicates the position coordinates two sample cycles ago. D (j), X (j), Y in the following description
The same applies to (j), Z (j), and the like.

【0036】より具体的には、平均位置座標Pavから
各データ点の座標P(0)〜P(N−1)に向かうベク
トルD(j)=(DX(j),DY(j),DZ
(j))=(X(j)−Xav,Y(j)−Yav,Z
(j)−Zav)と、方向ベクトルLuとの内積sを下
記式(7)により算出し、この内積sの分散が最大とな
る方向ベクトルLu=(lx,ly,lz)を求める。 s=lx・DX(j)+ly・DY(j)+lz・DZ(j) (7)
More specifically, a vector D (j) = (DX (j), DY (j), DZ) from the average position coordinates Pav to the coordinates P (0) to P (N-1) of each data point.
(J)) = (X (j) -Xav, Y (j) -Yav, Z
The inner product s of (j) -Zav) and the direction vector Lu is calculated by the following equation (7), and the direction vector Lu = (lx, ly, lz) that maximizes the variance of the inner product s is obtained. s = lx.DX (j) + ly.DY (j) + lz.DZ (j) (7)

【0037】各データ点の座標の分散共分散行列Vは、
下記式(8)で表され、この行列の固有値σが内積sの
分散に相当するので、この行列から算出される3つの固
有値のうち最大の固有値に対応する固有ベクトルが求め
る方向ベクトルLuとなる。なお、式(8)の行列から
固有値と固有ベクトルを算出するには、ヤコビ法(例え
ば「数値計算ハンドブック」(オーム社)に示されてい
る)として知られている手法を用いる。
The variance-covariance matrix V of the coordinates of each data point is
Since the eigenvalue σ of this matrix corresponds to the variance of the inner product s, the eigenvector corresponding to the largest eigenvalue among the three eigenvalues calculated from this matrix is the direction vector Lu to be obtained. In order to calculate eigenvalues and eigenvectors from the matrix of Expression (8), a method known as the Jacobi method (for example, shown in “Numerical Calculation Handbook” (Ohm)) is used.

【数6】 (Equation 6)

【0038】次いで最新の位置座標P(0)=(X
(0),Y(0),Z(0))と、(N−1)サンプル
前(時間ΔT前)の位置座標P(Nー1)=(X(N−
1),Y(N−1),Z(N−1))を近似直線LMV
上の位置に補正する。具体的には、前記式(6a)にZ
座標Z(0)、Z(N−1)を適用することにより、す
なわち下記式(9)により、補正後の位置座標Pv
(0)=(Xv(0),Yv(0),Zv(0))及び
Pv(N−1)=(Xv(N−1),Yv(N−1),
Zv(N−1))を求める。
Next, the latest position coordinates P (0) = (X
(0), Y (0), Z (0)) and the position coordinates P (N−1) = (X (N−) before (N−1) samples (before time ΔT).
1), Y (N-1), Z (N-1)) are approximated to the straight line LMV
Correct to the upper position. Specifically, Z in the above equation (6a)
By applying the coordinates Z (0) and Z (N-1), that is, by the following equation (9), the corrected position coordinates Pv
(0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1),
Zv (N-1)).

【数7】 (Equation 7)

【0039】式(9)で算出された位置座標Pv(N−
1)からPv(0)に向かうベクトルとして、相対移動
ベクトルが得られる。このようにモニタ期間ΔT内の複
数(N個)のデータから対象物の自車両10に対する相
対移動軌跡を近似する近似直線を算出して相対移動ベク
トルを求めることにより、位置検出誤差の影響を軽減し
て対象物との衝突の可能性をより正確に予測することが
可能となる。
The position coordinates Pv (N−N) calculated by the equation (9)
A relative movement vector is obtained as a vector from 1) toward Pv (0). In this manner, the influence of the position detection error is reduced by calculating the approximate straight line that approximates the relative movement trajectory of the target object with respect to the own vehicle 10 from the plurality (N) of data within the monitoring period ΔT. As a result, it is possible to more accurately predict the possibility of collision with the object.

【0040】図4に戻り、ステップS24では、その時
点で検出されている対象物の中に静止対象物が存在する
か否かを判別する。ここでいう「静止対象物」は、例え
ば図19に示す信号機101や電柱102のように、車
両走行中に検知される可能性が高く、且つ確実に静止し
ている対象物とし、このような対象物の特徴の有無によ
り判定する。具体的には、以下のような条件を満たすも
のを「静止対象物」と判定する。
Returning to FIG. 4, in step S24, it is determined whether or not a stationary object exists among the objects detected at that time. The “stationary object” referred to here is an object that is highly likely to be detected while the vehicle is traveling and is surely stationary, such as a traffic signal 101 or a utility pole 102 illustrated in FIG. Judgment is made based on the presence or absence of the feature of the object. Specifically, an object that satisfies the following conditions is determined as a “stationary object”.

【0041】1)円形の同一サイズの対象物が並んで存
在し、高さが4.5m以上の対象物 2)高さが5m以上の長方形の対象物 ステップS24で静止対象物が存在しないとき、直ちに
ステップS28に進み、存在するときは、ステップS2
5〜S27により視差オフセット量D(φ)の更新を行
う。以下に静止対象物を用いた視差オフセット量D
(φ)の算出手法を、図20を参照して説明する。
1) Circular objects of the same size are arranged side by side and have a height of 4.5 m or more 2) A rectangular object having a height of 5 m or more When there is no stationary object in step S24 , The process immediately proceeds to step S28.
The parallax offset amount D (φ) is updated through 5 to S27. The parallax offset D using a stationary object is described below.
A method of calculating (φ) will be described with reference to FIG.

【0042】図20に示すように第1の時刻t0におけ
る自車両から静止対象物までの距離及び検出視差をそれ
ぞれZ(t0)及びδd(t0)とし、第1の時刻t0
から時間Tmだけ経過した第2の時刻t1における自車
両から静止対象物までの距離及び検出視差をZ(t1)
及びδd(t1)とすると、式(2),(3)より、距
離Z(t0),Z(t1)は、下記式(10)、(1
1)のようになる。なお時間Tmは、例えば車速VCA
Rが高いほど短くなるように設定される。
As shown in FIG. 20, the distance from the host vehicle to the stationary object and the detected parallax at the first time t0 are Z (t0) and δd (t0), respectively, and the first time t0
The distance and the detected parallax from the host vehicle to the stationary object at the second time t1 after a lapse of the time Tm from Z (t1)
And δd (t1), the distances Z (t0) and Z (t1) are obtained from the following equations (10) and (1) from the equations (2) and (3).
It becomes like 1). The time Tm is, for example, the vehicle speed VCA.
It is set to be shorter as R is higher.

【数8】 (Equation 8)

【0043】式(10)(11)から視差オフセット量
D(φ)を消去することより、下記式(12)を得る。
The following equation (12) is obtained by eliminating the parallax offset D (φ) from the equations (10) and (11).

【数9】 ここで、変数αを下記式(13)で定義し、Z(t1)
=Z(t0)−Lという関係を用いると式(12)は、
下記式(14)に変形される。
(Equation 9) Here, the variable α is defined by the following equation (13), and Z (t1)
= Z (t0) -L, the equation (12) becomes:
It is transformed into the following equation (14).

【数10】 (Equation 10)

【0044】式(14)をZ(t0)>0の条件で解く
と、距離Z(t0)は下記式(15)で与えられる。
When equation (14) is solved under the condition of Z (t0)> 0, the distance Z (t0) is given by the following equation (15).

【数11】 一方、式(10)を変形すると視差オフセット量D
(φ)は、下記式(10a)で与えられるので、式(1
5)を代入して下記式(16)を得る。
[Equation 11] On the other hand, when equation (10) is modified, the parallax offset amount D
Since (φ) is given by the following equation (10a), the equation (1)
The following equation (16) is obtained by substituting 5).

【数12】 (Equation 12)

【0045】式(16)に第1及び第2の時刻t0、t
1における検出視差δd(t0)、δd(t1)と、そ
の間の自車両10の走行距離Lと適用することにより、
視差オフセット量D(φ)を求めることができる。
Equation (16) shows that the first and second times t0, t
By applying the detected parallaxes δd (t0) and δd (t1) at 1, and the traveling distance L of the own vehicle 10 therebetween,
The parallax offset amount D (φ) can be obtained.

【0046】なお、道路が曲線状となっている場合に
は、道路形状に沿った走行距離Lを、第1の時刻t0か
ら第2の時刻t1の期間の回頭角θrに応じて直線移動
量に換算することにより、前記式(16)を用いて視差
オフセット量D(φ)を算出することができる。
When the road has a curved shape, the traveling distance L along the road shape is determined by the linear movement amount according to the turning angle θr from the first time t0 to the second time t1. The parallax offset amount D (φ) can be calculated by using the equation (16).

【0047】図4に戻り、ステップS24の答が肯定
(YES)、すなわち上記した条件を満たす静止対象物
が存在するときは、第1の時刻t0から第2の時刻t1
までの期間で車速VCARを積分することにより、自車
両10の走行距離Lを算出するともに時刻t0,t1に
おいてそれぞれ視差δd(t0)及びδd(t1)を算
出し(ステップS25、S26)、次いで前記式(1
6)に走行距離L及び検出視差δd(t0)、δd(t
1)を適用して、視差オフセット量D(φ)を最新の値
に更新する(ステップS27)。
Returning to FIG. 4, if the answer to step S24 is affirmative (YES), that is, if there is a stationary object that satisfies the above condition, the first time t0 to the second time t1
By integrating the vehicle speed VCAR in the period up to, the traveling distance L of the host vehicle 10 is calculated, and the parallaxes δd (t0) and δd (t1) are calculated at times t0 and t1, respectively (steps S25 and S26). Equation (1)
6) The travel distance L and the detected parallax δd (t0), δd (t
By applying 1), the parallax offset amount D (φ) is updated to the latest value (step S27).

【0048】続くステップS28では、対象物までの距
離と、対象物の他の位置情報(自車両10の進行方向に
対して垂直な水平方向及び高さ方向の座標)とに基づい
て、その対象物と自車両10との衝突の可能性を判定
し、衝突の可能性が高いときは、スピーカ3及びHUD
4を介して運転者への警報を発する。ステップS28実
行後は、ステップS11に戻り、処理を繰り返す。
In the following step S28, based on the distance to the object and other position information of the object (horizontal and vertical coordinates perpendicular to the traveling direction of the host vehicle 10), the target The possibility of collision between the object and the host vehicle 10 is determined, and when the possibility of collision is high, the speaker 3 and the HUD
A warning is issued to the driver via 4. After executing step S28, the process returns to step S11, and the process is repeated.

【0049】以上のように本実施形態では、走行中に静
止対象物の有無を判定し、静止対象物が存在するとき
は、2つの時点、すなわち第1及び第2の時刻t0,t
1において静止対象物の検出視差δd(t0)及びδd
(t1)を算出し、これらの検出視差δd(t0)及び
δd(t1)と、時刻t0からt1までの間の自車両の
移動量Lとに基づいて視差オフセット量D(φ)を算出
し、視差オフセット量D(φ)により検出視差δdを補
正し、正確な視差Δdを得るようにしたので、この視差
Δdを用いることにより、カメラ1R、1Lの光軸間平
行度ずれ(パン角φ)に起因する誤差を補正して正確な
視差を算出し、対象物までの距離検出精度を向上させる
ことができる。また、工場における検査、あるいは販売
店における確認は、静止対象物に向かって車両を走行さ
せることにより、容易に行うことができるので、距離が
既知の対象物を用いる必要がないので、検査・確認専用
のスペースや設備を不要とすることができる。
As described above, in the present embodiment, the presence or absence of a stationary object is determined during traveling, and when there is a stationary object, two time points, that is, the first and second times t0 and t0.
1, the detected parallaxes δd (t0) and δd of the stationary object
(T1) is calculated, and the parallax offset D (φ) is calculated based on the detected parallaxes δd (t0) and δd (t1) and the movement amount L of the vehicle from time t0 to t1. Since the detected parallax δd is corrected by the parallax offset amount D (φ) to obtain an accurate parallax Δd, by using this parallax Δd, the parallelism deviation between the optical axes of the cameras 1R and 1L (pan angle φ ) Can be corrected to calculate an accurate parallax, thereby improving the distance detection accuracy to the target object. In addition, since inspection at a factory or confirmation at a store can be easily performed by driving the vehicle toward a stationary object, there is no need to use an object with a known distance. Special space and equipment can be eliminated.

【0050】本実施形態では、赤外線カメラ1R、1L
が撮像手段に相当し、画像処理ユニット2が距離検出装
置を構成する。具体的には、図4のステップS24及び
S26が静止対象物視差算出手段に相当し、同図のステ
ップS25が車両移動量算出手段に相当し、図3のステ
ップS33及び図4のステップS27が視差補正手段に
相当する。
In this embodiment, the infrared cameras 1R, 1L
Corresponds to an imaging unit, and the image processing unit 2 constitutes a distance detection device. Specifically, steps S24 and S26 in FIG. 4 correspond to the stationary object parallax calculating means, step S25 in the figure corresponds to the vehicle moving amount calculating means, and step S33 in FIG. 3 and step S27 in FIG. It corresponds to parallax correction means.

【0051】なお本発明は上述した実施形態に限るもの
ではなく、種々の変形が可能である。例えば、撮像手段
として赤外線カメラを用いたが、通常の可視光線のみ検
出可能なテレビカメラなどを使用してもよい。また、2
つの撮像手段は、離間して配置されていればよく、図2
に示した配置に限定されるものではない。
The present invention is not limited to the above-described embodiment, and various modifications are possible. For example, although an infrared camera is used as the imaging means, a television camera or the like that can detect only ordinary visible light may be used. Also, 2
The two imaging means only need to be arranged apart from each other.
However, the present invention is not limited to the arrangement shown in FIG.

【0052】[0052]

【発明の効果】以上詳述したように本発明によれば、第
1及び第2の時刻において静止対象物の視差が算出され
るとともに、第1の時刻から第2の時刻までの間の車両
移動量が算出され、第1及び第2の時刻における静止対
象物の視差並びに車両移動量に基づいて、2つの撮像手
段の光軸間平行度ずれに起因する誤差を補正するための
視差オフセット量が算出され、この視差オフセット量に
より視差が補正されるので、従来に比べて少ない演算量
で、2つの撮像手段の光軸間平行度ずれに起因する誤差
を補正して正確な視差を算出し、距離検出精度を向上さ
せることできる。
As described above in detail, according to the present invention, the parallax of the stationary object is calculated at the first and second times, and the vehicle between the first time and the second time is calculated. A movement amount is calculated, and a parallax offset amount for correcting an error caused by a parallelism shift between optical axes of the two imaging units based on the parallax of the stationary object and the vehicle movement amount at the first and second times. Is calculated, and the parallax is corrected based on the parallax offset amount. Therefore, an error due to the parallelism shift between the optical axes of the two imaging units is corrected with a smaller amount of calculation than in the related art, and an accurate parallax is calculated. In addition, the distance detection accuracy can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる距離検出装置を含
む車両用周辺監視装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device including a distance detection device according to an embodiment of the present invention.

【図2】図1に示すカメラの取り付け位置を説明するた
めの図である。
FIG. 2 is a view for explaining a mounting position of the camera shown in FIG. 1;

【図3】図1の画像処理ユニットにおける処理の手順を
示すフローチャートである。
FIG. 3 is a flowchart illustrating a procedure of processing in the image processing unit of FIG. 1;

【図4】図1の画像処理ユニットにおける処理の手順を
示すフローチャートである。
FIG. 4 is a flowchart illustrating a procedure of processing in the image processing unit of FIG. 1;

【図5】赤外線カメラにより得られるグレースケール画
像を説明するために、中間階調部にハッチングを付して
示す図である。
FIG. 5 is a diagram showing a gray scale image obtained by an infrared camera with hatching applied to a halftone portion;

【図6】グレースケール画像を2値化した画像を説明す
るために、黒の領域をハッチングを付して示す図であ
る。
FIG. 6 is a diagram showing a black area with hatching to explain an image obtained by binarizing a grayscale image.

【図7】ランレングスデータへの変換処理及びラベリン
グを説明するための図である。
FIG. 7 is a diagram for explaining a conversion process to run-length data and labeling.

【図8】対象物の時刻間追跡を説明するための図であ
る。
FIG. 8 is a diagram for explaining time tracking of an object.

【図9】右画像中の探索画像と、左画像に設定する探索
領域を説明するための図である。
FIG. 9 is a diagram for explaining a search image in a right image and a search area set in a left image.

【図10】探索領域を対象とした相関演算処理を説明す
るための図である。
FIG. 10 is a diagram for explaining a correlation calculation process for a search area.

【図11】視差の算出方法を説明するための図である。FIG. 11 is a diagram illustrating a method of calculating parallax.

【図12】2つのカメラの光軸間平行度ずれを説明する
ための図である。
FIG. 12 is a diagram for explaining a parallelism shift between optical axes of two cameras.

【図13】光軸間平行度ずれに起因する検出視差の誤差
を説明するため図である。
FIG. 13 is a diagram for explaining an error in detected parallax caused by a shift in parallelism between optical axes.

【図14】視差から距離を算出する手法を説明するため
の図である。
FIG. 14 is a diagram for explaining a method of calculating a distance from parallax.

【図15】本実施形態における座標系を示す図である。FIG. 15 is a diagram illustrating a coordinate system according to the present embodiment.

【図16】回頭角補正を説明するための図である。FIG. 16 is a diagram for explaining turning angle correction;

【図17】車両の回頭により発生する画像上の対象物位
置のずれを示す図である。
FIG. 17 is a diagram showing a displacement of an object position on an image caused by turning of the vehicle.

【図18】相対移動ベクトルの算出手法を説明するため
の図である。
FIG. 18 is a diagram for explaining a method of calculating a relative movement vector.

【図19】静止対象物の例を示す図である。FIG. 19 is a diagram illustrating an example of a stationary object.

【図20】静止対象物を利用して視差オフセット量を算
出する手法を説明するための図である。
FIG. 20 is a diagram for describing a method of calculating a parallax offset amount using a stationary object.

【符号の説明】[Explanation of symbols]

1R、1L 赤外線カメラ(撮像手段) 2 画像処理ユニット(静止対象物視差算出手段、車両
移動量算出手段、視差補正手段) 6 車速センサ
1R, 1L infrared camera (imaging means) 2 Image processing unit (stationary object parallax calculating means, vehicle moving amount calculating means, parallax correcting means) 6 Vehicle speed sensor

───────────────────────────────────────────────────── フロントページの続き (72)発明者 服部 弘 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 渡辺 正人 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 2F065 AA06 AA39 BB15 CC11 DD07 EE00 FF04 FF67 KK01 QQ24 QQ31 UU05 5B057 AA16 BA02 CE12 DA07 DA15 DA20 DB03 DB09 DC02 5C061 AB04 AB08 5L096 AA06 BA03 BA04 CA04 DA02 DA03 EA43 FA18 FA59 FA60 FA66 GA34 GA36 HA04 9A001 JJ77 KK54  ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Hiroshi Hattori 1-4-1 Chuo, Wako-shi, Saitama Prefecture Inside Honda R & D Co., Ltd. (72) Inventor Masato Watanabe 1-4-1 Chuo, Wako-shi, Saitama Honda R & D Co., Ltd. GA34 GA36 HA04 9A001 JJ77 KK54

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載された2つの撮像手段によっ
て得られる2つの画像に基づいて対象物の視差を算出
し、該視差から前記対象物までの距離を検出する距離検
出装置において、 第1及び第2の時刻において静止対象物の視差を算出す
る静止対象物視差算出手段と、 前記第1の時刻から前記第2の時刻までの期間における
前記車両の移動量を算出する車両移動量算出手段と、 前記第1及び第2の時刻における前記静止対象物の視差
並びに前記車両移動量に基づいて、前記2つの撮像手段
の光軸間平行度ずれに起因する視差オフセット量を算出
し、該算出した視差オフセット量により視差を補正する
視差補正手段とを備えることを特徴とする距離検出装
置。
1. A distance detection device that calculates a parallax of an object based on two images obtained by two image pickup units mounted on a vehicle and detects a distance from the parallax to the object. And a stationary object parallax calculating means for calculating a parallax of a stationary object at a second time; and a vehicle moving amount calculating means for calculating a moving amount of the vehicle during a period from the first time to the second time. And calculating, based on the parallax of the stationary object at the first and second times and the vehicle movement amount, a parallax offset amount caused by a parallelism shift between optical axes of the two imaging units. And a parallax correcting unit configured to correct parallax based on the parallax offset amount.
JP34599699A 1999-12-06 1999-12-06 Distance detection device Pending JP2001169310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34599699A JP2001169310A (en) 1999-12-06 1999-12-06 Distance detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34599699A JP2001169310A (en) 1999-12-06 1999-12-06 Distance detection device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008284931A Division JP2009075124A (en) 2008-11-06 2008-11-06 Distance detector

Publications (2)

Publication Number Publication Date
JP2001169310A true JP2001169310A (en) 2001-06-22
JP2001169310A5 JP2001169310A5 (en) 2005-12-02

Family

ID=18380435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34599699A Pending JP2001169310A (en) 1999-12-06 1999-12-06 Distance detection device

Country Status (1)

Country Link
JP (1) JP2001169310A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005225447A (en) * 2004-02-16 2005-08-25 Daihatsu Motor Co Ltd Braking method for vehicle and braking device for vehicle
JP2007334763A (en) * 2006-06-16 2007-12-27 Honda Motor Co Ltd Vehicle periphery monitoring system, vehicle, vehicle periphery monitoring program, configuration method of vehicle periphery monitoring system, and server
JP2010146494A (en) * 2008-12-22 2010-07-01 Honda Motor Co Ltd Vehicle surroundings monitoring device
CN102143321A (en) * 2010-02-01 2011-08-03 卡西欧计算机株式会社 Image capture apparatus and control method
JP2012027035A (en) * 2004-12-23 2012-02-09 Halla Kgaa Hueck & Co Method and device for determining calibration parameter of stereo camera
JP2012504889A (en) * 2008-10-01 2012-02-23 ハイ キー リミテッド Image capturing apparatus calibration method and calibration system
US8139821B2 (en) 2008-10-20 2012-03-20 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP2012083330A (en) * 2010-09-14 2012-04-26 Ricoh Co Ltd Stereo camera device, calibration method and program
JP2012100342A (en) * 2009-04-03 2012-05-24 Sony Corp Information processing equipment, information processing method, and program
US8971692B2 (en) 2009-04-03 2015-03-03 Sony Corporation Information processing device, information processing method, and program
JP2015068641A (en) * 2013-09-26 2015-04-13 富士重工業株式会社 Stereo image processing device
KR20150075548A (en) * 2013-12-26 2015-07-06 주식회사 만도 Cameradata of Vehicle-Mounted Camera Processing Method
US9148657B2 (en) 2012-03-21 2015-09-29 Ricoh Company, Ltd. Calibration device, range-finding system including the calibration device and stereo camera, and vehicle mounting the range-finding system
US9299153B2 (en) 2010-09-13 2016-03-29 Ricoh Company, Ltd. Calibration apparatus, a distance measurement system, a calibration method and a calibration program
JP2017044573A (en) * 2015-08-26 2017-03-02 富士重工業株式会社 Stereo image processing device
JP2019066326A (en) * 2017-09-29 2019-04-25 株式会社デンソー Vehicle surroundings monitoring device and surroundings monitoring method
WO2019203001A1 (en) * 2018-04-18 2019-10-24 日立オートモティブシステムズ株式会社 Stereo camera device
CN111372074A (en) * 2018-12-26 2020-07-03 北京伟景智能科技有限公司 Binocular camera optical axis parallelism detection method
JP2020204583A (en) * 2019-06-19 2020-12-24 株式会社Subaru Image processing device
JP2022077927A (en) * 2020-11-12 2022-05-24 株式会社Subaru Image processing device and image processing method
WO2022153586A1 (en) * 2021-01-13 2022-07-21 日立Astemo株式会社 Self-map generation device and self-position estimation device

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005225447A (en) * 2004-02-16 2005-08-25 Daihatsu Motor Co Ltd Braking method for vehicle and braking device for vehicle
US8855370B2 (en) 2004-12-23 2014-10-07 Hella Kgaa Hueck & Co. Method and device for determining a calibration parameter of a stereo camera
JP2012027035A (en) * 2004-12-23 2012-02-09 Halla Kgaa Hueck & Co Method and device for determining calibration parameter of stereo camera
JP2007334763A (en) * 2006-06-16 2007-12-27 Honda Motor Co Ltd Vehicle periphery monitoring system, vehicle, vehicle periphery monitoring program, configuration method of vehicle periphery monitoring system, and server
JP2012504889A (en) * 2008-10-01 2012-02-23 ハイ キー リミテッド Image capturing apparatus calibration method and calibration system
US8139821B2 (en) 2008-10-20 2012-03-20 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP2010146494A (en) * 2008-12-22 2010-07-01 Honda Motor Co Ltd Vehicle surroundings monitoring device
US8242897B2 (en) 2008-12-22 2012-08-14 Honda Motor Co., Ltd. Vehicle environment monitoring apparatus
JP2012100342A (en) * 2009-04-03 2012-05-24 Sony Corp Information processing equipment, information processing method, and program
US8971692B2 (en) 2009-04-03 2015-03-03 Sony Corporation Information processing device, information processing method, and program
US9756310B2 (en) 2009-04-03 2017-09-05 Sony Corporation Information processing device, information processing method, and program
TWI451750B (en) * 2010-02-01 2014-09-01 Casio Computer Co Ltd Image capture apparatus, computer readable recording medium and control method
CN102143321A (en) * 2010-02-01 2011-08-03 卡西欧计算机株式会社 Image capture apparatus and control method
CN102143321B (en) * 2010-02-01 2014-12-03 卡西欧计算机株式会社 Image capture apparatus and control method
US9299153B2 (en) 2010-09-13 2016-03-29 Ricoh Company, Ltd. Calibration apparatus, a distance measurement system, a calibration method and a calibration program
JP2012083330A (en) * 2010-09-14 2012-04-26 Ricoh Co Ltd Stereo camera device, calibration method and program
US9148657B2 (en) 2012-03-21 2015-09-29 Ricoh Company, Ltd. Calibration device, range-finding system including the calibration device and stereo camera, and vehicle mounting the range-finding system
JP2015068641A (en) * 2013-09-26 2015-04-13 富士重工業株式会社 Stereo image processing device
KR20150075548A (en) * 2013-12-26 2015-07-06 주식회사 만도 Cameradata of Vehicle-Mounted Camera Processing Method
KR101672578B1 (en) 2013-12-26 2016-11-03 주식회사 만도 Cameradata of Vehicle-Mounted Camera Processing Method
JP2017044573A (en) * 2015-08-26 2017-03-02 富士重工業株式会社 Stereo image processing device
JP2019066326A (en) * 2017-09-29 2019-04-25 株式会社デンソー Vehicle surroundings monitoring device and surroundings monitoring method
CN111989541A (en) * 2018-04-18 2020-11-24 日立汽车系统株式会社 Stereo camera device
JP2019190847A (en) * 2018-04-18 2019-10-31 日立オートモティブシステムズ株式会社 Stereo camera device
WO2019203001A1 (en) * 2018-04-18 2019-10-24 日立オートモティブシステムズ株式会社 Stereo camera device
CN111989541B (en) * 2018-04-18 2022-06-07 日立安斯泰莫株式会社 Stereo camera device
JP7118717B2 (en) 2018-04-18 2022-08-16 日立Astemo株式会社 Image processing device and stereo camera device
CN111372074A (en) * 2018-12-26 2020-07-03 北京伟景智能科技有限公司 Binocular camera optical axis parallelism detection method
JP2020204583A (en) * 2019-06-19 2020-12-24 株式会社Subaru Image processing device
JP2022077927A (en) * 2020-11-12 2022-05-24 株式会社Subaru Image processing device and image processing method
JP7519275B2 (en) 2020-11-12 2024-07-19 株式会社Subaru Image processing device and image processing method
WO2022153586A1 (en) * 2021-01-13 2022-07-21 日立Astemo株式会社 Self-map generation device and self-position estimation device
JP2022108298A (en) * 2021-01-13 2022-07-26 日立Astemo株式会社 SELF-MAP GENERATOR AND SELF-LOCALIZATION DEVICE
JP7610414B2 (en) 2021-01-13 2025-01-08 日立Astemo株式会社 Self-location estimation device

Similar Documents

Publication Publication Date Title
JP3515926B2 (en) Vehicle periphery monitoring device
JP2001169310A (en) Distance detection device
US8144195B2 (en) Vehicle zone monitoring apparatus
JP2002298298A (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
US7158664B2 (en) Image recognition apparatus
JP3764086B2 (en) Vehicle information providing device
US7969466B2 (en) Vehicle surroundings monitoring apparatus
JP2009075124A (en) Distance detector
JP4397573B2 (en) Image processing device
JP2001018738A (en) Vehicle periphery monitoring device
JP2001084497A (en) Position detection device
JP3808287B2 (en) Position detection device
JP3916930B2 (en) Approach warning device
JP3897956B2 (en) Position detection device
JP2004106682A (en) Obstacle detection device
JP3949628B2 (en) Vehicle periphery monitoring device
JP4943403B2 (en) Vehicle periphery monitoring device
JP4567072B2 (en) Vehicle periphery monitoring device
JP4040657B2 (en) Moving object detection device
JP3859429B2 (en) Moving object detection device
WO2023242903A1 (en) Object detecting device
US7545955B2 (en) Vehicle surroundings monitoring apparatus
JP2003322521A (en) Image recognition device
JP2001147117A (en) Distance detection device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081105

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081204

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090123