JP4956099B2 - Wall detector - Google Patents
Wall detector Download PDFInfo
- Publication number
- JP4956099B2 JP4956099B2 JP2006235997A JP2006235997A JP4956099B2 JP 4956099 B2 JP4956099 B2 JP 4956099B2 JP 2006235997 A JP2006235997 A JP 2006235997A JP 2006235997 A JP2006235997 A JP 2006235997A JP 4956099 B2 JP4956099 B2 JP 4956099B2
- Authority
- JP
- Japan
- Prior art keywords
- wall
- detected
- distance
- real space
- straight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 99
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 description 26
- 230000000875 corresponding effect Effects 0.000 description 15
- 238000003702 image correction Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、壁検出装置に係り、特に、道路を含む自車両の進行路を撮像した撮像画像中から道路脇の壁を検出可能な壁検出装置に関する。 The present invention relates to a wall detection device, and more particularly to a wall detection device capable of detecting a roadside wall from a captured image obtained by imaging a traveling path of a host vehicle including a road.
近年、自動車等の走行安全性の向上や車両の自動制御等に向けて、車載のステレオカメラやビデオカメラ等で撮像した画像に画像処理を施して、画像中から追い越し禁止線や路側帯と車道とを区画する区画線等の道路面上に標示された車線や先行車や歩行者、ガードレール等の障害物の位置や速度を検出する装置が種々提案されている(例えば、特許文献1〜4等参照)。 In recent years, in order to improve driving safety of automobiles, automatic control of vehicles, etc., image processing is performed on images taken with in-vehicle stereo cameras and video cameras, etc., and overtaking prohibited lines, roadside belts and roadways are Various devices have been proposed for detecting the position and speed of obstacles such as lanes, preceding vehicles, pedestrians, guardrails, etc., which are marked on a road surface such as a lane marking that divides the road (for example, Patent Documents 1 to 4). Etc.).
これらの技術は、例えば、車線に追従し車線を逸脱しそうな場合には現在の走行レーンに引き戻すように自車両の走行を自動制御したり、検出した歩行者や障害物に対しては衝突しないように回避し先行車には追従するように自車両を自動制御する技術につながるため、車線や障害物等を精度良く検出可能であることが求められている。
これらの装置において、例えば車線逸脱回避制御では自車両が逸脱しそうな車線側の隣接する走行レーンに対向車や先行車両等の障害物が存在しないような場合には、自車両が車線を踏む状態で走行したり多少車線をはみ出して走行するように自車両を制御することが許される場合がある。 In these devices, for example, in the lane departure avoidance control, when there is no obstacle such as an oncoming vehicle or a preceding vehicle in the adjacent lane on the lane side where the own vehicle is likely to deviate, the own vehicle steps on the lane. In some cases, it is permitted to control the host vehicle so that the vehicle travels slightly outside the lane.
しかし、道路脇の壁、すなわち住宅やビルの壁のみならずブロック塀やガードレール、生垣等に対しては前記のような車線と同様に扱うことができず、壁に接触したり衝突したりする事態は確実に回避されなければならない。なお、本発明では、住宅やビルの壁やブロック塀、ガードレール、生垣等の道路脇の立体物を壁と総称する。 However, the roadside walls, that is, the walls of houses and buildings as well as block fences, guardrails, hedges, etc., cannot be handled in the same way as the lane as described above, and touch or collide with the walls. The situation must be reliably avoided. In the present invention, three-dimensional objects by the road such as walls of houses and buildings, block fences, guardrails, hedges, etc. are collectively referred to as walls.
特にガードレールが配置されたり生垣が植栽された道路では、ガードレールや生垣等の付近に車線が標示されていない場合もあり、自車両の自動制御を検出された車線に基づいて行うだけでは十分ではなく、道路脇の壁の位置を確実にかつ精度良く検出することが必要である。また、道路脇の壁の位置を確実にかつ精度良く検出可能な検出装置が求められている。 Especially on roads where guardrails are arranged or hedges are planted, there are cases where lanes are not marked in the vicinity of guardrails, hedges, etc., and it is not sufficient to perform automatic control based on detected lanes. In addition, it is necessary to reliably and accurately detect the position of the wall beside the road. There is also a need for a detection device that can reliably and accurately detect the position of the wall beside the road.
本発明は、このような事情に鑑みてなされたものであり、道路を含む自車両の進行路を撮像した撮像画像中から道路脇のガードレール等の壁を確実にかつ精度良く検出可能な壁検出装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and wall detection capable of reliably and accurately detecting a wall such as a guardrail beside a road from a captured image obtained by imaging a traveling path of the host vehicle including the road. An object is to provide an apparatus.
前記の問題を解決するために、第1の発明の壁検出装置は、
道路を含む自車両の進行路を撮像して一対の画像を出力する撮像手段と、
前記撮像された一対の画像に基づいて少なくとも一方の画像の設定領域ごとに実空間における距離を算出する画像処理手段と、
前記距離の情報に基づいて道路面より上方に存在するとみなすことができる前記設定領域を抽出する抽出手段と、
抽出された前記設定領域に基づいて自車両に近い領域で自車両の左右に壁を表す直線を検出し、前記壁を表す直線を基準としてより遠方の直線状または曲線状の壁の形状を検出し、前記壁を表す直線および前記壁の形状を合わせて壁の位置を検出する壁検出手段と
を備えることを特徴とする。
In order to solve the above problem, the wall detection device of the first invention is:
Imaging means for imaging a traveling path of the host vehicle including a road and outputting a pair of images;
Image processing means for calculating a distance in real space for each setting region of at least one image based on the pair of captured images;
Extraction means for extracting the setting region that can be considered to exist above the road surface based on the information of the distance;
Based on the extracted setting area, a straight line representing a wall on the left and right of the own vehicle is detected in an area close to the own vehicle, and a far straight or curved wall shape is detected based on the straight line representing the wall. And a wall detecting means for detecting the position of the wall by combining the straight line representing the wall and the shape of the wall.
第2の発明は、第1の発明の壁検出装置において、前記壁検出手段は、検出した前記壁が所定の距離以上連続して検出されていない場合には検出結果を無効とすることを特徴とする。 According to a second aspect of the present invention, in the wall detection device according to the first aspect, the wall detection means invalidates a detection result when the detected wall is not continuously detected for a predetermined distance or more. And
第3の発明は、第1または第2の発明の壁検出装置において、前記壁検出手段は、検出した前記壁が所定の速度以上の移動速度を有する場合には検出結果を無効とすることを特徴とする。 According to a third aspect of the present invention, in the wall detection device of the first or second aspect, the wall detection means invalidates the detection result when the detected wall has a moving speed equal to or higher than a predetermined speed. Features.
第4の発明は、第1から第3のいずれかの発明の壁検出装置において、前記壁検出手段は、前記抽出された設定領域を実空間上の点に変換し、前記実空間上の点に基づいて少なくとも前記壁を表す直線を検出することを特徴とする。 According to a fourth aspect of the present invention, in the wall detection device according to any one of the first to third aspects, the wall detection unit converts the extracted setting region into a point on the real space, and the point on the real space. Based on the above, at least a straight line representing the wall is detected.
第5の発明は、第1から第3のいずれかの発明の壁検出装置において、前記壁検出手段は、前記抽出された設定領域のうち同一立体物を撮像したと見なすことができる設定領域をグループ化し、自車両の進行方向に対して所定の傾きを有するグループの前記一方の画像上の位置または実空間上の位置に基づいて少なくとも前記壁を表す直線を検出することを特徴とする。 According to a fifth aspect of the present invention, in the wall detection device according to any one of the first to third aspects, the wall detecting means is a setting area that can be regarded as an image of the same three-dimensional object among the extracted setting areas. A straight line representing at least the wall is detected based on a position on the one image of the group having a predetermined inclination with respect to the traveling direction of the host vehicle or a position on the real space.
第6の発明は、第1から第5のいずれかの発明の壁検出装置において、前記壁検出手段は、前記抽出された設定領域を実空間上の点に変換して、前記点を自車両の距離方向および左右方向に格子状に分割された前記実空間上の各ブロックにプロットし、前記実空間上の各ブロックのプロット数を自車両の左右方向にパターンマッチングして得られた壁の位置に基づいて前記壁を表す直線または前記壁の形状を検出することを特徴とする。 According to a sixth aspect of the present invention, in the wall detection device according to any one of the first to fifth aspects, the wall detection means converts the extracted set area into a point on a real space, and the point is detected by the own vehicle. Of the wall obtained by pattern-matching the number of plots of each block on the real space in the left-right direction of the host vehicle. A straight line representing the wall or a shape of the wall is detected based on a position.
第1の発明によれば、ステレオカメラにより撮像された一対の画像のうち一方の画像に設定された各設定領域についてステレオマッチング処理によりそれぞれ視差を算出し、それに基づいて設定領域に撮像されている立体物までの距離を精度良く算出する。そして、距離の情報に基づいて自車両に近い領域で壁を表す直線を確実に検出したうえで、検出された直線に基づいてより遠方の壁の形状を検出し、両者をあわせて自車両の左右の道路脇に存在するガードレール等の壁の位置を検出する。 According to the first invention, the parallax is calculated by the stereo matching process for each setting area set in one of the pair of images captured by the stereo camera, and the parallax is captured based on the calculated parallax. The distance to the three-dimensional object is accurately calculated. Based on the distance information, the straight line representing the wall in the area close to the host vehicle is reliably detected, and the shape of the farther wall is detected based on the detected straight line. Detects the position of walls such as guardrails on the left and right side of the road.
そのため、道路脇のガードレール等の壁を確実にかつ精度良く検出することが可能となるとともに、本発明に係る壁検出装置が出力する壁の位置情報等に基づいて自車両の自動制御を行う自動制御システムを構築すれば、確実かつ精度良く検出された道路脇のガードレール等の壁の情報に基づいて自車両を適切かつ的確に制御することが可能となる。 Therefore, it is possible to reliably and accurately detect a wall such as a guardrail beside the road, and to perform automatic control of the own vehicle based on the position information of the wall output by the wall detection device according to the present invention. If a control system is constructed, it becomes possible to appropriately and accurately control the host vehicle based on information on walls such as roadside guardrails that are reliably and accurately detected.
第2の発明によれば、例えば自車両が走行する走行レーンの隣の走行レーンを走行している車両の側面等を壁として検出した場合のように、壁が所定距離以上連続して検出されていない場合に検出結果を無効とすることで、壁の誤検出を確実に回避することが可能となり、前記第1の発明の効果をより的確に発揮させることが可能となる。 According to the second aspect of the invention, for example, when a side surface of a vehicle traveling in a traveling lane adjacent to the traveling lane in which the host vehicle is traveling is detected as a wall, the wall is continuously detected for a predetermined distance or more. If the detection result is invalidated, the erroneous detection of the wall can be avoided reliably, and the effect of the first aspect of the invention can be exhibited more accurately.
第3の発明によれば、例えば自車両が走行する走行レーンの隣の走行レーンを走行している車両の側面等を壁として検出した場合のように、検出した壁が所定速度以上の速度を有する場合に検出結果を無効とすることで、壁の誤検出を確実に回避することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。 According to the third aspect of the invention, the detected wall has a speed equal to or higher than a predetermined speed, for example, when the side surface of the vehicle traveling in the traveling lane adjacent to the traveling lane in which the host vehicle is traveling is detected as a wall. If the detection result is invalidated, erroneous detection of the wall can be avoided reliably, and the effects of the inventions can be exhibited more accurately.
第4の発明によれば、有意な距離の情報を有する設定領域のうち道路面より上方に存在する立体物に対応する設定領域を実空間上の点に変換し、変換された実空間上の点に基づいてハフ変換等の直線近似により壁を表す直線を検出することで、自車両に近い領域に確実にかつ精度良く壁を表す直線を検出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。 According to the fourth invention, the setting area corresponding to the three-dimensional object existing above the road surface among the setting areas having significant distance information is converted to a point on the real space, and the converted real space By detecting a straight line representing a wall by straight line approximation such as Hough transform based on the point, it becomes possible to detect a straight line representing the wall reliably and accurately in an area close to the host vehicle, and the effects of the respective inventions can be obtained. It becomes possible to demonstrate more accurately.
第5の発明によれば、有意な距離の情報を有する設定領域のうち道路面より上方に存在する立体物に対応する設定領域を実空間上の点に変換し、実空間上の点のうち同一立体物を撮像したと見なすことができる設定領域に対応する点をグループ化して直線近似し、自車両の進行方向にほぼ平行なグループであって自車両に最も近い自車両左右の直線を壁直線として検出することで、自車両に近い領域に確実にかつ精度良く壁を表す直線を検出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。 According to the fifth invention, the setting area corresponding to the three-dimensional object existing above the road surface among the setting areas having significant distance information is converted into points on the real space, The points corresponding to the setting area that can be regarded as having captured the same three-dimensional object are grouped and approximated by a straight line, and the straight line on the left and right sides of the vehicle closest to the own vehicle that is a group that is almost parallel to the traveling direction of the own vehicle By detecting it as a straight line, it is possible to detect a straight line that represents the wall reliably and accurately in an area close to the host vehicle, and the effects of the above-described inventions can be exhibited more accurately.
第6の発明によれば、有意な距離の情報を有する設定領域のうち道路面より上方に存在する立体物に対応する設定領域を実空間上の点に変換して、これらの点を自車両前方の格子状に分割された実空間上の各ブロックにプロットし、各ブロックのプロット数を自車両の左右方向にパターンマッチングして得られた壁の位置に基づいて壁の位置を検出することで、例えば変換された実空間上の点が実空間上に整然と並ばず、実空間上に散在するようにプロットされるような場合にも、自車両の左右の壁の位置を的確に検出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。 According to the sixth invention, the setting area corresponding to the three-dimensional object existing above the road surface among the setting areas having significant distance information is converted into points on the real space, and these points are converted into the own vehicle. Plot each block in real space divided into a grid in front, and detect the wall position based on the position of the wall obtained by pattern matching the number of plots of each block in the left and right direction of the host vehicle For example, even when the converted points in the real space are not arranged in the real space and are plotted so as to be scattered in the real space, the positions of the left and right walls of the host vehicle are accurately detected. It becomes possible, and it becomes possible to exhibit the effect of each said invention more correctly.
以下、本発明に係る壁検出装置の実施の形態について、図面を参照して説明する。 Embodiments of a wall detection apparatus according to the present invention will be described below with reference to the drawings.
[第1の実施の形態]
第1の実施形態に係る壁検出装置1は、図1に示すように、主に撮像手段2と、変換手段3と、画像処理手段6と、検出手段9とで構成されている。
[First Embodiment]
As shown in FIG. 1, the wall detection apparatus 1 according to the first embodiment mainly includes an imaging unit 2, a
撮像手段2は、車両周辺を撮像するものであり、所定のサンプリング周期で車両前方の道路を含む風景を撮像して一対の画像を出力するように構成されている。本実施形態では、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵された一対のメインカメラ2aおよびサブカメラ2bからなるステレオカメラが用いられている。本実施形態では、メインカメラ2aおよびサブカメラ2bにはCCDカメラが用いられている。
The imaging means 2 is for imaging the periphery of the vehicle, and is configured to capture a landscape including a road ahead of the vehicle at a predetermined sampling period and output a pair of images. In the present embodiment, a stereo camera including a pair of
メインカメラ2aとサブカメラ2bは、例えば、ルームミラー近傍に車幅方向に所定の間隔をあけて取り付けられている。前記一対のステレオカメラのうち、運転者に近い方のカメラが後述するように各画素について距離が算出され車線が検出される基となる画像を撮像するメインカメラ2a、運転者から遠い方のカメラが前記距離等を求めるために比較される画像を撮像するサブカメラ2bとされている。
The
メインカメラ2aおよびサブカメラ2bには、変換手段3としてのA/Dコンバータ3a、3bがそれぞれ接続されている。A/Dコンバータ3a、3bでは、メインカメラ2aおよびサブカメラ2bから出力されてきた一対のアナログ画像がそれぞれ画素ごとに例えば256階調のグレースケール等の所定の輝度階調の輝度値を有するデジタル画像に変換されるように構成されている。
A /
A/Dコンバータ3aからはメインカメラ2aで撮像され前述した各画素について距離が算出され車線が検出される基となる画像から変換されたデジタル画像が基準画像とし出力され、またA/Dコンバータ3bからはサブカメラ3bで撮像され変換されたデジタル画像が比較画像として出力されるようになっている。
From the A /
A/Dコンバータ3a、3bには、画像補正部4が接続されており、画像補正部4では、A/Dコンバータ3a、3bから出力されてきた基準画像および比較画像に対してメインカメラ2aおよびサブカメラ2bの取付位置の誤差に起因するずれやノイズの除去等を含む輝度値の補正等の画像補正がアフィン変換等を用いて行われるようになっている。
An image correction unit 4 is connected to the A /
画像補正部4からは、基準画像Tが例えば図2に示されるような各画素に輝度値を有する画像データとして、また比較画像も各画素に輝度値を有する画像データとしてそれぞれ出力されるように構成されている。 For example, the reference image T is output from the image correction unit 4 as image data having a luminance value at each pixel as shown in FIG. 2, and the comparison image is also output as image data having a luminance value at each pixel. It is configured.
画像補正部4には、画像データメモリ5が接続されており、基準画像Tと比較画像とのそれぞれの画像データは画像データメモリ5に格納されると同時に検出手段9に送信されるようになっている。
An
また、画像補正部4には、画像処理手段6が接続されている。画像処理手段6は、主に、イメージプロセッサ7と距離データメモリ8とで構成されている。
An image processing means 6 is connected to the image correction unit 4. The image processing means 6 is mainly composed of an
イメージプロセッサ7では、ステレオマッチング処理とフィルタリング処理により画像補正部4から出力された基準画像Tおよび比較画像のデジタルデータに基づいて基準画像Tの各画素または複数画素から構成するブロックからなる各設定領域について実空間における距離を算出するための視差dpを算出するようになっている。
In the
この視差dpの算出については、本願出願人により先に提出された特開平5−114099号公報に詳述されているが、以下、その要点を簡単に述べる。 The calculation of the parallax dp is described in detail in Japanese Patent Application Laid-Open No. 5-1114099 previously filed by the applicant of the present application.
イメージプロセッサ7は、基準画像Tを設定領域である例えば4×4画素の領域に分け、ステレオマッチング処理により各設定領域ごとに1つの視差dpを算出するようになっている。具体的には、例えば基準画像Tが、水平方向が512画素、垂直方向が200画素の画像である場合、イメージプロセッサ7は、基準画像Tを格子状に4×4画素ずつ128×50個に分割して設定領域を形成する。
The
1つの設定領域を構成する16画素には、前述したようにそれぞれ0〜255の輝度値p1ijが割り当てられており、16画素の輝度値p1ijがその設定領域特有の輝度値特性を形成している。 As described above, the luminance value p1ij of 0 to 255 is assigned to each of the 16 pixels constituting one setting area, and the luminance value p1ij of the 16 pixels forms a luminance value characteristic unique to the setting area. .
なお、輝度値p1ijの添字iおよびjは、基準画像Tの画像平面の左下隅を原点とし、水平方向をi座標軸、垂直方向をj座標軸とした場合の画素のi座標およびj座標を表す。前述のように基準画像Tが512×200画素である場合、0≦i≦511、0≦j≦199である。また、比較画像については基準画像Tの原点に予め対応付けられた画素を原点として同様にi座標、j座標を取る。 The subscripts i and j of the luminance value p1ij represent the i and j coordinates of a pixel when the lower left corner of the image plane of the reference image T is the origin, the horizontal direction is the i coordinate axis, and the vertical direction is the j coordinate axis. As described above, when the reference image T is 512 × 200 pixels, 0 ≦ i ≦ 511 and 0 ≦ j ≦ 199. For the comparison image, the i-coordinate and the j-coordinate are similarly taken with the pixel previously associated with the origin of the reference image T as the origin.
イメージプロセッサ7は、比較画像を水平方向に延在する4画素幅の水平ラインに分割し、基準画像Tの1つの設定領域を取り出してそれに対応する比較画像の水平ライン上を1画素ずつ水平方向すなわちi方向にシフトさせながら、基準画像Tの設定領域における16個の画素の輝度値p1ij とそれに対応する比較画像における16個の画素の輝度値p2ijとの差の絶対値をそれぞれ合計した下記(1)式で求められるシティブロック距離CBが最小となる水平ライン上の設定領域、すなわち基準画像Tの設定領域に最も近い輝度値特性を有する比較画像上の設定領域を探索するようになっている。
CB=Σ|p1ij−p2ij| …(1)
The
CB = Σ | p1ij−p2ij | (1)
イメージプロセッサ7は、このようにして特定した比較画像上の設定領域ともとの基準画像T上の設定領域とのずれ量を算出し、そのずれ量を視差dpとして基準画像T上の設定領域に対応付けるようになっている。
The
この視差dpは、前記メインカメラ2aおよびサブカメラ2bの一定距離の離間に由来する基準画像Tおよび比較画像における同一物体の写像位置に関する水平方向の相対的なずれ量であり、メインカメラ2aおよびサブカメラ2bの中央位置から物体までの距離と視差dpとを三角測量の原理に基づいて対応付けることができる。
The parallax dp is a relative displacement amount in the horizontal direction with respect to the mapping position of the same object in the reference image T and the comparison image derived from the
具体的には、実空間上で、メインカメラ2aおよびサブカメラ2bの中央真下の道路面上の点を原点とし、自車両の車幅方向すなわち左右方向にX軸、車高方向にY軸、車長方向すなわち距離方向にZ軸を取ると、視差dpが割り付けられた基準画像上の点(i,j)から実空間上の点(X,Y,Z)への座標変換は下記の(2)〜(4)式に基づいて行われる。
X=CD/2+Z×PW×(i−IV) …(2)
Y=CH+Z×PW×(j−JV) …(3)
Z=CD/(PW×(dp−DP)) …(4)
Specifically, in real space, a point on the road surface directly below the center of the
X = CD / 2 + Z * PW * (i-IV) (2)
Y = CH + Z × PW × (j−JV) (3)
Z = CD / (PW × (dp−DP)) (4)
なお、このようにして視差dpあるいは後述する距離Lijが各設定領域ごとに割り付けられた基準画像Tを距離画像という。また、前記(2)〜(4)式において、CDはメインカメラ2aとサブカメラ2bとの間隔、PWは1画素当たりの視野角、CHはメインカメラ2aとサブカメラ2bの取り付け高さ、IVおよびJVは自車両正面の無限遠点の距離画像上のi座標およびj座標、DPは消失点視差を表す。
The reference image T in which the parallax dp or the distance Lij described later is assigned for each setting area in this way is referred to as a distance image. In the equations (2) to (4), CD is the distance between the
すなわち、メインカメラ2aおよびサブカメラ2bの中央位置、正確には中央真下の道路面上の点から物体までの距離Lijと視差dpとは、前記(4)式のZを距離Lijとすることで一意に対応付けられる。また、視差dpから前記(4)式に基づいて求められるZを前記(2)、(3)式に代入することで距離画像上のi座標およびj座標と対応付けて求めることができる。
That is, the center position of the
また、イメージプロセッサ7は、視差dpの信頼性を向上させる目的から、このようにして求めた視差dpに対してフィルタリング処理を施し、有効とされた視差dpのみを出力するようになっている。
Further, for the purpose of improving the reliability of the parallax dp, the
すなわち、例えば、車道の映像のみからなる特徴に乏しい4×4画素の設定領域を比較画像の4画素幅の水平ライン上で走査しても、比較画像の車道が撮像されている部分ではすべて相関が高くなり、対応する設定領域が特定されて視差dpが算出されてもその視差dpの信頼性は低い。そのため、そのような視差dpは前記フィルタリング処理で無効とされ、視差dpの値として0を出力するようになっている。 That is, for example, even if a 4 × 4 pixel setting region having only features of a roadway image is scanned on a horizontal line having a width of 4 pixels of the comparison image, all the portions of the comparison image where the roadway is imaged are correlated. Even if the corresponding setting area is specified and the parallax dp is calculated, the reliability of the parallax dp is low. Therefore, such a parallax dp is invalidated in the filtering process, and 0 is output as the value of the parallax dp.
したがって、イメージプロセッサ7から出力される基準画像Tの各画素の距離Lij、すなわち基準画像Tの各設定領域について実空間における距離を算出するための視差dpは、通常、基準画像Tの左右方向に隣り合う画素間で輝度値p1ijの差が大きいいわゆるエッジ部分についてのみ有効な値を持つデータとなる。
Therefore, the distance Lij of each pixel of the reference image T output from the
イメージプロセッサ7で算出された基準画像Tの各設定領域の視差dpは前記(4)式に基づいてZすなわち実空間における距離Lijに変換され、この距離Lijが基準画像T上の設定領域に対応付けられて、距離画像として画像処理手段6の距離データメモリ8に格納されるようになっている。
The parallax dp of each setting area of the reference image T calculated by the
なお、距離画像上の座標(i,j)は基準画像T上の座標(i,j)に対応する。また、以下に述べる検出手段9における処理で、距離画像上の1つの設定領域を4×4個の画素として扱う場合には1つの設定領域に属する16個の画素がそれぞれ距離Lijを有するものとして扱われ、設定領域を1つの処理対象として扱う場合には設定領域が距離Lijを有するものとして扱われる。 Note that the coordinates (i, j) on the distance image correspond to the coordinates (i, j) on the reference image T. Further, in the processing in the detection means 9 described below, when one setting area on the distance image is handled as 4 × 4 pixels, it is assumed that each of the 16 pixels belonging to one setting area has a distance Lij. When the setting area is handled as one processing target, the setting area is treated as having a distance Lij.
検出手段9は、図示しないCPUやROM、RAM、入出力インターフェース等がバスに接続されたマイクロコンピュータより構成されている。また、検出手段9には、車速センサやステアリングホイールの操舵角を測定する操舵角センサ等のセンサ類Aが接続されている。 The detection means 9 is composed of a microcomputer in which a CPU, ROM, RAM, input / output interface and the like (not shown) are connected to a bus. The detection means 9 is connected to sensors A such as a vehicle speed sensor and a steering angle sensor for measuring the steering angle of the steering wheel.
検出手段9は、図3に示すように、車線検出手段91と、車線モデル形成手段92と、抽出手段93と、壁検出手段94と、メモリ95とを備えている。検出手段9の各手段には、センサ類AからI/Oインターフェース96を介して必要なデータが入力されるようになっている。
As shown in FIG. 3, the
車線検出手段91は、基準画像Tの各画素の輝度値p1ijと各画素の実空間における距離Lijに基づいて基準画像T上に車線候補点を検出し、検出した車線候補点に基づいて自車両の左右の車線位置を検出するようになっている。
The
車線検出手段91は、基準画像Tから車線位置を検出できるものであればよく、車線位置検出の手法は特定の手法に限定されない。本実施形態では、車線検出手段91および後述する車線モデル形成手段92は前記特許文献2に記載の車線認識装置をベースに構成されている。詳細な構成の説明は同公報に委ねるが、以下、簡単にその構成を説明する。
The
車線検出手段91は、画像データメモリ5から基準画像Tの各画素の輝度値p1ijの情報を読み出し、また、距離データメモリ8から距離画像の各画素の実空間における距離Lijの情報を読み出す。そして、基準画像T上の1画素幅の水平ラインj上を左右方向に1画素ずつオフセットしながら探索し、図4に示すように、基準画像Tの各画素の輝度値p1ijに基づいて各画素の輝度微分値すなわちエッジ強度が閾値以上に大きく変化する等の条件を満たす画素を車線候補点(Ij,Jj)としてそれぞれ検出するようになっている。
The
その際、基準画像Tに対応する距離画像に割り付けられた各画素の距離Lijの情報に基づいて、検出された画素が道路面上にない場合は除外し、車線候補点としては検出しないようになっている。 At that time, based on the information on the distance Lij of each pixel assigned to the distance image corresponding to the reference image T, the detected pixel is excluded when it is not on the road surface and is not detected as a lane candidate point. It has become.
車線検出手段91は、探索を行う水平ラインjを基準画像Tの下側から上向きに1画素幅ずつオフセットさせながら順次車線候補点の検出を行い、図5に示すように、自車両の右側の領域Aおよび左側の領域Bにそれぞれ車線候補点を検出する。そして、それらの中から整合性を取れない車線候補点を破棄して残りの車線候補点を結ぶことで、図6に示すように基準画像T上で自車両の右側に右車線位置LRを、左側に左車線位置LLをそれぞれ検出するようになっている。左右の車線位置LR、LLはそれぞれ実空間における車線位置LR、LLにも変換されるようになっている。 The lane detecting means 91 sequentially detects lane candidate points while offsetting the horizontal line j to be searched upward by one pixel width from the lower side of the reference image T, and as shown in FIG. Lane candidate points are detected in the area A and the left area B, respectively. Then, by discarding lane candidate points that cannot be consistent among them and connecting the remaining lane candidate points, the right lane position LR on the right side of the host vehicle on the reference image T as shown in FIG. The left lane position LL is detected on the left side. The left and right lane positions LR and LL are also converted into lane positions LR and LL in real space, respectively.
なお、本実施形態では、車線検出手段91は、検出された各車線候補点の座標を直線または曲線で近似して左右の車線位置LR、LLを検出するようになっている。また、車線候補点が検出されていない自車両から遠方の領域についても、前記近似された直線や曲線に基づいて、或いは検出された車線候補点同士を結ぶ直線の傾きの変化率等に応じて検出された左右の車線位置LR、LLを適切に延長して推定するようになっている。
In the present embodiment, the
また、車線候補点の探索は、基準画像T上に探索領域を設定して行われるようになっている。すなわち、今回の検出処理では、前回の検出処理で検出された車線位置に基づいてその車線位置を含む基準画像T上の一定の範囲に探索領域を設定する。また、今回の検出で基準画像Tの下側から上向きに水平ラインjを1画素幅ずつオフセットさせながら順次画素の検出を行う際に、ある水平ラインjで前記条件を満たす画素が検出されなかった場合には、次の水平ラインでは探索領域を拡大して車線候補点の探索を行うようになっている。 The search for lane candidate points is performed by setting a search area on the reference image T. That is, in this detection process, a search area is set in a certain range on the reference image T including the lane position based on the lane position detected in the previous detection process. In this detection, when the pixels are sequentially detected while the horizontal line j is offset by one pixel width upward from the lower side of the reference image T, no pixel satisfying the above condition is detected in a certain horizontal line j. In this case, the search area is expanded on the next horizontal line to search for lane candidate points.
車線検出手段91は、このようにして検出した左右の車線位置LR、LLや車線候補点の情報をメモリ95に保存するとともに外部に出力するようになっている。
The lane detecting means 91 stores information on the left and right lane positions LR, LL and lane candidate points detected in this way in the
車線モデル形成手段92は、車線検出手段91で検出された左右の車線位置LR、LLや車線候補点の情報に基づいて車線モデルを三次元的に形成するようになっている。本実施形態では、車線モデル形成手段92は、図7(A)、(B)に示すように、自車両の左右の車線を所定区間ごとに三次元の直線式で近似し、それらを折れ線状に連結して表現した車線モデルを形成するようになっている。なお、図7(A)はZ−X平面上の道路モデルすなわち水平形状モデル、図7(B)はZ−Y平面上の道路モデルすなわち道路高モデルを表す。
The lane
具体的には、車線モデル形成手段92は、自車両前方の実空間を自車両の位置からの距離Z7までの各区間に分け、車線検出手段91で検出された車線候補点の実空間上の位置(X,Y,Z)に基づいてそれぞれの区間内の車線候補点を最小二乗法で直線近似し、各区間ごとに下記の(5)〜(8)式のパラメータaR、bR、aL、bL、cR、dR、cL、dLを算出して車線モデルを形成するようになっている。
Specifically, the lane
[水平形状モデル]
右車線 X=aR・Z+bR …(5)
右車線 X=aL・Z+bL …(6)
[道路高モデル]
右車線 Y=cR・Z+dR …(7)
右車線 Y=cL・Z+dL …(8)
[Horizontal shape model]
Right lane X = a R · Z + b R (5)
Right lane X = a L · Z + b L (6)
[Road height model]
Right lane Y = c R · Z + d R (7)
Right lane Y = c L · Z + d L (8)
このように車線モデル形成手段92は、距離Lijの情報に基づいて道路高モデルを形成することで、実空間上における道路面の高さを検出することが可能であり、本発明の道路面検出手段に相当する。車線モデル形成手段92は、このようにして形成した道路モデルすなわち算出した各区間のパラメータaR〜dLをそれぞれメモリ95に保存するとともに外部に出力するようになっている。
As described above, the lane model forming means 92 can detect the height of the road surface in the real space by forming the road height model based on the information of the distance Lij. Corresponds to means. The lane
なお、原点およびX、Y、Z軸は前記と同様にして取られる。また、車線モデル形成手段92で形成された車線モデルは、前述した車線検出手段91における車線候補点の検出の際に次回のサンプリング周期において検出された画素が道路面上にあるか否かの判断の基準等として用いられるとともに、後述する各手段での処理に用いられるようになっている。
The origin and the X, Y, and Z axes are taken in the same manner as described above. The lane model formed by the lane
抽出手段93は、距離Lijの情報と車線モデル形成手段92に形成された車線モデルに基づいて設定領域ごとに距離Lijが割り付けられた基準画像すなわち距離画像の各設定領域の中から道路面より所定高さ以上上方に存在する立体物に対応するとみなされる設定領域を抽出するようになっている。
The extracting means 93 is predetermined from the road surface from among the reference images in which the distance Lij is assigned for each setting area based on the information on the distance Lij and the lane model formed in the lane
具体的には、抽出手段93は、距離画像の各設定領域のうち0でない有意の距離Lijが割り付けられている設定領域ごとに、前記(3)式のZにその設定領域の距離Lijを代入してYを算出し、また前記車線モデルの道路高モデルからその距離Lijにおけるモデル高さを算出して、その差からその設定領域に対応する立体物の道路面からの高さを算出する。 Specifically, the extracting means 93 substitutes the distance Lij of the setting area into Z in the above equation (3) for each setting area to which a non-zero significant distance Lij is assigned among the setting areas of the distance image. Then, Y is calculated, the model height at the distance Lij is calculated from the road height model of the lane model, and the height from the road surface of the three-dimensional object corresponding to the set region is calculated from the difference.
そして、抽出手段93は、その差が予め設定された所定高さ以上である設定領域のみを抽出するようになっている。抽出手段93は、このようにして抽出した設定領域をメモリ95に保存するようになっている。
And the extraction means 93 extracts only the setting area | region whose difference is more than the predetermined height set beforehand. The extracting means 93 stores the setting area extracted in this way in the
壁検出手段94は、抽出手段93で抽出された設定領域に基づいて自車両に近い領域で自車両の左右に壁を表す直線すなわち壁直線を検出し、また、検出した壁直線を基準としてより遠方の直線状または曲線状の壁のラインすなわち壁ラインを検出し、壁直線および壁ラインを合わせて自車両の左右に壁を検出するようになっている。
The
本実施形態では、壁検出手段94は、壁直線の検出においては、抽出手段93で抽出された設定領域を実空間上の点に変換しその実空間上の点に基づいて直線近似により自車両に近い領域で自車両の左右に壁直線を検出するようになっている。
In the present embodiment, the
この壁直線の検出は、抽出された全設定領域を対象として行うことも可能であるが、抽出された設定領域中には距離Lijの信頼度が低いものや壁検出に不必要なものも含まれるため、本実施形態では以下の手法により壁直線を検出するようになっている。 This wall straight line detection can be performed for all the extracted setting areas, but some of the extracted setting areas include those with low reliability of the distance Lij and those unnecessary for wall detection. Therefore, in this embodiment, a wall straight line is detected by the following method.
すなわち、壁検出手段94は、まず、距離データメモリ8から読み出した距離画像を例えば4画素等の所定の画素幅で垂直方向に延びる短冊状の区分に分割する。そして、1つの短冊状の区分に属する前記抽出された設定領域の全距離Lijの分布を示す図8に示すようなヒストグラムを作成して、度数が最大の区間までの距離をその短冊状の区分における立体物の代表距離Lnとする。これを短冊状の全区分について行う。
That is, the wall detecting means 94 first divides the distance image read from the
壁検出手段94は、算出した短冊状の各区分の代表距離Lnを実空間上の点に変換するようになっている。すなわち、代表距離LnをZ座標とし、そのZ座標を前記(2)式に代入してX座標をそれぞれ算出する。そして、このようにしてX、Z座標が算出された各点をX−Z平面で表される実空間上にプロットすると、図9に示すように、変換された各点が、先行車やガードレール等の立体物のうち自車両MCに面した部分に並ぶようにプロットされる。 The wall detecting means 94 converts the calculated representative distance Ln of each strip-shaped section into a point in real space. That is, the representative distance Ln is set as a Z coordinate, and the X coordinate is calculated by substituting the Z coordinate into the equation (2). Then, when the points for which the X and Z coordinates are calculated in this way are plotted on the real space represented by the XZ plane, as shown in FIG. Are plotted so as to line up with the part facing the host vehicle MC.
壁検出手段94は、このようにして算出した実空間上の各点についてハフ変換を行うようになっている。なお、ハフ変換は算出した実空間上のすべての点に対して行ってもよく、また、前記短冊状の各区分を距離画像の右半分と左半分とに分けてそれぞれについて行うように構成することも可能である。また、ハフ変換としては公知の手法が用いられ、例えば、下記に示す手法により行われる。
The
具体的には、例えば、短冊状の各区分の代表距離Lnから変換された各点の座標を(Xn,Zn)とし、各点が基準画像T上の直線
X=aZ+b …(9)
上に存在すると仮定すると、Xn、Znは、
Xn=aZn+b …(10)
を満たす。
Specifically, for example, the coordinates of each point converted from the representative distance Ln of each strip-shaped section is (Xn, Zn), and each point is a straight line on the reference image T X = aZ + b (9)
Assuming that it exists above, Xn and Zn are
Xn = aZn + b (10)
Meet.
(10)式を変形すると、
b=−Zn×a+Xn …(11)
となる。この(11)式から分かるように、各点(Xn,Zn)が算出されると、−Zn、Xnをそれぞれ傾きおよびb切片としてa−b平面で表されるハフ平面上に1本の直線を引くことができる。
When the equation (10) is transformed,
b = −Zn × a + Xn (11)
It becomes. As can be seen from the equation (11), when each point (Xn, Zn) is calculated, one straight line is formed on the Hough plane represented by the ab plane with −Zn and Xn as inclinations and b intercepts, respectively. Can be drawn.
ハフ平面を予め所定の大きさに升目に区切っておき、各点(Xn,Zn)が算出され(11)式で表される直線が引かれる度に直線が通過する升目の計数値を1増加させる。そして、短冊状の各区分について代表距離Lnを実空間上の点に変換してハフ変換を行い、最終的にすべて区分について直線を算出してハフ平面の升目の加算を終了した時点で、ハフ平面の各升目の計数値について極大値を与えるa、bの組、すなわちそれらを前記(9)式に代入して得られる直線を所定数抽出する。 The Hough plane is divided into cells of a predetermined size in advance, and each point (Xn, Zn) is calculated and the count value of the cells passing the straight line is increased by 1 each time the straight line represented by the equation (11) is drawn. Let Then, for each strip-shaped section, the representative distance Ln is converted to a point in the real space to perform a Hough transform. Finally, a straight line is calculated for all the sections and the addition of the Hough plane cell is finished. A predetermined number of a set of a and b giving the maximum value for the count value of each square in the plane, that is, a straight line obtained by substituting them into the equation (9) is extracted.
例えば、図9に示した各点についてハフ変換を施すと複数の直線が得られる。壁検出手段94は、得られた複数の直線のうち、例えば、
(a)直線が自車両MCの内側を通ったり自車両MCに非常に近いところを通る
(b)直線と自車両MCの挙動から推定される軌跡との平行度が低い
等の条件を満たす直線を壁としてふさわしくないとして棄却し、直線が自車両MCの左右に1本ずつに絞られるまで直線の選択を行う。
For example, when a Hough transform is performed on each point shown in FIG. 9, a plurality of straight lines are obtained. The
(A) A straight line passes through the inside of the own vehicle MC or passes very close to the own vehicle MC. (B) A straight line that satisfies the condition that the parallelism between the straight line and the trajectory estimated from the behavior of the own vehicle MC is low. Is rejected as not suitable as a wall, and straight lines are selected until the straight lines are narrowed to the left and right of the host vehicle MC one by one.
なお、抽出された直線が前記条件を満たさなかったり、ハフ平面の各升目の計数値が閾値以下の場合には極大値であっても抽出しない等の条件が満たされないような場合には、自車両MCの右側や左側あるいは両方ともに直線が選択されない場合もある。 If the extracted straight line does not satisfy the above condition, or if the count value of each square on the Hough plane is equal to or less than the threshold value, the maximum value may not be satisfied. A straight line may not be selected on the right side, the left side, or both of the vehicle MC.
壁検出手段94は、このようにして例えば図10に示すように自車両MCの左右に1本ずつ直線r1、l1が選択されると、各点について自車両MCに近い点から順に各点と直線r1、l1との実空間上の距離を算出していき、直線r1、l1との距離が所定値以下となる最初の点を壁候補点として抽出する。そして、壁検出手段94は、順次自車両MCから離れる方向に各点を探索していき、直線r1、l1との距離が所定値以下であり、最も近い自車両MC側の壁候補点との距離が所定距離以下である各点を壁候補点として抽出していく。
In this way, when the straight lines r1 and l1 are selected one by one on the left and right of the host vehicle MC, for example, as shown in FIG. The distance in the real space from the straight lines r1 and l1 is calculated, and the first point at which the distance from the straight lines r1 and l1 is a predetermined value or less is extracted as a wall candidate point. Then, the
本実施形態では、このように直線r1、l1との距離が近い壁候補点を自車両MCに近い側から順次抽出していくことで自車両に近い領域での壁を表す直線の探索を行い、自車両に近い位置で直線を確実に検出するようになっている。このようにして壁候補点の抽出が行われると、例えば図10に示された各点からは図11に白丸で示される壁候補点が抽出される。 In this embodiment, a straight line representing a wall in a region close to the host vehicle is searched by sequentially extracting the wall candidate points that are close to the straight lines r1 and l1 from the side closer to the host vehicle MC. The straight line is reliably detected at a position close to the own vehicle. When wall candidate points are extracted in this way, for example, wall candidate points indicated by white circles in FIG. 11 are extracted from the points shown in FIG.
壁検出手段94は、以上のようにして直線r1、l1についてそれぞれ壁候補点を抽出し、直線r1、l1のうち図12に示すように自車両MCに最も近い壁候補点から最も遠い壁候補点までを自車両MCに近い領域に壁を表す直線すなわち壁直線r1、l1として検出するようになっている。 The wall detection means 94 extracts the wall candidate points for the straight lines r1 and l1 as described above, and the wall candidate farthest from the wall candidate point closest to the host vehicle MC, as shown in FIG. 12, of the straight lines r1 and l1. Up to a point is detected as a straight line representing a wall in a region close to the host vehicle MC, that is, wall straight lines r1 and l1.
壁検出手段94は、続いて、このようにして検出した壁直線r1、l1を基準としてより遠方の直線状または曲線状の壁ラインを検出するようになっている。
Subsequently, the
この場合、例えば図11に黒丸や白丸で示したように距離画像の短冊状の各区分について立体物までの代表距離Lnから変換された実空間上の各点が整然と並ぶような場合には、図12に示した壁直線r1、l1の自車両MCから最も遠い端部から順次遠方に各点を追跡していって、より遠方の直線状または曲線状の壁ラインを検出することができる。 In this case, for example, when each point in the real space converted from the representative distance Ln to the three-dimensional object is arranged in an orderly manner for each strip-shaped section of the distance image as shown by black circles or white circles in FIG. Each point is tracked sequentially from the end farthest from the host vehicle MC of the wall straight lines r1 and l1 shown in FIG. 12, and a farther straight or curved wall line can be detected.
具体的には、壁直線r1、l1に属する自車両から最も遠い壁候補点より遠方の各点を自車両に近い側から順に探索していく。そして、まず、壁直線r1、l1に属する自車両から最も遠い壁候補点と次の点との実空間上のX軸方向、Z軸方向の変位が規定値以内か否かを判断する。そして、規定値以内であると判断すると、その点を壁候補点として記録する。 Specifically, each point far from the wall candidate point farthest from the host vehicle belonging to the wall straight lines r1 and l1 is sequentially searched from the side closer to the host vehicle. First, it is determined whether or not the displacement in the X-axis direction and the Z-axis direction in the real space between the wall candidate point farthest from the host vehicle belonging to the wall straight lines r1 and l1 and the next point is within a specified value. If it is determined that the value is within the specified value, the point is recorded as a wall candidate point.
以後同様にして、図13(A)に示されるように、自車両から離れる方向に次の点を検出すると、直前に検出された壁候補点aとのX軸方向、Z軸方向の変位が規定値以内か否かを判断し、規定値以内であると判断すると、今回検出した点を壁候補点bとして記録していく。 Thereafter, similarly, as shown in FIG. 13 (A), when the next point is detected in the direction away from the host vehicle, the displacement in the X-axis direction and Z-axis direction with the wall candidate point a detected immediately before is detected. It is determined whether or not the value is within the specified value. If it is determined that the value is within the specified value, the point detected this time is recorded as the wall candidate point b.
また、次の点と直前に検出された壁候補点とのX軸方向、Z軸方向の変位が規定値以内でない場合も、前回までに検出した壁候補点を結ぶ直線、すなわち、図13(B)では壁候補点aと壁候補点bとを結ぶ直線からのX軸方向の変位が規定値以内であれば、今回検出した点を壁候補点c、d、…として記録する。 Further, even when the displacement in the X-axis direction and the Z-axis direction between the next point and the wall candidate point detected immediately before is not within the specified value, a straight line connecting the wall candidate points detected up to the previous time, that is, FIG. In B), if the displacement in the X-axis direction from the straight line connecting the wall candidate point a and the wall candidate point b is within a specified value, the currently detected point is recorded as the wall candidate points c, d,.
このようにして、壁直線r1、l1の自車両MCから最も遠い端部から順次遠方に各点を追跡していって、より遠方の直線状または曲線状の壁ラインを検出することが可能である。 In this way, it is possible to track each point sequentially from the end farthest from the host vehicle MC of the wall straight lines r1 and l1, and to detect a farther straight or curved wall line. is there.
しかし、実際には、距離画像の短冊状の各区分について立体物までの代表距離Lnを実空間上の各点に変換した場合、変換された各点が図12に示したように整然と並ばずに、X−Z平面で表される実空間上に散在するようにプロットされる場合もある。そのため、本実施形態では、壁検出手段94は、以下の手法によってより遠方の壁ラインを検出するように構成されている。 However, in actuality, when the representative distance Ln to the three-dimensional object is converted into each point in the real space for each strip-shaped section of the distance image, the converted points are not neatly arranged as shown in FIG. In some cases, the plots are scattered so as to be scattered in the real space represented by the XZ plane. Therefore, in this embodiment, the wall detection means 94 is comprised so that a distant wall line may be detected with the following methods.
すなわち、壁検出手段94は、まず、自車両MC前方の実空間を図14に示すように自車両の距離方向すなわちZ軸方向と左右方向すなわちX軸方向に所定の大きさの格子状の複数のブロックに分割する。そして、前記壁直線の検出で検出した壁直線r1、l1の自車両MCから最も遠い点より遠方の領域において、距離画像の短冊状の各区分について立体物までの代表距離Lnから変換された実空間上の各点をあてはまるブロックにプロットしていき、各点があてはまる毎にそのブロックのプロット数を1ずつ増加させる。 That is, the wall detecting means 94 first has a plurality of lattice-shaped grids having a predetermined size in the distance direction of the host vehicle, that is, the Z-axis direction and the left-right direction, that is, the X-axis direction, as shown in FIG. Divide into blocks. Then, in the area far from the point farthest from the vehicle MC of the wall straight lines r1 and l1 detected by the detection of the wall straight line, each strip-shaped section of the distance image is converted from the representative distance Ln to the three-dimensional object. Each point on the space is plotted in the corresponding block, and the number of plots in that block is increased by 1 each time each point is applied.
実空間上のすべての点を各ブロックにプロットした後、例えば図14に示す矢印で示す地点でのプロット数pのX軸方向の分布は、例えば図15に示すような分布となる。壁検出手段94は、このプロット数pの分布に対して例えば図16に示す点数wのパターンを施して下記(12)式に従って一致度Qを算出し、パターンをX軸方向に移動させながら一致度Qを順次算出してその最大値を探索するパターンマッチングを行うようになっている。
Q=Σw・p …(12)
After plotting all points in the real space in each block, for example, the distribution in the X-axis direction of the number of plots p at the points indicated by arrows shown in FIG. 14 is as shown in FIG. The wall detection means 94 applies a pattern of the number of points w shown in FIG. 16 to the distribution of the number of plots p, for example, calculates the coincidence Q according to the following equation (12), and matches the pattern while moving the pattern in the X-axis direction. Pattern matching is performed by sequentially calculating the degree Q and searching for the maximum value.
Q = Σw · p (12)
壁検出手段94は、このX軸方向のパターンマッチングにおいて一致度Qが最大になる場合のパターンの原点の位置、すなわち例えば図15のプロット数pの分布に図16の点数wのパターンをマッチングした場合には図17に示すX軸方向の座標Xrを壁候補点のX座標として抽出するようになっている。 The wall detecting means 94 matches the pattern of the point w in FIG. 16 to the position of the origin of the pattern when the degree of coincidence Q is maximum in the pattern matching in the X-axis direction, that is, for example, the distribution of the number of plots p in FIG. In this case, a coordinate Xr in the X-axis direction shown in FIG. 17 is extracted as the X coordinate of the wall candidate point.
なお、この壁候補点のZ座標は、その壁候補点が属する実空間上のブロックの中央位置としてもよいし、ブロックの最も自車両MCに近い位置としてもよい。また、自車両MCの左側の壁候補点を求めたい場合には、例えば図18に示す点数wのパターンを用いて同様のパターンマッチングを行うことで抽出することができる。 The Z coordinate of the wall candidate point may be the center position of the block in the real space to which the wall candidate point belongs, or may be the position closest to the host vehicle MC of the block. Further, when it is desired to obtain the left wall candidate point of the host vehicle MC, for example, it can be extracted by performing the same pattern matching using the pattern of the number of points w shown in FIG.
壁検出手段94は、このようにして抽出した壁候補点を結んで折れ線状の壁ラインを検出するようになっている。壁検出手段94は、以上のようにして検出した壁直線r1、l1と左右の壁ラインとをそれぞれ合わせて図19に示すように自車両MCの左右の壁の位置WR、WLを検出するようになっている。また、壁検出手段94は、このようにして検出した壁WR、WLの情報をそれぞれメモリ95に保存するようになっている。
The
なお、このようにして抽出した壁候補点を曲線状に結んで壁ラインとすることも可能である。また、抽出された壁候補点が他の壁候補点の位置から合理的な範囲内にない場合などにはその壁候補点は削除されるようになっている。また、本実施形態では距離画像の各区分の代表距離Lnから変換された実空間上の各点を実空間上のブロックにプロットする場合について述べたが、距離画像の有意な距離Lijを有する各設定領域を実空間上の点に変換してそれを各ブロックにプロットするように構成することも可能である。 In addition, it is also possible to connect the wall candidate points extracted in this way into a curved line to form a wall line. Further, when the extracted wall candidate point is not within a reasonable range from the position of another wall candidate point, the wall candidate point is deleted. Further, in the present embodiment, a case has been described in which each point on the real space converted from the representative distance Ln of each section of the distance image is plotted on a block on the real space. It is also possible to convert the setting region into a point in the real space and plot it in each block.
一方、本実施形態では、壁検出手段94は、さらに、検出した壁WR、WLが実空間上で所定の距離以上連続して検出されていない場合には検出結果を無効とするようになっている。このように、本実施形態では、例えば自車両が走行する走行レーンの隣の走行レーンを走行している車両の側面等を壁として検出した場合のように壁が所定距離以上連続して検出されていない場合に検出結果を無効とすることで壁の誤検出を回避するようになっている。 On the other hand, in the present embodiment, the wall detection means 94 further invalidates the detection result when the detected walls WR and WL are not continuously detected over a predetermined distance in the real space. Yes. As described above, in this embodiment, for example, a wall is continuously detected for a predetermined distance or more as when a side surface of a vehicle traveling in a traveling lane adjacent to a traveling lane in which the host vehicle is traveling is detected as a wall. If the detection result is invalid, the false detection of the wall is avoided by invalidating the detection result.
具体的には、壁検出手段94は、前述した壁直線r1、l1や壁ラインの検出の際に、抽出された壁候補点同士の実空間上の距離を算出し、その距離が設定された閾値以内にある壁候補点同士を結んだ場合に、自車両MCに最も近い壁候補点と最も遠い壁候補点との実空間上の距離が例えば10m等に設定された所定距離に達しない場合には、それらの壁候補点に基づいて検出された壁を無効とするようになっている。
Specifically, the
例えば図19の自車両MCの左側に検出された壁WLにおいて、壁WLに属する自車両MCに最も近い壁候補点と最も遠い壁候補点との実空間上の距離が所定距離に達していなければ、壁WLの検出結果は無効とされる。 For example, in the wall WL detected on the left side of the host vehicle MC in FIG. 19, the distance in real space between the wall candidate point closest to the host vehicle MC belonging to the wall WL and the farthest wall candidate point must reach a predetermined distance. In this case, the detection result of the wall WL is invalidated.
また、図19の壁WRのように自車両MCに最も近い壁候補点と最も遠い壁候補点との実空間上の距離が所定距離以上であっても、それらの間に隣接壁候補点同士の距離が設定された閾値より大きい地点があり、自車両MCに最も近い壁候補点とその地点の自車両側の壁候補点との実空間上の距離が前記所定距離に達していなければ壁WRの検出結果は無効とされる。つまり、検出された壁が所定距離以上であっても連続して所定距離以上でなければ検出結果は無効とされる。なお、検出された壁が連続しているか否かの判定は、自車両に最も近い壁候補点と最も遠い壁候補点にそれぞれ対応する画像の設定領域が、互いに所定間隔以上離れているか否かにより判定することも可能である。 Moreover, even if the distance in real space between the wall candidate point closest to the host vehicle MC and the farthest wall candidate point is a predetermined distance or more as in the wall WR of FIG. If the distance in the real space between the wall candidate point closest to the host vehicle MC and the wall candidate point on the host vehicle side of the point does not reach the predetermined distance, there is a wall. The detection result of WR is invalidated. That is, even if the detected wall is not less than the predetermined distance, the detection result is invalid if the detected wall is not continuously longer than the predetermined distance. Whether or not the detected walls are continuous is determined based on whether or not the setting regions of the images corresponding to the nearest wall candidate point and the farthest wall candidate point to the host vehicle are separated from each other by a predetermined interval or more. It is also possible to determine by
図2に示した実施例では、図10に示すように自車両右側の壁WRに属する壁候補点において隣接する壁候補点同士の距離が設定された閾値より大きい地点はなく図19に示した壁WRは連続して所定距離以上であるから有効であり、自車両左側の壁WLは所定距離に達していないため無効となる。従って、図2に示した基準画像Tに基づいた壁検出では自車両右側のガードレールのみが壁WRとして検出され、装置外部に出力される。 In the embodiment shown in FIG. 2, as shown in FIG. 10, the wall candidate points belonging to the wall WR on the right side of the host vehicle have no points where the distance between adjacent wall candidate points is larger than the set threshold value, as shown in FIG. The wall WR is effective because it is continuously longer than a predetermined distance, and the wall WL on the left side of the host vehicle is invalid because it does not reach the predetermined distance. Therefore, in the wall detection based on the reference image T shown in FIG. 2, only the guard rail on the right side of the host vehicle is detected as the wall WR and output to the outside of the apparatus.
さらに、本実施形態では、壁検出手段94は、検出した壁が所定の速度以上の移動速度を有する場合には検出結果を無効とするようになっている。このように、本実施形態では、例えば自車両が走行する走行レーンの隣の走行レーンを走行している車両の側面等を壁として検出した場合のように検出した壁が所定速度以上の速度を有する場合に検出結果を無効とすることで壁の誤検出を回避するようになっている。 Further, in the present embodiment, the wall detection means 94 invalidates the detection result when the detected wall has a moving speed equal to or higher than a predetermined speed. Thus, in this embodiment, for example, the detected wall has a speed equal to or higher than a predetermined speed as when the side surface of the vehicle traveling in the traveling lane adjacent to the traveling lane in which the host vehicle is traveling is detected as a wall. If it has, the detection result is invalidated to avoid erroneous wall detection.
壁の移動速度の算出手法としては、例えば自車両と立体物との相対速度を測定するレーダ等の測定手段による相対速度の情報と車速センサからの自車両の走行速度の情報とから壁として検出された立体物の移動速度を算出することが可能である。また、図10に示した距離画像の各区分の代表距離Lnから実空間上に変換された各点の前回の検出位置と今回の検出位置との差分から自車両と壁として検出された立体物との相対速度を算出し、それと自車両の走行速度の情報とから壁として検出された立体物の移動速度を算出することも可能である。その他、壁として検出された立体物の移動速度を算出可能な手法を適宜採用することができる。 As a method of calculating the moving speed of the wall, for example, it is detected as a wall from information on the relative speed by a measuring means such as a radar that measures the relative speed between the host vehicle and the three-dimensional object and information on the traveling speed of the host vehicle from the vehicle speed sensor It is possible to calculate the moving speed of the three-dimensional object. Further, the three-dimensional object detected as the vehicle and the wall from the difference between the previous detection position and the current detection position of each point converted into the real space from the representative distance Ln of each section of the distance image shown in FIG. It is also possible to calculate the moving speed of the three-dimensional object detected as a wall from the information on the traveling speed of the host vehicle. In addition, a method capable of calculating the moving speed of the three-dimensional object detected as a wall can be appropriately employed.
なお、無効とされた検出結果は、メモリ95から削除するように構成してもよく、あるいは無効とラベルしてメモリ95に保存するように構成してもよい。また、無効とされた検出結果を無効とラベルしたうえで外部に出力するように構成することも可能である。
The invalid detection result may be configured to be deleted from the
以上のように、本実施形態に係る壁検出装置1によれば、ステレオマッチング処理により基準画像Tの各設定領域についてそれぞれ視差dpを算出し、それに基づいて設定領域に撮像されている立体物までの距離Lijを精度良く算出する。 As described above, according to the wall detection device 1 according to the present embodiment, the parallax dp is calculated for each setting region of the reference image T by the stereo matching process, and the three-dimensional object imaged in the setting region is calculated based on the parallax dp. The distance Lij is calculated with high accuracy.
そして、基準画像Tあるいは基準画像Tの各設定領域に距離Lijが割り付けられて形成された距離画像に基づいて、自車両に近い領域で壁を表す直線を確実に検出したうえで、検出された直線に基づいてより遠方の壁の位置を検出して、自車両の左右の道路脇に存在するガードレール等の壁の位置を検出する。 Then, based on the distance image formed by assigning the distance Lij to the reference image T or each setting area of the reference image T, the straight line representing the wall in the area close to the host vehicle is reliably detected and detected. The position of a far wall is detected based on the straight line, and the position of a wall such as a guard rail existing on the left and right road sides of the host vehicle is detected.
特に本実施形態のように、有意な距離Lijの情報を有する設定領域のうち道路面より上方に存在する立体物に対応する設定領域を実空間上の点に変換し、実空間上の点に基づいてハフ変換等の直線近似により壁を表す直線を検出することで自車両に近い領域に確実にかつ精度良く壁を表す直線を検出することが可能となる。 In particular, as in the present embodiment, the setting area corresponding to the three-dimensional object existing above the road surface among the setting areas having the information of the significant distance Lij is converted into a point on the real space, Based on this, by detecting a straight line representing a wall by linear approximation such as Hough transform, it becomes possible to detect a straight line representing the wall reliably and accurately in an area close to the host vehicle.
そのため、道路脇のガードレール等の壁を確実にかつ精度良く検出することが可能となるとともに、本実施形態に係る壁検出装置1が出力する壁の位置情報等に基づいて自車両の自動制御を行う自動制御システムを構築すれば、確実かつ精度良く検出された道路脇のガードレール等の壁の情報に基づいて自車両を適切かつ的確に制御することが可能となる。 Therefore, it is possible to reliably and accurately detect a wall such as a guardrail beside the road, and to perform automatic control of the host vehicle based on the position information of the wall output by the wall detection device 1 according to the present embodiment. If the automatic control system to perform is constructed, it becomes possible to appropriately and accurately control the own vehicle based on the information of the walls such as the roadside guardrails reliably and accurately detected.
なお、本実施形態では、図14等に示した実空間上のブロックを用いたパターンマッチングの手法を、壁直線WR、WLが検出された後のより遠方の壁ラインの検出にのみ用いる場合について説明したが、この手法を用いて自車両に近い領域における壁直線の検出を行うように構成することも可能である。 In the present embodiment, the pattern matching method using the blocks in the real space shown in FIG. 14 or the like is used only for detection of a wall line farther after the wall straight lines WR and WL are detected. Although described, it is also possible to configure to detect wall straight lines in an area close to the host vehicle using this method.
[第2の実施の形態]
第2の実施形態に係る壁検出装置は、図1に示した前記第1の実施形態に係る壁検出装置1と同様の構成であり、検出手段9における壁検出手段の構成が異なっている。以下、前記第1の実施形態と同様の構成部分については同一の符号を付して説明する。
[Second Embodiment]
The wall detection apparatus according to the second embodiment has the same configuration as that of the wall detection apparatus 1 according to the first embodiment shown in FIG. 1, and the configuration of the wall detection means in the detection means 9 is different. Hereinafter, the same components as those in the first embodiment will be described with the same reference numerals.
本実施形態に係る壁検出手段は、抽出手段93で抽出された設定領域に基づいて自車両に近い領域で自車両の左右に壁直線を検出し、また、検出した壁直線を基準としてより遠方の直線状または曲線状の壁ラインを検出し、壁直線および壁ラインを合わせて自車両の左右に壁を検出する点では前記第1の実施形態と同様であるが、壁直線の検出手法が異なる。
The wall detection unit according to the present embodiment detects wall straight lines on the left and right sides of the host vehicle in a region close to the host vehicle based on the setting region extracted by the
壁検出手段は、壁直線の検出において、前記第1の実施形態と同様に距離データメモリ8から読み出した距離画像を所定の画素幅で垂直方向に延びる短冊状の区分に分割し、1つの短冊状の区分に属する前記抽出された設定領域の全距離Lijについてヒストグラムを作成してその短冊状の区分における立体物の代表距離Lnを算出し、算出した各代表距離Lnをそれぞれ実空間上の点に変換して図9に示したように実空間上にそれらの点をプロットするようになっている。
The wall detection means divides the distance image read from the
続いて、壁検出手段は、図9に示した実空間上の各点に対して、図20に示すように近接する各点の距離や方向性に基づいて同一立体物と見なせる各点をグループG1〜G7にグループ化する。そして、図21に示すように、各点が自車両の進行方向に対して垂直なX軸方向に対して略平行に並ぶグループには正面O1〜O3とラベルし、各点が自車両の進行方向であるZ軸方向にほぼ平行に並ぶグループには側壁W1〜W4とラベルして、立体物に該当するグループをそれぞれ“正面”および“側壁”として検出するようになっている。 Subsequently, the wall detection unit groups each point that can be regarded as the same three-dimensional object based on the distance and directionality of each adjacent point as shown in FIG. 20 with respect to each point in the real space shown in FIG. Grouped into G1 to G7. Then, as shown in FIG. 21, a group in which each point is arranged substantially parallel to the X-axis direction perpendicular to the traveling direction of the host vehicle is labeled front O1-O3, and each point is the traveling of the host vehicle. The groups arranged substantially parallel to the Z-axis direction, which is the direction, are labeled as side walls W1 to W4, and the groups corresponding to the three-dimensional object are detected as “front” and “side walls”, respectively.
そして、壁検出手段は、“正面”や“側壁”として検出した各グループG1〜G7に属する各点をそれぞれハフ変換や最小二乗法等の手法を用いて直線近似し、自車両MCに最も近い左右の側壁W1を表す直線および側壁W4を表す直線をそれぞれ壁直線W1、W4として検出するようになっている。 The wall detecting means linearly approximates each point belonging to each of the groups G1 to G7 detected as “front” or “sidewall” using a method such as Hough transform or least square method, and is closest to the host vehicle MC. The straight lines representing the left and right side walls W1 and the straight lines representing the side walls W4 are detected as wall straight lines W1 and W4, respectively.
なお、本実施形態においても壁直線の検出の際、前述したように、
(a)直線が自車両MCの内側を通ったり自車両MCに非常に近いところを通る
(b)直線と自車両MCの挙動から推定される軌跡との平行度が低い
等の条件を満たす直線を、壁を表す直線としてふさわしくない直線として棄却する等の処理が行われる。
In this embodiment, as described above, when detecting a wall straight line,
(A) A straight line passes through the inside of the own vehicle MC or passes very close to the own vehicle MC. (B) A straight line that satisfies the condition that the parallelism between the straight line and the trajectory estimated from the behavior of the own vehicle MC is low. Is rejected as a straight line that is not suitable as a straight line representing a wall.
一方、壁直線W1、W4より遠方の壁ラインの検出については、前記第1の実施形態と同様に実空間上のブロックを用いたパターンマッチングの手法を用いて処理するように構成することが可能である。また、図21に示すように、側壁W4の検出と同時にそれに連続するより遠方の側壁W3が検出される場合には、本実施形態の手法により検出された側壁W3を壁ラインとして検出するように構成することも可能である。 On the other hand, detection of wall lines farther from the wall straight lines W1 and W4 can be configured to be processed using a pattern matching method using blocks in the real space, as in the first embodiment. It is. Further, as shown in FIG. 21, when a farther side wall W3 continuous with the side wall W4 is detected, the side wall W3 detected by the method of the present embodiment is detected as a wall line. It is also possible to configure.
本実施形態では、壁検出手段は、このようにして壁直線W1を自車両MCの左側の壁の位置WL、壁直線W4と壁ラインW3とを合わせて自車両MCの右側の壁の位置WRとして検出するようになっている。また、壁検出手段はこのようにして検出した左右の壁の情報をそれぞれメモリ95に保存するようになっている。
In the present embodiment, the wall detecting means thus aligns the wall straight line W1 with the left wall position WL of the host vehicle MC, and the wall straight line W4 and the wall line W3 together with the right wall position WR of the host vehicle MC. It is supposed to detect as. Further, the wall detection means stores the information of the left and right walls thus detected in the
また、本実施形態においても、検出した壁の長さと連続性および移動速度による検出結果の無効処理が行われるようになっている。そのため、本実施形態においても自車両MCの左側に検出された壁WLは無効とされ、結局、図2に示した基準画像Tに基づいた壁検出により自車両右側のガードレールのみが壁WRとして検出され、装置外部に出力される。 In the present embodiment as well, invalidation processing of detection results based on the detected wall length, continuity, and moving speed is performed. Therefore, also in the present embodiment, the wall WL detected on the left side of the host vehicle MC is invalidated. As a result, only the guard rail on the right side of the host vehicle is detected as the wall WR by the wall detection based on the reference image T shown in FIG. And output to the outside of the device.
以上のように、本実施形態に係る壁検出装置によれば、前記第1の実施形態に係る壁検出装置1と同様に、ステレオマッチング処理により基準画像Tの各設定領域についてそれぞれ視差dpを算出し、それに基づいて設定領域に撮像されている立体物までの距離Lijを精度良く算出する。 As described above, according to the wall detection device according to the present embodiment, the parallax dp is calculated for each setting region of the reference image T by the stereo matching process, similarly to the wall detection device 1 according to the first embodiment. Based on this, the distance Lij to the three-dimensional object imaged in the setting area is accurately calculated.
そして、基準画像Tあるいは基準画像Tの各設定領域に距離Lijが割り付けられて形成された距離画像に基づいて、自車両に近い領域で壁を表す直線を確実に検出したうえで、検出された直線に基づいてより遠方の壁の位置を検出して、自車両の左右の道路脇に存在するガードレール等の壁の位置を検出する。 Then, based on the distance image formed by assigning the distance Lij to the reference image T or each setting area of the reference image T, the straight line representing the wall in the area close to the host vehicle is reliably detected and detected. The position of a far wall is detected based on the straight line, and the position of a wall such as a guard rail existing on the left and right road sides of the host vehicle is detected.
特に本実施形態のように、有意な距離Lijの情報を有する設定領域のうち道路面より上方に存在する立体物に対応する設定領域を実空間上の点に変換し、実空間上の点のうち同一立体物を撮像したと見なすことができる設定領域に対応する点をグループ化して直線近似し、自車両の進行方向にほぼ平行なグループであって自車両に最も近い自車両左右の直線を壁直線として検出することで、自車両に近い領域に確実にかつ精度良く壁を表す直線を検出することが可能となる。 In particular, as in the present embodiment, a setting area corresponding to a three-dimensional object existing above the road surface is converted into a point on the real space from among the setting areas having significant distance Lij information. The points corresponding to the setting areas that can be regarded as having captured the same three-dimensional object are grouped and approximated by a straight line, and the straight line on the left and right sides of the own vehicle that is the group that is almost parallel to the traveling direction of the own vehicle and that is closest to the own vehicle. By detecting it as a wall straight line, it is possible to detect a straight line representing the wall reliably and accurately in an area close to the host vehicle.
そのため、道路脇のガードレール等の壁を確実にかつ精度良く検出することが可能となるとともに、本実施形態に係る壁検出装置が出力する壁の位置情報等に基づいて自車両の自動制御を行う自動制御システムを構築すれば、確実かつ精度良く検出された道路脇のガードレール等の壁の情報に基づいて自車両を適切かつ的確に制御することが可能となる。 Therefore, it is possible to reliably and accurately detect a wall such as a guardrail beside the road, and automatically control the host vehicle based on the position information of the wall output by the wall detection device according to the present embodiment. If an automatic control system is constructed, it becomes possible to control the host vehicle appropriately and accurately based on information on walls such as roadside guardrails reliably and accurately detected.
なお、本実施形態に示したグループ化処理を基準画像T上や距離画像上で行うように構成することも可能である。 Note that the grouping process shown in the present embodiment may be configured to be performed on the reference image T or the distance image.
1 壁検出装置
2 撮像手段
6 画像処理手段
93 抽出手段
94 壁検出手段
T 基準画像(一方の画像)
Lij 距離
WR、WL 壁の位置
MC 自車両
r1、l1 壁を表す直線
G1〜G7 グループ
p プロット数
DESCRIPTION OF SYMBOLS 1 Wall detection apparatus 2 Imaging means 6 Image processing means 93 Extraction means 94 Wall detection means T Reference | standard image (one image)
Lij Distance WR, WL Wall position MC Vehicle r1, l1 Straight line G1 to G7 representing the wall Group p Number of plots
Claims (6)
前記撮像された一対の画像に基づいて少なくとも一方の画像の設定領域ごとに実空間における距離を算出する画像処理手段と、
前記距離の情報に基づいて道路面より上方に存在するとみなすことができる前記設定領域を抽出する抽出手段と、
抽出された前記設定領域に基づいて自車両に近い領域で自車両の左右に壁を表す直線を検出し、前記壁を表す直線を基準としてより遠方の直線状または曲線状の壁の形状を検出し、前記壁を表す直線および前記壁の形状を合わせて壁の位置を検出する壁検出手段と
を備えることを特徴とする壁検出装置。 Imaging means for imaging a traveling path of the host vehicle including a road and outputting a pair of images;
Image processing means for calculating a distance in real space for each setting region of at least one image based on the pair of captured images;
Extraction means for extracting the setting region that can be considered to exist above the road surface based on the information of the distance;
Based on the extracted setting area, a straight line representing a wall on the left and right of the own vehicle is detected in an area close to the own vehicle, and a far straight or curved wall shape is detected based on the straight line representing the wall. And a wall detecting means for detecting a position of the wall by combining a straight line representing the wall and the shape of the wall.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006235997A JP4956099B2 (en) | 2006-08-31 | 2006-08-31 | Wall detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006235997A JP4956099B2 (en) | 2006-08-31 | 2006-08-31 | Wall detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008059323A JP2008059323A (en) | 2008-03-13 |
JP4956099B2 true JP4956099B2 (en) | 2012-06-20 |
Family
ID=39241971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006235997A Active JP4956099B2 (en) | 2006-08-31 | 2006-08-31 | Wall detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4956099B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3330892A1 (en) | 2016-11-30 | 2018-06-06 | Ricoh Company Ltd. | Information processing apparatus, imaging device, device control system, mobile object, information processing method, and carrier means |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101230827B1 (en) * | 2009-12-04 | 2013-02-07 | 기아자동차주식회사 | System for sensing a front vehicle |
DE102010020984A1 (en) | 2010-04-20 | 2011-10-20 | Conti Temic Microelectronic Gmbh | Method for determining the road course for a motor vehicle |
JP5276140B2 (en) | 2011-05-19 | 2013-08-28 | 富士重工業株式会社 | Environment recognition apparatus and environment recognition method |
JP6270102B2 (en) * | 2012-10-10 | 2018-01-31 | 株式会社リコー | Moving surface boundary line recognition apparatus, moving body device control system using the moving surface boundary line recognition method, and moving surface boundary line recognition program |
JP6434743B2 (en) * | 2014-08-19 | 2018-12-05 | 日野自動車株式会社 | Runway edge estimation device |
JP6705497B2 (en) | 2016-02-23 | 2020-06-03 | 株式会社リコー | Image processing device, imaging device, mobile device control system, image processing method, program, and mobile device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3324821B2 (en) * | 1993-03-12 | 2002-09-17 | 富士重工業株式会社 | Vehicle exterior monitoring device |
JP3352655B2 (en) * | 1999-09-22 | 2002-12-03 | 富士重工業株式会社 | Lane recognition device |
JP2002008019A (en) * | 2000-06-21 | 2002-01-11 | Fuji Heavy Ind Ltd | Track recognition device and railway vehicle using the track recognition device |
JP3630100B2 (en) * | 2000-12-27 | 2005-03-16 | 日産自動車株式会社 | Lane detection device |
JP3649163B2 (en) * | 2001-07-12 | 2005-05-18 | 日産自動車株式会社 | Object type discrimination device and object type discrimination method |
JP3762406B2 (en) * | 2003-12-17 | 2006-04-05 | 富士重工業株式会社 | Vehicle travel guidance device |
-
2006
- 2006-08-31 JP JP2006235997A patent/JP4956099B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3330892A1 (en) | 2016-11-30 | 2018-06-06 | Ricoh Company Ltd. | Information processing apparatus, imaging device, device control system, mobile object, information processing method, and carrier means |
Also Published As
Publication number | Publication date |
---|---|
JP2008059323A (en) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4714104B2 (en) | Object tilt detection device | |
CN109435942B (en) | Information fusion-based parking space line and parking space recognition method and device | |
JP4956452B2 (en) | Vehicle environment recognition device | |
CN107169986B (en) | A kind of obstacle detection method and system | |
JP6151150B2 (en) | Object detection device and vehicle using the same | |
US6888953B2 (en) | Vehicle surroundings monitoring apparatus | |
JP3352655B2 (en) | Lane recognition device | |
EP1394761B1 (en) | Obstacle detection device and method therefor | |
JP5926228B2 (en) | Depth detection method and system for autonomous vehicles | |
JP4638369B2 (en) | Lane position detector | |
JP4956099B2 (en) | Wall detector | |
JP5561064B2 (en) | Vehicle object recognition device | |
JP4901275B2 (en) | Travel guidance obstacle detection device and vehicle control device | |
JPH06266828A (en) | Outside monitoring device for vehicle | |
JP4937844B2 (en) | Pedestrian detection device | |
JP2008158640A (en) | Moving object detection device | |
JP4032843B2 (en) | Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system | |
JP4067340B2 (en) | Object recognition device and object recognition method | |
JP4721278B2 (en) | Lane departure determination device, lane departure prevention device, and lane tracking support device | |
JP2007264712A (en) | Lane detection device | |
JP4939137B2 (en) | Lane recognition device | |
JP2013161190A (en) | Object recognition device | |
JP5746996B2 (en) | Road environment recognition device | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JP5903901B2 (en) | Vehicle position calculation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120313 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4956099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150323 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |