JP2012190214A - Image recognition device for vehicle, image recognition method for vehicle, program and medium - Google Patents
Image recognition device for vehicle, image recognition method for vehicle, program and medium Download PDFInfo
- Publication number
- JP2012190214A JP2012190214A JP2011052483A JP2011052483A JP2012190214A JP 2012190214 A JP2012190214 A JP 2012190214A JP 2011052483 A JP2011052483 A JP 2011052483A JP 2011052483 A JP2011052483 A JP 2011052483A JP 2012190214 A JP2012190214 A JP 2012190214A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- image recognition
- area
- region
- crossable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 abstract description 19
- 239000000284 extract Substances 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 7
- 230000000630 rising effect Effects 0.000 description 6
- 230000004043 responsiveness Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】処理負荷を高めることなくより効果的に認識性能を高めることができる車両用画像認識装置、車両用画像認識方法、プログラム及び媒体を提供する。
【解決手段】車両用画像認識装置は、撮像手段と、撮像手段による撮像画像から横断可領域25を抽出する抽出手段と、横断可領域25の輪郭に基づいた境界線で撮像画像内の道路と歩道を含む路面の領域を領域部分α〜ζに分割する分割手段と、領域部分α〜ζのそれぞれに対応させた歩行者パターンを選択する選択手段と、領域部分α〜ζのそれぞれにおいて歩行者パターンを用いた照合により歩行者を認識する認識手段と、を含む。
【選択図】図3A vehicle image recognition apparatus, a vehicle image recognition method, a program, and a medium that can improve recognition performance more effectively without increasing processing load.
An image recognition apparatus for a vehicle includes an imaging unit, an extraction unit that extracts a crossable area 25 from a captured image by the imaging unit, and a road in the captured image at a boundary line based on the outline of the crossable area 25. Dividing means for dividing the road surface area including the sidewalk into area parts α to ζ, selection means for selecting a pedestrian pattern corresponding to each of the area parts α to ζ, and pedestrians in each of the area parts α to ζ Recognizing means for recognizing a pedestrian by collation using a pattern.
[Selection] Figure 3
Description
本発明は、単眼カメラを用いる車両用画像認識装置、車両用画像認識方法、プログラム及び媒体に関する。 The present invention relates to an image recognition apparatus for a vehicle using a monocular camera, an image recognition method for a vehicle, a program, and a medium.
単眼カメラを用いた安価な構成で歩行者を認識、検出するにあたって、歩行者の向きや静止状態、歩行状態を含む姿勢はバラツキが大きいため、歩行者の向き別の歩行者パターンを準備し、それぞれ順番に照合することが有効である。ところが、向き数に比例して処理負荷が大きくなり、応答性が低下し迅速な認識ができなくなるという問題がある。 When recognizing and detecting pedestrians with an inexpensive configuration using a monocular camera, postures including pedestrian orientation, stationary state, and walking state vary widely, so prepare pedestrian patterns according to pedestrian orientation, It is effective to collate each in turn. However, there is a problem that the processing load increases in proportion to the number of directions, responsiveness decreases, and quick recognition cannot be performed.
このような問題に対応する従来技術として、例えば特許文献1に記載されるように、歩行者の移動ベクトルを検出して移動ベクトルに応じて歩行者パターンを準備することが考えられる。
As a conventional technique for dealing with such a problem, for example, as described in
しかしながら、この手法においては、移動する歩行者に対しては有効であるが、静止している歩行者を認識できないという課題がある。特に静止状態の歩行者のうち、左向きの歩行者と右向きの歩行者では歩行者パターンが大きく異なるため、これらの異なる歩行者パターンを有するデータベースによる認識では認識性能が低くなるという課題がある。 However, this method is effective for a moving pedestrian, but has a problem that a stationary pedestrian cannot be recognized. In particular, among pedestrians in a stationary state, a pedestrian pattern is significantly different between a left-sided pedestrian and a right-sided pedestrian, and thus there is a problem in that recognition performance is low in recognition using a database having these different pedestrian patterns.
そこで、本発明は、処理負荷を高めることなくより効果的に認識性能を高めることができる車両用画像認識装置、車両用画像認識方法、プログラム及び媒体を提供することを目的とする。 Therefore, an object of the present invention is to provide a vehicular image recognition apparatus, a vehicular image recognition method, a program, and a medium that can improve the recognition performance more effectively without increasing the processing load.
上記目的を達成するため、本発明に係る車両用画像認識装置は、
撮像手段と、
前記撮像手段による撮像画像から横断可領域を抽出する抽出手段と、
前記横断可領域の輪郭に基づいた境界線で前記撮像画像内の道路と歩道を含む路面の領域を領域部分に分割する分割手段と、
前記領域部分のそれぞれに対応させた歩行者パターンを選択する選択手段と、
前記領域部分のそれぞれにおいて前記歩行者パターンを用いた照合により歩行者を認識する認識手段と、を含むことを特徴とする。
In order to achieve the above object, a vehicle image recognition apparatus according to the present invention includes:
Imaging means;
Extraction means for extracting a crossable region from the image captured by the imaging means;
A dividing unit that divides a region of a road surface including a road and a sidewalk in the captured image into a region portion at a boundary line based on an outline of the crossable region;
Selecting means for selecting a pedestrian pattern corresponding to each of the region portions;
Recognizing means for recognizing a pedestrian by collation using the pedestrian pattern in each of the region portions.
また、上記目的を達成するため、本発明に係る車両用画像認識方法は、
撮像ステップと、
前記撮像手段による撮像画像から横断可領域を抽出する抽出ステップと、
前記横断可領域の輪郭に基づいた境界線で前記撮像画像内の道路と歩道を含む路面の領域を領域部分に分割する分割ステップと、
前記領域部分のそれぞれに対応させた歩行者パターンを選択する選択ステップと、
前記領域部分のそれぞれにおいて前記歩行者パターンを用いた照合により歩行者を認識する認識ステップと、を含むことを特徴とする。
In order to achieve the above object, a vehicle image recognition method according to the present invention includes:
Imaging step;
An extraction step of extracting a crossable region from an image captured by the imaging means;
A division step of dividing a road surface area including a road and a sidewalk in the captured image into a region portion at a boundary line based on an outline of the crossable area;
A selection step of selecting a pedestrian pattern corresponding to each of the region portions;
A recognition step of recognizing a pedestrian by collation using the pedestrian pattern in each of the region portions.
本発明に係るプログラムは前記車両用画像認識方法を実行するプログラムであり、本発明に係る媒体は前記プログラムを記憶した媒体である。 A program according to the present invention is a program for executing the vehicle image recognition method, and a medium according to the present invention is a medium storing the program.
本発明によれば、処理負荷を高めることなくより効果的に認識性能を高めることができる。 According to the present invention, the recognition performance can be improved more effectively without increasing the processing load.
以下、図面を参照しながら、本発明を実施するための形態の説明を行う。図1は、本発明の一実施形態である車両用画像認識装置1の構成を示したブロック図である。車両用画像認識装置1は、車両に搭載され、単眼カメラ11と、横断可領域抽出部12と、分割部13と、選択部14と、認識部15とを備えている。各部の機能の一部又は全部は、画像認識処理を実行するECU(Electronic Control Unit)を含むプロセッサやマイクロコンピュータ等によって実現可能である。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle
単眼カメラ11は、自車両周辺(例えば、自車両の進行方向)を所定の画角で撮像して、その撮像画像を出力する撮像手段である。自車両の進行方向は、前進方向でも、後進方向でもよい。単眼カメラ11は、CCD又はCMOS等の撮像素子を備えている。
The
横断可領域抽出部12は、単眼カメラ11による撮像画像から横断可領域である横断歩道を抽出する抽出手段である。
The crossable
横断歩道は、一般的には、道路の前後方向に延びる太い白線と左右方向に延びる細い白線の組合せ又は太い白線のみにより構成される。なお、横断可領域は、文字、記号又はそれらの組み合わせが路面上にペイント等によって標示されたものであってもよく、歩行者用信号が青である条件又は道路を走行する車両が存在しない条件で歩行者が安全に横断することが可能である領域を指す。横断歩道の大きさは、法令等で予め定められた寸法を基準としている。 A pedestrian crossing is generally composed only of a combination of a thick white line extending in the front-rear direction of the road and a thin white line extending in the left-right direction or a thick white line. The crossable area may be a character, a symbol, or a combination thereof marked on the road surface by paint or the like, and a condition that the pedestrian signal is blue or there is no vehicle traveling on the road Refers to the area where pedestrians can safely cross. The size of the pedestrian crossing is based on dimensions predetermined by laws and regulations.
図2は、単眼カメラ11によって得られた自車両の進行方向の撮像画像21を示した図である。22は歩行者を指し、23は側方の白線を、24は分離帯の白鎖線を示す。撮像画像21には、横断可領域として、自車両の前方の進路上に標示された横断歩道25が含まれている。符号26は、消失点(無限遠点)を表す。図2の場合、横断可領域抽出部12は、例えば、撮像画像21から、横断歩道25を構成する候補ラインp1〜p4を抽出する。撮像画像21は、左右方向のピクセル数がW、上下方向のピクセル数がHの画像である。
FIG. 2 is a view showing a captured
分割部13は、図3に示すように、横断可領域抽出部12によって抽出された横断歩道25の輪郭に基づいた境界線で撮像画像21内の道路と歩道を含む路面の領域を九つであって六種類の領域部分α〜ζに分割する分割手段である。
As shown in FIG. 3, the dividing
選択部14は、前述した領域部分のそれぞれに対応させた歩行者パターンを含むデータベースを選択する選択手段であり、認識部15は、領域部分のそれぞれにおいて対応させた歩行者パターンを含むデータベースを用いた照合により歩行者を認識する認識手段である。
The
本実施例1において、前述した境界線は、図2の情報からの俯瞰図である図3に示すように、横断歩道25の輪郭の前端縁と後端縁のそれぞれに沿う左右方向に延びる左右方向線L1、L2を含むとともに、輪郭の左端縁と右端縁のそれぞれに沿う前後方向に延びる前後方向線L3、L4を含むものとする。なお、後者の境界線である前後方向線L3、L4については、より検出の容易な道路の側方の白線と一致するため、白線の検出により代用する。 In the first embodiment, the boundary lines described above are left and right extending in the left-right direction along each of the front edge and the rear edge of the outline of the pedestrian crossing 25 as shown in FIG. 3 which is an overhead view from the information of FIG. It includes direction lines L1 and L2, and includes front and rear direction lines L3 and L4 extending in the front and rear direction along the left end edge and the right end edge of the contour. Note that the front and rear direction lines L3 and L4, which are the latter boundary lines, coincide with the white lines on the side of the road that are easier to detect.
さらに、本実施例1においては、歩行者パターンは歩行者の静止状態又は歩行状態と正面背面左右のいずれかの向きを含む。また、図3に示す、横断可領域つまり領域部分εの左右に隣接して位置する領域部分γ、δにおいて、それぞれの歩行者パターンは図4中最左と左から二番目に示すような、静止状態に対応したものである。 Furthermore, in the first embodiment, the pedestrian pattern includes the pedestrian's stationary state or the walking state and any direction of the front, back, left and right. Further, in the region portions γ and δ located adjacent to the left and right of the crossable region, that is, the region portion ε shown in FIG. 3, each pedestrian pattern is as shown second from the left and left in FIG. It corresponds to a stationary state.
すなわち図3に示すように、横断可領域つまり領域部分εの左に隣接して位置する領域部分γにおいて、歩行者パターンは右向きであり、横断可領域つまり領域部分εの右に隣接して位置する領域部分δにおいて、歩行者パターンは左向きである。 That is, as shown in FIG. 3, in the crossable region, that is, the region portion γ located adjacent to the left of the region portion ε, the pedestrian pattern is directed to the right, and is positioned adjacent to the right of the crossable region, that is, the region portion ε. In the area portion δ to be operated, the pedestrian pattern is facing left.
さらに、横断可領域である領域部分εの左前又は右前に位置する領域部分βにおいて、歩行者パターンは図4の右から二番目に示す歩行状態に対応したものであって正面向きであり、横断可領域である領域部分εの左後又は右後に隣接して位置する領域部分αにおいて、歩行者パターンは図4の最右に示す歩行状態に対応したものであって背面向きである。 Further, in the region portion β located in front of the left or right of the region portion ε that is a crossable region, the pedestrian pattern corresponds to the walking state shown second from the right in FIG. In a region portion α located adjacent to the left rear or right rear of the region portion ε, which is a possible region, the pedestrian pattern corresponds to the walking state shown on the rightmost side in FIG.
なお、領域部分εそのものにおいては、歩行者パターンは歩行状態であって、左向き又は右向きに対応したものである。領域部分εの前又は後の領域部分ζにおいては、歩行者パターンは全方位向きに、対応したものである。また、図3の図示から明らかなように、領域部分ζは道路であり、領域部分α、βは歩道であり、領域部分γ、δは、横断歩道25の両側に位置する歩道である。
In the region portion ε itself, the pedestrian pattern is in a walking state and corresponds to leftward or rightward. In the region portion ζ before or after the region portion ε, the pedestrian pattern corresponds to the omnidirectional direction. As is clear from the illustration of FIG. 3, the region portion ζ is a road, the region portions α and β are sidewalks, and the region portions γ and δ are sidewalks located on both sides of the
図5は、横断歩道25を抽出する処理例を示したフローチャートである。図2、図6を参照しながら、本フローチャートについて説明する。
FIG. 5 is a flowchart showing an example of processing for extracting the
ステップS10において、横断可領域抽出部12は、撮像画像21の画素輝度分布に基づいて、画素の輝度が急変する上下方向(垂直方向)のエッジを撮像画像21の中から抽出する。
In step S <b> 10, the crossable
ステップS20において、横断可領域抽出部12は、ステップS10で抽出したエッジを、水平方向(自車両から図2の横断歩道25を見たときの左右方向)の輝度変化パターンによって分類する。横断可領域抽出部12は、各エッジの左領域及び右領域の画素輝度分布に基づいて、左領域が右領域よりも暗い場合には「立ち上がりエッジ」と判定し、左領域が右領域よりも明るい場合には「立ち下がりエッジ」と判定する。
In step S20, the crossable
ステップS30において、横断可領域抽出部12は、撮像画像21を水平方向にサーチして、ステップS20で分類したエッジが所定回数以上交互に繰り返し出現するラインを、横断歩道25を構成する候補ラインとしてグルーピングする。そして、ステップS40において、横断可領域抽出部12は、撮像画像21を垂直方向にサーチして、グルーピングされた各候補ラインの隣接関係、及び候補ラインを構成するエッジの接続関係によって、各候補ラインをグルーピングして横断歩道25及び横断歩道25の輪郭を抽出する。
In step S <b> 30, the crossable
例えば、横断可領域抽出部12は、互いに隣り合う立ち上がりエッジと立ち下がりエッジを1ペアとして、所定数以上のペア(例えば、3ペア以上)が存在し、且つ、それらの所定数以上のペアについて各ペアを構成する2つのエッジ間の水平方向(左右方向)の距離(例えば図6の場合、距離b1、b2、b3)がそれぞれ所定の範囲内にあるとき、それらの各ペアを、横断歩道25を構成する候補ラインとして抽出し、それらの抽出された複数の候補ラインを横断歩道25としてグルーピングする。
For example, the traversable
認識部15は、自車両の進行方面に存在する横断歩道25近辺(例えば、横断歩道25が標示された道路上又はその道路脇)に存在する歩行者を、単眼カメラ11によって得られた撮像画像21から、上述した図4に示したような歩行者パターンを用いて、テンプレートマッチング等のパターン認識により認識する認識手段である。
The
図7は、本実施例1の車両用画像認識装置1の処理全体を示すフローチャートである。以下に、既に示した図2を併せて用いて本実施例1の処理全体を説明する。
FIG. 7 is a flowchart illustrating the entire processing of the vehicular
ステップS50において、図5のフローチャートのステップS40に関する説明で示したように、横断歩道25である領域部分εを抽出し、ステップS60において、横断可領域抽出部12は、撮像画像21の画素輝度分布に基づいて、画素の輝度が急変する上下方向(垂直方向)のエッジであって前後方向に延びて消失点26に達する白線23を撮像画像21の中から抽出する。
In step S50, the region portion ε that is the
ステップS70において、分割部13は、撮像画像21内の領域を六種類の領域部分α〜ζに分割して、これらの領域部分α〜ζを歩行者の探索領域として、選択部14は、それぞれに対応する歩行者パターンを含むデータベースを選択する。
In step S <b> 70, the dividing
ステップS80において、認識部15は、それぞれの領域部分α〜ζ毎に、対応する歩行者パターンを含むデータベースを用いて、認識する。
In step S80, the
なお、本発明の車両用画像認識方法は、図7に示したフローチャートに基づいて実行される。また、本発明のプログラムは、本実施例1の車両用画像認識装置1内に予めインストール又は格納され、このプログラムは所定の媒体に記憶されていていてもよい。
The vehicle image recognition method of the present invention is executed based on the flowchart shown in FIG. The program of the present invention may be installed or stored in advance in the vehicle
本実施例1の車両用画像認識装置1によれば、分割された領域部分α〜ζ毎に、対応する歩行者パターンを用いて探索を行い、歩行者を認識するので、領域部分毎のデータベースが含む歩行者パターンを減らして、処理負荷を軽減して処理速度を高め、認識の応答性と精度を高めることができる。
According to the vehicular
特に本実施例1においては、横断可領域が横断歩道25であり、図3に示す領域部分γ、δにおいては、横断待ちの歩行者が多く存在することが予め想定され、歩行者は静止状態であり向きも左右いずれかに固定されているケースが多いこと、領域部分εにおいて歩行者は歩行状態であり向きも左右いずれかであることであることを鑑みて、対応するデータベースの含む歩行者パターンの数を極力減らすことができるため、処理負荷の軽減と認識精度の向上をより効果的に実現できる。
Particularly in the first embodiment, the crossable area is the
また、横断歩道25よりも自車両の進行方向の前に位置する領域部分αにおいても、歩行者が正面向きであり歩行状態であるケースが多いことに鑑み、対応するデータベースの含む歩行者パターンの数を減らすことができ、処理負荷を軽減し認識精度を高めることができる。同様に横断歩道25よりも後に位置する領域部分βにおいても歩行者が背面向きであり歩行状態であるケースが多いことに鑑み、処理負荷を軽減し認識精度を高めることができる。
Also, in the region portion α located in front of the traveling direction of the host vehicle from the
本実施例1の探索対象となる領域の分割を伴わせての歩行者のパターンマッチングによる認識によれば、撮像画像21全体を本実施例1の領域部分ζと同様の全方位向きの歩行者パターンを含むデータベースにて探索及び歩行者の認識を行う場合に比べて、処理時間を40%程度とすることができる。
According to the recognition by the pedestrian pattern matching with the division of the region to be searched in the first embodiment, the entire captured
以上述べた実施例1においては、横断歩道25の大きさと自車両からの距離は求めていないが、もちろん、大きさと距離を求めた後、境界線を設定して領域を領域部分α〜ζに分割することもできる。
In the first embodiment described above, the size of the
なお、図3に示した模式図においては、領域部分α〜ζは相互に重複する部分を有しているが、オーバーラップ代は歩行者の各領域部分からのはみ出しを吸収することを考慮して適宜設定している。また、歩行者パターンは所持物を表示した形態のものであってもよく、静止状態と歩行状態、向きの表現手法は他の手法を用いてもよい。 In the schematic diagram shown in FIG. 3, the region portions α to ζ have portions that overlap each other, but it is considered that the overlap margin absorbs the pedestrian from each region portion. Is set as appropriate. In addition, the pedestrian pattern may be in the form of displaying belongings, and other methods may be used for expressing the stationary state, the walking state, and the orientation.
次に、自車両から横断歩道25までの基準距離Lを求めた後、撮像画像21内の領域を前後方向のみに分割することもできる。以下それについての実施例2について述べる。
Next, after obtaining the reference distance L from the host vehicle to the
以下、図面を参照しながら、本実施例2についての本発明を実施するための形態の説明を行う。図8は、本発明の一実施形態である車両用画像認識装置31の構成を示したブロック図である。車両用画像認識装置31は、車両に搭載され、単眼カメラ11と、横断可領域抽出部12と、分割部13と、選択部14と、大きさ検出部16と、距離算出部17と、認識部15とを備えている。各部の機能の一部又は全部は、実施例1と同様、画像認識処理を実行するプロセッサやマイクロコンピュータ等によって実現可能である。
Hereinafter, the form for implementing this invention about this Example 2 is demonstrated, referring drawings. FIG. 8 is a block diagram showing the configuration of the vehicle
単眼カメラ11は、自車両周辺(例えば、自車両の進行方向)を所定の画角で撮像して、その撮像画像を出力する撮像手段である。自車両の進行方向は、前進方向でも、後進方向でもよい。単眼カメラ11は、CCD又はCMOS等の撮像素子を備えている。
The
横断可領域抽出部12は、単眼カメラ11による撮像画像から横断可領域である横断歩道の所定部位を抽出する手段である。横断可領域抽出部12によって抽出される所定部位は、予め設計的に決められていて、横断歩道の全体でも一部でもよい。
The crossable
既に示した図2に示すように、撮像画像21には、横断可領域として、自車両の前方の進路上に標示された横断歩道25が含まれている。符号26は、消失点(無限遠点)を表す。図2の場合、横断可領域抽出部12は、例えば、撮像画像21から、横断歩道25を構成する候補ラインp1〜p4を抽出する。撮像画像21は、左右方向のピクセル数がW、上下方向のピクセル数がHの画像である。
As shown in FIG. 2 already shown, the captured
大きさ検出部16は、横断可領域抽出部12によって抽出された横断歩道25の所定部位についての単眼カメラ11による撮像画像上の大きさ(好ましくは、横幅)を検出する手段である。大きさ検出部16は、例えば、横断歩道25の所定部位を構成するピクセル数を撮像画像から取得することで、その所定部位の撮像画像上の大きさを検出できる。
The
距離算出部17は、横断可領域抽出部12によって抽出された横断歩道25の所定部位についての規格上の予め定められた大きさと、大きさ検出部16により実際に検出された大きさと、単眼カメラ11の角度分解能とに基づいて、自車両からその横断歩道25までの基準距離Lを算出する手段である。
The
図9は、横断歩道25までの基準距離Lを算出するまでの処理例を示したフローチャートである。図2、図6、図10を併せて参照しながら、本フローチャートについて説明する。
FIG. 9 is a flowchart showing a processing example until the reference distance L to the
ステップS10において、横断可領域抽出部12は、撮像画像21の画素輝度分布に基づいて、画素の輝度が急変する上下方向(垂直方向)のエッジを撮像画像21の中から抽出する。
In step S <b> 10, the crossable
ステップS20において、横断可領域抽出部12は、ステップS10で抽出したエッジを、水平方向(自車両から横断可領域を見たときの左右方向)の輝度変化パターンによって分類する。横断可領域抽出部12は、各エッジの左領域及び右領域の画素輝度分布に基づいて、左領域が右領域よりも暗い場合には「立ち上がりエッジ」と判定し、左領域が右領域よりも明るい場合には「立ち下がりエッジ」と判定する。
In step S20, the crossable
ステップS30において、横断可領域抽出部12は、撮像画像21を水平方向にサーチして、ステップS20で分類したエッジが所定回数以上交互に繰り返し出現するラインを、横断歩道25を構成する候補ラインとしてグルーピングする。そして、横断可領域抽出部12は、撮像画像21を垂直方向にサーチして、グルーピングされた各候補ラインの隣接関係、及び候補ラインを構成するエッジの接続関係によって、各候補ラインをグルーピングして横断歩道25を抽出する。
In step S <b> 30, the crossable
例えば、横断可領域抽出部12は、互いに隣り合う立ち上がりエッジと立ち下がりエッジを1ペアとして、所定数以上のペア(例えば、3ペア以上)が存在し、且つ、それらの所定数以上のペアについて各ペアを構成する2つのエッジ間の水平方向(左右方向)の距離(例えば図6の場合、距離b1、b2、b3)がそれぞれ所定の範囲内にあるとき、それらの各ペアを、横断歩道25を構成する候補ラインとして抽出し、それらの抽出された複数の候補ラインを横断可領域としてグルーピングする。
For example, the traversable
ステップS40−1において、大きさ検出部16は、横断歩道25の左右方向のピクセル数(幅)を検出し、距離算出部17は、その検出された左右方向のピクセル数を用いて、自車両の単眼カメラ11から横断歩道25までの基準距離Lを算出する。
In step S40-1, the
図6に示すように、横断可領域抽出部12によって横断可領域として抽出されたペアの中で、大きさ検出部16は、例えば、最も左側のペアの立ち上がりエッジp1aから、左から3番目のペアの立ち下がりエッジp3bまでの距離に相当する3ペア分のピクセル幅aを検出する。横断歩道25の規格上のその3ペア分の両端間の幅長(すなわち、ピクセル幅aの部分に対応する部位の規格上求められる値)をAとし、単眼カメラ11の左右方向の角度分解能をPとすると、基準距離Lは、図10から明らかなように、
L=A/tan(a×P) ・・・(1)
という関係式で表現される。ここで、角度分解能Pは、単眼カメラ11の左右方向の画角をα[度]、単眼カメラ11によって得られる撮像画像21の左右方向のピクセル数をW[pix.]とすると、「P=α/W[度/pix.]」によって表すことが可能な固定値である。つまり、距離算出部17は、式(1)に基づいて、横断歩道25までの基準距離Lを算出することができる。なお、距離算出部17は、横断歩道25の前後方向の長さについて、基準距離Lを算出するのと同様の手法で横断歩道25の前端までの基準距離L‘を算出してこの基準距離L’から基準距離Lを減じることで算出する。
As shown in FIG. 6, among the pairs extracted as the crossable area by the crossable
L = A / tan (a × P) (1)
It is expressed by the relational expression. Here, the angle resolution P is defined as “P = when the horizontal angle of view of the
もちろん、横断可領域として抽出されたペアのエッジであれば、どのエッジ間のピクセル幅を検出してもよく、その検出されたピクセル幅をaとした場合、ピクセル幅aの部分に対応する部位の規格値が固定値Aに相当する。 Of course, as long as it is a pair of edges extracted as a traversable region, the pixel width between any edges may be detected. If the detected pixel width is a, the part corresponding to the portion of the pixel width a The standard value corresponds to the fixed value A.
したがって、車両用画像認識装置1は、上記構成の、単眼カメラ11、横断可領域抽出部12、大きさ検出部16及び距離算出部17を備えていることにより、横断歩道25の所定部位の規格上の大きさを加味して、横断可領域までの基準距離Lを算出しているので、横断可領域が自車両から遠方に存在する状況であっても、横断歩道25までの基準距離Lを単眼カメラによる撮像画像から精度良く算出できる。
Therefore, the vehicular
ところで、横断歩道25の所定部位の大きさの規格値には、ある程度の許容公差が認められている。例えば、横断歩道25の一つの白線領域(すなわち、ある一つのペアの立ち上がりエッジと立ち下がりエッジとに挟まれた高輝度領域)の規格値は45cm〜50cmであり、地域等によってその規格の範囲内で採用している値に差があるのが現状である。
By the way, a certain tolerance is recognized in the standard value of the size of the predetermined part of the
このような差を吸収するため、横断歩道25の所定部位が撮像画像上の上下方向で所定の位置にあるときの当該所定部位の撮像画像上の大きさ(例えば、左右方向の長さ)を用いて、その所定部位の大きさの規格値をキャリブレーションした値(キャリブレーション値)を算出する。このようなキャリブレーション値を次回以降の距離算出に用いることによって、その算出精度を向上させることができる。例えば、画像上で所定の位置にあるときの横断歩道25の白線領域を構成するピクセル幅fを用いて、その白線領域の大きさの規格値Fについてのキャリブレーション値F1を算出し、次回以降の距離算出に用いる。
In order to absorb such a difference, when the predetermined part of the
分割部13は、図11に示すように、横断可領域抽出部12によって抽出された横断歩道25の輪郭に基づいた境界線で撮像画像21内の道路と歩道を含む路面の領域を五つ領域部分η〜λに分割する分割手段である。
As shown in FIG. 11, the dividing
選択部14は、前述した領域部分のそれぞれに対応させた歩行者パターンを含むデータベースを選択する選択手段であり、認識部15は、領域部分のそれぞれにおいて対応させた歩行者パターンを含むデータベースを用いた照合により歩行者を認識する認識手段である。
The
本実施例2において、境界線は、図11に示すように、輪郭の前端縁と後端縁のそれぞれに沿う又は平行な左右方向に延びる複数の左右方向線L5〜L8を含むものである。領域部分η〜λのそれぞれの前後方向の長さは、図12に示すように、この長さに対応する撮像画像21内のピクセル数が相互に等しく(ここでは20ピクセル)なるように設定され、歩行者パターンに対応する撮像画像21内のピクセル数は、図12に示すように、車両から領域部分η〜λのそれぞれまでの距離に応じて設定され、距離が大きいほどピクセル数は少なく設定される。
In the second embodiment, as shown in FIG. 11, the boundary line includes a plurality of left and right direction lines L5 to L8 extending in the left and right direction along or parallel to the front end edge and the rear end edge of the contour. As shown in FIG. 12, the lengths in the front-rear direction of the region portions η to λ are set so that the number of pixels in the captured
また、本実施例2では距離算出部17を含んでおり、距離算出部17は、抽出手段である横断可領域抽出部12の抽出した横断可領域までの基準距離Lを算出し、基準距離Lに基づいて領域部分η〜λまでの前述した距離を算出する算出手段としても機能する。
In the second embodiment, a
図12に示した具体例においては、横断歩道25の基準距離Lが25mで横断歩道25自体の前後方向の長さが10mであり、前後方向の中央の距離が例えば30mである場合であり、領域部分ηの前端縁であって、領域部分θの後端縁は、自車両から20mの距離に設定され、領域部分ιの後端縁は自車両から25mの距離に設定され、領域部分κの後端縁は自車両から35mの距離に設定され、領域部分λの後端縁は自車両から60mの距離に設定される。
In the specific example shown in FIG. 12, the reference distance L of the
図13は、本実施例2の車両用画像認識装置31の処理全体を示すフローチャートである。以下に、図14を併せて用いて本実施例2の処理全体を説明する。
FIG. 13 is a flowchart illustrating the entire processing of the vehicular
ステップS90において、図9のフローチャートのステップS40−1に関する説明で示したように、横断歩道25を含む領域部分ιを抽出し自車両からの基準距離Lを算出する。
In step S90, as shown in the description of step S40-1 in the flowchart of FIG. 9, the area portion ι including the
ステップS100において、分割部13は、撮像画像21内の領域を前後方向に並列する五つの領域部分η〜λに分割して、これらの領域部分η〜λを歩行者の探索領域として、選択部14は、それぞれに対応する距離の増大に応じてピクセル数が少なく設定された歩行者パターンを含むデータベースを選択する。
In step S100, the dividing
ステップS110において、認識部15は、それぞれの領域部分η〜λ毎に、前ステップで選択された、対応する歩行者パターンを含むデータベースを用いて、歩行者を認識する。
In step S110, the
なお、本発明の車両用画像認識方法は、図13に示したフローチャートに基づいて実行される。また、本発明のプログラムは、本実施例2の車両用画像認識装置31内に予めインストール又は格納され、このプログラムは所定の媒体に記憶されていていてもよい。
The vehicle image recognition method of the present invention is executed based on the flowchart shown in FIG. The program of the present invention may be installed or stored in advance in the vehicle
本実施例2の車両用画像認識装置31によれば、図14の上下方向の二重線の双方向の矢印の上側に示すように、分割された領域部分η〜λ毎に、対応する歩行者パターンを用いて探索を行い、歩行者を認識するので、図14の矢印の下側で示すように領域全体を探索領域とする従来技術に比べて、探索領域を減らして、処理負荷を軽減して処理速度を高め、認識の応答性と精度を高めることができる。
According to the vehicular
特に本実施例2においては、距離に対応させて歩行者パターンを構成するピクセル数を手前から奧に向けて漸減させているため、より効果的に探索領域を低減することができる。また、距離に応じて歩行者パターンのピクセル数を予め設定しておくことにより、従来技術では歩行者と認識される可能性のある物体と実際の歩行者とをより厳密に区別して認識することができ、誤認識を防止することができる。 In particular, in the second embodiment, the number of pixels constituting the pedestrian pattern is gradually decreased from the front toward the heel corresponding to the distance, so that the search area can be more effectively reduced. In addition, by setting the number of pixels of the pedestrian pattern according to the distance in advance, it is possible to distinguish between an object that may be recognized as a pedestrian and a real pedestrian more precisely in the prior art. Can prevent misrecognition.
図11に示した模式図においては、領域部分η〜λは相互に重複する部分を有しているが、実施例1と同様に、オーバーラップ代は歩行者の各領域部分からのはみ出しを吸収することを考慮して適宜設定している。また実施例2においても、歩行者パターンは所持物を表示した形態のものであってもよい。 In the schematic diagram shown in FIG. 11, the region portions η to λ have portions that overlap each other, but the overlap margin absorbs the protrusion of each pedestrian from each region portion as in the first embodiment. It is set as appropriate in consideration of this. Also in the second embodiment, the pedestrian pattern may be in the form of displaying belongings.
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。 The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.
例えば、実施例2における前後方向に垂直な方向への分割は、実施例1においても適用することができ、例えば、図2に示した領域部分α、β、ζについて適宜前後方向に分割することができる。 For example, the division in the direction perpendicular to the front-rear direction in the second embodiment can also be applied in the first embodiment. For example, the region portions α, β, and ζ shown in FIG. Can do.
1、31 車両用画像認識装置
11 単眼カメラ(撮像手段)
12 横断可領域抽出部(抽出手段)
13 分割部(分割手段)
14 選択部(選択手段)
15 認識部(認識手段)
16 大きさ検出部
17 距離算出部(算出手段)
21 撮像画像
22 歩行者
23 白線
24 白鎖線
25 横断歩道(横断可領域)
26 消失点(無限遠点)
p1〜p4 候補ライン
L 基準距離
L‘ 基準距離
L1〜L4 境界線
α〜ζ 領域部分
L5〜L8 境界線
η〜λ 領域部分
DESCRIPTION OF
12 Crossable area extraction unit (extraction means)
13 Dividing part (dividing means)
14 Selection part (selection means)
15 Recognition part (recognition means)
16
21
26 Vanishing point (infinity point)
p1-p4 candidate line L reference distance L 'reference distance L1-L4 boundary line α-ζ region portion L5-L8 boundary line η-λ region portion
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011052483A JP5724473B2 (en) | 2011-03-10 | 2011-03-10 | Vehicular image recognition apparatus, vehicular image recognition method, program, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011052483A JP5724473B2 (en) | 2011-03-10 | 2011-03-10 | Vehicular image recognition apparatus, vehicular image recognition method, program, and medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012190214A true JP2012190214A (en) | 2012-10-04 |
JP5724473B2 JP5724473B2 (en) | 2015-05-27 |
Family
ID=47083306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011052483A Active JP5724473B2 (en) | 2011-03-10 | 2011-03-10 | Vehicular image recognition apparatus, vehicular image recognition method, program, and medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5724473B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017156932A (en) * | 2016-03-01 | 2017-09-07 | パナソニックIpマネジメント株式会社 | Determination device, determination method, and determination program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236593A (en) * | 2000-02-24 | 2001-08-31 | Hitachi Ltd | Traffic signal control device |
JP2001351200A (en) * | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | Onboard object detecting device |
JP2008282097A (en) * | 2007-05-08 | 2008-11-20 | Toyota Central R&D Labs Inc | Collision risk estimation device and driver support device |
JP2009237898A (en) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | Image recognition device |
JP2011044063A (en) * | 2009-08-24 | 2011-03-03 | Nissan Motor Co Ltd | Vehicle drive assistance device and assistance method |
-
2011
- 2011-03-10 JP JP2011052483A patent/JP5724473B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236593A (en) * | 2000-02-24 | 2001-08-31 | Hitachi Ltd | Traffic signal control device |
JP2001351200A (en) * | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | Onboard object detecting device |
JP2008282097A (en) * | 2007-05-08 | 2008-11-20 | Toyota Central R&D Labs Inc | Collision risk estimation device and driver support device |
JP2009237898A (en) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | Image recognition device |
JP2011044063A (en) * | 2009-08-24 | 2011-03-03 | Nissan Motor Co Ltd | Vehicle drive assistance device and assistance method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017156932A (en) * | 2016-03-01 | 2017-09-07 | パナソニックIpマネジメント株式会社 | Determination device, determination method, and determination program |
WO2017150021A1 (en) * | 2016-03-01 | 2017-09-08 | パナソニックIpマネジメント株式会社 | Determination device and determination method |
CN108780609A (en) * | 2016-03-01 | 2018-11-09 | 松下知识产权经营株式会社 | Determination device and determination method |
Also Published As
Publication number | Publication date |
---|---|
JP5724473B2 (en) | 2015-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
JP4607193B2 (en) | Vehicle and lane mark detection device | |
JP5127182B2 (en) | Object detection device | |
KR101517181B1 (en) | System and method for warning lane departure | |
US9659497B2 (en) | Lane departure warning system and lane departure warning method | |
JP5999127B2 (en) | Image processing device | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
JP2015191619A (en) | Outside-vehicle environment recognition device | |
JP5402828B2 (en) | Lane boundary detection device, lane boundary detection program | |
JP2015165376A (en) | Apparatus and method for recognizing lane | |
JP6141788B2 (en) | Lane mark recognition device | |
JP2005316607A (en) | Image processing apparatus and image processing method | |
JP2012159469A (en) | Vehicle image recognition device | |
JP5805619B2 (en) | Boundary line recognition device | |
JP4864043B2 (en) | Image processing apparatus, method, and program | |
JP6317607B2 (en) | Outside environment recognition device | |
KR20170055738A (en) | Apparatus and method for recognize driving lane on image | |
JP2007179386A (en) | Method and apparatus for recognizing white line | |
JP5724473B2 (en) | Vehicular image recognition apparatus, vehicular image recognition method, program, and medium | |
JP6132807B2 (en) | Lane mark recognition device | |
JP4842301B2 (en) | Pedestrian detection device and program | |
JP6243780B2 (en) | Outside environment recognition device | |
TWI498831B (en) | System of adaptive variable shape region of interest determination and its control method | |
JP6280418B2 (en) | Outside environment recognition device | |
JP6348747B2 (en) | Outside environment recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5724473 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |