[go: up one dir, main page]

JP4813304B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP4813304B2
JP4813304B2 JP2006252444A JP2006252444A JP4813304B2 JP 4813304 B2 JP4813304 B2 JP 4813304B2 JP 2006252444 A JP2006252444 A JP 2006252444A JP 2006252444 A JP2006252444 A JP 2006252444A JP 4813304 B2 JP4813304 B2 JP 4813304B2
Authority
JP
Japan
Prior art keywords
image
artificial structure
road area
extracted
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006252444A
Other languages
English (en)
Other versions
JP2008077154A5 (ja
JP2008077154A (ja
Inventor
雅和 坂
弘之 小池
文則 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006252444A priority Critical patent/JP4813304B2/ja
Publication of JP2008077154A publication Critical patent/JP2008077154A/ja
Publication of JP2008077154A5 publication Critical patent/JP2008077154A5/ja
Application granted granted Critical
Publication of JP4813304B2 publication Critical patent/JP4813304B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の走行に影響を与える対象物を監視する車両周辺監視装置に関する。
従来、この種の車両周辺監視装置としては、赤外線カメラにより捉えられた車両周辺の画像から、車両との接触の可能性がある歩行者等の対象物を抽出し、その情報を車両の運転者に視覚的に提供する表示処理装置が提案されている(例えば特許文献1参照)。この装置は、赤外線画像を2値化処理して高輝度領域を探し、該領域の赤外線画像内の重心位置、面積比、実面積などの頭部判定条件から、該領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域であると判定したときは、歩行者の身体を包含する領域を他の領域と区分して表示する。これにより、歩行者情報が車両の運転者に対して表示され、運転者の視覚を補助している。
また、かかる車両周辺監視装置において、車両の運転者に対して不要な注意喚起がなされることを抑制するため、歩行者である可能性の高い対象物を視覚的に表示する車両周辺装置が提案されている(例えば特許文献2参照)。この装置は、2つの赤外線カメラにより得られる画像から歩行者の可能性がある対象物を抽出し、(1)該対象物が歩行者にはあり得ない特徴を有するか否か、および(2)所定の人工構造物の外形的特徴を有するか否かを判定条件として、該対象物が該判定条件を満たす場合に人工構造物と判定して、注意喚起の対象から除外する処理を行っている。
しかしながら、上記判定条件によって、対象物が人工構造物であるか否かを判定した場合、判定精度は高くなるが、上記(2)の判定は複雑な演算処理を伴うため、人工構造物か否かの判定時間が長くなるという不都合がある。そこで、上記(1)だけを行うことも考えられるが、上記(1)だけを行う場合には、人工構造物か否かの判定時間は短くなるが、判定精度が低くなるという不都合がある。
特開平11−328364号公報 特開2003−230134号公報
本発明は、以上の不都合な点に鑑み、画像から抽出された対象物が人工構造物であるか否かを、効率的かつ精度良く判定することができる車両周辺監視装置を提供することをその課題としている。
上記課題を解決するための本発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる画像から対象物を抽出する対象物抽出手段と、該対象物が人工構造物であるか否かを判定する人工構造物判定手段とを備えて、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
前記画像から道路領域を識別する道路領域識別手段と、
前記画像から、前記道路領域に含まれレーンマークの位置に基づいて規定される領域である車道領域を識別する車道領域識別手段と
を備え、
前記人工構造物判定手段は、
前記対象物抽出手段によって、前記道路領域識別手段により識別された道路領域内で対象物が抽出された場合には第1の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該道路領域外で対象物が抽出された場合には、該第1の人工構造物判定条件と異なる第2の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、
前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、人工構造物として少なくとも車両を含む第3の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該車道領域外で対象物が抽出された場合には、人工構造物として少なくとも車両、自動販売機、街灯トランス、ブリンカーライトのいずれか1つを含む第4の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定することを特徴とする
かかる本発明の車両周辺監視装置によれば、道路領域を識別する道路領域識別手段を備え、人工構造物判定手段は、画像から抽出された対象物が、該道路領域識別手段によって識別された道路領域内又は道路領域外において抽出されたか否かによって、第1の人工構造物判定条件と第2の人工構造物判定条件という相異なる判定条件に基づいて、該対象物が人工構造物であるか否かの判定を行う。ここで、道路領域内において存在する可能性のある人工構造物は限られることから、比較的簡易な判定条件に基づいて、対象物が人工構造物であるか否かを判定することができる。一方、道路領域外においては、様々な人工構造物が存在することから、ある程度複雑な条件で、対象物が人工構造物であるか否かを判定する必要があると考えられる。そのため、対象物が道路領域内で抽出されたか否かによって、第1の人工構造物判定条件と第2の人工構造物判定条件とを変えることで、画像から抽出された対象物が人工構造物であるか否かを、効率的かつ精度良く判定することができる。
また、かかる本発明の車両周辺監視装置によれば、車道領域を識別する車道領域識別手段を備え、人工構造物判定手段は、画像から抽出された対象物が、該車道領域識別手段によって識別された車道領域内で抽出された場合には、第3の人工構造物判定条件という新たな判定条件に基づいて、該対象物が人工構造物であるか否かの判定を行う。ここで、車道領域内においては、人工構造物が存在する可能性が低いことから、第3の人工構造物判定条件は簡易なものとすることができる。そのため、第3の人工構造物判定条件に基づいて、車道領域内で抽出された対象物が人工構造物であるか否かを効率的かつ精度良く判定することができる。
さらに、かかる本発明の車両周辺監視装置によれば、人工構造物判定手段は、画像から抽出された対象物が、前記道路領域内の前記車道領域識別手段により識別された車道領域外で抽出された場合には、第4の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かの判定を行う。ここで、道路領域内の車道領域外においては、存在する可能性のある人工構造物が限られることから、第4の人工構造物判定条件は比較的簡易なものとすることができる。そのため、第4の人工構造物判定条件に基づいて、道路領域内の車道領域外で抽出された対象物が人工構造物であるか否かをより効率的に判定することができる。
さらに、本発明の車両周辺監視装置において、前記撮像手段として、赤外画像を取得する赤外画像撮像手段を有し、前記道路領域識別手段は、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により道路領域を識別することを特徴とする。
かかる本発明の車両周辺監視装置によれば、撮像手段として赤外画像撮像手段を備え、道路領域識別手段が、赤外画像撮像手段によって得られる赤外画像のエッジ部を抽出し、該エッジ部に基づいて道路領域の内外を区別して識別することで、道路領域を一定の確実性をもって識別することができる。
また、本発明の車両周辺監視装置において、前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記道路領域内に位置するときに該対象物が該道路領域内で抽出されたと判定することを特徴とする。
かかる本発明の車両周辺監視装置によれば、画像から抽出された対象物の下端部を検出し、該下端部が道路領域内に位置しているか否かによって、該対象物が道路領域内から抽出されたか否かを判定する。ここで、対象物の下端部は、例えば、該対象物の同一距離部分を抽出した領域のうち、画像上で下端に位置する画素部分として検出することができる。そして、対象物の下端部を基準に該対象物の位置を判定することにより、該対象物が道路領域の境界部分の近くに位置する場合にも、該対象物が道路領域内で抽出されたか否かを容易かつ確実に判定することができる。
さらに、本発明の車両周辺監視装置において、前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記道路領域の上方にあるときに該対象物が該道路領域内で抽出されたと判定することを特徴とする。
かかる本発明の車両周辺監視装置によれば、位置算出手段が、画像から抽出された対象物の実空間上の位置と道路領域の実空間上の領域範囲とを算出し、対象物の実空間上の位置が該実空間上の領域範囲上に位置しているか否かによって、該対象物が道路領域内から抽出されたか否かを判定する。これにより、例えば、画像から抽出された対象物の形状が、実空間における実際の形状に対して、その一部を欠いたものとなっている場合でも、該対象物が前記領域内で抽出されたか否かを正確に判定することができる。
本発明の車両周辺監視装置は、前記撮像手段として、可視画像を取得する可視画像撮像手段を備え、前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークを検出し、該レーンマークにより車道領域を識別することを特徴とする。
かかる本発明の車両周辺監視装置によれば、撮像手段として可視画像撮像手段を備え、車道領域識別手段は、可視画像撮像手段によって得られる可視画像から車道領域の識別精度の高いレーンマークを検出し、該レーンマークに基づいて車道領域を識別する。このように、車道領域の識別精度の高いレーンマークにより、車道領域を精度良く識別することができる。
本発明の車両周辺監視装置において、前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記車道領域内に位置するときに該対象物が該車道領域内で抽出されたと判定することを特徴とする。
かかる本発明の車両周辺監視装置によれば、画像から抽出された対象物の下端部を検出し、該下端部が車道領域内に位置しているか否かによって、該対象物が車道領域内から抽出されたか否かを判定する。ここで、対象物の下端部は、例えば、該対象物の同一距離部分を抽出した領域のうち、画像上で下端に位置する画素部分として検出することができる。そして、対象物の下端部を基準に該対象物の位置を判定することにより、該対象物が車道領域の境界部分の近くに位置する場合にも、該対象物が車道領域内で抽出されたか否かを容易かつ確実に判定することができる。
本発明の車両周辺監視装置は、前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記車道領域の上方にあるときに該対象物が該車道領域内で抽出されたと判定することを特徴とする。
かかる本発明の車両周辺監視装置によれば、位置算出手段が、画像から抽出された対象物の実空間上の位置と車道領域の実空間上の領域範囲とを算出し、対象物の実空間上の位置が該実空間上の領域範囲上に位置しているか否かによって、該対象物が車道領域内から抽出されたか否かを判定する。これにより、例えば、画像から抽出された対象物の形状が、実空間における実際の形状に対して、その一部を欠いたものとなっている場合でも、該対象物が前記領域内で抽出されたか否かを正確に判定することができる。
本発明の車両周辺監視装置において、
前記第1の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第2の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第3の人工構造物判定条件として、前記対象物の画像の特徴量と、前記車道領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第4の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内の前記車道領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記特定の人工構造物の特徴量として、車両、自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木のうちの少なくともいずれか1つの特徴量が登録されていることを特徴とする。
かかる本発明の車両周辺監視装置によれば、前記車道領域外から抽出される典型的な人工構造物であって、歩行者との区別がし難い自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木を、前記特定の人工構造物の画像として登録しておくことで、前記第1〜第4の人工構造物判定条件に基づく人工構造物判定の判定精度を向上させることができる。
本発明の一実施形態を以下に図1〜図12を参照して説明する。
まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(自車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。
図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、自車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lと1つの可視カメラ2´とが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3と、自車両10の走行速度(車速)を検出する車速センサ4と、自車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。
なお、赤外線カメラ2R,2Lが本発明における赤外画像撮像手段に相当し、可視カメラ2´が本発明における可視画像撮像手段に相当する。また、赤外線カメラ2R,2Lと可視カメラ2´とは、本発明の撮像手段に相当する。
画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、可視カメラ2´、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の注意喚起要件を満す場合にスピーカ6や表示装置7により運転者に注意喚起を発する処理を実行する。
なお、画像処理ユニット1は、本発明における道路領域識別手段、対象物抽出手段、人工構造物判定手段、車道領域識別手段、位置算出手段としての機能を備えている。そして、前記マイクロコンピュータに、車両周辺監視用プログラムを実行させることにより、該コンピュータは、本発明の道路領域識別手段、対象物抽出手段、人工構造物判定手段として機能する
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、自車両10の車幅方向の中心に対して左右対称である。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。なお、赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。
また、可視カメラ2´は、自車両10のルームミラー(図示せず)の前方に、撮像方向を自車両10の前方に向けて取り付けられている。可視カメラ2´は、可視光領域で撮像可能なCCDカメラ等によって構成され、それにより撮像される物体の照度が高いほど、出力される映像信号のレベルが高くなる(映像信号の画像の輝度が高くなる)特性を有している。
さらに、本実施形態では、表示装置7として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。
次に、本実施形態の周辺監視装置の全体的動作を図3のフローチャートを参照して説明する。
本実施形態の画像処理ユニット1は、図3を参照して、先ず、STEP100で可視画像または赤外線画像から車道領域および道路領域を識別して設定する「車道・道路領域識別処理」を行う。そして、道路領域を設定できたときには、フラグ(j)をセット(j=1)し、道路領域を設定できなかったときには、フラグ(j)をリセット(j=0)する。
次いで、STEP200で赤外線画像から対象物を抽出する「対象物抽出処理」を行う。
そして、STEP300では、「対象物抽出処理」で対象物が抽出されたか否かを判断し、抽出されたときはSTEP400に進んで、フラグ(j)の値に基づいて、道路領域が設定されているか否かを判断する。
一方、STEP300において、対象物が抽出されなかったときは、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。
STEP400において、道路領域が設定されているとき(j=1のとき)には、STEP500に進んで、対象物が道路領域内から抽出されたか否かによって、相異なる判定条件に基づいて人工構造物判定を行う「人工構造物判定処理(I)」を実行し、STEP700に進む。
一方、STEP400において、道路領域が設定されていないとき(j=0のとき)には、STEP600に分岐して、道路領域の内外を区別せずに人工構造物判定を行う「人工構造物判定処理(II)」を実行し、STEP700に進む。
なお、「人工構造物判定処理(I)」および「人工構造物判定処理(II)」で、対象物が人工構造物であると判定された場合には、フラグ(k)をセット(k=1)し、対象物が人工構造物でないと判定された場合には、フラグ(k)をリセット(k=0)する。
STEP700では、STEP500又はSTEP600の人工構造物判定の結果を示すフラグ(k)の値に基づいて、対象物が人工構造物であるか否かを判断する。
そして、STEP700において、対象物が人工構造物でないと判断された場合(k=0のとき)には、STEP800に進んで、対象物が歩行者であるか否かが判定される。なお、STEP800の歩行者判定の処理は、前記特許文献2の図5のSTEP34の処理と同じであるので詳細な説明を省略するが、対象物の形状や大きさ、輝度分散等の特徴から、該対象物が歩行者的特徴を有している否かを判断して、歩行者であるか否かを判定する。
一方、STEP700において、対象物が人工構造物であると判断された場合(k=1のとき)には、該対象物は注意喚起の対象ではないと判断し、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。
さらに、STEP800において、対象物が歩行者的特徴を有していると判定された場合には、STEP900に進んで、該対象物と自車両10との接触の可能性が判断される。なお、STEP900の接触の可能性判断は、特許文献2の図5(STEP31〜33)に記載されている処理と同じであるので、本明細書での詳細な説明は省略するが、対象物が自車両10の前方の接近判定領域に存在するとき、および、所定の移動ベクトルを有して対象物が接近判定領域に進入するときに、接触の可能性があると判定される。
一方、STEP800において、対象物が歩行者的特徴を有していないと判定された場合には、該対象物は注意喚起の対象ではないと判断し、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。
そして、STEP900において、対象物と自車両10との接触の可能性があると判定された場合には、STEP1000に進んで、実際の注意喚起を行なうべきか否かを判定する。なお、STEP1000の実際の注意喚起を行なうべきか否かの判定は、前記特許文献2の図3(STEP18)に記載されている処理と同じであるので、本明細書での詳細な説明は省略するが、自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、注意喚起の出力を行うか否かが判定される。
一方、STEP900において、対象物と自車両10との接触の可能性が低いと判定された場合には、該対象物は注意喚起の対象ではないと判断し、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。
さらに、STEP1000において、注意喚起を行う必要があると判定された場合には、STP1100に進んで、注意喚起を出力する。具体的には、スピーカ6を介して音声による注意喚起を出力するとともに、画像表示装置7の基準画像の中に対象物の画像を強調的に表示し、該対象物に対する運転者の注意を喚起する。そして、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。
一方、STEP1000において、実際の注意喚起を行う必要がないと判定された場合には、注意喚起出力を行うことなく、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。
以上が、本実施形態の周辺監視装置の全体的動作である。
次に、図4に示したフローチャートに従って、「車道・道路領域識別処理」の具体的な内容について説明する。
まず、画像処理ユニット1は、可視カメラ2´により可視画像を取得する(STEP101)。ここで、取得される可視画像は、可視カメラ2´の出力信号をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。
続けて、可視画像上で白線等の走行区分線(レーンマーク)を検出するレーンマーク検出を行う(STEP102)。具体的には、可視画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から白線等の走行区分線に相当する直線成分をレーンマークとして検出する。
例えば、STEP101で、図5(a)に示した可視画像が取得された場合、該可視画像に、微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、走行区分線に相当する直線成分を抽出する。そして、白線等の走行区分線に相当する直線成分が抽出されたときは、該直線成分をレーンマークとして検出することにより、図5(b)に丸印で示したように、レーンマークを検出することができる。
次いで、画像処理ユニット1は、STEP102で、レーンマークが検出されたか否かを判定する(STEP103)。
そして、レーンマークが検出されたとき(STEP103の判断結果がYESとなる場合)は、STEP104に進み、STEP102で検出されたレーンマークの位置に基づいて、車道領域を設定する。そして、STEP105に進んで、フラグiをセット(i=1)する。
一方、STEP103で、レーンマークが検出されなかったと判定された場合(STEP103の判断結果がNOとなる場合)には、STEP106に分岐し、フラグiをリセット(i=0)する。
フラグiがセットまたはリセットされると(STEP105,106)、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する(STEP107)。赤外線画像は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。なお、以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像といい、特に、右画像を基準画像という。また、基準画像は、本実施形態では右画像であるが、左画像としてもよい。
続けて、画像処理ユニット1は、該赤外線画像から道路領域を検出する(STEP108)。具体的には、前記基準画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から自車両10の前方領域において道路領域を検出する。
例えば、STEP107で、図6(a)に示した赤外線画像が基準画像として取得された場合、前述のSTEP102におけるレーンマークの検出と同様、基準画像に微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、道路領域の端部に相当する直線成分を抽出する。そして、道路領域の端部に相当する直線成分が抽出されたときは、該直線成分を道路領域の端部として検出することにより、図6(b)に丸印で示したように、道路領域を検出することができる。
次いで、画像処理ユニット1は、STEP108で道路領域が検出されたか否かを判定する(STEP109)。
そして、道路領域が検出されたとき(STEP109の判断結果がYESとなる場合)は、STEP108によって検出された道路領域の端部位置の内側を道路領域として設定する(STEP110)。そして、STEP111に進んで、フラグjをセット(j=1)して、「車道・道路領域識別処理」を終了する。
一方、道路領域が検出されなかったとき(STEP109の判断結果がNOとなる場合)は、STEP112に分岐して、フラグjをリセット(j=0)して、「車道・道路領域識別処理」を終了する。
なお、画像処理ユニット1によりSTEP101〜106の処理を実行する構成が、本発明の車道領域識別手段に相当し、STEP107〜112の処理を実行する構成が、本発明の道路領域識別手段に相当する
次に、図7に示したフローチャートに従って、「対象物抽出処理」(図3のSTEP200)の具体的な内容について説明する。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する(STEP201)。
次いで、画像処理ユニット1は、前記基準画像(右画像)を2値化する(STEP202)。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。
次に、画像処理ユニット1は、前記2値化画像に対してSTEP203〜205の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)に延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP203)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP204)、そのライン群のそれぞれを対象物として抽出する(STEP205)。
なお、STEP203〜205の処理により抽出される対象物には、人(歩行者)だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。
次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP206)。面積は、ランレングスデータの長さを同一対象物について積算することにより算出し、重心の座標は、面積をx方向に2等分する線のx座標及びy方向に2等分する線のy座標として算出し、縦横比は、ランレングスデータ化したラインの外接四角形の縦横比として算出する。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。
次に、画像処理ユニット1は、前記STEP205で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP207)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP205の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP205の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP204で付したラベル)が対象物Aのラベルと同じラベルに変更される。
次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読込む(STEP208)。なお、このSTEP208では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。
一方、画像処理ユニット1は、STEP207,208の処理と並行して、STEP210の処理を実行する。このSTEP210〜212の処理は、STEP205で抽出した各対象物の自車両10からの距離を求める処理である。その処理を概略的に説明すると、まず、前記基準画像のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP210)。
次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が左画像に設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP211)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP211の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。
次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP212)。距離zは、次式(1)により算出される。

z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。
以上がSTEP210〜212の処理の概要である。なお、STEP210〜212の処理は、STEP205で抽出された各対象物に対して実行される。
STEP208およびSTEP212の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP213)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。

X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。
次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP208で求めた回頭角の時系列データに応じて補正する(STEP214)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP215)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の自車両10に対する相対速度ベクトルに比例する。
以上が、STEP200の「対象物抽出処理」の詳細である。なお、画像処理ユニット1によりSTEP200の処理を実行する構成が、本発明の対象物抽出手段に相当する
また、画像処理ユニット1により、STEP213の処理を実行する構成が、本発明の位置算出手段に相当する。
次に、図8に示したフローチャートに従って、「人工構造物判定処理(I)」(図3のSTEP500)の具体的な内容について説明する。
まず、画像処理ユニット1は、対象物が、「車道・道路領域識別処理」によって設定された道路領域から抽出されたか否かを判定する(STEP501)。
具体的には、例えば、前記赤外線画像として図9に示す画像が取得された場合、対象物Qにおける、ある一定の輝度値が連続する部分又は同一距離部分を同一対象物の範囲として、対象物Qの下端部qを決定する。そして、下端部qが道路領域AREに位置しているか否かより、対象物Qが道路領域ARE内から抽出されたものであるか否かを判定する。例えば、図9に示す場合には、対象物Qの下端部qが、道路領域ARE内に位置しているため、対象物Qは、道路領域AREから抽出されたものと判定される。
なお、本実施形態においては、画像処理ユニット1は、前記基準画像上の対象物の下端部を検出し、該下端部が道路領域に位置しているか否かより、対象物が道路領域内から抽出されたものであるか否かを判定しているが、上述の(2)、(3)、(4)式から、対象物の実空間位置(X,Y,Z)が、道路領域に対応する実空間上の領域(X−Z座標軸上)の上方に位置しているかにより、対象物が道路領域内から抽出されたものであるか否かを判定してもよい。
次に、STEP501において、対象物が道路領域内から抽出されたと判定された場合には(STEP501の判断結果がYESの場合)、STEP502に進んで、フラグ(i)の値(i=1又は0)に基づいて、車道領域が設定されているか否かを判断する。
STEP502において、車道領域が設定されていないとき(i=0のとき)には、STEP503に進んで、第1の人工構造物判定条件に基づく人工構造物判定が行われる。
第1の人工構造物判定条件は、予めメモリ(図示しない)に登録された特定の人工構造物の画像(テンプレート)と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。ここで、予めメモリに登録しておく特定の人工構造物の画像は、道路領域内に存在する可能性のある人工構造物の画像であり、例えば、自動販売機、電柱、街灯トランス、ブリンカーライト、車両の画像などである。
具体的に、予め登録された特定の人工構造物の画像と対象物の画像との相関性は、テンプレートマッチングによって判断される。テンプレートマッチングは、2つの画像が与えられるとき、両者を重ね合わせてその相関性(又は差異)を検出することで、両者の近似レベルを判断するものであり、2つの画像間における相関性を様々な尺度で表すものである。例えば、相関性を表す尺度としては、輝度値の残差絶対値和(SAD)を用いる方法を用いることができる。
輝度値の残差絶対値和(SAD)を用いて、図10に示す自動販売機の画像をテンプレートとして対象物の画像との近似レベルを算出する場合には、予め、自動販売機の画像をA/D変換したグレースケール画像上で、図11(a)及び(b)に示すように、該自動販売機の重心位置を通るx軸方向及びy軸方向の輝度スペクトルを登録しておく。その上で、前記対象物抽出処理(STEP200)において抽出された対象物に対して、前記STEP206で算出した対象物の重心位置を通るx軸方向及びy軸方向の輝度スペクトルを求め、テンプレートの輝度スペクトルと該対象物の輝度スペクトルとの残差の絶対値の和を、前記近似レベルとして算出することができる。この場合の近似レベルは、残差を基にしているため、残差の絶対値和が小さいほど近似レベルが高くなる。
このようにして算出された近似レベルが所定の値以上の場合(残差の絶対値和が所定の値以下のとき)に、対象物は人工構造物(自動販売機)であると判定される。
また、電柱、街灯トランス等についても、上述の自動販売機の場合と同様にして、第1の人工構造物判定条件に基づく人工構造物判定を行うことができる。
なお、パターンマッチングの手法は、前述の輝度値の残差絶対値和(SAD)に基づくものに限られるものではなく、例えば、テンプレートと対象物の画像との各画素位置での正規化相互相関値を近似レベルとして算出する正規化相互相関法などを用いてもよい。
また、人工構造物抽出処理は、パターンマッチング以外の手法にて人工構造物の判定を行ってもよい。
さらに、本実施形態では、予めメモリ登録された特定の人工構造物の特徴量として該人工構造物の画像を用いて人工構造物判定を行っているが、特徴量として用いられるものは、これに限られるものではなく、例えば、特定の人工構造物の実際の寸法を測定した値を特徴量として用いてもよい。この場合、画像処理ユニット1を介して算出される実空間における対象物の大きさと、予めメモリに登録された特定の人工構造物の寸法とを比較することで、近似レベルを算出することができる。
そして、STEP503において、第1の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP503の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。
一方、STEP503において、第1の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP503の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。
また、STEP502において、車道領域が設定されているとき(i=1のとき)には、STEP504に進んで、対象物が、「車道・道路領域識別処理」によって設定された車道領域から抽出されたか否かを判定する(STEP504)。対象物が車道領域から抽出されたか否かは、図9に示した赤外線画像に対応する可視画像を用いて、STEP501と同様の手法により判定される。
次に、STEP504において、対象物が車道領域内から抽出されたと判定された場合には(STEP504の判断結果がYESの場合)、STEP505に進んで、第3の人工構造物判定条件に基づく人工構造物判定が行われる。
第3の人工構造物判定条件は、予め、車道領域内に存在する可能性のある車両などの人工構造物の画像をメモリ(図示しない)に登録しておき、その人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。
なお、予め登録された特定の人工構造物の画像と対象物の画像との相関性は、テンプレートマッチングによって判断されてもよいが、特に、車両を対象とする人工構造物判定処理を行う場合には、前記特許文献2の図8(STEP41〜54)に記載されている処理を行なうようにしてもよい。すなわち、対象物が車両であるか否かを判定する場合には、まず、テールライトに相当する、対称な位置に存在する2値化対象物を探索し、次に、2つの2値化対象物の間の上部に、ウィンドウシールドの有無を探索する探索領域を設定する。そして、2値化対象物と探索領域の物体とが同一距離である場合に、探索領域の平均輝度値が規定値より小さいか否かを判定し、探索領域の平均輝度値が規定値より小さい場合に、対象物は車両であると判定する。
そして、STEP505において、第3の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP505の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。
一方、STEP505において、第1の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP505の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。
また、STEP504において、対象物が車道領域内から抽出されたものではないと判定された場合(STEP504の判断結果がNOの場合)は、STEP506に分岐して、第4の人工構造物判定条件に基づく人工構造物判定が行われる。
第4の人工構造物判定条件は、予め、道路領域内の車道領域外に存在する可能性のある自動販売機、電柱、街灯トランス、ブリンカーライト、車両などの画像をメモリに登録しておき、その人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。
そして、STEP506において、第4の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP506の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。
一方、STEP506において、第4の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP506の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。
また、STEP501において、対象物が道路領域内から抽出されたものではないと判定された場合(STEP501の判断結果がNOの場合)は、STEP507に分岐して、第2の人工構造物判定条件に基づく人工構造物判定が行われる。
第2の人工構造物判定条件は、予め、道路領域外に存在する可能性のある自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木、車両などの人工構造物の画像を、メモリ(図示しない)に登録しておき、その特定の人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。
そして、STEP507において、第2の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP507の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。
一方、STEP507において、第2の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP507の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。
以上が「人工構造物判定処理(I)」の詳細である。これにより、対象物が道路領域内から抽出された否かによって、第1の人工構造物判定条件〜第4の人工構造物判定条件を設定することにより、画像から抽出された対象物が人工構造物であるか否かを、効率的かつ精度良く判定することができる。
次に、図12に示したフローチャートに従って、「人工構造物判定処理(II)」(図3のSTEP600)について概要を説明する。
「人工構造物判定処理(II)」において、画像処理ユニット1は、まず、フラグ(i)の値に基づいて、車道領域が設定されているか否かを判断する(STEP601)。
STEP601において、車道領域が設定されているとき(i=1のとき)には、STE602に進んで、対象物が、「車道・道路領域識別処理」によって設定された車道領域から抽出されたか否かを判定する(STEP602)。尚、対象物が車道領域から抽出されたか否かは、前述のSTEP504と同様にして判定される。
次に、STEP602において、対象物が車道領域内から抽出されたと判定された場合には(STEP602の判断結果がYESの場合)、STEP603に進んで、第3の人工構造物判定条件に基づく人工構造物判定が行われる。第3の人工構造物判定条件は、前述のSTEP505と同様の処理であり、第3の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP603の判断結果がYESの場合)には、STEP611に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(II)」を終了する。
一方、STEP603において、第1の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP603の判断結果がNOの場合)には、STEP612に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(II」を終了する。
また、STEP602において、対象物が車道領域内から抽出されたものではないと判定された場合(STEP602の判断結果がNOの場合)は、STEP604に分岐して、第5の人工構造物判定条件に基づく人工構造物判定が行われる。
第5の人工構造物判定条件は、予め、車道領域外に存在する可能性のある自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木、車両などの人工構造物の画像を、メモリ(図示しない)に登録しておき、その特定の人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。
そして、STEP604において、第5の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP604の判断結果がYESの場合)には、STEP611に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(II)」を終了する。
一方、STEP604において、第5の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP604の判断結果がNOの場合)には、STEP612に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(II)」を終了する。
また、STEP605において、車道領域が設定されていないとき(i=0のとき)には、STEP605に進んで、第6の人工構造物判定条件に基づく人工構造物判定が行われる。
第6の人工構造物判定条件は、道路領域の内外および車道領域の内外に関わらず、一般的に道路周辺に存在する人工構造物の画像をメモリに登録しておき、その特定の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。尚、第6の人工構造物の判定条件は、前記第2又は第5の人工構造物判定条件と同一の判定条件としてもよい。
そして、STEP605において、第6の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP605の判断結果がYESの場合)には、STEP611に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(II)」を終了する。
一方、STEP605において、第6の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP605の判断結果がNOの場合)には、STEP612に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(II)」を終了する。
以上が、STEP600における「人工構造物判定処理(II)」の概要である。なお、画像処理ユニット1によりSTEP501〜512,601〜612の処理を実行する構成が、本発明の人工構造物判定手段に相当する。

尚、本実施形態においては、可視画像にてレーンマーク検出を行い(STEP101〜105)、その後、赤外線画像から道路領域を検出している(STEP107〜112)が、STEP101〜105の可視画像に基づく処理を省略して、赤外線画像から道路領域を検出する構成(STEP107〜112)のみとしてもよい。この場合、人工構造物判定処理(I)および人工構造物判定処理(II)では、車道領域の設定の有無に基づく処理(STEP502,504〜506,601〜604)が省略される。
また、逆に、STEP107〜112の赤外線画像に基づく処理を省略して、可視画像から車道領域を検出する構成(STEP101〜105)のみとしてもよい。この場合、道路領域の設定の有無に基づく処理(STEP400、500)が省略されて、第2の人工構造物判定処理(II)のみが実行される。
また、本実施形態では、可視カメラ2´の可視画像から車道領域を検出し、赤外線カメラ2R,2Lの赤外線画像から道路領域を検出しているが、これに限定されるものではなく、他の撮像手段による撮像画像から車道領域や道路領域を検出するようにしてもよい。
なお、本実施形態においては、画像処理ユニット1の処理結果に基づき、所定の注意喚起を行うように構成されているが、該処理結果に基づき車両挙動が制御されてもよい。
また、前記実施形態では、2台の赤外線カメラ2R,2Lを備えたが、対象物との距離をレーダーなどにより検出するようにした場合には、1台の赤外線カメラ2Rもしくは2Lを自車両10に搭載するようにしてもよい。
本発明の車両の周辺監視装置の一実施形態の全体構成を示す図。 図1の周辺監視装置を備えた車両の斜視図。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 本実施形態における撮像画像を例示的に示す図。 本実施形態における撮像画像を例示的に示す図。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 本実施形態における撮像画像を例示的に示す図。 画像処理ユニットの処理を説明するための図。 画像処理ユニットの処理を説明するための図。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。
符号の説明
1…画像処理ユニット(道路領域識別手段、対象物抽出手段、人工構造物判定手段、車道領域識別手段、位置算出手段)、2R,2L…赤外線カメラ(撮像手段)、2´…可視カメラ(可視画像撮像手段)、STEP101〜106…車道領域識別手段による処理、STEP107〜112…道路領域識別手段による処理、STEP200…対象物抽出手段による処理、STEP213…位置算出手段による処理、STEP500,600…人工構造物判定手段による処理。

Claims (8)

  1. 車両に搭載された撮像手段によって得られる画像から対象物を抽出する対象物抽出手段と、該対象物が人工構造物であるか否かを判定する人工構造物判定手段とを備えて、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
    前記画像から道路領域を識別する道路領域識別手段と、
    前記画像から、前記道路領域に含まれレーンマークの位置に基づいて規定される領域である車道領域を識別する車道領域識別手段と
    を備え、
    前記人工構造物判定手段は、
    前記対象物抽出手段によって、前記道路領域識別手段により識別された道路領域内で対象物が抽出された場合には第1の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該道路領域外で対象物が抽出された場合には、該第1の人工構造物判定条件と異なる第2の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、
    前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、人工構造物として少なくとも車両を含む第3の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該車道領域外で対象物が抽出された場合には、人工構造物として少なくとも車両、自動販売機、街灯トランス、ブリンカーライトのいずれか1つを含む第4の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定することを特徴とする車両周辺監視装置。
  2. 請求項1記載の車両周辺監視装置において、
    前記撮像手段として、赤外画像を取得する赤外画像撮像手段を有し、
    前記道路領域識別手段は、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により道路領域を識別することを特徴とする車両周辺監視装置。
  3. 請求項1または2記載の車両周辺監視装置において、
    前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記道路領域内に位置するときに該対象物が該道路領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
  4. 請求項1または2記載の車両周辺監視装置において、
    前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、
    前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記道路領域の上方にあるときに該対象物が該道路領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
  5. 請求項1乃至請求項4のうちいずれか1項記載の車両周辺監視装置において、
    前記撮像手段として、可視画像を取得する可視画像撮像手段を備え、
    前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークを検出し、該レーンマークにより車道領域を識別することを特徴とする車両周辺監視装置。
  6. 請求項1乃至請求項5のうちいずれか1項記載の車両周辺監視装置において、
    前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記車道領域内に位置するときに該対象物が該車道領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
  7. 請求項1乃至請求項5のうちいずれか1項記載の車両周辺監視装置において、
    前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、
    前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記車道領域の上方にあるときに該対象物が該車道領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
  8. 請求項1乃至7のうちいずれか1項記載の車両周辺監視装置において、
    前記第1の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
    前記第2の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
    前記第3の人工構造物判定条件として、前記対象物の画像の特徴量と、前記車道領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
    前記第4の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内の前記車道領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
    前記特定の人工構造物の特徴量として、車両、自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木のうちの少なくともいずれか1つの特徴量が登録されていることを特徴とする車両周辺監視装置。
JP2006252444A 2006-09-19 2006-09-19 車両周辺監視装置 Expired - Fee Related JP4813304B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006252444A JP4813304B2 (ja) 2006-09-19 2006-09-19 車両周辺監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006252444A JP4813304B2 (ja) 2006-09-19 2006-09-19 車両周辺監視装置

Publications (3)

Publication Number Publication Date
JP2008077154A JP2008077154A (ja) 2008-04-03
JP2008077154A5 JP2008077154A5 (ja) 2008-10-23
JP4813304B2 true JP4813304B2 (ja) 2011-11-09

Family

ID=39349178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006252444A Expired - Fee Related JP4813304B2 (ja) 2006-09-19 2006-09-19 車両周辺監視装置

Country Status (1)

Country Link
JP (1) JP4813304B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5200861B2 (ja) * 2007-12-10 2013-06-05 富士通株式会社 標識判定装置および標識判定方法
US8964033B2 (en) * 2009-12-02 2015-02-24 Tata Consultancy Services Limited Cost-effective system and method for detecting, classifying and tracking the pedestrian using near infrared camera
JP5395716B2 (ja) * 2010-03-25 2014-01-22 株式会社デンソーアイティーラボラトリ 車外音提供装置、車外音提供方法およびプログラム
JP5479438B2 (ja) * 2011-11-16 2014-04-23 本田技研工業株式会社 車両周辺監視装置
IN2014MU01297A (ja) * 2014-04-07 2015-10-09 Tata Consultancy Services Ltd
CN111164967B (zh) * 2017-10-02 2022-03-29 索尼公司 图像处理设备和图像处理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3881048B2 (ja) * 1995-11-06 2007-02-14 富士重工業株式会社 狭路ガイド装置
JP4135123B2 (ja) * 1998-05-13 2008-08-20 日産自動車株式会社 表示処理装置
JP2000057355A (ja) * 1998-08-06 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 領域抽出装置と画像処理装置
JP2000318513A (ja) * 1999-05-17 2000-11-21 Mitsubishi Electric Corp 車両用障害物検出装置
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP2002099997A (ja) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp 動体物検出装置
JP2002362302A (ja) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP2003016429A (ja) * 2001-06-28 2003-01-17 Honda Motor Co Ltd 車両周辺監視装置
JP4016735B2 (ja) * 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
JP3839329B2 (ja) * 2002-02-04 2006-11-01 本田技研工業株式会社 ナイトビジョンシステム
JP3879740B2 (ja) * 2004-02-13 2007-02-14 日産自動車株式会社 道路領域検出装置
JP2006126000A (ja) * 2004-10-28 2006-05-18 Nissan Motor Co Ltd 物体検出装置及び物体検出方法

Also Published As

Publication number Publication date
JP2008077154A (ja) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4456086B2 (ja) 車両周辺監視装置
US7233233B2 (en) Vehicle surroundings monitoring apparatus
JP4173901B2 (ja) 車両周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP4410292B1 (ja) 車両の周辺監視装置
US8766816B2 (en) System for monitoring the area around a vehicle
JP4173902B2 (ja) 車両周辺監視装置
JP4203512B2 (ja) 車両周辺監視装置
JP4171501B2 (ja) 車両の周辺監視装置
JP2007193445A (ja) 車両の周辺監視装置
WO2012004938A1 (ja) 車両の周辺監視装置
JP2007241898A (ja) 停止車両分別検出装置および車両の周辺監視装置
CN102303563B (zh) 前车碰撞预警系统及方法
US9160986B2 (en) Device for monitoring surroundings of a vehicle
JP4813304B2 (ja) 車両周辺監視装置
WO2010007718A1 (ja) 車両周辺監視装置
JP4823753B2 (ja) 車両の周辺監視装置
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4629638B2 (ja) 車両の周辺監視装置
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP3844750B2 (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
JP2004362265A (ja) 赤外線画像認識装置
JP2010092437A (ja) 車両の周辺監視装置
JP2007168547A (ja) 障害物衝突判定システム、障害物衝突判定方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110824

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees