JP2009140289A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2009140289A JP2009140289A JP2007316721A JP2007316721A JP2009140289A JP 2009140289 A JP2009140289 A JP 2009140289A JP 2007316721 A JP2007316721 A JP 2007316721A JP 2007316721 A JP2007316721 A JP 2007316721A JP 2009140289 A JP2009140289 A JP 2009140289A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- image
- vehicle
- search area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像データから前方車両を精度よく検出する画像処理装置を提供すること。
【解決手段】立体物41の位置情報を検出する位置情報検出手段28と、立体物41が撮像された撮像画像を取得する画像取得手段21と、位置情報に基づき撮像画像における立体物の探索領域を設定する探索領域設定部30と、を有する画像処理装置100において、探索領域のエッジ画像を検出するエッジ検出手段23と、エッジ画像を複数の領域に分割し、各領域のエッジの分布を検出するエッジ分布検出手段24と、各領域のエッジの分布傾向に基づき立体物以外のエッジを除去するノイズ除去部25と、を有することを特徴とする。
【選択図】図1
【解決手段】立体物41の位置情報を検出する位置情報検出手段28と、立体物41が撮像された撮像画像を取得する画像取得手段21と、位置情報に基づき撮像画像における立体物の探索領域を設定する探索領域設定部30と、を有する画像処理装置100において、探索領域のエッジ画像を検出するエッジ検出手段23と、エッジ画像を複数の領域に分割し、各領域のエッジの分布を検出するエッジ分布検出手段24と、各領域のエッジの分布傾向に基づき立体物以外のエッジを除去するノイズ除去部25と、を有することを特徴とする。
【選択図】図1
Description
本発明は、障害物を検出する画像処理装置に関し、特に、ノイズを除去して障害物を精度よく検出する画像処理装置に関する。
車両前方の立体物(以下、障害物という)をレーダで検出して運転者を支援する技術が知られているが、レーダは近距離の測距が不安定なため、車両前方の所定範囲が撮影された画像データを画像解析して障害物の検出を支援する技術が提案されている(例えば、特許文献1、2参照。)。特許文献1には、画像データ内の前方車両の左右端に相当する1対の垂直エッジを検出し、これとパターンマッチングを併用して前方車両の位置を検出する前方車両の検出方法が記載されている。また、特許文献2には、画像データからレーダにより車両一台分の候補領域を設定し、候補領域内の垂直エッジを求め、左右に2分された候補領域の垂直エッジを、右領域及び左領域毎にその座標を所定量ずつし、ずらした座標に生成された2つの投票情報のピークがある座標を車両中央と決定する車両検出方法が記載されている。
特開2006−48435号公報
特開2005−141517号公報
しかしながら、車両前方を撮影した画像データには前方車両以外にも街路樹や電柱等の地物、路面表示等が撮影されるため、特許文献1のように単に垂直エッジをペアリングするだけでは前方車両のみを精度よく検出することは困難である。また、特許文献2に記載された車両検出方法では、前方車両以外の背景を排除することが考慮されておらず、例えば白線に前方車両が寄っているような場合に車両の中央位置を誤検出するおそれがある。
本発明は、上記課題に鑑み、画像データから前方車両を精度よく検出する画像処理装置を提供することを目的とする。
上記課題に鑑み、本発明は、立体物の位置情報を検出する位置情報検出手段と、立体物が撮像された撮像画像を取得する画像取得手段と、位置情報に基づき撮像画像における立体物の探索領域を設定する探索領域設定部と、を有する画像処理装置において、探索領域のエッジ画像を検出するエッジ検出手段と、エッジ画像を複数の領域に分割し、各領域のエッジの分布を検出するエッジ分布検出手段と、各領域のエッジの分布傾向に基づき立体物以外のエッジを除去するノイズ除去部と、を有することを特徴とする。
本発明によれば、分割した領域の傾向に基づいて前方車両以外の垂直エッジを除去するので、前方車両のような障害物の検出精度向上させることができる。
画像データから前方車両を精度よく検出する画像処理装置を提供することができる。
以下、本発明を実施するための最良の形態について、図面を参照しながら説明する。
図1は、本実施形態の画像処理の概略を説明する図である。画像処理装置100は、前方車両が画像データの中央周辺に撮影されるのに対し、街路樹や電柱等の地物、路面表示等は画像データの上部や下部に集中して検出されることを利用して、前方車両以外を画像データから除去する。
図1は、本実施形態の画像処理の概略を説明する図である。画像処理装置100は、前方車両が画像データの中央周辺に撮影されるのに対し、街路樹や電柱等の地物、路面表示等は画像データの上部や下部に集中して検出されることを利用して、前方車両以外を画像データから除去する。
より具体的には、予めミリ波レーダ等により推定される前方車両までの相対距離と前方車両の横幅に基づき画像データに前方車両の探索領域を設定し、図1に示すように、探索領域から垂直エッジを検出する。そして、探索領域を上下に2分割し、上側領域のみ又は下側領域のみに分布する垂直エッジは前方車両以外のノイズであるとして除去する。図1では、垂直エッジ11は上側領域にのみ分布しているのでノイズとして除去され、垂直エッジ12,13は上下の領域に連続して分布しているので除去されない。
かかる処理により画像処理装置100は、垂直エッジ12、13を前方車両の左右端として推定し、前方車両の車幅等を検出することができる。探索領域の上側領域のみ又は下側領域にのみ現れる垂直エッジは地物や路面表示等であることを利用して、分割した領域の傾向に基づいて前方車両以外の垂直エッジを除去するので、前方車両のような障害物の検出精度向上させることができる。なお、本実施形態では立体物として前方車両を用いて説明するが、前方車両以外の対向車両、落下物等の障害物に対しても好適に適用できる。
図2は、画像処理装置100の機能ブロック図を示す。画像処理装置100は、カメラ21、ミリ波レーダ装置28及び画像処理コンピュータ50を有する。画像処理コンピュータ50は、CPU、RAM、ROM及び入出力インターフェイスを備えたコンピュータであり、CPUがプログラムを実行することや演算回路、IC等によりエッジ検出部23,エッジ分布検出部24、ノイズ除去部25、障害物端検出部26、前方車両推定部29及び探索領域設定部30を実現する。
カメラ21は、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)の撮像素子を有し、車両前方へ向けてやや水平下向きに光軸を有し所定角範囲で広がる領域を撮影する。車両前方から入射した光は撮像素子により光電変換され、蓄積された電荷の電圧として読み出された後増幅され、A/D変換により所定の輝度階調(例えば、256階調)のデジタル画像(以下、前方画像という)に変換される。カメラ21は例えば30〜60回/秒程度のフレームレートで前方画像を撮影し、順次、画像メモリ22に前方車両を記憶する。なお、カメラ21はステレオカメラであってもよいし、車両後方を撮影してもよい。
ミリ波レーダ装置28は、車両の例えばフロントグリル内に設置され車両前方に向けてミリ波を送信すると共に前方車両に反射したミリ波を受信し、送信したミリ波が受信されるまでの時間により前方車両との相対距離を、送信波と受信波の周波数との差に基づき相対速度を検出する。具体的は、三角波でFM変調した送信波をアンテナから出力し、前方車両から反射した反射波をアンテナで受信してミキシングすることでビート信号を取得する。ビート信号は、前方車両までの距離及び相対速度に応じて生じる干渉により波形が変化するので、波形から相対距離と相対速度が演算される。
ミリ波レーダ装置28は、例えば、車長方向を中心に左右方向の所定角度範囲を走査しながらレーザパルスを照射する。照射方向に前方車両が存在すれば反射波が受信されるので、自車両の前方に存在する前方車両の方向や横幅を検出することができる。例えば、障害物が前方車両の場合、前方車両の後部左右端のリフレクタやボディから反射波を受信する。以下、ミリ波レーダ装置28が取得する前方車両等の障害物の距離情報、相対速度情報及び方向に係る情報を位置情報という。
〔ノイズ除去手順〕
ノイズ除去の手順を図3のフローチャート図に基づき詳細に説明する。図3のフローチャート図は、所定の車載装置のスイッチがオンとされたりイグニションがオンになるとスタートし、前方画像に対し繰り返し実行される。
ノイズ除去の手順を図3のフローチャート図に基づき詳細に説明する。図3のフローチャート図は、所定の車載装置のスイッチがオンとされたりイグニションがオンになるとスタートし、前方画像に対し繰り返し実行される。
・S100
前方車両推定部29はミリ波レーダ装置28が取得する位置情報のうち前方車両の確度が高い位置情報を抽出する。また、探索領域設定部30は前方車両推定部29が抽出した位置情報に基づき前方画像における前方車両の探索領域を設定する。
前方車両推定部29はミリ波レーダ装置28が取得する位置情報のうち前方車両の確度が高い位置情報を抽出する。また、探索領域設定部30は前方車両推定部29が抽出した位置情報に基づき前方画像における前方車両の探索領域を設定する。
ミリ波レーダ装置28は、例えばミリ波レーダ装置28の先端部を原点、路面に垂直な方向をY軸、車幅方向をX軸、車長方向をZ軸とする3次元座標系(以下、ミリ波座標系という)における位置情報を検出する。
図4(a)はミリ波座標系の一例を、図4(b)はカメラ座標系の一例をそれぞれ示す。ミリ波座標系では上述したように前方車両41の後部端の座標が(xr1、yr1,zr1)等のように検出されている。xriのi(1、2、3、…)はミリ波レーダ装置28が1走査において照射するレーザパルスに順番に付与される番号である。前方車両推定部29は、この座標と相対速度情報から位置情報をグルーピングする。具体的には、ミリ波座標系における距離が所定以内であって、かつ、同じ相対速度を有する座標をグルーピングする。したがって、前方車両41の座標(xr1、yr1,zr1)〜(xr3、yr3,zr3)は1つのグループにグルーピングされ、ガードレール42の座標(xr0、yr0,zr0)は別のグループにグルーピングされる。そして、前方車両推定部29は、グルーピングされた一連の位置情報から、自車両の車速と同程度の相対速度を有するグループ(位置情報)を排除する。これによりガードレール42のように静止した障害物の位置情報を排除できる。
ついで、探索領域設定部30は、前方車両41の座標(xr1、yr1,zr1)〜(xr3、yr3,zr3)に基づき前方画像における前方車両41の探索領域43を設定する。カメラ座標系は撮像素子の中心を原点として、路面に垂直な方向をY軸、車幅方向をX軸、車長方向をZ軸とする3次元座標系である。2つの座標系の関係は、座標系の回転を対応づける回転行列R、ミリ波レーダ装置28の取り付け位置とカメラ21の取り付け位置を補正する平行移動ベクトルt、から関係づけることができる。
また、前方画像は2次元なのでカメラ座標系をさらに所定の2次元平面(gx、gy)に射影する。3次元から2次元の変換は、カメラの内部パラメータ行列Aを用いる。内部パラメータAは、所定のキャリブレーションによりカメラの焦点距離、レンズ収差、光軸中心、アスペクト比などから定められる(kは定数、Tは転置を表す。)。
k(gx、gy、1)T=A[R|t](xr、yr、zr、1)T
以上で、前方車両41の座標(xr1、yr1,zr1)〜(xr3、yr3,zr3)をカメラ座標系の2次元平面に射影できた。探索領域設定部30は、グルーピングされた前方車両41の一連の座標(xr1、yr1,zr1)〜(xr3、yr3,zr3)から射影された、前方画像における一連の座標(gx、gy)等から、例えば矩形領域の探索領域43を設定する。探索領域43の横幅は例えば前方車両41の左右端からそれぞれ所定のマージン(例えば、左右それぞれに+10%〜+50%)を見込んだ値となり、縦長は例えば横幅と同程度とする。前方車両41の縦長は横幅より短いとしてよいので、この横幅×縦長の範囲に前方車両41が撮影されているとしてよい。なお、バイクなどの二輪車は横幅より縦長が長いので、横幅が所定以下の場合、縦長を横幅の2倍とするなど修正する。
k(gx、gy、1)T=A[R|t](xr、yr、zr、1)T
以上で、前方車両41の座標(xr1、yr1,zr1)〜(xr3、yr3,zr3)をカメラ座標系の2次元平面に射影できた。探索領域設定部30は、グルーピングされた前方車両41の一連の座標(xr1、yr1,zr1)〜(xr3、yr3,zr3)から射影された、前方画像における一連の座標(gx、gy)等から、例えば矩形領域の探索領域43を設定する。探索領域43の横幅は例えば前方車両41の左右端からそれぞれ所定のマージン(例えば、左右それぞれに+10%〜+50%)を見込んだ値となり、縦長は例えば横幅と同程度とする。前方車両41の縦長は横幅より短いとしてよいので、この横幅×縦長の範囲に前方車両41が撮影されているとしてよい。なお、バイクなどの二輪車は横幅より縦長が長いので、横幅が所定以下の場合、縦長を横幅の2倍とするなど修正する。
図5(a)は画像メモリ22に記憶された輝度画像の一例を、図5(b)は探索領域設定部30が設定した探索領域43の一例を示す図である。すなわち、前方画像から前方車両41が撮影されている領域を中心に切り出すことができる。
・S200
次に、エッジ検出部23は探索領域43の垂直エッジを検出する。探索領域43の輝度を水平方向に一次又は二次微分して、垂直エッジを検出する。実際には、ノイズ(本願の垂直エッジとは異なる)処理を施しながら、注目する画素に隣接する画素の画素値にオペレータと呼ばれる行列で重み付けする。オペレータとしてSobelやRoberts等が知られており、例えば、Sobelの一次微分のオペレータは次のように表される。
-1 0 1 1 0 -1
-2 0 2 2 0 -2
-1 0 1 1 0 -1
右方向 左方向
注目画素に隣接する8個の画素の画素値にオペレータを乗算し、左右の画素値の差分を算出することで、水平方向の輝度の勾配又は差分を算出し、この値が所定以上の画素がエッジとして検出される。
次に、エッジ検出部23は探索領域43の垂直エッジを検出する。探索領域43の輝度を水平方向に一次又は二次微分して、垂直エッジを検出する。実際には、ノイズ(本願の垂直エッジとは異なる)処理を施しながら、注目する画素に隣接する画素の画素値にオペレータと呼ばれる行列で重み付けする。オペレータとしてSobelやRoberts等が知られており、例えば、Sobelの一次微分のオペレータは次のように表される。
-1 0 1 1 0 -1
-2 0 2 2 0 -2
-1 0 1 1 0 -1
右方向 左方向
注目画素に隣接する8個の画素の画素値にオペレータを乗算し、左右の画素値の差分を算出することで、水平方向の輝度の勾配又は差分を算出し、この値が所定以上の画素がエッジとして検出される。
図5(c)は探索領域43の垂直エッジ画像の一例を示す。図5(b)に示したように、探索領域43には街路樹44、左白線46、右白線45及び前方車両41が撮影されている。このため、図5(c)の垂直エッジ画像には、街路樹44の垂直エッジ44e、左白線46の垂直エッジ46e、右白線45の垂直エッジ45e及び前方車両41の垂直エッジ41eが得られている。それぞれのエッジは立ち下がりと立ち上がりの輝度変化のため2本となるが本実施形態では特に区別しない。
垂直エッジであるので、本来、左白線46の垂直エッジ46e及び右白線45の垂直エッジ45eは検出されないが、仮に白線のエッジが検出されても次述するように、ノイズとして同様に削除できる。なお、エッジ検出部23は、垂直方向の所定数以内(例えば10画素)の画素に垂直エッジが検出された場合、それを一連の連続した垂直エッジとして扱う。これにより、前方画像のエッジの分布が明確になる。
・S300
次に、エッジ分布検出部24は、探索領域43を上下の領域に分割し上側領域と下側領域それぞれのエッジ分布を検出することで、上側領域又は下側領域にのみ分布する垂直エッジ(以下、単にノイズという場合がある)を検出する。
次に、エッジ分布検出部24は、探索領域43を上下の領域に分割し上側領域と下側領域それぞれのエッジ分布を検出することで、上側領域又は下側領域にのみ分布する垂直エッジ(以下、単にノイズという場合がある)を検出する。
垂直エッジには以下の傾向があると考えられる。
・前方車両41のような障害物は、探索領域43の上下に跨って分布する。
・街路樹44、電柱等の地物は、探索領域43の上側に分布する。
・横断歩道等の路面標示は、探索領域43の下側に分布する。
この傾向を利用して、探索領域43を上下に分割して垂直エッジの分布を調べることで、画像処理装置100は前方車両41以外の垂直エッジを除去することができる。
・前方車両41のような障害物は、探索領域43の上下に跨って分布する。
・街路樹44、電柱等の地物は、探索領域43の上側に分布する。
・横断歩道等の路面標示は、探索領域43の下側に分布する。
この傾向を利用して、探索領域43を上下に分割して垂直エッジの分布を調べることで、画像処理装置100は前方車両41以外の垂直エッジを除去することができる。
図6(a)は上側領域の垂直エッジ画像の一例を、図6(b)は下側領域の垂直エッジ画像の一例をそれぞれ示す。分割された結果、街路樹44の垂直エッジ44eは上側領域にのみ含まれ、左白線46の垂直エッジ46e、右白線45の垂直エッジ45e及び前方車両41の垂直エッジ41eは上側領域と下側領域それぞれ含まれることになる。
ここで、上側領域と下側領域を比較するため垂直エッジをラベリングする。図6(a)の上側領域では街路樹44の垂直エッジ44eにレベルU1、左白線46の垂直エッジ46eにラベルU2、右白線45の垂直エッジ45eにラベルU3、前方車両41の左端の垂直エッジ41eにラベルU4、前方車両41の右端の垂直エッジ41eにラベルU5をラベリングする。同様に、図6(a)の下側領域では、左白線46の垂直エッジ46eにラベルL2、右白線45の垂直エッジ45eにラベルL3、前方車両41の左端の垂直エッジ41eにラベルL4、前方車両41の右端の垂直エッジ41eにラベルL5をラベリングする。
そして、エッジ分布検出部24は、分割線に対し上側領域の垂直エッジ画像の線対称な垂直エッジ画像(以下、対称画像という)を求め、その垂直エッジの位置が下側領域の垂直エッジ画像の垂直エッジの位置と一致するか否かによりエッジ分布を検出する。
図6(c)は上側領域の対称画像である。エッジ分布検出部24は、ラベリングした垂直エッジ毎に対称画像と下側領域を比較する。例えば図6(c)のラベルU1と同じ座標に、図6(b)の下側領域に垂直エッジがあるか否かを検出していく。そして、ラベル毎のヒット率を算出する。例えば、ラベルU1を構成する垂直エッジの数Nに対し、下側領域で対応する垂直エッジの数nの比がヒット率となる。ヒット率が所定値以上の場合、エッジ分布検出部24は対称画像の垂直エッジは下側領域にも分布していると判定する。
なお、下側領域において、ラベルU1の垂直エッジの座標に所定画素数以内で隣接した画素までは垂直エッジが存在すると判定してもよい。これは前方車両41のエッジ41eが上下に完全な対称とは限らないため、判定を緩和する上で有効である。
図6(c)と(b)から明らかなように、対称画像のラベルU1、U2、U3の垂直エッジは下側画像の同じ座標に垂直エッジが分布していないので、エッジ分布検出部24はラベルU1、U2、U3の垂直エッジについては上側領域にのみ分布していると判定する。これに対し、ラベルU4、U5の垂直エッジは下側画像の同じ座標にラベルL4とL5の垂直エッジが分布している。すなわち、ラベルU4とU5の垂直エッジではヒット率が所定値を超え、エッジ分布検出部24はラベルU4、U5の垂直エッジが上側領域と下側領域のいずれにも分布していると判定する。
エッジ分布検出部24は、同様の処理を下側領域に対して実行する。すなわち、分割線に対し下側領域の垂直エッジ画像の対称画像を求め、ラベルL1〜L5毎に、上側領域の同じ座標に垂直エッジがあるか否かを判定しヒット率を算出する。これにより、下側領域にのみ分布する垂直エッジを除去できる。また、ラベルL4とL5の垂直エッジについて、エッジ分布検出部24は上側領域と下側領域のいずれにも分布していると判定する。
ところで、図5(c)では上側領域の街路樹44の垂直エッジ44eをノイズとして除去したが、図7(a)に示すように、探索領域43に横断歩道の路面標示47が撮影された場合にも、路面標示47の垂直エッジは下側領域にのみ検出されるので同様に路面標示47の垂直エッジを除去できる。
以上により、エッジ分布検出部24は、上側領域にのみ検出される垂直エッジ、下側領域にのみ検出される垂直エッジがそれぞれ検出する。
・S400
ノイズ除去部25はノイズを除去する。ステップS300の処理により、上側領域のラベルU1、U2、U3の垂直エッジ、下側領域のラベルL2、L3の垂直エッジがノイズとして検出されているので、ノイズ除去部25はこれらの垂直エッジを除去する。図5(c)からノイズを除去してもよいし、下側領域と上側領域からノイズを除去してそれらの画像を結合してもよい。図8は、ノイズが除去された探索領域43の一例を示す。ノイズが除去された結果、前方車両41の左端及び右端の垂直エッジ41eのみが残る。
ノイズ除去部25はノイズを除去する。ステップS300の処理により、上側領域のラベルU1、U2、U3の垂直エッジ、下側領域のラベルL2、L3の垂直エッジがノイズとして検出されているので、ノイズ除去部25はこれらの垂直エッジを除去する。図5(c)からノイズを除去してもよいし、下側領域と上側領域からノイズを除去してそれらの画像を結合してもよい。図8は、ノイズが除去された探索領域43の一例を示す。ノイズが除去された結果、前方車両41の左端及び右端の垂直エッジ41eのみが残る。
・S500
障害物端検出部26は、除去されなかった垂直エッジ41eに基づき前方車両41の左右端を検出する。垂直エッジ41eから前方車両41の、横幅W、中央位置等を検出して、例えば衝突判定のECU(electronic control unit)に送出する。該ECUはミリ波レーダ装置28の測距が不安定な状況でも、前方車両41を検出して、警報吹鳴や制動力の付加など適切な運転支援を行うことができる。
障害物端検出部26は、除去されなかった垂直エッジ41eに基づき前方車両41の左右端を検出する。垂直エッジ41eから前方車両41の、横幅W、中央位置等を検出して、例えば衝突判定のECU(electronic control unit)に送出する。該ECUはミリ波レーダ装置28の測距が不安定な状況でも、前方車両41を検出して、警報吹鳴や制動力の付加など適切な運転支援を行うことができる。
本実施形態の画像処理装置100は、垂直エッジという比較的処理負荷の小さい画像処理により、ミリ波レーダ装置28の機能を補完して前方車両41の検出を可能とすることができる。探索領域43に現れる垂直エッジの傾向に基づいてエッジ分布を検出するので、前方車両41以外の垂直エッジを効率的に除去することができる。したがって、前方車両41に代表される障害物の検出精度を向上させることができる。
なお、ステップS300では、エッジ分布検出部24は探索領域43を上下に2等分することとしたが、上側又は下側のいずれか一方を大きくしてもよい。この場合、上側領域と下側領域の垂直エッジは対応する画素が存在する範囲で比較する。
また、探索領域43を上下に分割した後、分割線を跨いで垂直方向に連続した垂直エッジを確定し、それ以外の垂直エッジをノイズとして除去してもよい。垂直方向であるので、斜めに連続する白線のエッジ45e、46eが検出されてもそれらはノイズとして除去することができる。また、探索領域43の端から端まで連続した垂直エッジを白線として除去してもよい。
21 カメラ
22 画像メモリ
23 エッジ検出部
24 エッジ分布検出部
25 ノイズ除去部
26 障害物端検出部
28 ミリ波レーダ装置
50 画像処理コンピュータ
100 画像処理装置
22 画像メモリ
23 エッジ検出部
24 エッジ分布検出部
25 ノイズ除去部
26 障害物端検出部
28 ミリ波レーダ装置
50 画像処理コンピュータ
100 画像処理装置
Claims (4)
- 立体物の位置情報を検出する位置情報検出手段と、
前記立体物が撮像された撮像画像を取得する画像取得手段と、
前記位置情報に基づき前記撮像画像における立体物の探索領域を設定する探索領域設定部と、を有する画像処理装置において、
前記探索領域のエッジ画像を検出するエッジ検出手段と、
前記エッジ画像を複数の領域に分割し、各領域のエッジの分布を検出するエッジ分布検出手段と、
各領域のエッジの分布傾向に基づき前記立体物以外のエッジを除去するノイズ除去部と、
を有することを特徴とする画像処理装置。 - 前記エッジ分布検出手段は前記探索領域を上下2つの領域に分割し、上側領域にのみ及び下側領域にのみ分布している不均一エッジを検出し、
前記ノイズ除去手段は前記不均一エッジを除去する、
ことを特徴とする請求項1記載の画像処理装置。 - 前記エッジ分布検出手段は前記探索領域を上下2つの領域に分割し、分割線を跨いで垂直方向に連続した連続エッジを検出し、
前記ノイズ除去手段は、前記連続エッジ以外のエッジを除去する、
ことを特徴とする請求項1記載の画像処理装置。 - 前記エッジ分布検出手段は、上側領域のエッジが、上側領域のエッジ位置と分割線に線対称な下側領域の位置に検出されない場合に、上側領域にのみエッジが分布していると判定し、
下側領域のエッジが、下側領域のエッジ位置と分割線に線対称な上側領域の位置に検出されない場合に、下側領域にのみエッジが分布していると判定する、
ことを特徴とする請求項2記載の画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007316721A JP2009140289A (ja) | 2007-12-07 | 2007-12-07 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007316721A JP2009140289A (ja) | 2007-12-07 | 2007-12-07 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009140289A true JP2009140289A (ja) | 2009-06-25 |
Family
ID=40870821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007316721A Pending JP2009140289A (ja) | 2007-12-07 | 2007-12-07 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009140289A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207211A (ja) * | 2014-04-22 | 2015-11-19 | サクサ株式会社 | 車両検出装置、およびシステム、ならびにプログラム |
JP2015207212A (ja) * | 2014-04-22 | 2015-11-19 | サクサ株式会社 | 車両検出装置、およびシステム、ならびにプログラム |
-
2007
- 2007-12-07 JP JP2007316721A patent/JP2009140289A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207211A (ja) * | 2014-04-22 | 2015-11-19 | サクサ株式会社 | 車両検出装置、およびシステム、ならびにプログラム |
JP2015207212A (ja) * | 2014-04-22 | 2015-11-19 | サクサ株式会社 | 車両検出装置、およびシステム、ならびにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6471528B2 (ja) | 物体認識装置、物体認識方法 | |
US7957559B2 (en) | Apparatus and system for recognizing environment surrounding vehicle | |
EP2234086B1 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP5012718B2 (ja) | 画像処理装置 | |
US9836657B2 (en) | System and method for periodic lane marker identification and tracking | |
JP3759429B2 (ja) | 障害物検出装置及びその方法 | |
CN111971682B (zh) | 路面检测装置、图像显示装置、障碍物检测装置、路面检测方法、图像显示方法以及障碍物检测方法 | |
US20050232466A1 (en) | Method of recognizing and/or tracking objects | |
JP4985306B2 (ja) | 障害物判定装置および方法、並びに障害物判定装置を備えた車両 | |
JP6782433B2 (ja) | 画像認識装置 | |
JP2004112144A (ja) | 前方車両追跡システムおよび前方車両追跡方法 | |
JP2006184276A (ja) | 視覚検知による全天候障害物衝突防止装置とその方法 | |
JP2003296736A (ja) | 障害物検知装置及びその方法 | |
EP3115966B1 (en) | Object detection device, object detection method, and computer program | |
JP2007104171A (ja) | 前方監視装置 | |
JP6743882B2 (ja) | 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム | |
JP3961584B2 (ja) | 区画線検出装置 | |
JP2009098025A (ja) | 物体検出装置 | |
CN111914610B (zh) | 立体物检测装置、以及立体物检测方法 | |
JP2014130429A (ja) | 撮像装置及び立体物領域検出用プログラム | |
CN111339840B (zh) | 人脸检测方法和监控系统 | |
JP2009140289A (ja) | 画像処理装置 | |
JP2010071942A (ja) | 物体検出装置 | |
JP4788399B2 (ja) | 歩行者検出方法、装置、およびプログラム | |
JP4821348B2 (ja) | 道路区間線検出装置及び方法並びにプログラム |