JP2004056763A - 監視装置、監視方法および監視用プログラム - Google Patents
監視装置、監視方法および監視用プログラム Download PDFInfo
- Publication number
- JP2004056763A JP2004056763A JP2003130008A JP2003130008A JP2004056763A JP 2004056763 A JP2004056763 A JP 2004056763A JP 2003130008 A JP2003130008 A JP 2003130008A JP 2003130008 A JP2003130008 A JP 2003130008A JP 2004056763 A JP2004056763 A JP 2004056763A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- flow
- camera
- optical flow
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】オプティカルフロー検出部12は、カメラ11によって撮影された画像からオプティカルフローViを求める。背景フロー推定部15は、自車動き推定部13によって推定された当該車両の動きと、空間モデル推定部14によって推定された、カメラ11が撮影している空間をモデル化した空間モデルとを基にして、背景と仮定した場合のカメラ画像のフローである背景フローVdiを求める。接近物検出部16はオプティカルフローViと背景フローVdiとを比較し、当該車両の周囲にある物体の動きを検出する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、カメラを用いて車両の周囲の状況を監視し、接近する物体を検出する車両用監視技術に関する。
【0002】
【従来の技術】
従来から、車両の周囲の状況を監視し、接近する物体を検出する車両用監視装置について、様々なアプローチが行われてきた。
【0003】
その一つに、レーダー等の障害物センサを用いたものがある。ところがこの手法は、障害物を確実に検出できるものの、その障害物が近づいているのか遠ざかっているのかといった複雑な判断には不向きである。また、降雨などの影響も大きく、検出範囲も比較的狭いので、障害物センサ単独で接近物を検出するのは困難だった。
【0004】
一方、カメラ画像を用いたアプローチも行われている。この手法によると、現状ではレーダーほどの信頼性は得られないが、デジタル化された画像情報の加工が容易であることから、障害物が近づいているのか遠ざかっているのかといった複雑な判断が可能である。また、検出範囲がカメラの画角と分解能によって決定されるため、非常に広い領域を監視することができる。
【0005】
カメラ画像を用いた手法としては、複数のカメラ画像を用いるステレオ法と、オプティカルフローを用いる方法とが広く知られている。ステレオ法は、カメラ間の視差を利用する方法であるが、カメラ同士のキャリブレーションが複雑である、複数のカメラを用いる必要があるためコストがかかる、といった問題点がある。
【0006】
オプティカルフローを用いた車両用監視装置は、例えば、特許文献1(第1の従来例)に開示されている。すなわち、カメラを車両後方に向けて設置し、水平方向に分割した複数の領域を画面内に設定し、それぞれの領域内で、所定の閾値以上の大きさを持ち、かつ、接近物を仮定したときの画像上の動きと同一の方向を持つオプティカルフローを抽出する。そして、このオプティカルフローに基づいて、接近物を判別する。
【0007】
また、カーブ走行中における対応については、すでにいくつかの方法が提案されている。
【0008】
例えば、特許文献2(第2の従来例)では、車両の舵角および走行速度から旋回ベクトルを求め、この旋回ベクトルを、実際に求まったオプティカルフローから引くことによって、オプティカルフローを補正する。そして、この補正によりカーブの影響を除いた後に、移動物体を抽出する。
【0009】
また、特許文献3(第3の従来例)では、オプティカルフローを、車速センサおよびヨーレートセンサの出力と、予め測定した画像位置と距離との対応関係とによって補正し、カーブの影響を除いた後、移動物体を抽出する。
【0010】
また、画像内の無限遠点(FOE)を利用した手法(例えば特許文献4参照)が、オプティカルフローを用いた接近物検出において広く用いられているが、この手法をカーブ走行に対応させた方法についてもいくつか提案されている。
【0011】
例えば、特許文献5(第4の従来例)では、FOEの移動量に相当する量によってオプティカルフローを補正する。
【0012】
また、特許文献6(第5の従来例)では、画面を複数に分割し、白線決定手段によって求められた白線情報に基づいて仮想FOEを求める。
【0013】
また、特許文献7(第6の従来例)では、カーブの影響を受けないオプティカルフローを用いた接近物検出の手法が開示されている。この手法では、カメラの運動パラメータから理論的に計算された移動ベクトルVdiと、画像から検出された移動ベクトルViとの差異εi2 を、画像から検出された移動ベクトルの信頼性を表すベクトルr1i,r2iを用いて、次式によって計算し、その差異の値を用いて移動している物体を検出する。
εi2=((Vdi−Vi)・r1i)2+((Vdi−Vi)・r2i)2
【0014】
【特許文献1】
特許第3011566号公報
【特許文献2】
特開2000−168442号公報
【特許文献3】
特開平6−282655号公報
【特許文献4】
特開平7−50769号公報
【特許文献5】
特開2000−251199号公報
【特許文献6】
特開2000−90243号公報
【特許文献7】
特許第2882136号公報
【0015】
【発明が解決しようとする課題】
ところが、上述の従来技術では、次のような問題がある。
【0016】
まず、第1の従来例では、自車が直進していることを仮定しており、カーブでの利用は難しい。すなわち、「接近物を仮定したときの画像上の動きの方向」を利用して接近物を検出しているが、この「動きの方向」は、カーブを走行中の場合には一様には求まらない。この点について、図34を用いて説明する。
【0017】
カメラが後方を向いているとすると、車両がカーブを走行中の場合には、図34(a)のような画像が撮影される。第1の従来例では、図34(a)に示すように、水平方向に領域Lと領域Rとを分割して設定する。ここで、図34(b)に示すように、領域L内の領域AR1に接近車が存在する場合を仮定すると、「仮定された接近車の動きの方向」は図の矢印のように右下を向く。一方、同じ領域L内にあるが、領域AR1とは垂直方向における位置が異なる領域AR2においては、「仮定された接近車の動きの方向」は図の矢印のように左下を向き、領域AR1における動きの向きとは全く異なってしまう。このように、車両がカーブを走行中の場合には、同じ領域L内においても、その位置によって「仮定された接近車の動きの方向」は一様ではなくなり、したがって、接近車の検出が困難になる。
【0018】
また、車両が直線道路を走行中の場合でも、画面の上部と下部とでは、オプティカルフローの大きさは著しく異なる。すなわち、画面上部では、自車から遠く離れた領域が映っているので、検出されるオプティカルフローは非常に小さい。これに対して、画面下部では、自車に非常に近い領域が映っているので、検出されるオプティカルフローは相対的に非常に大きい。
【0019】
このため、画面の上部と下部について、同一の閾値を用いて処理を行うと、接近車の検出精度が劣化する可能性が高い。例えば、画面上部の小さなフローを基準に閾値を定めたとき、閾値は非常に小さな値になるので、この閾値によって画面下部における処理を行うと、ノイズが出やすくなる。一方、画面下部の大きなフローを基準に閾値を定めた場合、閾値は非常に大きな値になるので、この閾値によって画面上部における処理を行うと、ほとんどのオプティカルフローが閾値よりも小さくなり、接近物は検出できなくなってしまう。
【0020】
さらに、第1の従来例では、所定値以上の大きさを持つオプティカルフローのみを用いて、接近車を検出している。このため、自車とほぼ等速度で走る並走車については、オプティカルフローの大きさがほぼ0になるので、検出することができない。
【0021】
また、第2の従来例については、自車の旋回によって生じる旋回ベクトルは、その旋回ベクトルに係る対象点のカメラからの3次元相対位置によって、その大きさおよび向きが異なる。このため、カメラ画像上での点と実世界3次元上での点との対応関係が求まっていないと、旋回ベクトルを推定することができない。
【0022】
この点を、図35を用いて説明する。図35はカメラ2で撮影されたカメラ画像と実世界上の3次元座標の関係を示したものである。カメラ画像の水平方向にXi軸、垂直方向にYi軸をとり、実世界座標系のXw,Yw,Zw軸も図35に示すようにとる。つまり、平面Xw−Zwは路面と平行な平面であり、Xw方向は自車両の左右方向、Yw方向は路面に対して垂直方向、Zw方向は自車両の前後方向とする。また、カメラの焦点位置を原点、カメラの光軸方向をZc軸としたカメラ座標系(Xc,Yc,Zc)を定める。もちろん、これらの軸方向はこれに限ったものではない。これらの座標系は、透視投影変換である(数1)と、座標変換である(数2)の関係をもつ。
【数1】
【数2】
【0023】
ただし、fはカメラの焦点距離、rはカメラの内部パラメータと、カメラの設置位置すなわち実世界座標系におけるカメラ座標系の位置関係とによって定まる定数であり、既知である。この関係式から、カメラ画像上の任意の点に対応する実世界の3次元座標は、カメラの焦点位置を通るある直線上にのることは分かるものの、それ以上の情報を得ることはできないので、その位置を一意に決定することはできない。
【0024】
すなわち、図36に示すように、実世界座標系からカメラ画像上の点への変換は透視投影変換(数1)および座標変換(数2)を用いることによって可能であるが、逆に、カメラ画像上の点から実世界座標系への変換は、これらの関係式のみでは不可能である。第2の従来例における旋回ベクトルは、カメラ座標系のそれぞれの点について求めなければならないが、図36に示したように他に条件がなければ、この変換は不可能である。
【0025】
第3の従来例についても、第2の従来例と同様に、画像位置と距離との対応関係の求め方には触れられておらず、このままでは実現できない。
【0026】
また、第4の従来例については、FOEは直進時のみしか存在せず、カーブではそもそも存在しないものであるので、FOEを用いてオプティカルフローを補正すると、直進を近似できないような急激なカーブでは誤差が非常に大きくなり、実用的ではない。
【0027】
また、第5の従来例については、当然のことながら、白線がない道路を走行する場合には利用できない。
【0028】
また、第6の従来例については、画像内では移動物体でないものが支配的であることを仮定しており、トラックのような大きな移動物体がカメラの近傍に存在する場合には、検出に失敗するという問題がある。
【0029】
前記の問題に鑑み、本発明は、オプティカルフローを用いて接近物を検出する車両用監視装置において、たとえカーブ走行中であっても、接近物を精度良く検出可能にすることを課題とする。
【0030】
【課題を解決するための手段】
前記の課題を解決するために、本発明は、車両の周囲を映すカメラを用いて、前記カメラによって撮影された画像からオプティカルフローを求め、当該車両の動きを基にして、背景と仮定した場合の前記画像のオプティカルフローである背景フローを求め、前記オプティカルフローと前記背景フローとを比較し、当該車両の周囲にある物体の動きを検出するものである。
【0031】
この発明によると、背景フローはカメラ画像を背景と仮定した場合のオプティカルフローであるので、この背景フローとカメラ画像から実際に求められたオプティカルフローとを比較することによって、車両周囲にある物体の動きを、精度良く検出することができる。また、たとえ車両がカーブ走行中であっても、画像上のそれぞれの点における背景フローとオプティカルフローとの比較によって検出を行うため、接近物を正確に検出することができる。また、画像から求めたオプティカルフローの大きさが小さくなってしまうような並走車や遠方の接近物についても、そのオプティカルフローは、画像上のその点における背景フローとは大きく異なるため、容易に検出可能である。
【0032】
【発明の実施の形態】
本発明の第1態様によれば、車両の周囲を映すカメラを用いた監視装置として、前記カメラによって撮影された画像からオプティカルフローを求め、当該車両の動きを基にして、背景と仮定した場合の前記画像のオプティカルフローである背景フローを求め、前記オプティカルフローと前記背景フローとを比較し、当該車両の周囲にある物体の動きを検出するものを提供する。
【0033】
本発明の第2態様によれば、前記背景フローを、前記カメラが撮影している空間をモデル化した空間モデルを用いて求める第1態様の監視装置を提供する。
【0034】
本発明の第3態様によれば、前記空間モデルは、前記カメラが撮影している各物体の距離データに基づいて生成された第2態様の監視装置を提供する。
【0035】
本発明の第4態様によれば、前記距離データは、当該車両に設けられた障害物センサによって測定された第3態様の監視装置を提供する。
【0036】
本発明の第5態様によれば、前記空間モデルは、少なくとも、走行路面をモデル化した路面モデルを含む第2態様の監視装置を提供する。
【0037】
本発明の第6態様によれば、前記空間モデルは、少なくとも、走行路面に対して垂直な壁面を仮定した壁面モデルを含む第2態様の監視装置を提供する。
【0038】
本発明の第7態様によれば、前記壁面は、車両の後側方にあると仮定された第6態様の監視装置を提供する。
【0039】
本発明の第8態様によれば、オプティカルフローと背景フローとの比較の際に、前記オプティカルフローの大きさが所定値よりも大きいか否かを判定し、所定値よりも大きいときは、角度差を用いて比較を行う一方、そうでないときは、角度差を用いないで比較を行う第1態様の監視装置を提供する。
【0040】
本発明の第9態様によれば、前記所定値は、画像上の当該位置における背景フローの大きさに応じて設定されている第8態様の監視装置を提供する。
【0041】
本発明の第10態様によれば、オプティカルフローと背景フローとの比較によって、前記オプティカルフローの中から接近物候補フローを特定し、近傍にある前記接近物候補フローを関連付けることによって接近物候補領域を生成し、前記接近物候補領域の面積が所定値よりも小さいとき、この接近物候補領域に係る接近物候補フローはノイズであると判断する第1態様の監視装置を提供する。
【0042】
本発明の第11態様によれば、車両の周囲を映すカメラを用いた監視装置として、前記カメラによって撮影された画像からオプティカルフローを求め、前記オプティカルフローと、当該車両の動きと、前記カメラが撮影している空間をモデル化した空間モデルとを基にして、前記画像上の点の実世界座標上における動きである空間フローを求め、前記空間フローを基にして当該車両の周囲にある物体の動きを検出するものを提供する。
【0043】
本発明の第12態様によれば、監視方法として、車両の周囲を映すカメラによって撮影された画像から、オプティカルフローを求め、前記車両の動きを基にして、背景と仮定した場合の前記画像のオプティカルフローである背景フローを求め、前記オプティカルフローと前記背景フローとを比較し、前記車両の周囲にある物体の動きを検出するものを提供する。
【0044】
本発明の第13態様によれば、前記車両に設けられた車速センサおよび舵角センサの出力を用いて、前記車両の動きを推定する第12態様の監視方法を提供する。
【0045】
本発明の第14態様によれば、監視用プログラムとして、コンピュータに、車両の周囲を映すカメラによって撮影された画像について、オプティカルフローを得る手順と、前記車両の動きを基にして、背景と仮定した場合の前記画像のオプティカルフローである背景フローを求める手順と、前記オプティカルフローと前記背景フローとを比較し、当該車両の周囲にある物体の動きを検出する手順とを実行させるものを提供する。
【0046】
以下、本発明の実施の形態について、図面を参照して説明する。
【0047】
(第1の実施形態)
本発明の第1の実施形態では、次のようにして、車両周囲の監視を行う。まず、車両の周囲を映すカメラからの画像を用いて、オプティカルフローを求める。次に、カメラ画像上の点と実世界3次元座標との対応を「空間モデル」として推定する。図37に示すように、この空間モデルに透視投影変換を用いることによって、カメラ画像上の点と実世界3次元座標とを正確に対応付けることができる。そしてこの空間モデルと、推定された自車動き情報とを用いて、画像上の各点が移動物体ではなく背景であった場合を仮定したオプティカルフローを計算によって求める。このようにして求めたオプティカルフローを「背景フロー」と呼ぶ。この背景フローと、画像から実際に求めたオプティカルフローとを比較することによって、接近物を検出する。
【0048】
すなわち、背景フローは、カメラ画像上の点と実世界3次元座標との対応を正確に考慮して計算されたものであるので、本実施形態によると、従来例と比べて、車両周囲にある物体の動きを精度良く検出することができる。また、カーブ走行中であっても、画像上のそれぞれの点における背景フローとオプティカルフローとの比較によって検出を行うため、接近物を正確に検出することができる。また、画像から求めたオプティカルフローの大きさが小さくなってしまうような並走車や遠方の接近物についても、そのオプティカルフローは、その点における背景フローとは大きく異なるため、本実施形態では容易に検出可能になる。
【0049】
図1は本実施形態に係る車両用監視装置の基本構成を概念的に示すブロック図である。本実施形態に係る車両用監視装置は、車両の周囲を映すカメラ11を用いて、当該車両の周囲にある物体の動きを検出する。具体的には図1に示すように、基本構成として、カメラ11によって撮像された画像からオプティカルフローViを算出するオプティカルフロー検出部12と、当該車両の動きを検出する自車動き検出部13と、カメラ11が撮影している空間のモデルを推定する空間モデル推定部14と、自車動きと空間モデルとに基づいて背景フローVdiを推定する背景フロー推定部15と、オプティカルフローViと背景フローVdiとを比較することによって、接近物を検出する接近物検出部16とを備えている。
【0050】
カメラ11は、典型的には自車両に設置されており、当該車両の周囲の状況をセンシングする。また、道路上や信号機、建物などのインフラに取り付けられたカメラや周辺車両に取り付けられたカメラを、自車に設置されたカメラと併せて、または単独で、用いてもよい。これは、見通しの悪い交差点など、自車からは接近車が見えにくい状況などにおいて、有効である。
【0051】
<オプティカルフロー検出>
オプティカルフロー検出部12は、カメラ11によって撮影された時間的に異なる2枚の画像から、画像上における見かけの動きを示すベクトル、すなわち「オプティカルフロー」を検出する。オプティカルフローの検出には、画像の時空間微分の拘束方程式を用いる勾配法と、テンプレートマッチングを利用するブロックマッチング法とが広く知られている(「ダイナミックシーンの理解」浅田稔著、電子情報通信学会)。ここではブロックマッチング法を用いるものとする。
【0052】
ブロックマッチング法は、一般的には全探索を行うので、膨大な処理時間を必要とする。このため、画像の階層化という手法が、処理時間の削減のために広く用いられている(「3次元ビジョン」除剛、辻三郎共著、共立出版)。すなわち、与えられた画像から、縦横それぞれ1/2,1/4,1/8,…に圧縮した階層化画像をつくる。この画像の階層化によって、分解能が高い(サイズが大きい)画像では遠く離れた2点も、分解能が低い(サイズが小さい)画像では近くなる。そこでまず、分解能が低い画像についてテンプレートマッチングを行い、その結果求まったオプティカルフローの近傍のみで、次に分解能が高い画像についてテンプレートマッチングを行う。このような処理を繰り返すことによって、最終的に、分解能が高い原画像でのオプティカルフローを求めることができる。しかも、局所的な探索ですむので、処理時間を大幅に削減することができる。
【0053】
<自車動き推定>
自車動き推定部13は、自車の左右両車輪の回転速度とハンドルの舵角とを求め、これによって、自車の動きを推定する。この推定方法を図2および図3を用いて説明する。なお、ここでは、タイヤの横滑りが生じないと近似したいわゆるアッカーマンモデル(2輪モデル)を用いた。
【0054】
図2はアッカーマンステアリングのモデルを示す図である。タイヤの横滑りがないと仮定した場合、ステアリングを切ると、車両は後輪3b軸の延長線上の点Oを中心に旋回する。後輪3b中央の回転半径Rsは、前輪3aの切れ角βおよびホイールベースlを用いて(数3)のように表される。
【数3】
【0055】
図3は2次元上の車両の動きについて示したものである。図3に示すように、後輪3bの中央がCt からCt+1 に動いたとすると、その移動量hは、左右の車輪速Vl,Vr、または、後輪3b中央の回転半径Rsおよび移動回転角γを用いて(数4)のように表される。
【数4】
(数3)および(数4)より、移動回転角γは(数5)のように表される。
【数5】
したがって、車両の平面に対する回転量αは(数6)で表される。
【数6】
【0056】
またCt からCt+1 への移動ベクトルTは、車両進行方向にX軸、垂直方向にY軸をとると、(数7)で表される。
【数7】
(数6)および(数7)より、車両の左右車輪速Vl,Vrおよびハンドル舵角βが分かれば、車両の動きが推定できる。
【0057】
もちろん、車輪速とハンドルの舵角情報だけでなく、車速センサ、ヨーレートセンサを用いて直接、車両の動きを求めてもよい。さらには、GPSや地図情報を用いて車両の動きを求めてもよい。
【0058】
<空間モデル推定>
空間モデル推定部14は、カメラが撮影している空間をモデル化した空間モデルを推定する。空間モデルは上述したように、カメラ画像上の点と実世界3次元座標との対応関係を求めるために用いられる。すなわち、カメラ画像上の任意の点は、(数1)および(数2)を用いることによって、カメラの焦点位置を通る実世界空間上のある直線に対応付けることができる。この実世界空間上の直線と、推定した空間モデルとの交点を求めることによって、カメラ画像上の任意の点を実世界の3次元座標に射影することができる。
【0059】
ここでは、カメラ11が撮影している各物体の距離データに基づいて、空間モデルを生成するものとする。この距離データの測定は、例えば、両眼視、モーションステレオ法を利用したり、レーザ、超音波、赤外線、ミリ波などを用いた障害物センサが車両に設けられている場合には、これを利用したりすることによって実行できる。
【0060】
また、建物等のインフラに固定されたカメラを用いる場合には、カメラに映る建物等の形状はきわめてまれにしか変化しないので、カメラが撮影している空間の3次元情報は既知である。この場合は、空間モデルを推定する必要はなく、カメラごとに既知の空間モデルを予め定めておけばよい。
【0061】
さらに、カメラが車両に設置されている場合であっても、GPS等を用いてその位置を正確に知ることができるので、現在位置を詳細な地図データと照合することによって、空間モデルを推定することも可能である。例えば、車両がトンネルを走行中であることがGPSと地図データから分かったとすると、そのトンネルの高さや長さ等の形状情報から空間モデルを生成できる。このような形状情報は、地図データに予め持たせておいてもよいし、トンネルなどのインフラ側に保持させておき、通信によって得られるようにしてもよい。例えば、トンネルの形状情報を、トンネル入口等に設けたDSRC等の通信手段によって、トンネルに入ろうとする車両に送信する。もちろん、このような方法はトンネルに限ったものではなく、一般道、高速道路、住宅地または駐車場等において用いることも可能である。
【0062】
<背景フロー推定>
背景フロー推定部15は、空間モデルに対応する点が動いていない、すなわち、移動物体でなく背景であると仮定した場合の画像の動き(オプティカルフロー)を、背景フローとして検出する。
【0063】
図4は背景フロー推定部15の動作を示すフローチャートであり、図5は車両1がカーブなどで旋回している状況を想定した概念図である。図5ではカメラ2が車両1に設置されているので、カメラ2の動きと車両1の動きとは等しい。また、5はカメラ2に映された背景物体である。
【0064】
まず、時刻t−1において撮影されたカメラ画像上の任意の点(PreXi,PreYi )を、空間モデル推定部14によって推定された空間モデルを用いて、実世界3次元座標(Xw,Yw,Zw)に射影する(S11)。このとき、(数1)に示す透視投影変換式と(数2)に示す座標変換式とを用いる。なお、(数2)における実世界座標系でのカメラの焦点位置は、時刻t−1におけるカメラ2の焦点位置である。
【0065】
次に、自車動き推定部13によって推定された時刻t−1から時刻tまでの車両1の移動量hを基にして、時刻tにおける実世界での自車位置、すなわち実世界座標系におけるカメラ2の焦点位置を求める(ステップS12)。そして、この実世界座標系におけるカメラ2の焦点位置に基づき、(数2)の各定数rを変更する(ステップS13)。この処理を繰り返すことによって、(数2)における実世界座標系におけるカメラの焦点位置は、更新され続け、常に正確な位置を示すことになる。
【0066】
さらに、(数1)と更新した(数2)とを用いて、ステップS11で求めた実世界座標(Xw,Yw,Zw)をカメラ画像上の点(NextXi,NextYi)に再射影する(ステップS14)。このようにして求めたカメラ座標(NextXi,NextYi)は、時刻t−1でのカメラ画像上の点(PreXi,PreYi )が、時刻t−1から時刻tまでの間に動いていない背景物体5の一点であると仮定した場合の、時刻tでのカメラ画像上の位置を示している。そこで、時刻t−1におけるカメラ画像上での点(PreXi,PreYi )が背景の一部であると仮定した場合の背景フローとして、(NextXi−PreXi,NextYi−PreYi )を求める(ステップS15)。
【0067】
なお、ここでは説明を簡単にするために、車両がカーブする場合を例にとって説明したが、直進時や駐車時などであっても、同様の方法によって、背景フローを求めることができる。
【0068】
<接近物検出>
図6は接近物検出部16の構成を概念的に示すブロック図である。図6において、フロー比較部16aはオプティカルフロー検出部12によってカメラ画像から実際に求められたオプティカルフローViと、背景フロー検出部15によって求められた背景フローVdiとを比較し、接近物候補フローを検出する。そしてノイズ除去部16bはフロー比較部16aによって求められた接近物候補フローからノイズを除去し、接近物のフローのみを検出する。
【0069】
図7はフロー比較部16aの動作を示すフローチャートである。ここで、オプティカルフローViと背景フローVdiとの比較は、原則として、その角度差を用いて行う。ところが、オプティカルフローViの大きさが小さいときは、その方向情報の信頼性が低いため、判別精度が保てなくなる。例えば、自車とほぼ等速度で並走している他車両に係るオプティカルフローViは、大きさは非常に小さく、かつ、その方向は撮影タイミングに応じて自車を向いたり反対方向を向いたりして、刻々と変化する。そこで本実施形態では、オプティカルフローViの大きさが所定値よりも小さいときは、角度差を用いないで、別の比較基準(S43)を用いることによって、判別の信頼性を上げている。
【0070】
具体的にはまず、オプティカルフローViの大きさを調べる(S41)。オプティカルフローViが十分な大きさを有するとき(所定値THViよりも大きい場合)、オプティカルフローViは方向情報について十分な信頼性を持っていると考えられるので、背景フローVdiとの比較を角度差を用いて行う(S42)。すなわち、オプティカルフローViと背景フローVdiとの角度差の絶対値が所定値ThArg以上のとき、そのオプティカルフローViは背景フローVdiとは異なるものと考えられるので、接近物のフローと判別する(S44)。また角度差の絶対値が十分に小さいとき(S42でNo)、そのオプティカルフローViは背景フローVdiに近いので、接近物のフローではないと判別する(S45)。なお、閾値THViは0.1[Pixel]程度、閾値THArgはπ/2程度であるのが好ましい。ここで、ステップS41でYESと判断されたときに、角度情報のみを用い、大きさ情報を用いないのは、自車から離れていく移動物体を接近物と判別しないようにするためである。もちろん、フローのベクトル差の絶対値を判別基準として用いてもかまわない。
【0071】
また、オプティカルフローViが十分な大きさを有しないとき(S41でNo)、背景フローとの比較を角度差を用いて行うことはできない。そこで、この場合はフローの大きさに着目する。すなわち、オプティカルフローViと背景フローVdiとのベクトル差の絶対値が所定値THVdi以上であるか否かを判定し(S43)、所定値THVdi以上のときは接近物のフローと判別し(S44)、そうでないときは接近物のフローではないと判別する(S45)。オプティカルフローViの大きさが小さく、かつ、それが接近物である状況としては、
1. 接近物が自車とほぼ等速度で並走している
2. 接近車が遠方を走っている
の2つが考えられるが、いずれの状況においても背景フローVdiは正確に求められるので、高精度の接近物判別ができる。なお、閾値THVdiは0.1[Pixel]程度であるのが好ましい。
【0072】
また、ステップS43において、オプティカルフローViの大きさが十分小さいことに着目して、オプティカルフローViと背景フローVdiとのベクトル差の絶対値ではなく、背景フローVdiの大きさのみを所定値と比較するようにしてもよい。この場合、背景フローVdiが十分大きいときは、接近物フローであると判別し、十分小さければ接近物のフローではないと判別すればよい。
【0073】
また、ここでのフロー比較で用いた閾値THVi,THArg,THVdiは、画像上の位置の関数として設定してもよい。例えば、背景フローVdiが小さい位置では閾値THVi,THVdiを小さくし、背景フローVdiが大きい位置では閾値THVi,THVdiを大きくする。これにより、ノイズの影響を抑えつつ、かつ、遠方においても正確な判別を行うことができる。
【0074】
図8はノイズ除去部16bの動作を示すフローチャートである。フロー比較部16aによって接近物フローと検出されたものの中にはノイズが含まれているので、これらをすべて接近物であると検出してしまうと、検出精度の劣化をまねいてしまう。そこで、ノイズ除去部16bは、ノイズや接近物のモデル化を行い、そのモデルをフロー比較部16aによって検出された接近物フロー(接近物候補フロー)と比較することによって、接近物のみを検出する。
【0075】
まず、接近物候補フローがノイズである場合、時間的にも空間的にも、連続しては検出されないはずである。ところが、接近物候補フローがノイズでなく実際の接近物に係るものである場合は、接近物はある程度の大きさを有するため、類似の接近物候補フローが、空間的に、接近物の大きさ分の領域を占めるはずである。
【0076】
そこで、近傍にある接近物候補フローを関連付け、関連付けた接近物候補フローに係る領域同士を連結し、連結された領域を接近物候補領域Aiとする(S51)。そしてその接近物候補領域Aiの面積Siを求め(S52)、この面積Siを所定値THSiと比較する(S53)。ここで、接近物候補領域Aiがカメラから離れているときは所定値THSiを小さく設定する一方、接近物候補領域Aiがカメラに近いときは所定値THSiを大きく設定する。面積Siが所定値THSiよりも小さいとき(S53でNo)は、領域Aiはノイズであると判断する(S54)。一方、面積Siが所定値THSi以上のときはステップS55に進む。
【0077】
ステップS55では、接近物のモデル化によるノイズ除去処理を行う。カメラが車両に設置されていることを考慮すると、接近物は自動車やバイク、自転車等であるが、いずれの接近物も路面上を走行している物体である。そこで、接近物候補領域Aiが空間モデルの路面上に存在するか否かを判定し(S55)、存在していないときは領域Aiはノイズであると判断し(S54)、次のフレームの処理を行う。一方、接近物候補領域Aiの少なくとも一部が路面上に存在しているときは、ステップS56に進む。
【0078】
ステップS56では、時間方向のフィルタリング処理を行う。接近物は、画面上に急に現れたり、あるいは急に消えたりすることはありえないので、その領域は数フレーム連続して存在するはずである。図9は直進走行時に他の車両が後方から接近してくる状況を示している。現時刻tでは、図9(a)の左図のように接近車6が撮影されるので、接近物候補領域Atは図9(a)の右図のように検出される。また、現時刻tよりも少し前の時刻t−1,t−2,…,t−Nでは、接近物候補領域At−1,At−2,…,At−Nはそれぞれ図9(b),(c),(d)のように検出される。ここで、時間間隔が十分小さいものとすると、接近車6は画像上で大きく動かないので、領域At−1,At−2,…,At−Nは領域Atとその一部が重なる。これに対して、接近物候補領域がカメラの振動等に起因して生じたものであるとき、その候補領域は短時間しか検出されないはずである。
【0079】
そこで、接近物領域候補Aiに対応するその前数フレームの領域において、接近物領域候補が存在する割合を所定値と比較する(S56)。そして、その割合が所定値よりも低いとき、その接近物候補領域Aiは接近物である可能性は低いので、この接近物候補領域Aiを保持して(S57)、次のフレームの処理を行う。一方、その前数フレームにおいて接近物領域候補が存在する割合が所定値よりも高いとき、その接近物候補領域Aiは接近物によるものと判断し、次のフレームの処理を行う(S58)。例えば、前10フレーム中で6回以上検出されたとき、接近物であると判断する。
【0080】
また、カメラを車両の前方や後方に向けて設置し、かつ、接近物は乗用車のみであると仮定すると、カメラに映る接近物の画像は乗用車を前方か後方から見た画像のみになる。このため、接近物領域の大きさは、幅約2m、路面からの高さ約1.5mと限定できる。そこで、接近物候補領域をこの大きさに設定し、領域内に存在する接近物フローの個数が最大になるように、接近物候補領域の位置を設定してもよい。この場合、接近物候補領域に含まれる接近物フローの個数が所定値よりも大きいか否かによって、接近物とノイズとの判別を行うことができる。このような処理を、ステップS51〜S53の代わりに実行してもよい。
【0081】
以上のように本実施形態によると、背景フローとカメラ画像から実際に求められたオプティカルフローとを比較することによって、車両周囲にある物体の動きを、精度良く検出することができる。
【0082】
また、たとえ車両がカーブ走行中であっても、画像上のそれぞれの点における背景フローとオプティカルフローとの比較によって検出を行うため、接近物を正確に検出することができる。また、画像から求めたオプティカルフローの大きさが小さくなってしまうような並走車や遠方の接近物についても、そのオプティカルフローは、画像上のその点における背景フローとは大きく異なるため、容易に検出可能である。
【0083】
<背景フロー推定の他の例>
(その1)
図5のように、カメラ2が回転半径Rs、回転角γで動き、カメラ2に映っている物体5は全く動かなかったとすると、このときに求まるオプティカルフローは、図10のように、カメラ2は動いていないが、カメラ2に映る全ての物体5が回転角γで動いた場合に求まるオプティカルフローと等しくなる。すなわち、カメラが実世界座標系においてベクトルVだけ移動する場合に求められるオプティカルフローと、カメラに映る全ての物体がベクトル(−V)だけ移動する場合に求められるオプティカルフローとは、等しい。
【0084】
そこで、カメラの動きに基づいて背景フローを求めるのではなく、カメラは固定されており動かないと仮定し、空間モデルを動かすことによって背景フローを求めてもよい。図11はこのような場合の背景フロー推定の処理を示すフローチャートである。
【0085】
まず、図4のステップS11と同様に、時刻t−1において撮影されたカメラ画像上の任意の点(PreXi,PreYi )を、空間モデル推定部14によって推定された空間モデルを用いて、実世界3次元座標(PreXw,PreYw,PreZw )に射影する(S21)。このとき、(数1)に示す透視投影変換式と(数2)に示す座標変換式とを用いる。
【0086】
次に、自車動き推定部13によって推定された時刻t−1から時刻tまでの車両1の移動量hを基にして、ステップS21で求めた実世界座標(PreXw,PreYw,PreZw )を車両1に対して相対的に移動させる。すなわち、実世界座標(PreXw,PreYw,PreZw )を、移動量hに係る回転中心座標Oおよび回転角γを用いて回転させ、実世界座標(NextXw,NextYw,NextZw)を求める(S22)。さらに、(数1),(数2)を用いて、ステップS22で求めた実世界座標(NextXw,NextYw,NextZw)をカメラ画像上の点(NextXi,NextYi )に再射影する(S23)。そして、図4のステップS15と同様に、(NextXi−PreXi, NextYi−PreYi)を背景フローとして求める(S24)。
【0087】
なお、ステップS22で求められた(NextXw,NextYw,NextZw)は、時刻t−1の空間モデルから予測された時刻tにおける空間モデルともいえるので、このような処理を続けることによって空間モデルを更新してもよい。または、接近物検出部16によって背景と判定された部分のみ、このような空間モデルの更新処理を行い、それ以外の領域については上述の方法によって空間モデルを求め直すようにしてもよい。
【0088】
(その2)
上述の2つの方法はいずれも、カメラ画像上の点を実世界3次元座標に変換し、実世界座標系で仮定した空間モデルを用いて処理を行った。これに対して、カメラ座標系で全ての処理を行うことも可能である。図12はこのような場合の背景フロー推定の処理を示すフローチャートである。この場合には、空間モデルはカメラ座標系で記述する必要がある。カメラ座標系と実世界座標系とは1対1に対応するので、実世界座標系で仮定した空間モデルは、(数2)に従って、カメラ座標系に容易に変換することができる。
【0089】
まず、時刻t−1において撮影されたカメラ画像上の任意の点(PreXi,PreYi)を、カメラ座標系で記述された空間モデルを用いて、カメラ座標系での3次元位置(PreXc,PreYc,PreZc )に射影する(S31)。このとき、(数1)に示す透視投影変換式を用いる。
【0090】
次に、自車動き推定部13によって推定された時刻t−1から時刻tまでの車両1の移動量hを基にして、ステップS31で求めたカメラ座標(PreXc,PreYc,PreZc )を車両1に対して相対的に移動させる。すなわち、カメラ座標(PreXc,PreYc,PreZc )を、移動量hに係るカメラ画像系での回転中心座標C、回転角γc を用いて回転させ、カメラ座標(NextXc,NextYc,NextZc)を求める(S32)。さらに、(数1)を用いて、ステップS32で求めたカメラ座標(NextXc,NextYc,NextZc)をカメラ画像上の点(NextXi,NextYi )に再射影する(S33)。そして、図4のステップS15と同様に、(NextXi−PreXi,NextYi−PreYi )を背景フローとして求める(S34)。
【0091】
このように、空間モデルは、カメラ画像から実世界3次元座標系への変換、または、カメラ画像からカメラ座標系への変換のために、利用される。そこで、空間モデルを、カメラ画像から実世界3次元座標系への変換式、または、カメラ画像からカメラ座標系への変換式として記述することも可能である。
【0092】
図13は本発明に係る背景フローが矢印で示されたカメラ画像の例である。すでに説明したように、背景フローは、実際にカメラ画像から求められたオプティカルフローと比較を行うために用いられ、接近物の検出基準となる。図13を見ると分かるように、背景フローは、走行路面のカーブを考慮したものになっている。すなわち、本発明は、従来と比べて、カーブにおいても接近物を精度良く検出可能であることが、図13から直感的に理解できる。
【0093】
本発明によると、自車両に接近してくる物体のみを正確に検出することが可能である。そして、この検出結果を用いて、例えば、接近車のみを強調した画像を表示したり、接近車の存在を音や画像、ハンドルや椅子の振動、LEDのような危険告知ランプの点灯などによって警告したり、することができる。さらに、危険な状況のときに、ステアリングやブレーキを自動で制御して、接近車との接触や衝突を回避するようにしてもかまわない。
【0094】
ここでは、背景フローを利用した強調表示について説明する。
【0095】
図38はカーブ走行中の後方画像に、接近車に対応するオプティカルフローのみを重畳表示した例である。図38では、自車両からほぼ等距離だけ離れた車両A,Bがほぼ等速度で接近している。図38に示すように、カーブ外側の車Aについては、重畳表示されたオプティカルフロー(矢印)によって、利用者はその接近を認識できる。ところが、カーブ内側の車Bについては、オプティカルフローはほぼ0であり、利用者はその接近を認識できない。このように、カーブ走行中では、単にオプティカルフローを重畳表示しただけでは、接近物の存在が認識できない場合がある。
【0096】
この原因は、自車両のカーブ走行によって生じる背景フローと、接近車の動きによるフローとが互いに打ち消し合うことにある。図39は図38の画像の背景フローである。図39において、矢印A2,B2はそれぞれ車A,Bの位置に対応する背景フローである。図39から分かるように、車Bの位置での背景フローB2が車Bの動きと逆向きになっている。
【0097】
そこで、接近車の動きのみを際立たせるために、求めたオプティカルフローから背景フローをベクトル的に減算し、得られたフローをカメラ画像に重畳表示する。図40はその表示例である。図38と異なり、接近車A,Bともにフローが表示されており、したがって、利用者は接近車の存在を確実に認識することができる。
【0098】
もちろん、上述のように接近物フローを連結して接近物領域を求め、後述の図26(b)のように接近物領域に枠を描いて強調表示してもかまわない。さらに、接近物フローや接近物領域が大きいほど、接近車がより接近しており危険度が高い、と考えられるので、接近物フローや接近物領域の大きさに応じて、枠の色や太さ、線種等を切り替えてもよい。
【0099】
また、画像の代わりに、または画像とともに、音で警告してもかまわない。この場合、接近物が存在する位置の方から音が聞こえるようにすると効果的である。また、危険度に応じて、音の大きさやメロディ、テンポ、周波数などを変えてもよい。例えば、車が右後方からゆっくりと接近しているときは、運転者の右後方から小さな音を発し、車が左後方から急速に近づいているときは、左後方から大きな音を発するようにすればよい。
【0100】
また上述の実施形態では、自車の動きを車輪の回転速度とハンドルの舵角から推定した。これに対して、車両に設置されたカメラの画像を用いて、車両(カメラ自身)の動きを検出することも可能である。この手法について説明する。
【0101】
ここでは、静止平面である路面の式は既知であり、かつ車両の動きは微小であると仮定し、路面上の点の画像上での動きから、車両(カメラ)の動きパラメタを推定する。仮に車両が高速で移動していたとしても、撮像時のフレームレートを上げることによって、カメラの動きは画像間で微小となるので、この仮定は一般性を失わせるものではない。
【0102】
図41は本手法を説明するための模式図である。図41に示すように、カメラ2の動きによって、静止平面上の点Pのカメラ座標系における座標値が、PE=(x,y,z)からPE’=(x’,y’,z’)に変化したとする。カメラ2の動きは、回転R(wx,wy,wz)と平行移動T(Tx,Ty,Tz)によって表される。すなわち、カメラ2の動きは、次のように表される。
【数12】
【0103】
ここで、静止平面がz=ax+by+cと表されるものとすると、画像座標上での点Pの移動(u,v)→(u’,v’)について、次の式が成り立つ。
【数13】
【0104】
ここで、画像座標上の対応点(u,v)(u’,v’)と静止平面の式の係数a,b,cが既知であるとし、上の式を未知パラメタ(wx,wy,wz,tx,ty,tz)についてまとめると、次のようになる。
【数14】
【数15】
【0105】
これをAC=Rとおくと、車両の動きである回転と平行移動の項を,最小二乗法を用いて求めることができる。
C=(AtA)−1AtR
【0106】
(第2の実施形態)
図14は本発明の第2の実施形態に係る車両用監視装置の基本構成を概念的に示すブロック図である。図14において、図1と共通の構成要素には図1と同一の符号を付しており、ここではその詳細な説明を省略する。第1の実施形態と異なるのは、空間モデル推定部14Aが、自車動き推定部13によって推定された自車動き情報を用いて、比較的単純な空間モデルを推定する点である。
【0107】
一般に、車両が走行する状況では、路面上に、建物や電柱、看板、木など様々なものが存在している。このため、カメラ11には、路面、建物、電柱、看板、木、さらには空など様々なものが映される。ここでは、カメラ11に映される様々なものを単純な空間モデルによって仮定する方法を考える。
【0108】
カメラに映るものは様々であるが、カメラを車両の後方下向きに設置した場合、ほぼ間違いなく映るものがある。それは「車両が走行してきた路面」である。そこで、まず空間モデルとして、車両が走行してきた路面をモデル化した「路面モデル」を用いる。路面モデルは走行路面を無限に延長したものであるため、勾配が急激に変化しない限り、正確な路面モデルを推定することができる。また、坂道やアップダウンの激しい道のように路面の勾配が変化している場合でも、ジャイロのようなセンサを用いることによって、路面の勾配の影響を考慮した路面モデルを生成することが可能である。
【0109】
ところが、路面モデルは、カメラ画像上の全領域において用いることは必ずしもできない。なぜなら、カメラは通常ほぼ水平に近い状態で設置されると考えられるので、この場合、カメラ画像内の地平線よりも高い領域には、路面が映らないからである。もちろん、カメラ画像の全領域に路面が映るようにカメラを配置することも可能であるが、この場合、カメラで監視できる範囲が狭くなってしまうため、実用的ではない。
【0110】
そこで本実施形態では、路面モデルのほかに、走行路面に対して垂直な壁面を空間モデルとして仮定する。この空間モデルを「壁面モデル」と呼ぶ。
【0111】
図15は壁面モデルの一例を示す図である。図15において、1は車両、2は車両1に設置されたカメラ、カメラ2から延びた2本の直線によって囲まれた領域VAはカメラ2の撮影領域である。図15に示すように、車両1から距離Lだけ離れた後方に、走行路面に対して垂直な壁面を仮定した壁面モデルMWが、最も簡単なものである。この壁面モデルMWは、カメラ2の視野範囲VAのうち、路面モデルMSでカバーできない全ての領域をカバーするほど十分に大きいものと仮定する。カメラ2の視野範囲VAのうち、カメラ2と壁面モデルMWとの間に存在する領域が路面モデルMSの領域となる。このため、車両1が直進している場合、カメラ2によって撮影されたカメラ画像は、図示したように、上部は壁面モデルMW、下部は路面モデルMSによって占められる。
【0112】
図15のような壁面モデルを用いる場合、壁面モデルMWまでの距離Lをどのように決定するかが問題となる。図16は右カーブにおける背景フローの例を示す図であり、各矢印は求められた背景フローを示し、白線は路面上の白線を示している。また、MWAは壁面モデルMWによって背景フローを求めた領域、MSAは路面モデルMSによって背景フローを求めた領域である。同図中、(a)はLが十分に長いとき、(b)はLが十分に短いときを示しており、(a)と(b)の比較によって、距離Lの大小に応じた背景フローの変化が分かる。
【0113】
すなわち、図16(a),(b)を比較すると、まず壁面モデル領域MWAにおける背景フローの大きさが大きく異なっていることが分かる。ところが、上述したように、接近物検出処理において「路面に接近物の一部が接している」という条件を加えているので、路面モデル領域MSAにおける背景フローが正確に求まっていれば、壁面モデル領域MSAにおける背景フローは必ずしも正確に求まっている必要はない。
【0114】
また、路面モデルと壁面モデルの境界付近の領域BAにおける背景フローが、図16(a),(b)で相当異なっていることが分かる。この境界領域BAは、路面判定の際にも重要になる領域であり、したがって、壁面モデルMWまでの距離Lの設定如何によっては、検出精度の劣化を招いてしまう可能性がある。
【0115】
そこで、別の壁面モデルとして、図17のように車両1の両脇に壁(MW1,MW2)があるような空間モデルを想定する。これは、高さが無限のトンネルを走行している状況といえる。カメラ2の視野範囲VA内において左右の壁面モデルMW1,MW2間に存在する領域が、路面モデルMSの領域となる。このため、車両1が直進している場合、カメラ2によって撮影されたカメラ画像は、図示したとおり、上部は左右の壁面モデルMW1,MW2、下部は路面モデルMSによって占められる。なお図17では、説明を簡単にするために、車両1が直進しているものとしたが、車両がカーブを走行しているときは、壁面モデルもそのカーブの曲率に合わせて曲げればよい。
【0116】
図17に示すような空間モデルを、カメラ画像から実世界3次元座標系への変換式として記述した場合について、詳述する。
【0117】
まず、路面モデルについて説明する。走行路面を勾配のない平らな路面であると仮定すると、路面モデルは実世界3次元座標系のXw−Yw平面となる。そこで、この平面の関係式
Zw=0
を(数1),(数2)へ代入すると、カメラ画像上の点P(Xi,Yi)は、次式によって、実世界3次元座標Pw(Xw,Yw,Zw)に変換することができる。
【数8】
(数8)が路面モデルにおける画像座標系から実世界3次元座標系への変換式となる。
【0118】
次に、壁面モデルについて説明する。車両1は、時刻t−1から時刻tまでの間に回転半径Rで旋回走行していたとする。実世界3次元座標系の原点を時刻tにおける車両1の後輪中央位置と定め、回転中心を(R,0,0 )とする。ただし、回転半径Rの符号は正負両方をとり、車両1が反時計周りのときは正、時計周りのときは負であるものとする。
【0119】
このとき、壁面モデルは、実世界3次元座標系において、Xw−Zw平面における断面の中心が点 (R,0,0 )であり、Xw−Zw平面に垂直な半径(R±W/2)の円筒の一部であるので、次式によって表される。
【0120】
(Xw−R)2+Zw2=(R±W/2)2
この式と(数1),(数2)を用いることによって、カメラ画像上の点P(Xi, Yi)は、次式によって、実世界3次元座標Pw(Xw,Yw,Zw)に変換することができる。
【数9】
さらに、
1)カメラ画像に映っている物体はカメラ2の後ろには存在しない(Ze>0)2)空間モデルは路面よりも高い位置にある(Yw≧0)
という条件を加えることによって、Pw(Xw,Yw,Zw)を一意に決定することができる。(数9)が画像座標系から実世界3次元座標系への変換式として表現された壁面モデルである。
【0121】
さて、図17のような壁面モデルを用いる場合、車両の左右に仮定した壁面MW1,MW2間の距離Wをどのように決定するかが問題となる。図18は右カーブにおける背景フローの例を示す図であり、各矢印は求められた背景フローを示し、白線は路面上の白線を示している。また、MW1Aはカメラ2から見て左側の壁面モデルMW1によって背景フローを求めた領域、MW2Aはカメラ2から見て右側の壁面モデルMW2によって背景フローを求めた領域、MSAは路面モデルMSによって背景フローを求めた領域である。同図中、(a)はWが十分に小さいとき、(b)はWが十分に大きいときを示しており、(a)と(b)の比較によって、距離Wの大小に応じた背景フローの変化が分かる。
【0122】
すなわち、図18(a),(b)を比較すると、左右の壁面モデルの境界付近の領域BA1における背景フローが大きく異なっていることが分かる。ところが、上述したように、接近物検出処理において「路面に接近物の一部が接している」という条件を加えているので、路面モデル領域MSAにおける背景フローが正確に求まっていれば、壁面モデル領域MW1A,MW1Bにおける背景フローに誤差が生じていたとしても、接近物検出には大きな問題とならない。
【0123】
すなわち、図17に示すような壁面モデルでは、図15に示すようなカメラ後方に壁面を仮定した場合と異なり、壁面モデルと路面モデルの境界領域においては、壁面の間隔Wの大小によって、背景フローにさほど大きな差は生じないので、接近物を精度良く検出することができる。例えば、壁面の間隔Wは10m程度にしておけばよい。
【0124】
もちろん、壁面間の距離Wを、レーザー、超音波、赤外線またはミリ波などの各種障害物検出センサを用いて測定したり、両眼視、モーションステレオ法を用いて測定してもよい。また、路面のテクスチャ情報を利用して、カメラ画像から路面以外の領域を抽出し、その領域を壁面として仮定することも可能である。さらに、空間モデルの一部のみを測距センサを用いて測定し、それ以外の領域を、ここで説明したように平面や曲面でモデル化することもできる。また、カメラ画像や通信を用いて、現在、車両が走行している道路の車線数を求め、その結果を利用して壁面間の距離Wを決定してもよい。カメラ画像から車線数を決定する方法としては、例えば、白線検出を行い、求まった白線の本数で車線数を決定する方法などがある。
【0125】
なお、空間モデルの形状を、カーナビゲーションシステムのようなGPS情報と地図データ、あるいは時計などによる時刻データや、車両のワイパー、ヘッドライトなどの作動データ等に基づいて、切り替えることも可能である。例えば、GPS情報と地図データから、車両がいまトンネルを走行中であるということが分かったとき、天井が存在するような空間モデルを求めてもよい。あるいは、トンネル入口等に取り付けられたDSRC等の通信手段によって、車両がトンネル走行中であるとの情報を得ることもできる。また、トンネル走行中には通常、ヘッドライトを点けるので、時間データやワイパーデータ、ヘッドライトデータと連動して、例えば、夜間でなく(時間データから推定)、雨も降っていない(ワイパーデータから推定)のに、ヘッドライトを点けたとき、トンネル走行中であると判断し、空間モデルを切り替えることもできる。
【0126】
図19は本実施形態に係る自車動き推定部13、空間モデル推定部14Aおよび背景フロー推定部15の動作を示すフローチャートである。まず、時刻t−1から時刻tまでの車両の左右両車輪の回転パルスとハンドル切れ角を測定することによって、時刻tにおける自車両の左右の車輪速Vl,Vrと前輪の切れ角βを求める(S61)。そして、こうして求めた車輪速Vl,Vrおよび切れ角βと既知のホイールベースlとから、上述のアッカーマンモデルを用い、(数7)に従って車両の動きベクトルTを推定する(S62)。
【0127】
ところで、時刻t−1以前の動きベクトルはこれまでに全て求まっているはずである。そこで、これまでの動きベクトルを繋ぎ合わせることによって、時刻t−1までの自車の軌跡を求める(S63)。図20はこのようにして求めた時刻t−1までの軌跡の例を示している。図20において、Tは現在の動きベクトル、TRはこれまでの動きベクトルを繋ぎ合わせることによって求めた軌跡を示している。
【0128】
次に、空間モデルを推定する(S64)。ここでは、上述した図17に示すような路面モデルと壁面モデルを用いるものとする。すなわち図21に示すように、軌跡TRを含む平面が、路面モデルMSとして求められ、軌跡TRの左右に長さW/2だけ離れた位置にある路面モデルMSに垂直な壁面が、壁面モデルMW1,MW2として求められる。
【0129】
次に、背景フローを推定する(S65〜S68)。まず、時刻t−1におけるカメラ画像上の任意の点PreCi(PreXi,PreYi)を実世界3次元座標PreRi(PreXw,PreYw,PreZw)に射影させる(S65)。図22はこの処理を示した図である。角度θはカメラ2の画角である。上述したように、(数1),(数2)に示すような透視投影変換式のみでは、カメラ画像上の点PreCiは、カメラ2の焦点を通る直線LN上に対応することしか分からず、実世界座標系の一点に射影することはできない。しかしながら、車両1は推定された空間モデル内を走行していると仮定すると、この直線LNと空間モデル(図22ではMW2)との交点として、点PreRiを求めることができる。
【0130】
次に、現在の動きベクトルTだけ車両1を動かすことによって、時刻tにおける自車位置を求め、座標変換式(数2)のパラメータをその位置に合うように更新する(S66)。そして、そのカメラ位置で実世界座標PreRiがカメラ画像上のどの位置に映るかを計算する。実世界座標からカメラ画像上への変換は、(数1)と更新された(数2)を用いることによって実現できる。こうして求めたカメラ画像上の点をNextCi(NexiXi,NextYi)とする(S67)。図23はここでの処理を模式的に示した図である。
【0131】
ここで求めたNextCi(NextXi,NextYi)は、点PreRiが時刻t−1から時刻tまでの間に動いていない、すなわち背景物体上の点であると仮定した場合の、時刻tにおけるカメラ画像上の位置を示している。そこで、時刻t−1におけるカメラ画像上の点PreCiが背景の一部であると仮定したときの背景フローBFLは、(NextXi−PreXi, NextYi−PreYi)と求めることができる(S68)。このような処理をカメラ画像上のすべての点について行うことによって、図13に示すような背景フローを求めることができる。
【0132】
本実施形態に係る接近物検出を行った例を、図24〜図26に示す。図24は車両後方に設置したカメラから撮像した画像である。車両は交差点を右折しようとしており、後方から白い乗用車VC1が接近している。なお、画像上で動いている物体は白い乗用車VC1のみであり、乗用車VC2,VC3は停止している。
【0133】
ここで、上述の第1の従来例について考える。第1の従来例では、まず図25(a)のように、水平方向に領域Lと領域Rを分割して設定する。そして、検出されたオプティカルフローのうち、領域Lにおいては左または左下方向を向いているものを、領域Rにおいては右または右下方向を向いているものを接近物として検出する。
【0134】
ここで、領域L内に領域AR1,AR2を仮定する。領域AR1には接近物である乗用車VC1が含まれ、領域AR2には静止している乗用車VC2が含まれる。しかし、領域AR1内の乗用車VC1は矢印のように右下方向のオプティカルフローをもつので、接近物としては検出されない。一方、領域AR2内の乗用車VC2は、当該車両がカーブを走行しているため、矢印のように左方向のオプティカルフローをもち、このため接近物として検出されてしまう。図25(b)はこのような処理を行った結果を示しており、矩形で囲われた領域が接近物として検出された領域である。このように、第1の従来例では、カーブにおいて接近物の検出がうまくいかない。
【0135】
一方、本実施形態によると、領域AR1,AR2における背景フローは、図26(a)の矢印のように求められる。すなわち、接近物である乗用車VC1を含む領域AR1では、オプティカルフローは図25(a)のように右下を向くのに対して、背景フローは図26(a)のように左向きとなり、全く異なる。このため、領域AR1は接近物であると判別される。一方、静止している乗用車VC2を含む領域AR2では、オプティカルフローは図25(a)のように左を向くが、背景フローも同様に図26(a)のように左向きとなり、非常に似通っている。このため、領域AR2は接近物ではなく、背景であると判別される。図26(b)はこのような処理を行なった結果を示しており、矩形で囲われた領域が接近物として検出された領域である。このように、本発明によると、従来例と異なり、カーブにおいても接近物を確実に検出することが可能である。
【0136】
なお、路面モデルを利用した車両用監視装置は、特開2000−74645号公報や特開2001−266160号公報に記載されている。ところがこれらの技術では、本願発明のように、背景フローを求めるために路面モデルを用いているのではない。また、カーブ走行時の接近物検出を目的としておらず、本願発明とは課題が相違する。
【0137】
具体的に説明すると、まず前者では、監視領域内の他車両から発生するオプティカルフローを検出し、検出したオプティカルフローを用いて自車両と周辺の他車両との相対関係を監視する。この技術の特徴は、処理時間を短縮するために、オプティカルフローを検出する領域を限定することにあり、これを実現するために路面モデルを利用している。すなわち、本発明のように空間モデルを接近物フローの検出に用いているわけではない。実際のところ、この技術では、カーブでの接近物フローの検出に上述の第5の従来例に示された仮想FOEを利用する方法を用いているため、第5の従来例と同様の問題点を抱える。すなわち、白線のないカーブにおいて正確な接近物検出を行うことはできない。
【0138】
また後者は、画面上の各点の3次元的な動きを利用している。すなわち、まず画面上の各点について、画面上での2次元的な動きであるオプティカルフローを求める。そして、求めたオプティカルフローと車両動き情報とを基にして、各点の実世界での3次元的な動きを計算する。この3次元的な動きを時間的に追跡することによって、実際に車両が走行している空間の空間モデルを推定する。こうして推定された空間モデルの中で、路面の動きと違うものを障害物として検出する。しかしながら、この技術では、各点の動きを完全に3次元的に求めるため、非常に計算コストがかかる、という問題があり、実現は難しい。
【0139】
<ハードウェア構成例>
図27は本発明を実現するためのハードウェア構成の一例を示す図である。図27において、例えば車両後方に設置されたカメラ2によって撮影された画像は、画像処理装置20において、画像入力部21によってデジタル信号に変換されてフレームメモリ22に格納される。そしてDSP23がフレームメモリ22に格納されたデジタル化された画像信号からオプティカルフローを検出する。検出されたオプティカルフローは、バス43を介してマイクロコンピュータ30に供給される。一方、車速センサ41は車両の走行速度を測定し、舵角センサ42は車両の走行舵角を測定する。測定結果を表す信号は、バス43を介してマイクロコンピュータ30に供給される。
【0140】
マイクロコンピュータ30はCPU31、所定の制御用プログラムが格納されたROM32、およびCPU31による演算結果を記憶するRAM33を備えており、カメラ2が撮影した画像内に接近物が存在しているか否かを判定する。
【0141】
すなわち、CPU31は、まず車速センサ41および舵角センサ42から供給された走行速度信号と舵角信号から、車両の動きを推定する。次に、推定した車両の動きを基にして、車両がこれまで走行してきた軌跡を推定する。RAM33には過去の軌跡情報が格納されているので、CPU31は、推定した車両の動きをRAM33に格納された過去の軌跡情報と繋ぎ合わせることによって、当該時刻までの軌跡を求める。この新たな軌跡情報はRAM33に格納される。
【0142】
そして、CPU31は、RAM33に格納された軌跡情報を用いて、空間モデルを推定し、背景フローを求める。そして、求めた背景フローを画像処理装置20から供給されたオプティカルフローと比較することによって、接近物のフローを検出し、接近物を検出する。
【0143】
(第3の実施形態)
図28は本発明の第3の実施形態に係る車両用監視装置の基本構成を概念的に示すブロック図である。図28において、図1と共通の構成要素には図1と同一の符号を付しており、ここではその詳細な説明を省略する。第1の実施形態と異なるのは、オプティカルフロー検出部12Aが、背景フロー推定部15によって推定された背景フローを用いてオプティカルフローを検出する点である。これにより、オプティカルフローの計算時間の削減や精度向上を図ることができる。
【0144】
カメラ画像上における物体の動きであるオプティカルフローViは、次式のように、対象物体が実際に動いていることによる動きVbと、カメラ自体の動きによる相対的な動きVcとの和によって表される。
Vi=Vb+Vc
【0145】
ここで、対象が動いていない、すなわち背景であるとすると、Vbは0であり、Vcは背景フローに等しくなる。また、対象が移動している物体であるとすると、Vbは対象物の移動ベクトルに依存するが、Vcは背景フローにほぼ等しくなる。このことは、対象物の移動量があまり大きくない場合、そのオプティカルフローは背景フローの近傍に存在することを示している。そこで、オプティカルフローを求める際、背景フローの近傍のみを検索することによって、探索領域を狭め、計算時間の削減を図ることができる。
【0146】
また、同様の方法によって、オプティカルフローの検出精度を向上させることもできる。これは、オプティカルフロー検出のために階層化画像を用いる場合に特に有効である。上述したように、階層化画像は計算時間を削減するために用いられるが、階層が上位になるほど画像の解像度は低くなり、このため、テンプレートマッチングで誤差が生じる可能性が高くなる。そしてもし、上位階層で誤差が生じ、誤った検出をしてしまうと、その誤差は下位階層では吸収されず、したがって、実際とは異なったオプティカルフローを検出してしまう。
【0147】
図29は階層化画像におけるブロックマッチング結果を模式的に示す図である。図29において、画像1は元画像である画像0を縮小してLPFをかけたもの、画像2は画像1をさらに縮小してLPFをかけたものである。画像内の各矩形はマッチングを行ったブロックを示しており、その中の数字は、当該ブロックGとテンプレートブロックFとの差分評価関数の値を示している。すなわち、ブロックの大きさをm×n、テンプレートブロックFの各画素の輝度をf(i,j)、当該ブロックGの各画素の輝度をg(x,y,i,j)とすると、差分評価関数E(x,y)は(数10)または(数11)によって示される。
【数10】
【数11】
すなわち、この差分評価関数E(x,y)の値が最小のものがテンプレートブロックFに対応するブロックであり、その画像でのオプティカルフローに対応するものになる。
【0148】
まず、最も解像度が低い画像2においてブロックマッチングを行う。いま、テンプレートブロックFは画像の右上方向に移動しているものとすると、本来ならブロックG(1,−1)との整合性が最も高くなり、差分評価関数E(1,−1)が最小になるはずである。ところが、階層化による分解能の低下や、テクスチャ、開口問題などの影響によって、図29のようにE(−1,1)が最小になってしまったとする。すると、画像1において、画像2のブロックG(−1,1)に対応するブロックが探索領域として設定され、さらにその中で差分評価関数値が最小になったブロックに対応するブロックが、画像2において探索領域として設定される。しかしながら、この探索領域内には正しいオプティカルフローに対応するブロックは存在せず、したがって、誤ったオプティカルフローが検出されてしまう。
【0149】
そこで本実施形態では、最も分解能が高い元画像0におけるブロックマッチングの際に、背景フロー近傍のブロックも探索領域に加えることによって、この問題を解決する。上述したように、背景フロー近傍には、オプティカルフローが存在する可能性が高い。また、接近物フロー検出には、オプティカルフローと背景フローとの相違が重要になるが、言い換えると、背景フロー近傍にオプティカルフローが存在しないときは、それは移動物体であるといえる。すなわち、背景フロー近傍を探索領域に入れることによって、オプティカルフローが背景か否かを判別できる。例えば、背景フロー近傍に差分評価関数値を最小にするブロックが存在するとき、これに係るオプティカルフローは背景であるが、差分評価関数値が背景フロー近傍よりも小さいブロックが背景フロー近傍以外に存在するとき、そのオプティカルフローは移動物体であると判別できる。
【0150】
(第4の実施形態)
図30は本発明の第4の実施形態に係る車両用監視装置の基本構成を概念的に示す図である。図30において、図1と共通の構成要素には図1と同一の符号を付しており、ここではその詳細な説明を省略する。第1の実施形態と異なるのは、背景フロー推定部15が省かれており、接近物検出部16Aが、対象物の空間的な動きを求めて、接近物を検出する点である。接近物検出部16Aにおいて、3次元動き推定部16cは、オプティカルフロー検出部12によってカメラ画像から実際に求められたオプティカルフローViと、自車動き推定部13によって求められた当該車両の動きベクトルTと、空間モデル推定部14によって推定された空間モデルとを用いて、オプティカルフローのような平面的な動きではなく、対象物の空間的な動きを求める。
【0151】
図31および図32を参照して、3次元動き推定部16cにおける処理について説明する。図31は時刻t−1における車両1と空間モデルとの関係を模式的に示した図であり、図17と同様の空間モデルMS,MW1,MW2が想定されている。ただし、空間モデルは実世界3次元座標系で表現されているものとする。また、カメラ2が撮影したカメラ画像も併せて図示している。ここで上述のように、透視投影変換式(数1、数2)および空間モデルMS,MW1,MW2を用いることによって、カメラ画像上の任意の点Ciを実世界3次元座標上に投影した点Riを求めることができる。また、Tは自車動き推定部13によって求められた,時刻t−1から時刻tまでの車両1の動きベクトルである。
【0152】
図32は時刻tにおける車両1と空間モデルとの関係を模式的に示した図である。一般に、時刻が変わると空間モデルは変化する。ここで、オプティカルフロー検出部12によって、時刻t−1における点Ciが時刻tにおける点NextCiに対応していることが分かったとする。このとき、点Ciに対する点Riと同様に、時刻tにおけるNextCiを実世界3次元座標上に投影した点NextRiを求めることができる。よって、点Riが時刻tまでに動いたベクトルVRiは次式のように求めることができる。
VRi=NextRi−Ri
【0153】
ところで、時刻t−1から時刻tまでの車両1の動きはベクトルTとして求められているので、ベクトル(VRi−T)を求めることによって、カメラ画像上の点Ciの実世界3次元座標上での動き、すなわち空間フローを、求めることができる。この処理を、カメラ画像上の全ての点について行うことによって、カメラ画像上の全ての点の実世界3次元座標上での動きを求めることができる。
【0154】
もちろん、空間モデルは、第1の実施形態のように様々なセンサや通信によって求めてもよいし、他の空間モデルを用いてもかまわない。
【0155】
接近物フロー検出部16dは、3次元動き推定部16cによって求められたカメラ画像上の各点の実世界3次元座標系での動き、すなわち空間フローを基にして、その点が自車に接近しているか否かを判断する。すなわち、ベクトル(VRi−T)が車両を向いているときは、点Ciは接近物のフローであり、そうでないときは、点Ciは接近物のフローではないと判定される。
【0156】
さらに、ノイズ除去部16eによって、第1の実施形態に係るノイズ除去部16bと同様の処理を行うことによって、接近物を検出することができる。
【0157】
ここまでの説明では、空間モデルは、実世界3次元座標系で記述されていると仮定したが、この代わりに、カメラ座標系で表現されていてもよい。この場合、カメラ画像上の点Ci,NextCiはそれぞれ、カメラ座標系における点Ri,NextRiに対応する。カメラ座標系の原点は、時刻t−1から時刻tまでの間に車両1の動きベクトルTに相当する分だけ動いているので、カメラ画像上の点Ciの動きVRiは次のように求めることができる。
VRi=NextRi−Ri−T
【0158】
このベクトルVRiが原点を向いているとき、点Ciは接近物フローであり、そうでないときは、点Ciは接近物フローではないと判定される。この処理を、カメラ画像上の全ての点で行い、ノイズ除去部16cがノイズ除去処理を行うことによって、接近物を検出することができる。
【0159】
<障害物センサとの兼用>
本発明は、画像情報を用いて接近物検出を行うものである。このため、レーザー、赤外線、ミリ波などの障害物センサを利用する場合に比べると、接近物が近づいているか遠ざかっているかといった複雑な検出が可能である。ところが、障害物が車両近傍に存在している場合は、このような複雑な情報よりも、障害物があるか否かという単純な情報を、いち早く、正確に検出することが重要である。
【0160】
そこで、車両近傍の領域については、障害物センサによる検出を行い、それ以外の広域な領域について、本発明に係る方法を用いて障害物検出を行うようにしてもよい。これにより、車両周辺の監視を、高速に、かつ、正確に行うことが可能になる。
【0161】
図33は障害物センサの設置例を示す図である。同図中、(a)では、レーザー、赤外線、ミリ波などを用いた障害物センサ51は、車両1のバンパーやエンブレム等に取り付けられている。また、(b)では、最も接触事故の可能性が高い車両1の四隅に障害物センサ52を設置している。障害物センサ52を設置する位置は、バンパーの下や上、またはバンパーや車体自体に組み込んでもよい。
【0162】
また、障害物センサは、雨などの天候による影響を大きく受けるため、ウインカーの動作情報等から降雨を認識したとき、障害物センサの利用を中止し、本発明に係る方法を用いるようにしてもよい。これにより、検出精度を向上させることが可能である。
【0163】
また、本発明に係る方法によって接近物があると検出された領域について、再度、障害物センサによって検出を行うようにしてもよい。これにより、接近物の検出精度が向上し、誤った警報が発生しないようにすることができる。
【0164】
さらに、障害物センサによる検出の結果、障害物があると判断された領域のみについて、本発明に係る方法によってそれが接近物か否かを判定するようにしてもよい。これにより、処理速度の向上を図ることが可能になる。
【0165】
なお、本発明の監視装置の各手段の機能の全部または一部を専用のハードウェアを用いて実現してもかまわないし、コンピュータのプログラムによってソフトウェア的に実現してもかまわない。
【0166】
【発明の効果】
以上のように本発明によると、オプティカルフローを用いて接近物を検出する車両用監視装置において、カーブにおいても検出精度を落とすことがなく、さらに、直進時においても、自車と並走する物体や、画面上での動きの小さな遠方の接近物も検出することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る監視装置の構成を示すブロック図である。
【図2】自車動きの推定方法を説明するための図であり、アッカーマンモデルを説明するための概念図である。
【図3】自車動きの推定方法を説明するための図であり、2次元上での車両の動きを示す概念図である。
【図4】背景フロー推定の処理の流れを示すフローチャートである。
【図5】背景フローの推定方法を説明するための図であり、車両が旋回するときの動きを示す概念図である。
【図6】接近物検出部の構成を概念的に示すブロック図である。
【図7】フロー比較部の動作を示すフローチャートである。
【図8】ノイズ除去部の動作を示すフローチャートである。
【図9】ノイズ除去部における処理を説明するための概念図である。
【図10】背景フローの推定方法を説明するための概念図である。
【図11】背景フロー推定の他の例の処理の流れを示すフローチャートである。
【図12】背景フロー推定の他の例の処理の流れを示すフローチャートである。
【図13】本発明に係る背景フローが表示されたカメラ画像の例である。
【図14】本発明の第2の実施形態に係る監視装置の構成を示すブロック図である。
【図15】本発明に係る空間モデルの一例を示す図である。
【図16】図15の空間モデルにおける距離Lと背景フローとの関係を示す図である。
【図17】本発明に係る空間モデルの他の例を示す図である。
【図18】図17の空間モデルにおける幅Wと背景フローとの関係を示す図である。
【図19】本発明の第2の実施形態に係る背景フロー推定の処理の流れを示すフローチャートである。
【図20】本発明の第2の実施形態に係る背景フローの推定方法を説明するための図である。
【図21】本発明の第2の実施形態に係る背景フローの推定方法を説明するための図である。
【図22】本発明の第2の実施形態に係る背景フローの推定方法を説明するための図である。
【図23】本発明の第2の実施形態に係る背景フローの推定方法を説明するための図である。
【図24】車両に設置されたカメラの画像の例である。
【図25】図24のカメラ画像から第1の従来例によって接近物を検出した結果を示す図である。
【図26】図24のカメラ画像から本発明によって接近物を検出した結果を示す図である。
【図27】本発明に係るハードウェア構成の例を示す図である。
【図28】本発明の第3の実施形態に係る監視装置の構成を示すブロック図である。
【図29】階層化画像における問題点を説明するための概念図である。
【図30】本発明の第4の実施形態に係る監視装置の構成を示すブロック図である。
【図31】本発明の第4の実施形態に係る処理を説明するための図である。
【図32】本発明の第4の実施形態に係る処理を説明するための図である。
【図33】本発明における障害物センサの設置位置の例を示す図である。
【図34】車両後方を映すカメラ画像の例であり、第1の従来例のカーブ走行中における問題を説明するための図である。
【図35】カメラ画像と実世界の3次元座標の関係を示す図である。
【図36】従来例におけるカメラ画像と実世界座標系の関係を示す図である。
【図37】本発明におけるカメラ画像と実世界座標系の関係を示す図である。
【図38】カーブ走行中のカメラ画像に、接近車のオプティカルフローを重畳表示した例である。
【図39】図38の画像の背景フローである。
【図40】背景フローを減算して得たフローをカメラ画像に重畳表示した例である。
【図41】車両の動きを、カメラ画像を用いて検出する手法を説明するための概念図である。
【符号の説明】
1 車両
2 カメラ
11 カメラ
12,12A オプティカルフロー検出部
13 自車動き推定部
14,14A 空間モデル推定部
15 背景フロー推定部
16,16A 接近物検出部
51,52 障害物センサ
Vi オプティカルフロー
T 車両の動きベクトル
MS 路面モデル
MW,MW1,MW2 壁面モデル
Claims (14)
- 車両の周囲を映すカメラを用いた監視装置であって、
前記カメラによって撮影された画像から、オプティカルフローを求め、
前記車両の動きを基にして、背景と仮定した場合の前記画像のオプティカルフローである背景フローを求め、
前記オプティカルフローと前記背景フローとを比較し、前記車両の周囲にある物体の動きを検出する
ことを特徴とする監視装置。 - 請求項1において、
前記背景フローを、前記カメラが撮影している空間をモデル化した空間モデルを用いて、求めるものである
ことを特徴とする監視装置。 - 請求項2において、
前記空間モデルは、前記カメラが撮影している各物体の距離データに基づいて、生成されたものである
ことを特徴とする監視装置。 - 請求項3において、
前記車両は、障害物センサが設けられており、
前記距離データは、前記障害物センサによって測定されたものである
ことを特徴とする監視装置。 - 請求項2において、
前記空間モデルは、少なくとも、走行路面をモデル化した路面モデルを含むものである
ことを特徴とする監視装置。 - 請求項2において、
前記空間モデルは、少なくとも、走行路面に対して垂直な壁面を仮定した壁面モデルを含むものである
ことを特徴とする監視装置。 - 請求項6において、
前記壁面は、車両の後側方にあると仮定されたものである
ことを特徴とする監視装置。 - 請求項1において、
オプティカルフローと背景フローとの比較の際に、
前記オプティカルフローの大きさが、所定値よりも大きいか否かを判定し、
所定値よりも大きいときは、角度差を用いて、比較を行う一方、そうでないときは、角度差を用いないで、比較を行う
ことを特徴とする監視装置。 - 請求項8において、
前記所定値は、画像上の当該位置における背景フローの大きさに応じて、設定されている
ことを特徴とする監視装置。 - 請求項1において、
オプティカルフローと背景フローとの比較によって、前記オプティカルフローの中から、接近物候補フローを特定し、
近傍にある前記接近物候補フローを関連付けることによって、接近物候補領域を生成し、
前記接近物候補領域の面積が、所定値よりも小さいとき、この接近物候補領域に係る接近物候補フローは、ノイズであると判断する
ことを特徴とする監視装置。 - 車両の周囲を映すカメラを用いた監視装置であって、
前記カメラによって撮影された画像から、オプティカルフローを求め、
前記オプティカルフローと、当該車両の動きと、前記カメラが撮影している空間をモデル化した空間モデルとを基にして、前記画像上の点の実世界座標上における動きである空間フローを求め、
前記空間フローを基にして、当該車両の周囲にある物体の動きを検出する
ことを特徴とする監視装置。 - 車両の周囲を映すカメラによって撮影された画像から、オプティカルフローを求め、
前記車両の動きを基にして、背景と仮定した場合の前記画像のオプティカルフローである背景フローを求め、
前記オプティカルフローと前記背景フローとを比較し、前記車両の周囲にある物体の動きを検出する
ことを特徴とする監視方法。 - 請求項12において、
前記車両に設けられた車速センサおよび舵角センサの出力を用いて、前記車両の動きを推定する
ことを特徴とする監視方法。 - コンピュータに、
車両の周囲を映すカメラによって撮影された画像について、オプティカルフローを得る手順と、
前記車両の動きを基にして、背景と仮定した場合の前記画像のオプティカルフローである背景フローを求める手順と、
前記オプティカルフローと前記背景フローとを比較し、当該車両の周囲にある物体の動きを検出する手順と
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003130008A JP3776094B2 (ja) | 2002-05-09 | 2003-05-08 | 監視装置、監視方法および監視用プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002134583 | 2002-05-09 | ||
JP2003130008A JP3776094B2 (ja) | 2002-05-09 | 2003-05-08 | 監視装置、監視方法および監視用プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004056763A true JP2004056763A (ja) | 2004-02-19 |
JP3776094B2 JP3776094B2 (ja) | 2006-05-17 |
Family
ID=31948903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003130008A Expired - Lifetime JP3776094B2 (ja) | 2002-05-09 | 2003-05-08 | 監視装置、監視方法および監視用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3776094B2 (ja) |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006285910A (ja) * | 2005-04-05 | 2006-10-19 | Nissan Motor Co Ltd | 車載物体検出装置、および物体検出方法 |
WO2007000999A1 (ja) * | 2005-06-27 | 2007-01-04 | Pioneer Corporation | 画像分析装置および画像分析方法 |
WO2007029455A1 (ja) * | 2005-09-07 | 2007-03-15 | Pioneer Corporation | 風景単調度演算装置及び方法 |
KR100738522B1 (ko) | 2004-12-21 | 2007-07-11 | 삼성전자주식회사 | 비디오 감시 시스템에서 카메라/물체 움직임 구분 및 객체추출 장치 및 그 방법 |
JP2007233755A (ja) * | 2006-03-01 | 2007-09-13 | Toyota Motor Corp | 画像処理装置、及び画像処理方法 |
JP2007272511A (ja) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | 情報伝送システム、撮像装置、情報出力方法、及び、情報出力プログラム |
JP2007300181A (ja) * | 2006-04-27 | 2007-11-15 | Denso Corp | 周辺認識装置、周辺認識方法、プログラム |
WO2007132902A1 (ja) * | 2006-05-17 | 2007-11-22 | Kagoshima University | 物体検出装置 |
JP2007320024A (ja) * | 2006-06-01 | 2007-12-13 | Samsung Electronics Co Ltd | 移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法 |
JP2008027138A (ja) * | 2006-07-20 | 2008-02-07 | Nissan Motor Co Ltd | 車両用監視装置 |
JP2008066953A (ja) * | 2006-09-06 | 2008-03-21 | Sanyo Electric Co Ltd | 画像監視装置 |
JP2008269073A (ja) * | 2007-04-17 | 2008-11-06 | Denso Corp | 車両用物体検出装置 |
JP2008282106A (ja) * | 2007-05-08 | 2008-11-20 | Fujitsu Ltd | 障害物検出方法および障害物検出装置 |
WO2009005025A1 (ja) * | 2007-07-03 | 2009-01-08 | Konica Minolta Holdings, Inc. | 移動物体検出装置 |
US7512251B2 (en) | 2004-06-15 | 2009-03-31 | Panasonic Corporation | Monitoring system and vehicle surrounding monitoring system |
JP2009086748A (ja) * | 2007-09-27 | 2009-04-23 | Saxa Inc | 監視装置及びプログラム |
JP2009083632A (ja) * | 2007-09-28 | 2009-04-23 | Denso Corp | 移動物体検出装置 |
JP2009181557A (ja) * | 2008-02-01 | 2009-08-13 | Hitachi Ltd | 画像処理装置、及びこれを備えた車両検知装置 |
JP2009210424A (ja) * | 2008-03-04 | 2009-09-17 | Nissan Motor Co Ltd | 車両用物体検出装置及び車両用移動物体判別方法 |
US7602945B2 (en) | 2005-09-07 | 2009-10-13 | Hitachi, Ltd. | Driving support apparatus |
US7667581B2 (en) | 2006-05-24 | 2010-02-23 | Nissan Motor Co., Ltd. | Pedestrian detector and detecting method using change of velocity of object in image |
WO2010058821A1 (ja) | 2008-11-19 | 2010-05-27 | クラリオン株式会社 | 接近物体検知システム |
JP2010132053A (ja) * | 2008-12-03 | 2010-06-17 | Koito Mfg Co Ltd | 前照灯制御装置 |
JP2010165352A (ja) * | 2009-01-16 | 2010-07-29 | Honda Research Inst Europe Gmbh | 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 |
US7792327B2 (en) | 2005-12-06 | 2010-09-07 | Nissan Motor Co., Ltd. | Apparatus and method for detecting a road boundary |
JP2010204805A (ja) * | 2009-03-02 | 2010-09-16 | Konica Minolta Holdings Inc | 周辺監視装置および該方法 |
JP2010282615A (ja) * | 2009-05-29 | 2010-12-16 | Honda Research Inst Europe Gmbh | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム |
WO2011016367A1 (ja) * | 2009-08-04 | 2011-02-10 | アイシン精機株式会社 | 車両周辺認知支援装置 |
US7899211B2 (en) | 2005-12-07 | 2011-03-01 | Nissan Motor Co., Ltd. | Object detecting system and object detecting method |
US7925441B2 (en) | 2005-03-09 | 2011-04-12 | Mitsubishi Jidosha Kogyo Kabushiki Kaisha | Vehicle periphery monitoring apparatus |
JP2011128838A (ja) * | 2009-12-17 | 2011-06-30 | Panasonic Corp | 画像表示装置 |
JP2012198857A (ja) * | 2011-03-23 | 2012-10-18 | Denso It Laboratory Inc | 接近物体検知装置及び接近物体検知方法 |
US8300887B2 (en) | 2007-05-10 | 2012-10-30 | Honda Motor Co., Ltd. | Object detection apparatus, object detection method and object detection program |
WO2013118191A1 (ja) * | 2012-02-10 | 2013-08-15 | 三菱電機株式会社 | 運転支援装置及び運転支援方法 |
JP2013205924A (ja) * | 2012-03-27 | 2013-10-07 | Fuji Heavy Ind Ltd | 車外環境認識装置および車外環境認識方法 |
JP2013205925A (ja) * | 2012-03-27 | 2013-10-07 | Fuji Heavy Ind Ltd | 車外環境認識装置および車外環境認識方法 |
US8755634B2 (en) | 2009-08-12 | 2014-06-17 | Nec Corporation | Obstacle detection device and method and obstacle detection system |
JP2014165810A (ja) * | 2013-02-27 | 2014-09-08 | Fujitsu Ten Ltd | パラメータ取得装置、パラメータ取得方法及びプログラム |
JP2014241592A (ja) * | 2005-01-07 | 2014-12-25 | クアルコム,インコーポレイテッド | オプティカルフローに基づく傾きセンサー |
JP2015088092A (ja) * | 2013-11-01 | 2015-05-07 | 富士通株式会社 | 移動量推定装置及び移動量推定方法 |
JP2015170133A (ja) * | 2014-03-06 | 2015-09-28 | 富士通株式会社 | 軌跡推定装置、軌跡推定方法およびプログラム |
JP2016177718A (ja) * | 2015-03-23 | 2016-10-06 | 富士通株式会社 | 物体検出装置、物体検出方法および情報処理プログラム |
JP2016190603A (ja) * | 2015-03-31 | 2016-11-10 | いすゞ自動車株式会社 | 道路勾配推定装置及び道路勾配推定方法 |
JP2017084019A (ja) * | 2015-10-26 | 2017-05-18 | トヨタ自動車東日本株式会社 | 対象物検出装置、対象物検出方法、及び、対象物検出プログラム |
JP2017142585A (ja) * | 2016-02-09 | 2017-08-17 | 日立建機株式会社 | 建設機械の周囲障害物検知システム |
JP2018506768A (ja) * | 2015-02-16 | 2018-03-08 | アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド | サラウンドビュー画像から自動車のエゴモーションを推定するための方法および装置 |
JP2019504394A (ja) * | 2015-12-04 | 2019-02-14 | 日本テキサス・インスツルメンツ株式会社 | 準パラメトリックオプティカルフロー推定 |
JP2019509475A (ja) * | 2016-02-02 | 2019-04-04 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 視覚慣性オドメトリおよび衛星測位システムの基準フレームのアラインメント |
JP2019175439A (ja) * | 2018-02-21 | 2019-10-10 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 動的環境における操作および調整のためのオプティカルフローベース支援 |
CN110383335A (zh) * | 2017-04-11 | 2019-10-25 | 索尼公司 | 视频内容中基于光流和传感器输入的背景减除 |
CN112130136A (zh) * | 2020-09-11 | 2020-12-25 | 中国重汽集团济南动力有限公司 | 一种交通目标综合感知系统及方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102662029B1 (ko) | 2016-08-01 | 2024-05-03 | 삼성전자주식회사 | 이벤트 신호 처리 방법 및 그 방법을 수행하는 이벤트 기반 센서 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203161A (ja) * | 1993-01-05 | 1994-07-22 | Fujitsu Ltd | 動画像からの動物体抽出方法,及び、動物体抽出装置 |
JPH06282655A (ja) * | 1993-03-30 | 1994-10-07 | Toyota Motor Corp | 移動体認識装置 |
JPH0750769A (ja) * | 1993-08-06 | 1995-02-21 | Yazaki Corp | 車両用後側方監視方法 |
JP2000074645A (ja) * | 1998-08-27 | 2000-03-14 | Yazaki Corp | 周辺監視装置及び方法 |
JP2000090243A (ja) * | 1998-09-14 | 2000-03-31 | Yazaki Corp | 周辺監視装置及び方法 |
JP2001006096A (ja) * | 1999-06-23 | 2001-01-12 | Honda Motor Co Ltd | 車両の周辺監視装置 |
JP2001266160A (ja) * | 2000-03-22 | 2001-09-28 | Toyota Motor Corp | 周辺認識方法および周辺認識装置 |
JP2002083297A (ja) * | 2000-06-28 | 2002-03-22 | Matsushita Electric Ind Co Ltd | 物体認識方法および物体認識装置 |
-
2003
- 2003-05-08 JP JP2003130008A patent/JP3776094B2/ja not_active Expired - Lifetime
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203161A (ja) * | 1993-01-05 | 1994-07-22 | Fujitsu Ltd | 動画像からの動物体抽出方法,及び、動物体抽出装置 |
JPH06282655A (ja) * | 1993-03-30 | 1994-10-07 | Toyota Motor Corp | 移動体認識装置 |
JPH0750769A (ja) * | 1993-08-06 | 1995-02-21 | Yazaki Corp | 車両用後側方監視方法 |
JP2000074645A (ja) * | 1998-08-27 | 2000-03-14 | Yazaki Corp | 周辺監視装置及び方法 |
JP2000090243A (ja) * | 1998-09-14 | 2000-03-31 | Yazaki Corp | 周辺監視装置及び方法 |
JP2001006096A (ja) * | 1999-06-23 | 2001-01-12 | Honda Motor Co Ltd | 車両の周辺監視装置 |
JP2001266160A (ja) * | 2000-03-22 | 2001-09-28 | Toyota Motor Corp | 周辺認識方法および周辺認識装置 |
JP2002083297A (ja) * | 2000-06-28 | 2002-03-22 | Matsushita Electric Ind Co Ltd | 物体認識方法および物体認識装置 |
Cited By (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2182730A2 (en) | 2004-06-15 | 2010-05-05 | Panasonic Corporation | Monitor and vehicle peripheriy monitor |
US7512251B2 (en) | 2004-06-15 | 2009-03-31 | Panasonic Corporation | Monitoring system and vehicle surrounding monitoring system |
US7916899B2 (en) | 2004-06-15 | 2011-03-29 | Panasonic Corporation | Monitoring system and vehicle surrounding monitoring system |
US7693303B2 (en) | 2004-06-15 | 2010-04-06 | Panasonic Corporation | Monitoring system and vehicle surrounding monitoring system |
KR100738522B1 (ko) | 2004-12-21 | 2007-07-11 | 삼성전자주식회사 | 비디오 감시 시스템에서 카메라/물체 움직임 구분 및 객체추출 장치 및 그 방법 |
JP2014241592A (ja) * | 2005-01-07 | 2014-12-25 | クアルコム,インコーポレイテッド | オプティカルフローに基づく傾きセンサー |
DE102006010735B4 (de) * | 2005-03-09 | 2016-03-10 | Mitsubishi Jidosha Kogyo K.K. | Fahrzeugumgebungsüberwachungsvorrichtung |
US7925441B2 (en) | 2005-03-09 | 2011-04-12 | Mitsubishi Jidosha Kogyo Kabushiki Kaisha | Vehicle periphery monitoring apparatus |
JP2006285910A (ja) * | 2005-04-05 | 2006-10-19 | Nissan Motor Co Ltd | 車載物体検出装置、および物体検出方法 |
JPWO2007000999A1 (ja) * | 2005-06-27 | 2009-01-22 | パイオニア株式会社 | 画像分析装置および画像分析方法 |
US8086046B2 (en) | 2005-06-27 | 2011-12-27 | Pioneer Corporation | Image analysis device and image analysis method |
JP4493050B2 (ja) * | 2005-06-27 | 2010-06-30 | パイオニア株式会社 | 画像分析装置および画像分析方法 |
WO2007000999A1 (ja) * | 2005-06-27 | 2007-01-04 | Pioneer Corporation | 画像分析装置および画像分析方法 |
US7602945B2 (en) | 2005-09-07 | 2009-10-13 | Hitachi, Ltd. | Driving support apparatus |
WO2007029455A1 (ja) * | 2005-09-07 | 2007-03-15 | Pioneer Corporation | 風景単調度演算装置及び方法 |
US7792327B2 (en) | 2005-12-06 | 2010-09-07 | Nissan Motor Co., Ltd. | Apparatus and method for detecting a road boundary |
US7899211B2 (en) | 2005-12-07 | 2011-03-01 | Nissan Motor Co., Ltd. | Object detecting system and object detecting method |
JP2007233755A (ja) * | 2006-03-01 | 2007-09-13 | Toyota Motor Corp | 画像処理装置、及び画像処理方法 |
JP2007272511A (ja) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | 情報伝送システム、撮像装置、情報出力方法、及び、情報出力プログラム |
US8036424B2 (en) | 2006-04-27 | 2011-10-11 | Denso Corporation | Field recognition apparatus, method for field recognition and program for the same |
JP2007300181A (ja) * | 2006-04-27 | 2007-11-15 | Denso Corp | 周辺認識装置、周辺認識方法、プログラム |
JP2007334859A (ja) * | 2006-05-17 | 2007-12-27 | Denso It Laboratory Inc | 物体検出装置 |
WO2007132902A1 (ja) * | 2006-05-17 | 2007-11-22 | Kagoshima University | 物体検出装置 |
US7667581B2 (en) | 2006-05-24 | 2010-02-23 | Nissan Motor Co., Ltd. | Pedestrian detector and detecting method using change of velocity of object in image |
US7853372B2 (en) | 2006-06-01 | 2010-12-14 | Samsung Electronics Co., Ltd. | System, apparatus, and method of preventing collision of remote-controlled mobile robot |
JP2012045706A (ja) * | 2006-06-01 | 2012-03-08 | Samsung Electronics Co Ltd | 移動ロボットの遠隔操縦のための衝突防止装置及び方法 |
JP2007320024A (ja) * | 2006-06-01 | 2007-12-13 | Samsung Electronics Co Ltd | 移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法 |
JP2008027138A (ja) * | 2006-07-20 | 2008-02-07 | Nissan Motor Co Ltd | 車両用監視装置 |
JP2008066953A (ja) * | 2006-09-06 | 2008-03-21 | Sanyo Electric Co Ltd | 画像監視装置 |
JP2008269073A (ja) * | 2007-04-17 | 2008-11-06 | Denso Corp | 車両用物体検出装置 |
JP2008282106A (ja) * | 2007-05-08 | 2008-11-20 | Fujitsu Ltd | 障害物検出方法および障害物検出装置 |
US8300887B2 (en) | 2007-05-10 | 2012-10-30 | Honda Motor Co., Ltd. | Object detection apparatus, object detection method and object detection program |
WO2009005025A1 (ja) * | 2007-07-03 | 2009-01-08 | Konica Minolta Holdings, Inc. | 移動物体検出装置 |
JP2009086748A (ja) * | 2007-09-27 | 2009-04-23 | Saxa Inc | 監視装置及びプログラム |
JP2009083632A (ja) * | 2007-09-28 | 2009-04-23 | Denso Corp | 移動物体検出装置 |
JP2009181557A (ja) * | 2008-02-01 | 2009-08-13 | Hitachi Ltd | 画像処理装置、及びこれを備えた車両検知装置 |
JP2009210424A (ja) * | 2008-03-04 | 2009-09-17 | Nissan Motor Co Ltd | 車両用物体検出装置及び車両用移動物体判別方法 |
WO2010058821A1 (ja) | 2008-11-19 | 2010-05-27 | クラリオン株式会社 | 接近物体検知システム |
CN102257533A (zh) * | 2008-11-19 | 2011-11-23 | 歌乐牌株式会社 | 接近物体检测系统 |
US8712097B2 (en) | 2008-11-19 | 2014-04-29 | Clarion Co., Ltd. | Approaching object detection system |
JP2010132053A (ja) * | 2008-12-03 | 2010-06-17 | Koito Mfg Co Ltd | 前照灯制御装置 |
JP2010165352A (ja) * | 2009-01-16 | 2010-07-29 | Honda Research Inst Europe Gmbh | 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 |
JP2010204805A (ja) * | 2009-03-02 | 2010-09-16 | Konica Minolta Holdings Inc | 周辺監視装置および該方法 |
JP2010282615A (ja) * | 2009-05-29 | 2010-12-16 | Honda Research Inst Europe Gmbh | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム |
US8964034B2 (en) | 2009-08-04 | 2015-02-24 | Aisin Seiki Kabushiki Kaisha | Vehicle surroundings awareness support device |
WO2011016367A1 (ja) * | 2009-08-04 | 2011-02-10 | アイシン精機株式会社 | 車両周辺認知支援装置 |
JP2011035777A (ja) * | 2009-08-04 | 2011-02-17 | Aisin Seiki Co Ltd | 車両周辺認知支援装置 |
KR101343331B1 (ko) | 2009-08-04 | 2013-12-19 | 아이신세이끼가부시끼가이샤 | 차량주변인지 지원장치 |
US8755634B2 (en) | 2009-08-12 | 2014-06-17 | Nec Corporation | Obstacle detection device and method and obstacle detection system |
JP2011128838A (ja) * | 2009-12-17 | 2011-06-30 | Panasonic Corp | 画像表示装置 |
JP2012198857A (ja) * | 2011-03-23 | 2012-10-18 | Denso It Laboratory Inc | 接近物体検知装置及び接近物体検知方法 |
US9852632B2 (en) | 2012-02-10 | 2017-12-26 | Mitsubishi Electric Corporation | Driving assistance device and driving assistance method |
WO2013118191A1 (ja) * | 2012-02-10 | 2013-08-15 | 三菱電機株式会社 | 運転支援装置及び運転支援方法 |
JPWO2013118191A1 (ja) * | 2012-02-10 | 2015-05-11 | 三菱電機株式会社 | 運転支援装置及び運転支援方法 |
JP2013205925A (ja) * | 2012-03-27 | 2013-10-07 | Fuji Heavy Ind Ltd | 車外環境認識装置および車外環境認識方法 |
JP2013205924A (ja) * | 2012-03-27 | 2013-10-07 | Fuji Heavy Ind Ltd | 車外環境認識装置および車外環境認識方法 |
JP2014165810A (ja) * | 2013-02-27 | 2014-09-08 | Fujitsu Ten Ltd | パラメータ取得装置、パラメータ取得方法及びプログラム |
JP2015088092A (ja) * | 2013-11-01 | 2015-05-07 | 富士通株式会社 | 移動量推定装置及び移動量推定方法 |
JP2015170133A (ja) * | 2014-03-06 | 2015-09-28 | 富士通株式会社 | 軌跡推定装置、軌跡推定方法およびプログラム |
US10867401B2 (en) | 2015-02-16 | 2020-12-15 | Application Solutions (Electronics and Vision) Ltd. | Method and device for the estimation of car ego-motion from surround view images |
JP2018506768A (ja) * | 2015-02-16 | 2018-03-08 | アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド | サラウンドビュー画像から自動車のエゴモーションを推定するための方法および装置 |
JP2016177718A (ja) * | 2015-03-23 | 2016-10-06 | 富士通株式会社 | 物体検出装置、物体検出方法および情報処理プログラム |
JP2016190603A (ja) * | 2015-03-31 | 2016-11-10 | いすゞ自動車株式会社 | 道路勾配推定装置及び道路勾配推定方法 |
JP2017084019A (ja) * | 2015-10-26 | 2017-05-18 | トヨタ自動車東日本株式会社 | 対象物検出装置、対象物検出方法、及び、対象物検出プログラム |
JP2019504394A (ja) * | 2015-12-04 | 2019-02-14 | 日本テキサス・インスツルメンツ株式会社 | 準パラメトリックオプティカルフロー推定 |
JP7004314B2 (ja) | 2015-12-04 | 2022-01-21 | テキサス インスツルメンツ インコーポレイテッド | 準パラメトリックオプティカルフロー推定 |
JP2019509475A (ja) * | 2016-02-02 | 2019-04-04 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 視覚慣性オドメトリおよび衛星測位システムの基準フレームのアラインメント |
JP2017142585A (ja) * | 2016-02-09 | 2017-08-17 | 日立建機株式会社 | 建設機械の周囲障害物検知システム |
CN110383335A (zh) * | 2017-04-11 | 2019-10-25 | 索尼公司 | 视频内容中基于光流和传感器输入的背景减除 |
JP2020514891A (ja) * | 2017-04-11 | 2020-05-21 | ソニー株式会社 | ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分 |
JP2021082316A (ja) * | 2017-04-11 | 2021-05-27 | ソニーグループ株式会社 | ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分 |
JP2019175439A (ja) * | 2018-02-21 | 2019-10-10 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 動的環境における操作および調整のためのオプティカルフローベース支援 |
CN112130136A (zh) * | 2020-09-11 | 2020-12-25 | 中国重汽集团济南动力有限公司 | 一种交通目标综合感知系统及方法 |
CN112130136B (zh) * | 2020-09-11 | 2024-04-12 | 中国重汽集团济南动力有限公司 | 一种交通目标综合感知系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3776094B2 (ja) | 2006-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3776094B2 (ja) | 監視装置、監視方法および監視用プログラム | |
KR100909741B1 (ko) | 감시장치, 감시방법 | |
US6993159B1 (en) | Driving support system | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
JP6819681B2 (ja) | 撮像制御装置および方法、並びに車両 | |
US6734787B2 (en) | Apparatus and method of recognizing vehicle travelling behind | |
EP2544449B1 (en) | Vehicle perimeter monitoring device | |
JP4899424B2 (ja) | 物体検出装置 | |
WO2019181284A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
JP2010072807A (ja) | 道路境界検出判断装置 | |
CN104859538A (zh) | 车辆图像显示系统中基于视觉的物体感测和突出显示 | |
JPH05265547A (ja) | 車輌用車外監視装置 | |
KR102031635B1 (ko) | 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법 | |
US20190362512A1 (en) | Method and Apparatus for Estimating a Range of a Moving Object | |
US20190189014A1 (en) | Display control device configured to control projection device, display control method for controlling projection device, and vehicle | |
JP6699728B2 (ja) | 車間距離推定方法及び車間距離推定装置 | |
JP2005092516A (ja) | 車載用移動体検出装置 | |
JP3951734B2 (ja) | 車両用外界認識装置 | |
Abad et al. | Parking space detection | |
JP2001101420A (ja) | 障害物検出装置及びその方法 | |
JP7422704B2 (ja) | 車両用情報処理装置 | |
CN215495425U (zh) | 复眼摄像系统及使用复眼摄像系统的车辆 | |
JP7145227B2 (ja) | 標識認識装置 | |
JP2019091327A (ja) | 立体物検出装置 | |
CN114913507A (zh) | 一种基于公交车尾屏的行人检测方法、装置及公交车尾屏 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3776094 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100303 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110303 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120303 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130303 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130303 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140303 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |