[go: up one dir, main page]

JP4420011B2 - 物体検知装置 - Google Patents

物体検知装置 Download PDF

Info

Publication number
JP4420011B2
JP4420011B2 JP2006309784A JP2006309784A JP4420011B2 JP 4420011 B2 JP4420011 B2 JP 4420011B2 JP 2006309784 A JP2006309784 A JP 2006309784A JP 2006309784 A JP2006309784 A JP 2006309784A JP 4420011 B2 JP4420011 B2 JP 4420011B2
Authority
JP
Japan
Prior art keywords
vehicle
image
lane
width
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006309784A
Other languages
English (en)
Other versions
JP2008123462A (ja
Inventor
君吉 待井
未来 樋口
裕史 大塚
健 志磨
彰二 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006309784A priority Critical patent/JP4420011B2/ja
Priority to US11/941,259 priority patent/US7782179B2/en
Publication of JP2008123462A publication Critical patent/JP2008123462A/ja
Application granted granted Critical
Publication of JP4420011B2 publication Critical patent/JP4420011B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)

Description

本発明は、物体検知装置に関わる。
自動車に各種センサを搭載して、自車周辺を監視することによって安全を確保する技術の開発が盛んである。例えば、レーダを車両前方に設置して前方車両との車間距離を確保するACC(Adaptive Cruise Control) 、ステレオカメラを車両前方に設置して白線を認識することによって、自車がレーン逸脱しないように警報するレーン逸脱警報などの開発が進んでいる。その他、前方障害物監視等、自動車の安全装備の開発が進んでいる。
前方以外では、カメラを使った後方監視について、車両の真後ろ,右後方,左後方を監視するカメラを設置し、ターンシグナルスイッチの位置に基づいてカメラを選択してそのカメラ画像を処理することによって、車両周辺の接近車両を検知する技術が知られている(例えば特許文献1参照)。検知した車両のオプティカルフローに基づき、車両衝突の危険性を判断する。ターンシグナルスイッチを操作しないときは真後ろのカメラ、右の時は右後方カメラ、左の時は左後方カメラの画像を処理し、接近してくる車両が無いか監視する。
特開平11−321495号公報
自車周辺を監視して安全を確保するには、自車周辺の障害物を検知し、その障害物が自車にどれくらい接近しているのかを把握する必要がある。特に車線変更の際は、ドライバーがサイドミラーを目視し、右後方を自分の目で確認することが必要である。しかし、ドライバーの視線の移動が生じるため、高速走行時には危険を伴う。また、ドライバーの不注意で後側方から接近してくる車両を見逃すこともある。更に、サイドミラーにも死角は存在し、死角に入っている車両を捉えることはできない。また、上記背景技術に記載のものは、後続車の相対的な移動が無い場合は、危険度を判断することができないという問題がある。
上記に鑑み本発明は、自動車の周囲の物体をより精度良く検知することを目的とする。
第1のセンサのカバレッジにある物体の所定の特徴量を求めて記憶するとともに、物体が第1のセンサのカバレッジから第2のセンサのカバレッジに移動したときに、記憶装置に記憶された当該物体に関する特徴量と、第2センサで認識した結果を処理する処理部で処理された認識結果を分析することにより求めた物体の所定の特徴量とに基づいて、物体との相対距離を求める。
より安全性の高い自動車を提供することができる。
本発明の実施形態を図面を参照しながら述べる。本実施形態で対象とするのは、車両,二輪車等、道路走行中に自車に接近してくる物体の検知である。
図1は、本発明の一実施形態をなす物体検知システムのブロック構成図を示す。自車後方を監視するためのステレオカメラ101のカメラ画像は、画像処理部103−Sで処理されてCPU104に入力される。また、自車後側方を監視するための単眼カメラ102のカメラ画像は、画像処理部103−Mで処理されて、CPU104に入力される。
CPU104は、画像処理部103−S,画像処理部103−Mの処理結果を用いて自車に接近してくる車両の情報をデータベース化して記憶装置105に蓄える。そして、自車後側方から接近してくる車両の情報を、CANインターフェース106を通じてCANバス108に流し、車両制御ユニット107に送る。更に、CANバス108には、地図情報等を記憶しているカーナビゲーションシステム109が接続されており、CANバス
108に自車位置情報,地図情報等を流すことが可能である。
ここでは、ステレオカメラ101及び単眼カメラ102からの信号を入力するそれぞれの信号入力部(図示しない)と、画像処理部103−S及び103−Mと、CPU104,記憶装置105,CANインターフェース106を含む物体検知ユニットを例として示すが、これらが一つのユニット内に収まっている装置であるとは限らない。例えばカメラと画像処理装置が一つのユニットとして存在し、そこからCPU104を含む何らかの制御ユニットに信号線で結ばれていても良い。また、画像処理部103やCPU104などがカーナビゲーションシステム109内に収められても良いし、また車両制御ユニット
107内に収められても良い。
図2は、図1の例におけるステレオカメラ101,単眼カメラ102の設置場所の例を示す。ステレオカメラ101は、自車202の後方を監視するためにリアバンパーに設置する。一方、単眼カメラ102は、自車後側方を監視するためにドアミラーに設置する。それによって得られるカバレッジは、例えば、それぞれ201−S,201−Mのようになる。ここでカバレッジとは、カメラ視野角や画角の場合もあるし、またカメラ視野角の中でも画像処理部が処理可能なエリアを示しても良い。但し、単眼カメラ102については、自車202の映りこみが少なくなるように、光軸を自車202からできるだけ離すように設置するのが望ましい。また、ステレオカメラ101では、ステレオ視できる範囲はカメラ101−L,101−Rの視野が重なる領域となり、201−Sに示すカバレッジとなる。ステレオカメラ101は車内に設置しても良い。例えば、リアシート側の天井に、リアウィンドウ越しに自車後方を監視するように設置しても良い。これにより、雨天時に水滴や泥等が付着することを避けることができる。
単眼カメラ102の代わりに、ステレオカメラ(以下「後側方ステレオカメラ」と記す)を用いても良い。ステレオカメラを用いることによって接近車両の車幅,接近車両との相対位置等を求めることが可能であり、ステレオカメラ101の結果と組み合わせて整合性をとることによって、より正確な車幅,相対位置等がわかるようになる。または、遠くに存在している接近車両はステレオカメラ101、自車に近い範囲の車両は後側方ステレオカメラで検知することも可能である。ステレオカメラ101は基線長を長く取れるために遠方の車両検知に適している。一方、後側方ステレオカメラは基線長を長く取れないために遠方車両検知には適していないが、画角を広くして検知距離を短くすることで、自車に近い範囲の車両検知において有効な手段となる。
図3は、図1の例におけるソフトウェア構成図を示す。ステレオカメラ101に関する処理は、白線認識部301,自レーン後続車検知部302,自レーン後続車車線変更検知部303,追越レーン後続車検知部304,追越レーン後続車視界通過検知部305である。
白線認識部301は、自車後方の白線を認識する。白線を認識した結果は、自車後方を走行中の車両が走行しているレーンを判定するための補助として用いる。白線認識は、既存の様々な認識ロジックを使用することが可能である。
自レーン後続車検知部302は、自車後方を走行中の車両を検知する。次に、検知した車両の情報は、リア自車線データ308に登録する。
自レーン後続車車線変更検知部303は、白線認識部301の認識結果、自レーン後続車検知部302の検知結果に基づいて、後続車が車線変更したかどうかを判断する。特に、自レーン後続車検知部302で検知した車両が車線変更をしているかどうかを判断する。車線変更を検知した場合は、当該車両の情報をリア追越車線データ309に追加し、リア自車線データ308に格納されていた当該車両の情報を削除する。
追越レーン後続車検知部304は、追越レーンを走行中の車両を検知する。これも、白線認識部301の結果を考慮する。追越レーン後続車検知部304で検知した車両の情報は、リア追越車線データ309に登録される。
追越レーン後続車視界通過検知部305は、ステレオカメラ101で検知している追越レーン走行車両のうち、先頭の車両がステレオカメラ101の視界から消えたかどうかを判定する。消えたと判定した場合は、その直前の回の当該車両検出結果を後側方追越車線データ310に登録する。
追越レーン後続車検知部306は、単眼カメラ102で捉えている車両を検知する。検知した車両の情報は、後側方追越車線データ310に登録される。
追越レーン後続車視界通過検知部307は、単眼カメラ102で捉えていた車両が、単眼カメラ102の視界から出たかどうかを判定する。後側方追越車線データ310に登録された車両データは、車両制御I/Fに送られて、車両制御や警告に使われる。単眼カメラ102で車両を捉えている場合、すなわち追越車線から車両が接近してくる場合、車両制御側では、後側方追越車線データ310に登録されたデータを参照して、どんな制御をするか決定する。
リア自車線データ308,リア追越車線データ309,後側方追越車線データ310には、少なくとも、検知した車両の車幅,相対速度,自車との相対位置,検知時刻が登録されている。自車との相対位置の変わりに、自車からの距離を登録しても良い。
地図データ311は、カーナビゲーションシステム109が保持しているデータである。地図データ311には、道路形状,車線数,車線幅などが格納されており、ステレオカメラ101の画像を処理する際に、自車位置に応じた情報を得ることを可能とする。
図21は、図3におけるリア自車線データ308,リア追越車線データ309,後側方追越車線データ310に含まれるデータの構造を示す。それぞれのデータは、車両数2101,車両数2101で示される数の車両情報2102から構成される。車両情報2102は、ID2103,車幅2104,相対位置2105,検知時刻2106,相対速度2107,相対距離2108,画像における車幅2109から構成される。尚、車幅2104は、画像処理をした結果算出した車幅であり、画像における車幅2109は、画像における車幅のドット数という違いがある。
車幅情報としては、車両の縦エッジ間距離に限らず、ヘッドライト間の距離,フロントガラス幅等、車両において特徴的なパターンを用いることも可能である。但し、どんな特徴を用いて車幅を求めたかを記憶しておくことが好ましい。それには、リア自車線データ308,リア追越車線データ309,後側方追越車線データ310において車両情報と一緒に記憶しておけばよいので、車幅情報2104の属性として登録する。
リア自車線データ308,リア追越車線データ309,後側方追越車線データ310においては、相対距離の短い順、すなわち自車から近い順に車両情報2102を格納する。
なお、ここでは車幅情報や相対位置など様々な情報が例示されているが、これらがすべて記憶される必要はなく、物体検知装置で検知する対象に応じて、記憶されるパラメータの種や数は変化する。ここに例示したパラメータの一部のみが記憶されていても良いし、全てが記憶されても良い。
図4は、図3の動作説明図を示す。単眼カメラ102では、車両401を捉えており、車両401に関する情報が後側方追越車線データ310に登録される。このときに登録されるのは、少なくとも車両401と自車202との相対速度,相対位置、車両401の検知時刻である。相対位置の代わりに、自車から車両401までの距離d1を登録しても良い。距離d1を求める際には、後側方追越車線データ310に登録されている当該車両の車幅情報を用いる。車幅情報は、ステレオカメラ101のカバレッジに当該車両が存在していたときに求められたものを利用する。
ここで、自車後方を走行していた車両402が車線変更し、地点402−2に移ったとする。そのときは、ステレオカメラ101で車両402の車線変更を捉えているため、リア追越車線データ309に、車両402の情報を登録する。
車両402が車線変更したことによって、車両402の後方を走行していた車両403がステレオカメラ101のカバレッジに入ってきたとする。その時は、車両403の情報をリア自車線データ308に登録する。
また、単眼カメラ102で複数の車両を検知した場合は、それぞれの車両の情報を後側方追越車線データ310に登録する。
図5は、図1の例の処理フローを示す。まず、ステレオカメラ101の画像を処理し、後続車検知を試みる(ステップ501)。後続車が存在するかどうか判定し(ステップ
502)、後続車が検知されたら、当該車両の情報をリア自車線データ308に登録する(ステップ503)。次に、ステレオカメラ101の画像を処理し、追越車線に車両が存在するかどうか判定する(ステップ504)。追越車線に車両が存在したら、当該車両の情報をリア追越車線データ309に登録する(ステップ505)。但し、追越車線に車両がなくとも、自レーンの後続車両が追越車線に移動しているとみなせる場合には、当該車両の情報をリア追越車線データ309に登録する。
次に、単眼カメラ102の画像を処理し、追越車線を走行中の車両検知を試みる(ステップ506)。車両が存在するかどうか判定し(ステップ507)、車両が検知されたら、当該車両の情報に基づいて、後側方追越車線データ310を更新する。
図6は、図1のステレオカメラ101の処理フローを示す。
まず、ステレオカメラ101の両カメラで画像を取得する(ステップ601)。次に、両カメラで得られた画像から距離画像を作成する(ステップ602)。距離画像の作成には、ステレオカメラ101の両カメラの視差を用いる。視差による距離画像生成の手法は既存の技術を用いることが可能である。
次に、距離画像を用いて白線を認識する(ステップ603)。白線の認識アルゴリズムについても、既存の技術を用いることが可能である。
次に、距離画像を用いて、後続車両を検出する(ステップ604)。後続車両の検出には、例えば、ステレオカメラ101からほぼ同じ距離にあるエッジラインを検出して、それらを車両前面として扱うことが可能である。もし車両がみつかったと判断したら(ステップ605)、当該車両の車幅を計算する(ステップ606)。車幅の計算は、縦エッジ間の距離に基づいて求めることが可能である。
次に、当該車両がどのレーンを走行しているかを判定する(ステップ607)。走行レーンの判定は、ステップ603の白線認識結果と、当該車両の画像上での検出位置に基づく。白線の位置が、当該車両の真ん中よりも左側に見えていれば自レーン、右側ならば追越レーンを走行中と判定する。
その結果、自レーンを走行していると判断したら(ステップ608)、リア自車線データ308に当該車両の情報を登録する(ステップ609)。追越レーンにいると判断したら(ステップ610)、リア追越車線データ309に登録する(ステップ611)。これを、検出した車両すべてについて実施し、最後の処理であるステップ612ですべての車両について実施したと判断したら、最初のステップ601に戻る。まだ未処理の車両が残っている場合は、ステップ606に戻る。
ここで、後続車両が車線変更したかどうかを判定する方法について述べる。図7は、図1の例における後続車両の車線変更を判定する処理フローを示す。図8は、図7の例におけるステレオカメラ101で画像を取得する際のカメラ座標系を示す。
まずステップ701で、画像左側の白線802の位置を検出する。これは、ステップ
603に含まれる処理である。ここで白線位置を、カメラ座標系におけるx座標値と定義する。次に、後続車両801の重心803の位置を算出する(ステップ702)。重心
803の位置は、車両認識によって車両領域を求め、その重心位置として求める。または、車両輪郭を構成すると思われるエッジに基づいて求めることが可能である。これは、2次元処理あるいは立体視処理いずれにも適用できる。
次に、重心803のx座標と白線802の位置とを比較する(ステップ703)。比較判定(ステップ704)の結果、白線802のx座標の方が大きければ車線変更したと判定し、重心803のx座標の方が大きければ車線変更してないと判定する。
白線802が認識できなかった場合は、白線804の認識結果を用いる。そのときの処理フローを図13に示す。まず、カーナビゲーションシステム109から、走行中の道路の車線幅を得る(ステップ1301)。次に、白線804を認識し(ステップ1302)、後続車の重心位置を求める(ステップ1303)。ステップ1303は、ステップ702と同等の処理である。次に、右側白線の各特徴点x座標平均値と後続車重心のx座標を比較する(ステップ1304)。これらが車線幅以上離れているかどうかを判断し(ステップ1305)、離れていれば車線変更しているとみなし、離れていなければ車線変更していないとみなす。
図9は、図5におけるステレオカメラ101で検知した車両情報のリア自車線データ
308へのデータ登録フローを示す。当該車両との相対速度を求めるには、最低2回の検知結果における相対距離差,検知時間間隔が必要である。したがって、検知した車両が前回の検知時と同一の車両かどうかを判断する必要がある。図9では、ステレオカメラ101で複数車両を検出した場合にも適用できるフローとなっている。但し、ステレオカメラ
101の設置高さにもよるが、ステレオカメラ101で撮影できる自レーン後続車は、自車直後を走行中の車両だけである。したがって、リア自車線データ308には自車直後を走行中の車両情報だけが登録されていることが多い。
まずステップ901で、リア自車線データ308から、後続車情報を得る。次に、ステレオカメラ101で後続車両検知を試みる(ステップ902)。これは、ステップ604と同等の処理である。車両が検知できたら、当該車両の車幅、当該車両までの相対距離を計算する。ここで相対距離と、リア自車線データ308から得られた相対距離を比較し
(ステップ903)、3m以下ならば同一の車両とみなし、相対速度を計算する(ステップ904)。最後に、車両の番号はそのままで、相対距離,相対速度,車幅等の車両情報をリア自車線データ308に登録する。リア自車線データ308に更に別の車両情報が登録されているかどうかを確認し(ステップ907)、別の車両情報があればステップ901に戻って、当該車両の情報について同様の処理を実行する。
もし、ステップ903で、相対距離差が3m以上ならば違う車両であるとみなし、ステップ901で得たデータをリア自車線データ308から破棄して新たに車両番号を付加し、相対距離,相対速度,車幅等の車両情報をリア自車線データ308に登録する。
車両の同定には、上記のように相対距離差ではなく、パターン認識を用いる方法も可能である。ステレオカメラ101で撮影された車両パターンをリア自車線データ308に登録しておく。次回の画像取得時に、画像から得られた車両パターンと、リア自車線データ308に登録されている車両パターンとをパターンマッチングすることによって類似度を判断する。
また、図9のフローは、追越車線を走行中の車両についてもほぼ同様である。追越車線を走行中の車両については、自車に近づいてくると、いずれステレオカメラ101の視界から外れる。そのときは、当該車両から、当該車両の後続を走行していた車両までの車間距離が3m以上であれば、ステップ903の判定で相対距離差3m以上となるため、視界から外れた車両の情報はリア追越車線データ309から破棄され、当該車両の後続車両情報は残る。つまり、ステレオカメラ101から最も近い車両までの距離変化によって、車両がステレオカメラ101の視界から外れたかどうかを判断する。
図12は、図9において車両がステレオカメラ101の視界から外れたかどうかを判断する処理フローを示す。まずステップ1201で、リア自車線データ308から、後続車情報を得る。次に、ステレオカメラ101で後続車両検知を試みる(ステップ1202)。これは、ステップ604と同等の処理である。車両が検知できたら、当該車両の車幅、当該車両までの相対距離を計算する。ここで相対距離と、リア自車線データ308から得られた相対距離を比較し(ステップ1203)、3m以下ならば同一の車両とみなし、相対速度を計算する(ステップ1204)。最後に、車両の番号はそのままで、相対距離,相対速度,車幅等の車両情報をリア追越車線データ309に登録する。リア追越車線データ309に更に別の車両情報が登録されているかどうかを確認し(ステップ1207)、別の車両情報があればステップ1201に戻って、当該車両の情報について同様の処理を実行する。
もし、ステップ1203で、相対距離差が3m以上ならば違う車両であるとみなし、ステップ1201で得たデータをリア追越車線データ309から破棄する。リア追越車線データ309から破棄されたデータは、後側方追越車線データ310に登録される(ステップ1206)。しかし、破棄された時点では、当該車両はステレオカメラ101の視界から外れており、当該車両までの相対距離、当該車両との相対速度を画像処理によって求めることは不可能である。そこで、破棄される直前のデータを後側方追越車線データ310に登録する。但し、当該情報を算出した時刻情報を付加しておく。
ここで、相対距離差3mとは、相対速度100km/h,処理間隔100msとしたときに相手車両が約3m自車に近づくことから決めた数値である。したがって、システムとして想定する相対速度や画像処理間隔によって決める数値であり、3mというのはあくまでも一例である。
図10は、単眼カメラ102におけるフローである。まず、画像を取得し(ステップ
1001)、画像中に車両となりうる候補パターンがあるかどうかを判断する(ステップ1002)。もし候補があれば、候補パターンを見つけた時刻を保持し(ステップ1003)、後側方追越車線データ310から、自車に最も近い順に車幅を取得する(ステップ1004)。
次に、後側方追越車線データ310から得た情報が、単眼カメラ102で検知した車両候補のものかどうかを判断する。そのために、後側方追越車線データ310から得た車幅を用いて、当該車両までの距離を試算する(ステップ1005)。試算された距離を基に、後側方追越車線データ310に登録されている時刻と発見時刻との差分を計算する(ステップ1006)。これは、次の(1)式による。
Figure 0004420011
この差分を閾値と比較し(ステップ1007)、閾値以下であれば、発見した車両候補と後側方追越車線データ310に登録されている車両とは同一とし、後側方追越車線データ310の当該車両に関するデータを更新する。この方法によって、車両がステレオカメラ101,単眼カメラ102のいずれのカバレッジにも入っていない場合でも、当該車両が単眼カメラ102のカバレッジに入ったときに車幅を用いて相対距離を計測することができる。
閾値以上ならば、同一ではないとし、後側方追越車線データ310に登録されている次の車両情報について、同様の処理を実施する。もし、後側方追越車線データ310に登録されている時刻と発見時刻との差分が閾値以下になる車両が存在しない場合は、発見した車両候補は、追越車線の更に右側の車線から進入してきた車両とみなす。つまり、後側方追越車線データ310に登録されていない車両である。
走行中の道路に2車線しか無いとわかっている場合は、発見した車両候補は誤認識とみなしてもよい。またはこの場合、単眼カメラ102の設置位置や角度がずれたとも考えられる。このときは、カメラパラメータを設定し直す必要がある。
物体の幅をW、カメラの焦点距離をf、物体までの距離をd、画像における物体の幅を△xとすると、
Figure 0004420011
という関係にある。ここで、カメラの向きがθだけ変わった場合を考えると、(2)式ではWの代わりにWcosθ となり、次の(3)式の関係になる。
Figure 0004420011
図22は、角度θだけ変わった単眼カメラ102で車両801を捉えた様子である。画像における幅は△xであった場合、Wを後側方追越車線データ310の値を用いて、カメラの向きθを求めることができる。
ここで、追越車線の更に右車線から追越車線に進入してきた車両の扱いについて述べる。当該車両は、ステレオカメラ101のカバレッジを通過せずに単眼カメラ102のカバレッジに出現したものであり、車幅は不明である。このような場合でも、ステレオカメラ101と単眼カメラ102の両者のカバレッジを通過した車両の車幅データを基に当該車両の車幅を推定して、相対距離を求めることが可能である。
図11は、画像における車幅とそのときの相対距離との関係を学習させるための処理フローである。車両を検知したら(ステップ1101)、画像上での車幅を学習用データ
(図示しない)に登録する(ステップ1102)。次に、検知した車両の車幅データが後側方追越車線データ310に存在するか確認する(ステップ1103)。これは、図10のフローに示した処理で実施可能である。存在していれば、車幅データを用いて相対距離を求める(ステップ1104)。これは図10に示した処理で実施可能である。次に、画像上での車幅を、学習用データに登録する(ステップ1105)。最後に、画像上での車幅と相対距離との関係を求める(ステップ1106)。これは、学習用データに登録された車幅と相対距離との関係を最小二乗法等で求め、画像上での車幅と相対距離との割合を求めればよい。
もし、後側方追越車線データ310に、検知した車両の車幅が存在していなければ、上記で求めた画像上での車幅と相対距離との割合によって相対距離を推定すればよい(ステップ1107)。
次に、ステレオカメラ101の代わりに、後方監視用に単眼カメラを設置した場合の実施例について述べる。図14は、そのときの装置構成を示す。図1と比べて、ステレオカメラ101がリア単眼カメラ1401に変わっただけであり、その他の構成は変わらない。
図15は、ソフトウェア構成を示す。これも図3と比べて、ステレオカメラ101がリア単眼カメラ1401に変わっただけであり、その他の構成は変わらない。
本発明において後方監視に単眼カメラを用いる場合、自レーンの後続車の車幅を求める処理が異なる。これについて、図16,図17を参照しながら述べる。
まず、ステップ1601で画像を得る。次に、白線認識(ステップ1602),車両
1703の検知(ステップ1603)を実行する。ここで、自レーン後方に車両が検知されたかを判定し(ステップ1604)、車両が検知されたら次の処理に進む。
車両が検知されていたら、カーナビゲーションシステム109から、現在走行中のレーン幅を得る(ステップ1605)。あるいは、レーン幅は高速道路であれば3.5m 等のように、道路規格に応じて決まっているので、自車が走行中の道路種別を得て、レーン幅を推定しても良い。
次に、車両の左右エッジを検出し、画像上でのエッジ間の幅WVを求める(ステップ
1606)。次に、車両最下部のエッジを検出し(ステップ1607)、そのエッジと白線1701,白線1702との交点を求める(ステップ1608)。交点を検出したら、交点間の距離WLを求め、それとレーン幅との比率から車幅を求める(ステップ1609)。
例えばレーン幅が3.5mの場合、WL:3.5=WV:車幅という関係が成り立つため、車幅=3.5×WV/WL となる。こうして車幅を求めたら、以降の処理は上記した処理と同じである。このようにして、後方監視カメラを単眼にしても、レーン幅を基にして車幅を求めることによって、同様の効果を得ることが可能である。
これを応用して、ステレオカメラ101のキャリブレーションや自己診断が実施できる。図23に、ステレオカメラ101における取得画像例を示す。画像2310−Lはカメラ101−Lの取得画像、画像2301−Rはカメラ101−Rの取得画像である。画像2310−Lに比べて、画像2301−Rでは、車両2303が少し上に映っている。ステレオマッチングでは、画像の縦位置が合っていれば、マッチングポイントの検索は横方向だけで済むため、処理時間の短縮になる。したがって、図23のような画像が得られた場合でも、画像の縦位置のずれを補正するのが適切である。
その処理を図24に示す。基本的な処理は、図16に示した処理を、カメラ101−R,カメラ101−Lに対して実行し、車両の検知位置に基づいて縦位置のずれを補正するものである。
ステップ2401〜2410は、画像2301−Lに関する処理である。処理内容は図16と同様であり、詳細の記述は省略する。車両を検知して画像における幅WVL、白線を認識して画像における車線幅WLLを求め、WVLとWLLを基に車幅を求める。
ステップ2411〜2419は、画像2301−Rに関する処理である。但し、車線幅はステップ2405で得ているので、この処理は不要である。画像2301−Rでも同様に、車両を検知して画像における幅WVR、白線を認識して画像における車線幅WLRを求め、WVRとWLLを基に車幅を求める。
こうして得られた車幅を比較して(ステップ2420)、差が閾値以下であれば両画像で得られた車両最下部エッジのy方向のずれを算出し、その分だけ縦位置の補正を実施する。
また、車両までの距離を、ステップ602で得た距離画像を基に算出した場合と、図
24に示した方法で、左右両画像を基に算出した場合とを比べることによって、自己診断が可能である。そのフローチャートを図25に示す。
ステップ2501,2502で、左右の画像を得る。次に、ステップ2503,2504にて、両画像に映った車両までの距離をそれぞれ求める。これは、図24に示した方法と同様である。次に、それぞれで求めた距離の差を評価し(ステップ2506)、差が閾値以内であれば、それぞれの距離の平均値を、車両までの距離の真値とする(ステップ2507)。次に、距離画像を取得する(ステップ2508)。これは、一般に知られている手法でよい。次に、距離画像を基にして車両を認識する(ステップ2509)。距離画像を基に車両までの距離を計算し(ステップ2510)、ステップ2507で設定した真値との差を評価する(ステップ2511)。閾値以下であれば正常とし、そうでなければ異常があると判断する。
図18は、後方監視にレーザレーダを用いる場合の構成である。ステレオカメラ101の代わりにレーザレーダ1801を用い、レーザレーダ1801の制御のためにレーダ制御装置1802を用いる。その他の構成については、これまでの構成と同様である。レーザレーダ1801は物体までの距離と方位を計測することが可能であり、物体の幅も計測することが可能である。
図19は、レーザレーダ1801を用いる場合のソフトウェア構成である。この場合、白線を認識して車線ごとの車両を検知することはできないが、対象物の方位がわかるので、それを用いて車線ごとの車両を検知する。このとき、走行中の道路がカーブしている場合、方位だけでは車線ごとの車両を区別できないので、カーナビゲーションシステム109から道路リンク情報を得て、検知した車両がどこの車線にいるかを判別する。
図20は、レーザレーダ1801を用いる場合の処理フローである。最初にステップ
2001で後方車両検知を試みる。車両がいたかどうかを判断し(ステップ2002)、車両がいたら、当該車両の車幅を検知する(ステップ2003)。次に自車位置をカーナビゲーションシステム109から得て(ステップ2004)、後方車両の位置を計測する(ステップ2005)。レーザレーダ1801では、相手車両までの距離と自車位置からの方位がわかるので、それを用いて後方車両の位置を求めることが可能である。
次に、カーナビゲーションシステム109から、自車が走行中のリンク情報を得て(ステップ2006)、リンクと相手車両との相対位置関係を求める(ステップ2007)。ここで、まず、リンクと相手車両との距離を求め、それが閾値以内かどうかを判断する
(ステップ2008)。閾値以内であれば自レーンを走行中であるとし、そうでない場合は、リンクと相手車両との相対位置関係からレーンを判断する(ステップ2009)。自車から向かって、相手車両が左側ならば追越車線、右側ならば自車の左側レーンとなる。
但し、ここで開示した方法は、カーナビゲーションシステム109から得られる自車位置や地図情報が正確であることが条件となる。
尚、これまでに開示した実施例は、後方監視の場合だけでなく、前方監視にも応用することが可能である。例えば、前方監視用ステレオカメラ、前側方監視カメラを用いた場合において、前方を走行中の車両が自車走行車線の隣接車線に進入した場合において、ドライバーがそれに気づかなかったり、自車のピラーの陰になって死角に入ったりする場合がありうる。そのような場合においても、これまでに開示した後方監視における技術を前方監視に応用すれば、前側方走行中の車両までの距離等がわかり、同様に車線変更支援が可能となる。
このように本実施形態は、後続車両の幅,高さを検知するステレオカメラと、隣接車線上の後方車両を検知する単眼カメラを備え、ステレオカメラの画像を処理するための第1の画像処理装置、単眼カメラの画像を処理するための第2の画像処理装置、第1,第2の画像処理装置による車両検知処理よって算出された車両の特徴量を格納するためのデータベースとを有し、第1の画像処理装置は後続車両が追越車線に入ったときに、車両の特徴量を算出して前記データベースに登録し、第2の画像処理装置は当該特徴量を用いて単眼カメラの画像に映っている車両までの距離を求める。
また、単眼カメラで検知した車両が、ステレオカメラのカバレッジを通過していたかどうかを判定するステレオカメラカバレッジ通過判定部を備え、通過していない車両であれば、第2の画像処理装置はデータベースに登録された特徴量を基に当該車両の大きさを推定し、当該車両までの距離を求める。
また、ステレオカメラカバレッジ通過判定部は、データベースに格納されている特徴量を基に当該車両までの相対距離を試算し、当該特徴量が前記データベースに登録された時刻と、第2の画像処理装置が当該車両を検知した時刻との差と相対距離を基にして当該車両がデータベースに格納されている特徴量を持つ車両であると判断したときに車両は自車後方車両検知装置のカバレッジを通過してきた車両であると判定する。
第1の画像処理装置と第2の画像処理装置は、データベースに格納されている特徴量と、検知した車両の特徴量を基にそれぞれ相対距離を試算し、相対距離差が閾値以下ならば、当該車両は前記データベースに格納されている特徴量を持つ同一車両であると判定して前記データベースのデータを更新する。
データベースは、前記自車後方車両検知装置が検知した自車レーン後方車両の特徴量を格納する自車後方車両データベースと、自車後方車両検知装置が検知した隣接レーン後方車両の特徴量を格納する第1の隣接レーン後方車両データベースと、単眼カメラが検知した隣接レーン後方車両の特徴量を格納する第2の隣接レーン後方車両データベースとを備える。
データベースは、第1の画像処理装置,第2の画像処理装置によって検知された車両の車幅,自車との相対位置,検知時刻,相対速度,画像上での車幅を保持することが好ましい。
隣接車線上の後方車両を検知する単眼カメラで捉えた車両の車幅データと、車幅データを用いて算出した車両までの相対距離を用いて、単眼カメラの向きを推定する。
第1の画像処理装置は、検知した車両が走行中のレーンを識別するために道路上の白線を認識し、白線と当該車両との位置関係を用いる。第1の画像処理装置は、画像に向かって左側に描かれている白線と当該車両の重心との左右位置関係を基に当該車両の走行レーンを識別する。また画像に向かって左側に描かれている白線が認識不可能の場合、画像に向かって右側に描かれている白線の位置と、車線幅に基づいて、車両重心の横位置が右側の白線から車線幅以上左に存在する場合に当該車両が隣接レーンを走行中であると判定する。
ステレオカメラの両カメラの画像を処理し、それぞれの画像から白線の幅,車両の幅をそれぞれ求め、それらを基に検知した車両までの距離をそれぞれ算出し、距離の差が閾値以下であればそれぞれの画像で検出した車両を同一のものと判定し、検出した車両の最下部エッジの画像における高さの差を基に、カメラパラメータを決定する。
車両後方監視装置は、ステレオカメラの両カメラの画像を処理し、それぞれの画像から白線の幅,車両の幅をそれぞれ求め、それらを基に検知した車両までの距離をそれぞれ算出し、距離の差が閾値以下であれば、それぞれの距離を基に当該車両までの距離の真値を設定し、距離画像を処理して得られる当該車両までの距離と真値とを比較し、差が閾値以下であれば正常動作中とみなし、閾値以上ならば異常動作と判定する。
また、後続車両の幅,高さを検知する第1の単眼カメラと、隣接車線上の後方車両を検知する第2の単眼カメラを備え、第1の単眼カメラの画像を処理するための第1の画像処理装置,第2の単眼カメラの画像を処理するための第2の画像処理装置、第1,第2の画像処理装置による車両検知処理よって算出された車両の特徴量を格納するためのデータベースとを有し、第1の画像処理装置は後続車両が追越車線に入ったときに、車両の特徴量を算出してデータベースに登録し、第2の画像処理装置は、特徴量を用いて単眼カメラの画像に映っている車両までの距離を求める。
第2の単眼カメラで検知した車両が、第1の単眼カメラのカバレッジを通過していたかどうかを判定する後方監視カメラカバレッジ通過判定部を備え、通過していない車両であれば、第2の画像処理装置はデータベースに登録された特徴量を基に当該車両の大きさを推定し、当該車両までの距離を求める。
第1の画像処理装置は、第1の単眼カメラで撮影された画像から自車が走行中のレーン両側の白線を検出し、当該白線どうしの距離と走行中の道路種別から推定した車幅と、当該車両の画像上での幅とを用いて当該車両の車幅を推定し、第2の画像処理装置は車幅を用いて第2の単眼カメラの画像に映っている車両までの距離を求める。
第1の画像処理装置と第2の画像処理装置は、データベースに格納されている特徴量と、検知した車両の特徴量を基にそれぞれ相対距離を試算し、相対距離差が閾値以下ならば、当該車両は前記データベースに格納されている特徴量を持つ同一車両であると判定してデータベースのデータを更新する。
データベースは、ステレオカメラが検知した自車レーン後方車両の特徴量を格納する自車後方車両データベースと、ステレオカメラが検知した隣接レーン後方車両の特徴量を格納する第1の隣接レーン後方車両データベースと、単眼カメラが検知した隣接レーン後方車両の特徴量を格納する第2の隣接レーン後方車両データベースとを備える。
またデータベースは、第1の画像処理装置,第2の画像処理装置によって検知された車両の車幅,自車との相対位置,検知時刻,相対速度,画像上での車幅を保持することが好ましい。
第1の画像処理装置は、検知した車両が走行中のレーンを識別するために道路上の白線を認識し、白線と当該車両との位置関係を用いる。第1の画像処理装置は、画像に向かって左側に描かれている白線と当該車両の重心との左右位置関係を基に当該車両の走行レーンを識別する。また、画像に向かって左側に描かれている白線が認識不可能の場合、画像に向かって右側に描かれている白線の位置と、車線幅に基づいて、車両重心の横位置が右側の白線から車線幅以上左に存在する場合に当該車両が隣接レーンを走行中であると判定する。
また、後続車両の幅,高さを検知するレーザレーダと、隣接車線上の後方車両を検知する単眼カメラを備え、レーザレーダのデータを処理するためのレーダ制御装置,単眼カメラの画像を処理するための画像処理装置,レーダ制御装置と画像処理装置による車両検知処理よって算出された車両の特徴量を格納するためのデータベースとを有し、レーダ制御装置は後続車両が追越車線に入ったときに、車両の特徴量を算出してデータベースに登録し、画像処理装置は、特徴量を用いて単眼カメラの画像に映っている車両までの距離を求める。
検知した車両の相対位置と自車位置を基に当該車両の絶対位置を求めて、自車が走行中の道路を構成するリンクと当該車両との距離を求め、距離が閾値以下ならば当該車両は自車と同じレーンを走行中と判定し、そうでない場合は当該車両と当該リンクとの位置関係を基に当該車両の走行レーンを判定する。
データベースに格納されている特徴量と、検知した車両の特徴量を基にそれぞれ相対距離を試算し、相対距離差が閾値以下ならば、当該車両は前記データベースに格納されている特徴量を持つ同一車両であると判定してデータベースのデータを更新する。
またデータベースは、レーザレーダが検知した自車レーン後方車両の特徴量を格納する自車後方車両データベースと、レーザレーダが検知した隣接レーン後方車両の特徴量を格納する第1の隣接レーン後方車両データベースと、単眼カメラが検知した隣接レーン後方車両の特徴量を格納する第2の隣接レーン後方車両データベースとを備える。
データベースは、前記レーダ制御装置,前記画像処理装置によって検知された車両の車幅,自車との相対位置,検知時刻,相対速度を保持していることが好ましい。
また、単眼カメラで捉えた車両の車幅データと、車幅データを用いて算出した車両までの相対距離を用いて、前記単眼カメラの向きを推定する。
隣接車線上の後方車両を検知する単眼カメラで捉えた車両の車幅データと、車幅データを用いて算出した車両までの相対距離を用いて、単眼カメラの向きを推定する。
尚、車両の後側方を監視するには、サイドミラーにステレオカメラを設置することも考えられる。これによって、自車後側方から接近してくる車両までの距離,相対速度が計測できる。
しかし、サイドミラーにステレオカメラを設置するには、カメラをコンパクトにする必要があり、それに伴ってカメラの基線長が短くなってしまうために、距離や相対速度の精度が出ない場合もある。
理想的には自車を中心に全方位を監視することであるが、そのためには多くのセンサを車両に設置する必要があるため、コストが高くなる。センサの数を少なくすればコストは抑えられるが、結局はどのセンサでも捉えられない死角が発生する可能性があり、その死角に入ってしまった車両については検知することができない。
本実施形態によれば、コストを抑えながら、車両の周囲の物体をより精度良く検知することができ、車両の予防安全技術に寄与することが可能である。特に、進入したい車線の後方を監視して接近車両がいないことを確認することによって、自車両の車線変更における支援に寄与することができる。
本発明の一実施形態をなす物体検知システムのブロック構成図を示す。 図1の例におけるステレオカメラ101,単眼カメラ102の設置場所の例を示す。 図1の例におけるソフトウェア構成図を示す。 図3の動作説明図を示す。 図1の例の処理フローを示す。 図1のステレオカメラ101の処理フローを示す。 図1の例における後続車両の車線変更を判定する処理フローを示す。 図7の例におけるステレオカメラ101で画像を取得する際のカメラ座標系を示す。 図5におけるステレオカメラ101で検知した車両情報のリア自車線データ308へのデータ登録フローを示す。 単眼カメラ102における処理フローである。 画像における車幅とそのときの相対距離との関係を学習させるための処理フローである。 図9において車両がステレオカメラ101の視界から外れたかどうかを判断する処理フローを示す。 画像左側白線認識できなかった場合の処理フローである。 後方監視用に単眼カメラを設置した場合の装置構成である。 後方監視用に単眼カメラを設置した場合のソフトウェア構成である。 後方監視用に単眼カメラを設置した場合の処理フローである。 後方監視用カメラから得られる画像の模式図である。 後方監視用にレーザレーダを設置した場合の装置構成である。 後方監視用にレーザレーダを設置した場合のソフトウェア構成である。 後方監視用にレーザレーダを用いる場合の処理フローである。 図3におけるリア自車線データ308,リア追越車線データ309,後側方追越車線データ310に含まれるデータの構造を示す。 後側方単眼カメラの向きと検知車両との関係を示す図である。 ステレオカメラ101で得られる2画像の例である。 ステレオカメラ101のキャリブレーションの処理フローである。 ステレオカメラ101の自己診断の処理フローである。
符号の説明
101 ステレオカメラ
102 単眼カメラ
103−S,103−M 画像処理部
104 CPU
105 記憶装置
106 CANインターフェース
107 車両制御ユニット
108 CANバス
109 カーナビゲーションシステム

Claims (11)

  1. 第1のセンサで認識した結果を処理する第1処理部と、
    第2のセンサで認識した結果を処理する第2処理部と、
    前記第1処理部で処理された認識結果を分析することにより、前記第1のセンサのカバレッジにある物体のを求め、求めた特徴量を記憶装置に記憶するとともに、前記物体が前記第1のセンサのカバレッジから前記第2のセンサのカバレッジに移動したときに、前記記憶装置に記憶された当該物体の幅と、前記第2処理部で処理された認識結果を分析することにより求めた前記物体のとに基づいて、当該物体との相対距離を求める演算部と、
    前記演算部で求めた前記相対距離情報を出力するインターフェース部と、
    を有する物体検知装置。
  2. 請求項1記載の物体検知装置であって、
    前記第1処理部は、車両後方を撮像するステレオカメラで検知した画像を処理し、
    前記第2処理部は、車両後側方を撮像する単眼カメラで検知した画像を処理し、
    前記演算部は、前記第1処理部で処理された画像を分析することにより、前記ステレオカメラのカバレッジにある後続車両の車幅を求め、求めた車幅を記憶装置に記憶するとともに、前記後続車両が前記ステレオカメラのカバレッジから前記単眼カメラのカバレッジに移動したときに、前記記憶装置に記憶された当該後続車両の車幅と、前記第2処理部で処理された画像を分析することにより求めた前記後続車両の車幅とに基づいて、当該後続車両と自車との距離を求める物体検知装置。
  3. 請求項2記載の物体検知装置であって、
    前記演算部は、前記単眼カメラで検知した車両が、前記ステレオカメラのカバレッジを通過していない車両であると判定した場合には、前記第2処理部で処理された画像を分析することにより求めた前記後続車両の特徴量に基づいて当該後続車両と自車との距離を求める物体検知装置。
  4. 請求項2記載の物体検知装置であって、
    前記演算部は、前記第1または第2の処理部で処理された画像に基づいて求めた前記後続車両の特徴量に基づき当該後続車両と自車との距離を求め、当該距離の差が閾値以下ならば、当該後続車両は前記記憶装置に格納されている特徴量を持つ車両と同一の車両であると判定して当該記憶装置の特徴量を更新する物体検知装置。
  5. 請求項2記載の物体検知装置であって、
    前記記憶装置は、前記第1処理部によって検知された車両の車幅,前記第2処理部によって検知された車両の車幅,自車との相対位置,検知時刻,相対速度,画像上での車幅の少なくともいずれか一つをデータベースとして保持する物体検知装置。
  6. 請求項2記載の物体検知装置であって、
    前記演算部は、前記第1処理部で処理された画像を分析することにより自車の同一のレーンの後続車両を検知する自レーン後続車検知部と、前記第1処理部で処理された画像を分析することにより自車の同一のレーンに対する追越レーンの後続車両を検知する第1の追越レーン後続車検知部と、前記第2処理部で処理された画像を分析することにより前記追越レーンの後続車両を検知する第2の追越レーン後続車検知部とを有する物体検知装置。
  7. 請求項6記載の物体検知装置であって、
    前記演算部は、前記第1画像処理部で処理された画像を分析することにより道路上の白線を認識する白線認識部を有し、画面上の前記後続車両の重心と前記白線認識部で認識した白線の相対位置によって当該後続車両の走行レーンを識別する物体検知装置。
  8. 車両後方を撮像する第1の単眼カメラで検知した画像を処理する第1処理部と、
    車両後側方を撮像する第2の単眼カメラで検知した画像を処理する第2処理部と、
    記第1処理部で処理された画像を分析することにより、前記第1の単眼カメラのカバレッジにある後続車両の車幅または高さを求め、求めた車幅または高さを記憶装置に記憶するとともに、前記後続車両が前記第1の単眼カメラのカバレッジから前記第2の単眼カメラのカバレッジに移動したときに、前記記憶装置に記憶された当該後続車両の車幅または高さと、前記第2処理部で処理された画像を分析することにより求めた前記後続車両の車幅または高さとに基づいて、当該後続車両と自車との距離を求める演算部と、
    前記演算部で求めた前記距離を出力するインターフェース部と、
    を有する物体検知装置。
  9. 請求項8記載の物体検知装置であって、
    前記演算部は、前記第1の単眼カメラで撮影された画像から自車が走行中のレーン両側の白線を検出し、当該白線どうしの距離と走行中の道路種別から推定した車幅と、当該車両の画像上での幅とを用いて当該車両の車幅を推定し、前記第2の画像処理装置は前記車幅を用いて前記第2の単眼カメラの画像に映っている車両までの距離を求める物体検知装置。
  10. 請求項1記載の物体検知装置であって、
    前記第1の処理部は、車両後方を撮像する前記第1のセンサで検知した画像を処理し、
    前記第2の処理部は、車両後側方を撮像する前記第2のセンサで検知した画像を処理する物体検知装置。
  11. 請求項1記載の物体検知装置であって、
    前記第1のセンサは、ステレオカメラであり、
    前記第2のセンサは、単眼カメラである物体検知装置。
JP2006309784A 2006-11-16 2006-11-16 物体検知装置 Expired - Fee Related JP4420011B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006309784A JP4420011B2 (ja) 2006-11-16 2006-11-16 物体検知装置
US11/941,259 US7782179B2 (en) 2006-11-16 2007-11-16 Obstacle detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006309784A JP4420011B2 (ja) 2006-11-16 2006-11-16 物体検知装置

Publications (2)

Publication Number Publication Date
JP2008123462A JP2008123462A (ja) 2008-05-29
JP4420011B2 true JP4420011B2 (ja) 2010-02-24

Family

ID=39497314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006309784A Expired - Fee Related JP4420011B2 (ja) 2006-11-16 2006-11-16 物体検知装置

Country Status (2)

Country Link
US (1) US7782179B2 (ja)
JP (1) JP4420011B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11758263B2 (en) 2021-08-24 2023-09-12 Moleculight, Inc. Systems, devices, and methods for imaging and measurement using a stereoscopic camera system

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7885730B2 (en) * 2007-01-26 2011-02-08 Nexteer (Beijing) Technology Co., Ltd. Systems, methods and computer program products for lane change detection and handling of lane keeping torque
JP4506790B2 (ja) * 2007-07-05 2010-07-21 アイシン・エィ・ダブリュ株式会社 道路情報生成装置、道路情報生成方法および道路情報生成プログラム
JP5109691B2 (ja) * 2008-01-31 2012-12-26 コニカミノルタホールディングス株式会社 解析装置
JP5182042B2 (ja) * 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
DE102009007342A1 (de) * 2009-02-04 2010-08-05 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung
JPWO2010109831A1 (ja) * 2009-03-23 2012-09-27 コニカミノルタホールディングス株式会社 ドライブレコーダ
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
CN102460535B (zh) * 2009-06-11 2014-09-03 丰田自动车株式会社 车辆行驶位置判定方法及车辆行驶位置判定装置
JP4877364B2 (ja) 2009-07-10 2012-02-15 トヨタ自動車株式会社 物体検出装置
EP2455927A4 (en) * 2009-07-17 2014-03-12 Panasonic Corp DRIVE RELIEF DEVICE, DRIVE ASSISTANCE PROCEDURE AND PROGRAM
US8072351B1 (en) * 2009-07-21 2011-12-06 Absher Ii Charlie A Blind spot alert apparatus
US7978122B2 (en) * 2009-08-13 2011-07-12 Tk Holdings Inc. Object sensing system
EP2302412B1 (en) * 2009-09-29 2012-08-15 Volvo Car Corporation System and method for evaluation of an automotive vehicle forward collision threat
CN102549631B (zh) * 2009-09-30 2014-11-12 松下电器产业株式会社 车辆周围监视装置
TW201122848A (en) * 2009-12-29 2011-07-01 Ind Tech Res Inst Method and system for calculating image recognition rate and embedded image processing system
JP5574789B2 (ja) * 2010-04-08 2014-08-20 株式会社東芝 車両周辺監視装置及び車両周辺監視方法
DE102010049086A1 (de) * 2010-10-21 2012-04-26 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Verfahren zum Beurteilen der Fahreraufmerksamkeit
BR112013016893A2 (pt) * 2010-12-29 2016-10-25 Siemens Sas sistema e método para auxiliar na mudança de pista ativo para um veículo motorizado
JP5680436B2 (ja) * 2011-02-15 2015-03-04 アルパイン株式会社 車載カメラレンズ用異物付着判定装置
JP2012198075A (ja) * 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法
JP5801610B2 (ja) * 2011-06-06 2015-10-28 株式会社日立情報通信エンジニアリング 交通流計測システム
EP2720211B1 (en) * 2011-06-09 2016-08-10 Toyota Jidosha Kabushiki Kaisha Other-vehicle detection device and other-vehicle detection method
EP2741271B8 (en) * 2011-08-02 2019-09-11 Nissan Motor Co., Ltd Object detector and object detection method
DE102011109569A1 (de) * 2011-08-05 2013-02-07 Conti Temic Microelectronic Gmbh Verfahren zur Fahrspurerkennung mittels einer Kamera
JP5863105B2 (ja) * 2011-12-13 2016-02-16 アルパイン株式会社 車両移動量推定装置および障害物検出装置
WO2013148675A1 (en) * 2012-03-26 2013-10-03 Robert Bosch Gmbh Multi-surface model-based tracking
JP2014067320A (ja) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd ステレオカメラ装置
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
JP5743286B2 (ja) * 2012-12-28 2015-07-01 富士重工業株式会社 車両の運転支援装置
DE102013104256A1 (de) 2013-04-26 2014-10-30 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Schätzung der Anzahl von Fahrspuren
WO2015056105A1 (en) * 2013-10-14 2015-04-23 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
KR101551215B1 (ko) * 2014-05-28 2015-09-18 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
JP6404922B2 (ja) * 2014-06-19 2018-10-17 日立オートモティブシステムズ株式会社 物体認識装置及びそれを用いた車両走行制御装置
KR101979928B1 (ko) * 2014-06-24 2019-05-22 주식회사 만도 전방 차량 거리 추정 시스템 및 방법
KR101603609B1 (ko) * 2014-07-15 2016-03-28 현대모비스 주식회사 차량용 어라운드 뷰 모니터링 시스템 및 이의 방법
KR101692628B1 (ko) * 2014-12-24 2017-01-04 한동대학교 산학협력단 관심영역을 이용하여 차량의 후방 좌우 옆 차선 영역을 감지하는 방법 및 이를 이용한 차량용 영상 모니터링 시스템
JP6661883B2 (ja) * 2015-02-09 2020-03-11 株式会社デンソー 車両用表示制御装置及び車両用表示制御方法
DE102015209186A1 (de) * 2015-05-20 2016-12-08 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ermittlung einer Beschreibung eines Fahrstreifens
US9551583B1 (en) 2015-07-06 2017-01-24 International Business Machines Corporation Hybrid road network and grid based spatial-temporal indexing under missing road links
JP6027659B1 (ja) * 2015-08-27 2016-11-16 富士重工業株式会社 車両の走行制御装置
JP6339058B2 (ja) * 2015-09-30 2018-06-06 株式会社東芝 車載器および車頭間距離算出方法
US9983591B2 (en) * 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
US9889859B2 (en) * 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
DE102016201070A1 (de) * 2016-01-26 2017-07-27 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerassistenz
KR102462502B1 (ko) * 2016-08-16 2022-11-02 삼성전자주식회사 스테레오 카메라 기반의 자율 주행 방법 및 그 장치
WO2018150496A1 (ja) * 2017-02-15 2018-08-23 富士通周辺機株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP6378801B2 (ja) * 2017-05-08 2018-08-22 住友建機株式会社 ショベル
KR20190012370A (ko) * 2017-07-27 2019-02-11 삼성에스디에스 주식회사 차선 변경 지원 방법 및 장치
JP6541734B2 (ja) * 2017-09-06 2019-07-10 住友建機株式会社 ショベル
JP6926957B2 (ja) * 2017-11-02 2021-08-25 トヨタ自動車株式会社 車線変更支援装置
JP7064948B2 (ja) * 2018-05-15 2022-05-11 株式会社日立製作所 自律移動装置及び自律移動システム
US11567632B2 (en) 2018-07-03 2023-01-31 Apple Inc. Systems and methods for exploring a geographic region
CN108749813B (zh) * 2018-07-25 2023-09-19 上海为森车载传感技术有限公司 一种自动泊车系统及泊车方法
JP7020353B2 (ja) * 2018-09-21 2022-02-16 トヨタ自動車株式会社 物体検出装置
TWI699999B (zh) * 2018-11-13 2020-07-21 勝捷光電股份有限公司 車載視覺輔助系統
KR102622169B1 (ko) 2018-12-06 2024-01-08 팅크웨어(주) 주행 영상을 이용하여 차간 거리를 측정하는 차간 거리 측정 방법, 차간 거리 측정 장치, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
CN109948448B (zh) * 2019-02-20 2021-03-12 苏州风图智能科技有限公司 用于3d障碍物的检测方法、装置、系统及计算机存储介质
US11222218B2 (en) 2019-03-11 2022-01-11 Subaru Corporation Vehicle exterior environment detection apparatus
JP7291505B2 (ja) 2019-03-19 2023-06-15 株式会社Subaru 車外環境検出装置
US10887928B2 (en) * 2019-04-24 2021-01-05 Here Global B.V. Lane aware clusters for vehicle to vehicle communication
JP7397609B2 (ja) * 2019-09-24 2023-12-13 株式会社Subaru 走行環境認識装置
US11796334B2 (en) 2020-05-15 2023-10-24 Apple Inc. User interfaces for providing navigation directions
US11788851B2 (en) 2020-06-11 2023-10-17 Apple Inc. User interfaces for customized navigation routes
CN114252883B (zh) * 2020-09-24 2022-08-23 北京万集科技股份有限公司 目标检测方法、装置、计算机设备和介质
CN112665538B (zh) * 2020-12-09 2023-10-13 云南昆船电子设备有限公司 车辆自主导航横向测距系统及方法
CN119223321A (zh) 2021-06-07 2024-12-31 苹果公司 用于地图和导航的用户界面
US20220390248A1 (en) 2021-06-07 2022-12-08 Apple Inc. User interfaces for maps and navigation
JP2023009609A (ja) * 2021-07-07 2023-01-20 株式会社Subaru 車両の運転支援装置
WO2025013285A1 (ja) * 2023-07-13 2025-01-16 日立Astemo株式会社 物体検知装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11321495A (ja) 1998-05-08 1999-11-24 Yazaki Corp 後側方監視装置
JP3298851B2 (ja) * 1999-08-18 2002-07-08 松下電器産業株式会社 多機能車載カメラシステムと多機能車載カメラの画像表示方法
EP1303140A4 (en) * 2000-07-19 2007-01-17 Matsushita Electric Ind Co Ltd MONITORING SYSTEM
ES2328676T3 (es) * 2002-07-17 2009-11-17 Fico Mirrors, S.A. Dispositivo de vigilancia activa en un perimetro de seguridad de un vehiculo automovil.
JP4513318B2 (ja) * 2003-12-10 2010-07-28 日産自動車株式会社 後側方画像制御装置および方法
JP2005339241A (ja) * 2004-05-27 2005-12-08 Nissan Motor Co Ltd モデル予測制御装置および車両用推奨操作量生成装置
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11758263B2 (en) 2021-08-24 2023-09-12 Moleculight, Inc. Systems, devices, and methods for imaging and measurement using a stereoscopic camera system

Also Published As

Publication number Publication date
JP2008123462A (ja) 2008-05-29
US7782179B2 (en) 2010-08-24
US20080136612A1 (en) 2008-06-12

Similar Documents

Publication Publication Date Title
JP4420011B2 (ja) 物体検知装置
US10163016B2 (en) Parking space detection method and device
JP4615038B2 (ja) 画像処理装置
CN107251127B (zh) 车辆的行驶控制装置以及行驶控制方法
US9074906B2 (en) Road shape recognition device
JP4561863B2 (ja) 移動体進路推定装置
EP3161507B1 (en) Method for tracking a target vehicle approaching a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
US20170297488A1 (en) Surround view camera system for object detection and tracking
CN107209998B (zh) 车道线识别装置以及车道线识别方法
CN106463064A (zh) 物体识别装置和使用该物体识别装置的车辆行驶控制装置
TW201704067A (zh) 防撞方法、實現該防撞方法之電腦程式產品及防撞系統
JP7413935B2 (ja) 車載センサシステム
CN108694860A (zh) 注意提醒装置
JP2000136905A (ja) 物体端の位置計測装置および移動体の通行判断装置
CN112537295A (zh) 驾驶辅助装置
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
EP3530536A1 (en) Autonomous emergency braking system and method for vehicle at crossroad
US8160300B2 (en) Pedestrian detecting apparatus
JP4876147B2 (ja) 車線判定装置及びナビゲーションシステム
JP2018060422A (ja) 物体検出装置
JP2004310522A (ja) 車両用画像処理装置
JP6115429B2 (ja) 自車位置認識装置
JP4661602B2 (ja) 後方車両解析装置及び衝突予測装置
JP6609292B2 (ja) 車外環境認識装置
WO2017013692A1 (ja) 走行車線判定装置及び走行車線判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4420011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees