[go: up one dir, main page]

JP7310527B2 - 障害物識別装置および障害物識別プログラム - Google Patents

障害物識別装置および障害物識別プログラム Download PDF

Info

Publication number
JP7310527B2
JP7310527B2 JP2019188274A JP2019188274A JP7310527B2 JP 7310527 B2 JP7310527 B2 JP 7310527B2 JP 2019188274 A JP2019188274 A JP 2019188274A JP 2019188274 A JP2019188274 A JP 2019188274A JP 7310527 B2 JP7310527 B2 JP 7310527B2
Authority
JP
Japan
Prior art keywords
shadow
vehicle
image
gradient
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019188274A
Other languages
English (en)
Other versions
JP2021064156A (ja
Inventor
敬之 弘光
知之 藤本
明宏 貴田
真澄 福万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2019188274A priority Critical patent/JP7310527B2/ja
Priority to US17/068,244 priority patent/US20210109543A1/en
Publication of JP2021064156A publication Critical patent/JP2021064156A/ja
Application granted granted Critical
Publication of JP7310527B2 publication Critical patent/JP7310527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示は、障害物識別装置および障害物識別プログラム
従来、特許文献1に記載されているように、自車の位置情報と、太陽の位置情報と、自車の進行方向情報と、自車の立体形状情報とに基づいて、自車の影である自車影を推定する装置が知られている。
特開2011-65442号公報
発明者等の検討によれば、特許文献1に記載される装置では、歩行者等の移動物体の影の推定については言及されていない。歩行者等の移動物体に影が発生しているとき、この移動物体の影が障害物であると誤検知することがあるため、移動物体の推定位置の精度が低下することがある。
本開示は、自車とは異なる物体の影を推定できる障害物識別装置および障害物識別プログラムを提供することを目的とする。
請求項1に記載の発明は、車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)と、画像における画素の輝度値の一方向の勾配である第1勾配(Iu)と、第1勾配の方向に対して直交する方向の輝度値の勾配である第2勾配(Iv)とを演算するフィルタ(33)と、第1勾配と第2勾配とに基づいて、車両の影である自車影(Sc)と車両の外側の物体との境界である影境界(Bs)を推定する境界推定部(S320)と、境界推定部によって推定された影境界に基づいて、自車影を推定する自車影推定部(S330)と、自車影推定部によって推定された自車影の輝度値に基づいて、自車影とは異なる物体の影である物体影(St)を推定する物体影推定部(S410)と、を備え、物体影推定部は、自車影に対する物体の相対位置に基づいて、物体の影を推定し、自車影が映る画像と同じ画像に物体影が映っているとき、自車影の輝度値に基づいて、物体影を推定し、自車影が映る画像とは異なる画像に物体影が映っているとき、自車影の輝度値と、自車影が映る画像において自車影とは異なる領域(Sf、Sr)の輝度値と、物体影が映る画像において物体影とは異なる領域(Sb)の輝度値と、に基づいて、物体影を推定する障害物識別装置である。
また、請求項に記載の発明は、障害物識別装置を、車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)、画像における画素の輝度値の一方向の勾配である第1勾配(Iu)と、第1勾配の方向に対して直交する方向の輝度値の勾配である第2勾配(Iv)とを演算するフィルタ(33)、第1勾配と第2勾配とに基づいて、車両の影である自車影(Sc)と車両の外側の物体との境界である影境界(Bs)を推定する境界推定部(S320)、境界推定部によって推定された影境界に基づいて、自車影を推定する自車影推定部(S330)、および、自車影推定部によって推定された自車影の輝度値に基づいて、自車影とは異なる物体の影である物体影(St)を推定する物体影推定部(S410)として機能させ、物体影推定部は、自車影に対する物体の相対位置に基づいて、物体の影を推定し、自車影が映る画像と同じ画像に物体影が映っているとき、自車影の輝度値に基づいて、物体影を推定し、自車影が映る画像とは異なる画像に物体影が映っているとき、自車影の輝度値と、自車影が映る画像において自車影とは異なる領域(Sf、Sr)の輝度値と、物体影が映る画像において物体影とは異なる領域(Sb)の輝度値と、に基づいて、物体影を推定する障害物識別プログラムである。
これにより、障害物識別装置は、自車影とは異なる物体の影を推定できる。
なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。
実施形態の障害物識別装置が用いられるシステムの構成図。 カメラの撮像範囲を示す車両の上面図。 U方向の勾配を演算するSobelフィルタを示す図。 V方向の勾配を演算するSobelフィルタを示す図。 カメラによって撮像された画像の一例。 処理部による処理のフローチャート。 処理部による自車影の推定のサブフローチャート。 自車影の候補の推定を示す画像図。 影境界の推定を示す画像図。 図9のX部拡大画像図。 自車影および影境界の平滑化を示す画像図。 クラスタリングを示す画像図。 処理部による移動物体影の推定および除去のサブフローチャート。 処理部による移動物体影の推定を示す鳥瞰図。 処理部による移動物体影の推定を示す鳥瞰図。 処理部による自車影が延びる方向の推定を示す鳥瞰図。 移動物体影の影響を示す鳥瞰図。 移動物体影の影響を示す鳥瞰図。 移動物体影の除去を示す鳥瞰図。 移動物体影の除去を示す鳥瞰図。
以下、実施形態について図面を参照しつつ説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付し、その説明を省略する。
本実施形態の障害物識別装置30は、車両90に搭載される障害物識別システム10に用いられる。この障害物識別システム10は、車両90の周辺の物体が、車両90の影である自車影Sc、静止物体、および、移動物体のいずれであるかを識別する。また、障害物識別システム10は、移動物体の影である移動物体影Stを含む移動物体から、移動物体影Stを除去することにより、移動物体のみを識別する。まず、この障害物識別システム10について説明する。
図1に示すように、障害物識別システム10は、フロントカメラ11、リアカメラ12、左側カメラ13、右側カメラ14、車速センサ15、舵角センサ16、障害物識別装置30および表示装置50を備えている。また、ここでは、車速センサ15、舵角センサ16および障害物識別装置30は、例えば、車内LAN60に接続されている。この車内LAN60には、例えば、CANが用いられる。なお、CANは、Controller Area Networkの略である。
フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14は、それぞれ単眼のデジタルカメラである。また、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14が魚眼レンズをそれぞれ有しており、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14の視野角は、それぞれ180度である。そして、フロントカメラ11は、例えば、車両90の図示しないラジエータグリルの内側に取り付けられており、図2に示すように、車両90の前方を撮像する。リアカメラ12は、例えば、車両90の後端の下側に取り付けられており、車両90の後方を撮像する。左側カメラ13は、例えば、車両90の左ドアミラーの下側に取り付けられており、車両90の前方に対して左側を撮像する。右側カメラ14は、例えば、車両90の右ドアミラーの下側に取り付けられており、車両90の前方に対して右側を撮像する。そして、このフロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像された画像は、障害物識別装置30にそれぞれ出力される。なお、図2において、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14の撮像範囲がそれぞれ模式的に斜線ハッチングで示されている。また、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14の撮像範囲が重複する部分は、それぞれ模式的に網掛けハッチングで示されている。
車速センサ15は、車両90の速度である自車速度Vcに応じた信号を車内LAN60に出力する。
舵角センサ16は、車両90のステアリング操作に基づく操舵角θsに応じた信号を車内LAN60に出力する。
障害物識別装置30は、マイコン等を主体として構成されており、CPU、ROM、RAM、フラッシュメモリ、I/Oおよびこれらの構成を接続するバスライン等を備えている。具体的には、障害物識別装置30は、通信部31、入力部32、フィルタ33、記憶部34、電源部35、出力部36および処理部40を有する。
通信部31は、車内LAN60と通信することにより、車速センサ15および舵角センサ16から自車速度Vcおよび操舵角θsをそれぞれ取得する。
入力部32は、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像された画像を取得する。そして、入力部32は、これらの取得した画像をフィルタ33および処理部40に出力する。
フィルタ33は、フィルタリング処理を行うのに特化した専用のアクセラレータである。このフィルタ33は、入力部32からの各画像における画素の輝度値およびその画素の近傍の輝度値に基づいて、出力画像の輝度値を演算する。ここでは、フィルタ33は、入力部32からの各画像に対して、解像度σiを変更する、例えば、ガウシアンピラミッド用の画像縮小を行う。また、フィルタ33は、ノイズ除去のためのガウシアンフィルタを用いて演算を行う。さらに、フィルタ33は、図3および図4に示すように、エッジ検出のためのSobelフィルタを用いて演算を行う。したがって、フィルタ33は、入力部32からの各画像および縮小した各画像に対して、ガウシアンフィルタおよびSobelフィルタを用いて演算を行った各画像の値を処理部40に出力する。
ここで、図3は、図5に示すフロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像されたそれぞれの画像のU方向への勾配を求めるSobelフィルタの例である。さらに、図4は、図5に示すフロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像されたそれぞれの画像のV方向への勾配を求めるSobelフィルタの例である。また、ここでは、U方向は、画像に対して左右方向とする。また、画像左側から画像右側への方向をU方向の正方向とする。さらに、V方向は、画像に対して上下方向とする。また、画像上側から画像下側への方向をV方向の正方向とする。また、図5では、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14のいずれかによって撮像された画像の例として、自車影Sc、車両90の一部および地平線91が映し出されている。また、自車影Scは、明確となるように斜線ハッチングで示されている。
記憶部34は、RAM、ROM、フラッシュメモリ等を含んでおり、後述の処理部40によって実行されるプログラムおよび処理部40によって識別された物体の種類を記憶している。
電源部35は、車両90のイグニッションがオンされたときに、後述の処理部40がプログラムを実行するための電力を処理部40に供給する。
出力部36は、後述の処理部40によって処理された画像データを表示装置50に出力する。
処理部40は、取得部、推定部、抽出部、生成部、選定部、影除去部に対応しており、記憶部34に記憶されているプログラムを実行する装置である。また、処理部40は、このプログラムを実行するとき、記憶部34のRAMを作業領域として使用する。
表示装置50は、出力部36からの画像データを表示する。これにより、障害物識別システム10では、処理部40によって処理された画像が視認可能になっている。
以上のように、障害物識別システム10は構成されている。この障害物識別システム10では、障害物識別装置30の処理部40がプログラムを実行することにより、車両90の周辺の物体が識別される。具体的には、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像された画像に映る物体が、自車影Sc、静止物体および移動物体のいずれであるかが識別される。また、障害物識別システム10は、移動物体影Stを含む移動物体から、移動物体影Stを除去することにより、移動物体のみを識別する。
次に、図6のフローチャートを参照して、この処理部40による識別について説明する。ここでは、例えば、処理部40は、車両90のイグニッションがオンされたとき、ROMに記憶されているプログラムを実行することにより、物体の識別を行う。また、ここでは、便宜上、処理部40のステップS110の処理が開始されてからステップS110の処理に戻るまでの一連の動作の期間を処理部40の処理周期τとする。この処理部40の処理周期τの時間は、例えば、数十ミリ秒から百ミリ秒である。また、ここでは、便宜上、現時点の処理周期τを今回処理周期τ(n)と適宜記載する。さらに、現時点に対して前回の処理周期τを前回処理周期τ(n-1)と適宜記載する。なお、nは、1以上の自然数であって、処理部40のステップS110からステップS110に戻るまでの処理の実行回数である。また、車両90のイグニッションがオンされた初期の処理周期τ(0)における処理部40の後述する各値は、予め設定されている。
ステップS110において、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14のそれぞれによって撮像された画像を入力部32から取得する。また、処理部40は、この取得した画像にそれぞれ対応し、フィルタ33によって処理された画像をフィルタ33から取得する。
続いて、ステップS115において、処理部40は、ステップS110にて取得した画像に基づいて、画像内の自車影Scを推定する。具体的には、図7のフローチャートを参照して、この自車影Scの推定について説明する。
ステップS310において、処理部40は、入力部32から取得した画像内の自車影Scの候補を推定する。ここで、この候補の推定を説明するために、入力部32から取得した画像内の各画素の輝度値を入力輝度Ic(U、V)とする。なお、ここでは、画素の輝度値とは、例えば、1画素中の値を0~255の数値で表したものである。また、(U、V)のUは、画像内の基準位置からのU方向の画素位置を示す。さらに、(U、V)のVは、画像内の基準位置からのV方向の画素位置を示す。
そして、具体的には、処理部40は、以下関係式(1)に示すように、入力輝度Ic(U、V)が影閾値Is_thよりも小さい画素を自車影Scの候補として推定する。ここでは、この影閾値Is_thは、処理周期τ毎に演算される。具体的には、処理部40は、例えば、図8に示すように、ステップS110にて取得した4つの画像のそれぞれに対して、車両90よりも画像上側、かつ、地平線91よりも画像下側の領域のうち所定領域Fsの輝度値の分散を演算する。そして、処理部40は、この演算した分散が最も小さい画像を抽出する。また、処理部40は、この抽出した画像の所定領域Fsの輝度値の平均を抽出する。そして、処理部40は、この抽出した輝度値の平均を影閾値Is_thにする。これにより、輝度値の分散が比較的小さい領域の輝度値が演算に用いられることになる。このため、影閾値Is_thの精度が比較的高くなるので、自車影Scの候補の推定精度が向上する。なお、画像内の車両90の位置および画像内の地平線91の位置は、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14の取り付け位置や視野角等によってそれぞれ予め設定される。また、図8において、所定領域Fsの一例が斜線ハッチングで記載されている。
Ic(U、V)<Is_th ・・・(1)
続いて、ステップS320において、処理部40は、ステップS310にて推定した自車影Scの候補から、影境界Bsを推定する。ここでは、影境界Bsとは、自車影Scと車両90の外側における物体との境界、例えば、自車影Scと路面との境界である。
具体的には、処理部40は、以下関係式(2)に示すように、各画素の輝度勾配Mcを演算する。輝度勾配Mcは、Iuの自乗とIvの自乗との和の正の平方根である。この関係式(2)において、Iuは、入力輝度Ic(U、V)のU方向の勾配であって、フィルタ33によって演算されている。また、Iuは、第1勾配に対応する。さらに、Ivは、入力輝度Ic(U、V)のV方向の勾配であって、フィルタ33によって演算されている。また、Ivは、第2勾配に対応する。
Figure 0007310527000001
次に、処理部40は、図9に示すように、自車影Scが延びている方向、ここでは、V方向の負方向に沿って、画像を走査する。影境界Bsでは比較的大きな輝度勾配Mcが生じるため、処理部40は、この走査により、以下関係式(3)に示すように輝度勾配Mcが境界勾配閾値Mb_th以上である画素を抽出する。そして、処理部40は、これらの抽出した画素のうち、走査方向、ここでは、V方向の負方向に沿って連続して所定個数Ns抽出したとき、それらの画素を影境界Bsと推定する。なお、境界勾配閾値Mb_thおよび所定個数Nsは、影境界Bsを探索するための値であって、実験やシミュレーション等によって設定される。また、所定個数Nsは、例えば、2以上の自然数である。さらに、図9において、処理部40によって走査される方向が二点鎖線で示されている。
Mc≧Mb_th ・・・(3)
また、ここでは、処理部40は、影境界Bsの推定精度を向上させるために、以下のような演算をさらに行う。
具体的には、処理部40は、図10および以下関係式(4)に示すように、影境界Bsの画素の輝度値の勾配に基づいて、上記のように推定した影境界Bsの各画素の勾配角度である境界勾配角度θbを演算する。なお、関係式(4)において、Iubは、影境界Bsにおける画素の輝度値のU方向の勾配であって、フィルタ33によって演算されている。また、Ivbは、影境界Bsにおける画素の輝度値のV方向の勾配であって、フィルタ33によって演算されている。
Figure 0007310527000002
また、処理部40は、この演算した境界勾配角度θbに基づいて、影境界Bsの画素を通る法線を演算する。ここで、上記の輝度勾配Mcによって推定された影境界Bsの画素よりも画像上側であって、この法線上の画素およびその近傍の輝度値の平均を上側平均輝度μ_upとする。また、上記の輝度勾配Mcによって推定された影境界Bsの画素よりも画像下側であって、この法線上の画素およびその近傍の輝度値の平均を下側平均輝度μ_downとする。また、影境界Bsが自車影Scと路面との境界であるとき、影境界Bsよりも画像上側では路面が画像に映る。さらに、このとき、影境界Bsよりも画像下側では自車影Scが画像に映る。したがって、このとき、上側平均輝度μ_upは、下側平均輝度μ_downよりも大きくなる。
よって、処理部40は、以下関係式(5)に示すように、上側平均輝度μ_upが下側平均輝度μ_downよりも大きいとき、その影境界Bsの画素を影境界Bsとする。これにより、精度が比較的高い影境界Bsが推定される。なお、図10において、法線およびその法線に直交する接線の一例が破線で示されている。また、上側平均輝度μ_upが演算される領域の一例がF_upで示されている。さらに、下側平均輝度μ_downが演算される領域の一例がF_downで示されている。
μ_up>μ_down ・・・(5)
続いて、ステップS330において、処理部40は、ステップS310にて推定した自車影Scの候補のうち、ステップS320にて推定した影境界Bsと画像に映る車両90との囲まれる範囲を自車影Scと推定する。
続いて、ステップS340において、処理部40は、これらの推定した自車影Scおよび影境界Bsに基づいて、後述の第1自車影情報Xs1を記憶部34のフラッシュメモリに記憶させる。また、処理部40は、後述するように、必要であれば、これらの推定した自車影Scおよび影境界Bsに基づいて、第2自車影情報Xs2を記憶部34のフラッシュメモリに記憶させる。
具体的には、処理部40は、今回処理周期τ(n)で推定した自車影Scおよび影境界Bsの画素位置を、第1自車影情報Xs1として、記憶部34のフラッシュメモリに記憶させる。また、この第1自車影情報Xs1は、処理部40の処理周期τ毎に更新される。
また、処理部40は、安定した自車影Scおよび影境界Bsの画素位置を、第2自車影情報Xs2として、記憶部34のフラッシュメモリに記憶させる。ここで、この自車影Scおよび影境界Bsの安定性は、今回処理周期τ(n)よりも前に推定されたそれぞれの影境界Bsの画素位置に対する今回処理周期τ(n)の影境界Bsの画素位置の移動量である境界移動量ΔBに基づいて、処理部40によって判定される。具体的には、処理部40は、今回処理周期τ(n)よりも前に推定したそれぞれの影境界Bsの画素位置に対する今回処理周期τ(n)に推定した影境界Bsの変化に基づいて、境界移動量ΔBを演算する。例えば、処理部40は、影境界Bsの法線方向、U方向およびV方向の変化に基づいて、境界移動量ΔBを演算する。そして、処理部40は、この演算した境界移動量ΔBが安定閾値ΔB_th以下であるとき、影境界Bsの変化が比較的小さいため、今回処理周期τ(n)の自車影Scおよび影境界Bsが安定していると判定する。したがって、このとき、処理部40は、今回処理周期τ(n)の自車影Scおよび影境界Bsの画素位置を、第2自車影情報Xs2として、記憶部34のフラッシュメモリに記憶させる。なお、今回処理周期τ(n)の自車影Scおよび影境界Bsが安定しているとき、第2自車影情報Xs2は、上記の第1自車影情報Xs1と同じになる。
また、処理部40は、この演算した境界移動量ΔBが安定閾値ΔB_thより大きいとき、影境界Bsの変化が比較的大きいため、今回処理周期τ(n)の自車影Scおよび影境界Bsが安定していないと判定する。よって、このとき、処理部40は、第2自車影情報Xs2を、今回処理周期τ(n)よりも前の処理周期τに安定していると判定した自車影Scおよび影境界Bsの画素位置のままにする。例えば、今回処理周期τ(n)の自車影Scおよび影境界Bsが安定していないで、前回処理周期τ(n-1)の自車影Scおよび影境界Bsが安定しているとする。このとき、今回処理周期τ(n)において、前回処理周期τ(n-1)の自車影Scおよび影境界Bsの画素位置が、第2自車影情報Xs2として、記憶部34のフラッシュメモリに記憶されたままになる。
続いて、ステップS350において、処理部40は、ステップS340にて更新した影境界Bsおよび自車影Scを平滑化する。
具体的には、処理部40は、ステップS320にて推定した影境界Bsの一画素位置とその画素位置からU方向に並ぶ影境界Bsの画素位置に基づいて、その影境界Bsの画素位置からU方向の隣に本来あるべき影境界Bsの画素位置を推定する。そして、処理部40は、その本来あるべき影境界Bsの推定画素位置から、その影境界Bsの実画素位置までの距離を演算する。この距離が閾値以上であるとき、影境界Bsおよび自車影Scに欠損が生じているため、図11に示すように、処理部40は、その画素のU方向に隣の影境界Bsの画素位置を、この推定画素位置と一致するように補正する。また、処理部40は、この補正した画素位置に基づいて自車影Scを補正することにより、自車影Scが欠損していた部分を補完する。これにより、影境界Bsおよび自車影Scが平滑化される。なお、U方向に隣の影境界Bsの推定画素位置と、U方向に隣の影境界Bsの実画素位置との距離が閾値未満であるとき、処理部40は、その画素のU方向に隣の影境界Bsの画素位置を、この推定画素位置に補正しないでその実画素位置のままとする。また、図11において、欠損ではない箇所の影境界Bsの画素が、Pnおよび白丸で模式的に示されている。さらに、欠損箇所の影境界Bsの画素が、Pdおよび白三角で模式的に示されている。また、補正された影境界Bsの画素が、Pcおよび白四角で模式的に示されている。また、補完された自車影Scが、Sc_Cおよび斜線ハッチングで示されている。
このようにして、処理部40によって自車影Scの推定が行われる。その後、処理は、ステップS120に移行する。
図6に示すように、ステップS115に続くステップS120において、処理部40は、ステップS110にて取得した画像のそれぞれについて、物体の特徴点を抽出する。例えば、処理部40は、以下関係式(6)に示すように、輝度勾配Mcが特徴点閾値Mp_th以上である画素を特徴点として抽出する。なお、特徴点閾値Mp_thは、画像内の障害物の特徴点を抽出するための値であって、実験やシミュレーション等によって設定される。
Mc≧Mp_th ・・・(6)
続いて、ステップS130において、処理部40は、ステップS120にて抽出した特徴点に基づいて、オプティカルフローOPを生成する。例えば、処理部40は、ブロックマッチング法を用いてオプティカルフローOPを生成する。なお、ここでは、オプティカルフローOPは、前回処理周期τ(n-1)にて抽出した特徴点に対応する今回処理周期τ(n)にて抽出した特徴点の画像中の移動ベクトルである。
具体的には、処理部40は、今回処理周期τ(n)にて取得した画像上において、前回処理周期τ(n-1)にて抽出した特徴点の画素を中心とする画素ブロックを、テンプレートとして走査する。このとき、処理部40は、このテンプレートの画素位置の輝度値と、今回処理周期τ(n)にて取得した画像におけるそのテンプレートの画素位置に対応する画素位置の輝度値との差分をそれぞれ演算する。そして、処理部40は、この画素ブロック内の輝度値の差分絶対値和、すなわち、SADを演算する。これによって、処理部40は、前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定する。なお、SADは、Sum of Absolute Differenceの略である。
そして、処理部40は、この演算したSADが最小となる、すなわち、類似度が最大となる前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点とを結ぶ。これによって、処理部40は、前回処理周期τ(n-1)で抽出した特徴点のオプティカルフローOPを生成する。また、ここでは、処理部40は、各画像に対して画像の解像度σiすなわちピラミッドレベルを変更して、各解像度σiの画像におけるオプティカルフローOPを上記のように生成する。
続いて、ステップS140において、処理部40は、ステップS130にて生成した各オプティカルフローOPの信頼性を判定する。具体的には、処理部40は、画像に映る物体が移動物体であるという信頼性が比較的高いオプティカルフローOPを選定する。ここで、このオプティカルフローOPの選定を説明するために、以下の用語を定義する。処理周期τ間で互いに対応するオプティカルフローOPが連続して生成された回数、すなわち、連続して追跡された回数をトラッキング回数Ntとする。このトラッキング回数Ntは、処理周期τ間で互いに対応するオプティカルフローOPが生成される度に、処理部40によって計上される。また、オプティカルフローOPのU方向の座標成分をフローU成分ΔUとする。オプティカルフローOPのV方向の座標成分をフローV成分ΔVとする。オプティカルフローOPの長さをフロー長さLfとする。フロー長さLfから、車両90の移動距離に対応するオプティカルフローOPの長さを除去した長さをエゴキャンセルフロー長Lcとする。オプティカルフローOPとU方向に延びる軸とでなす角度をフロー角度θfとする。今回処理周期τ(n)で生成されたオプティカルフローOPの角度から、前回処理周期τ(n-1)で生成されたオプティカルフローOPの角度を減算した値をフロー方向差分Δθfとする。画像内において2つの際立ったエッジが存在するコーナーであるか否かを示す指標をコーナー度Rfとする。
そして、処理部40は、上記した各解像度σiの画像において生成したオプティカルフローOPのうち、以下関係式(7-1)に示すように解像度σiが解像度閾値σi_th以上の画像で生成したオプティカルフローOPを選定する。
σi≧σi_th ・・・(7-1)
また、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(7-2)に示すようにトラッキング回数Ntがトラッキング閾値Nt_th以上であるオプティカルフローOPを選定する。
Nt≧Nt_th ・・・(7-2)
また、処理部40は、以下関係式(7-3)に示すように、それぞれのオプティカルフローOPのフローU成分ΔUおよびフローV成分ΔVに基づいて、フロー長さLfを演算する。
Figure 0007310527000003
そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(7-4)に示すようにフロー長さLfがフロー長閾値Lf_th以上であるオプティカルフローOPを選定する。
Lf≧Lf_th ・・・(7-4)
また、処理部40は、車速センサ15および舵角センサ16から車内LAN60および通信部31を経由して、自車速度Vcおよび操舵角θsをそれぞれ取得する。さらに、処理部40は、自車速度Vc、操舵角θsおよび処理周期τの時間に基づいて、3次元空間座標系における処理周期τ間の車両90の移動ベクトルである車両移動ベクトルΔLを演算する。このとき、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13、右側カメラ14のそれぞれの向き、焦点距離、路面に対する位置および角度に基づいて、3次元空間座標系からUV座標系への座標変換を行う。また、処理部40は、この3次元空間座標系における車両移動ベクトルΔLを画像のUV座標系に変換することにより、車両移動ベクトルΔLに対応するフロー長さLfを演算する。そして、処理部40は、フローU成分ΔUおよびフローV成分ΔVに基づいて演算したフロー長さLfから、この車両移動ベクトルΔLに対応するフロー長さLfを減算することにより、エゴキャンセルフロー長Lcを演算する。
そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(7-5)に示すようにエゴキャンセルフロー長Lcがキャンセル閾値Lc_th以上であるオプティカルフローOPを選定する。
Lc≧Lc_th ・・・(7-5)
また、処理部40は、以下関係式(7-6)に示すように、それぞれのオプティカルフローOPのフローU成分ΔUおよびフローV成分ΔVに基づいて、フロー角度θfを演算する。
Figure 0007310527000004
さらに、処理部40は、以下関係式(7-7)に示すように、この演算したフロー角度θfに基づいて、フロー方向差分Δθfを演算する。そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(7-8)に示すようにフロー方向差分Δθfが方向差分閾値Δθf_th以下であるオプティカルフローOPを選定する。なお、ここでは、今回処理周期τ(n)で生成されたオプティカルフローOPは、前回処理周期τ(n-1)における特徴点からの移動ベクトルである。このため、関係式(7-7)では、今回処理周期τ(n)にて演算されたフロー角度θfがθf(n-1)と表されている。同様に、前回処理周期τ(n-1)で生成されたオプティカルフローOPは、2回前処理周期τ(n-2)における特徴点からの移動ベクトルである。このため、関係式(7-7)では、前回処理周期τ(n-1)にて演算されたフロー角度θfがθf(n-2)と表されている。
θf=θf(n-1)-θf(n-2) ・・・(7-7)
Δθf≦Δθf_th ・・・(7-8)
また、処理部40は、ハリスコーナー法を用いて、オプティカルフローOPを生成した特徴点のコーナー度Rfを演算する。具体的には、処理部40は、以下関係式(7-9)に示すように、ヘッセ行列Hを用いて、コーナー度Rfを演算する。このヘッセ行列Hは、関係式(7-9)に示すように、IuおよびIvに基づいた成分を有する。なお、Iuは、上記したように、入力輝度Ic(U、V)のU方向の勾配であって、フィルタ33によって演算される。また、Ivは、上記したように、入力輝度Ic(U、V)のV方向の勾配であって、フィルタ33によって演算される。さらに、λ1およびλ2は、それぞれ、ヘッセ行列Hの固有値である。また、kは、定数であって、例えば、0.04~0.06である。
Figure 0007310527000005
そして、処理部40は、上記により選定したオプティカルフローOPのうち、以下関係式(7-10)に示すようにコーナー度Rfがコーナー閾値Rf_thよりも大きい特徴点に対応するオプティカルフローOPを選定する。
Rf≧Rf_th ・・・(7-10)
以上のように、処理部40は、オプティカルフローOPの信頼性を判定する。これにより、以下に説明するように、物体が移動物体であるという信頼性が比較的高いオプティカルフローOPが選定される。
例えば、静止物体のフロー長さLfは、自車速度Vcによるため比較的小さくなる。また、移動物体のフロー長さLfは、自車速度Vcおよび移動物体の移動速度によるため比較的大きくなる。このため、フロー長さLfがフロー長閾値Lf_th以上であるオプティカルフローOPが選定される。また、エゴキャンセルフロー長Lcがキャンセル閾値Lc_th以上であるオプティカルフローOPが選定される。さらに、一方向に移動する物体のフロー方向差分Δθfは、比較的小さくなる。このため、フロー方向差分Δθfが方向差分閾値Δθf_th以下であるオプティカルフローOPが選定される。これらの選定により、例えば、画像内の移動物体のオプティカルフローOPが選定される。また、今回処理周期τ(n)における画像内の静止物体のオプティカルフローOPが除去される。したがって、ここでのフロー長閾値Lf_th、キャンセル閾値Lc_thおよび方向差分閾値Δθf_thは、上記のように選定されるように実験およびシミュレーション等により設定される。
また、上記したように、各解像度σiの画像においてオプティカルフローOPが生成されており、解像度σiが解像度閾値σi_th以上の画像で生成されたオプティカルフローOPが選定される。また、トラッキング回数Ntがトラッキング閾値Nt_th以上であるオプティカルフローOPが選定される。これらにより、オプティカルフローOPの精度が高くなるため、例えば、フロー長さLf、フロー方向差分Δθfおよびエゴキャンセルフロー長Lcの精度が高くなる。したがって、ここでの解像度閾値σi_thおよびトラッキング閾値Nt_thは、上記のように選定されるように実験およびシミュレーション等により設定される。
また、移動物体のうち歩行者等の人の足元は、路面に接するため、人の足元のオプティカルフローOPが車両90から歩行者までの距離検出等に用いられる。したがって、ここでは、上記した選定と併せて、コーナー度Rfがコーナー閾値Rf_thよりも大きい特徴点に対応するオプティカルフローOPが選定される。これにより、例えば、人の足元のオプティカルフローOPが選定されやすくなる。よって、ここでのコーナー閾値Rf_thは、上記のように選定されるように実験およびシミュレーション等により設定される。
続いて、ステップS150において、処理部40は、ステップS140にて選定したオプティカルフローOPをグループに分類することにより、クラスタリングを行う。具体的には、処理部40は、前回処理周期τ(n-1)にて撮像された画像の特徴点の画素位置とその特徴点のフロー長さLfとフロー角度θfとが類似するオプティカルフローOP同士を1つのグループに分類する。例えば、処理部40は、前回処理周期τ(n-1)における特徴点の位置同士の距離が所定の距離範囲内、フロー長さLfが所定の長さ範囲内、かつ、フロー角度θfが所定の角度範囲内であるオプティカルフローOP同士を抽出する。そして、処理部40は、図12に示すように、これらの抽出したオプティカルフローOPを1つのグループにする。なお、図12において、クラスタリングされた1つの物体がY(n-1)および実線で模式的に示されている。
続いて、ステップS160において、処理部40は、ステップS150にてクラスタリングした各グループ、すなわち、前回処理周期τ(n-1)における特徴点のグループの物理量を演算する。ここでは、処理部40は、3次元空間座標系における各グループの位置、そのグループの大きさを示す長さおよび幅、ならびに、そのグループの移動ベクトルを演算する。具体的には、処理部40は、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13、右側カメラ14のそれぞれの向き、焦点距離、路面に対する位置および角度に基づいて、画像のUV座標系から3次元空間座標系への座標変換を行う。そして、処理部40は、画像のUV座標系の各グループの特徴点およびオプティカルフローOPを、3次元空間座標系の各グループの特徴点およびオプティカルフローOPに変換する。また、処理部40は、この座標変換した特徴点に基づいて、各グループの代表位置Pr、そのグループの大きさを示す長さおよび幅を演算する。さらに、処理部40は、この座標変換したオプティカルフローOPに基づいて、各グループの代表移動ベクトルOrを演算する。また、処理部40は、代表移動ベクトルOrおよび処理周期τに基づいて、各グループの代表速度ベクトルVrを演算する。なお、代表位置Prは、例えば、物体の重心である。また、物体が人である場合、代表位置Prは、人の足元であってもよい。
続いて、ステップS170において、処理部40は、ステップS115にて推定した自車影Scに基づいて、移動物体影Stを推定および除去する。具体的には、図13のフローチャートを参照して、この移動物体影Stの推定および除去について説明する。なお、ステップS115にて自車影Scが推定されなかったとき、移動物体影Stの推定および除去が実施されないで、処理は、ステップS110に戻る。
ステップS410において、処理部40は、ステップS115にて推定した自車影Scの輝度値および自車影Scに対する移動物体の相対位置に基づいて、移動物体影Stを推定する。
具体的には、1つの画像に自車影Scおよび移動物体の両方が映し出されている場合、すなわち、自車影Scが映る画像と移動物体影Stが映る画像とが同じである場合、処理部40は、その画像の入力輝度Ic(U、V)に基づいて、移動物体影Stを推定する。例えば、図14に示すように、自車影Scおよび移動物体の両方が、リアカメラ12の画像に映し出されたとする。この場合、処理部40は、リアカメラ12の画像の入力輝度Ic(U、V)に基づいて、移動物体影Stを推定する。なお、図14において、自車影Scおよび移動物体影Stの所在が明確となるようにドット柄で記載されている。
ここで、この場合の移動物体影Stを説明するために、リアカメラ12の画像におけるステップS115にて処理部40により推定された自車影Scの輝度値の平均を後側自車影平均μc_bとする。リアカメラ12の画像におけるステップS115にて処理部40により推定された自車影Scの輝度値の分散を後側自車影分散σc_bとする。
そして、処理部40は、リアカメラ12の画像におけるステップS115にて推定した自車影Scの画素数および輝度値に基づいて、後側自車影平均μc_bおよび後側自車影分散σc_bを演算する。また、処理部40は、例えば、以下関係式(8-1)に示す範囲の輝度値の画素位置を移動物体影Stと推定する。なお、関係式(8-1)において、Ic_Stは、移動物体影Stの輝度値を示す。σc_bは、後側自車影分散σc_bの正の平方根である。
Figure 0007310527000006
また、1つの画像に自車影Scおよび移動物体の両方が映し出されていない場合、すなわち、自車影Scが映る画像と移動物体影Stが映る画像とが異なる場合、処理部40は、各カメラの画像の入力輝度Ic(U、V)に基づいて、移動物体影Stを推定する。例えば、図15に示すように、移動物体がリアカメラ12の画像に映し出され、自車影Scがフロントカメラ11および右側カメラ14の画像に映し出されたとする。この場合、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14のそれぞれの画像の入力輝度Ic(U、V)に基づいて、移動物体影Stを推定する。なお、図15において、自車影Scおよび移動物体影Stの所在が明確となるようにドット柄で記載されている。
ここで、この場合の移動物体影Stを説明するために、フロントカメラ11の画像におけるステップS115にて処理部40により推定された自車影Scの輝度値の平均を前側自車影平均μc_fとする。フロントカメラ11の画像におけるステップS115にて処理部40により推定された自車影Scの輝度値の分散を前側自車影分散σc_fとする。右側カメラ14の画像におけるステップS115にて処理部40により推定された自車影Scの輝度値の平均を右側自車影平均μc_rとする。右側カメラ14の画像におけるステップS115にて処理部40により推定された自車影Scの輝度値の分散を右側自車影分散σc_rとする。フロントカメラ11の画像におけるステップS115にて処理部40により推定された自車影Scの外側の路面の所定範囲を前側路面Sfとする。右側カメラ14の画像におけるステップS115にて処理部40により推定された自車影Scの外側の路面の所定範囲を右側路面Srとする。左側カメラ13の画像における路面の所定範囲を左側路面Slとする。リアカメラ12の画像における路面の所定範囲を後側路面Sbとする。前側路面Sfの輝度値の分散を前側分散σfとする。右側路面Srの輝度値の分散を右側分散σrとする。左側路面Slの輝度値の分散を左側分散σlとする。後側路面Sbの輝度値の分散を後側分散σbとする。なお、図15において、前側路面Sf、右側路面Sr、左側路面Slおよび後側路面Sbは、模式的にドット柄で示されている。
そして、処理部40は、フロントカメラ11の画像におけるステップS115にて推定した自車影Scの画素数および輝度値に基づいて、前側自車影平均μc_fおよび前側自車影分散σc_fを演算する。また、処理部40は、右側カメラ14の画像におけるステップS115にて推定した自車影Scの画素数および輝度値に基づいて、右側自車影平均μc_rおよび右側自車影分散σc_rを演算する。そして、処理部40は、前側自車影平均μc_f、前側自車影分散σc_f、右側自車影平均μc_rおよび右側自車影分散σc_rに基づいて、リアカメラ12の画像における移動物体影Stの候補を推定する。
また、処理部40は、前側路面Sfの画素数および輝度値に基づいて、前側分散σfを演算する。さらに、処理部40は、右側路面Srの画素数および輝度値に基づいて、右側分散σrを演算する。また、処理部40は、左側路面Slの画素数および輝度値に基づいて、左側分散σlを演算する。そして、処理部40は、前側分散σf、右側分散σr、左側分散σlの平均である平均分散σμを演算する。さらに、処理部40は、上記で推定した移動物体影Stの候補に基づいて、後側路面Sbを推定する。また、処理部40は、この推定した後側路面Sbの画素数および輝度値に基づいて、後側分散σbを演算する。そして、処理部40は、以下関係式(8-2)に示すように、後側分散σbから平均分散σμを減算した値である画像間分散σcを演算する。
σc=σb-σμ ・・・(8-2)
そして、処理部40は、例えば、以下関係式(8-3)に示す範囲の輝度値の画素位置を移動物体影Stと推定する。なお、関係式(8-3)において、Ic_Stは、移動物体影Stの輝度値を示す。σfは、前側分散σfの正の平方根である。σrは、右側分散σrの正の平方根である。σcは、画像間分散σcの正の平方根である。ここでは、画像間分散σcにより、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14のそれぞれの画像間の輝度値のバラつきが考慮されているため、移動物体影Stの推定精度が向上する。
Figure 0007310527000007
続いて、図13に示すように、ステップS420において、処理部40は、自車影Scが延びる方向に基づいて、移動物体影Stが延びる方向である移動体影方向θcを推定する。ここでは、処理部40は、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14に映る自車影Scの長さに基づいて、自車影Scが延びる方向を推定する。
ここで、例えば、図16に示すように、自車影Scがフロントカメラ11および右側カメラ14の画像に映し出されたとする。この場合、処理部40は、フロントカメラ11および右側カメラ14のそれぞれの向き、焦点距離、路面に対する位置および角度に基づいて、フロントカメラ11および右側カメラ14に映る自車影ScをUV座標系から図16に示すような鳥瞰座標系に変換する。また、ここで、図16では、この鳥瞰座標系は、Xm軸およびYm軸によって表されている。車両90の前方に対して左側から右側への方向をXm方向の正方向とする。車両90の前方をYm方向の正方向とする。
そして、処理部40は、鳥瞰座標系に変換された右側カメラ14に映る自車影Scに基づいて、車両90から自車影ScまでのXm方向のベクトルである右側ベクトルOc_rを生成する。さらに、処理部40は、鳥瞰座標系に変換されたフロントカメラ11に映る自車影Scに基づいて、車両90から自車影ScまでのYm方向のベクトルである前側ベクトルOc_fを生成する。そして、処理部40は、これらの右側ベクトルOc_rと前側ベクトルOc_fとの合成ベクトルOcを自車影Scが延びる方向と推定する。したがって、処理部40は、この右側ベクトルOc_rの最大長さである右側影長さLxを演算する。さらに、処理部40は、この前側ベクトルOc_fの最大長さである前側影長さLyを演算する。そして、処理部40は、右側影長さLxおよび前側影長さLyに基づいて、Xm軸とこの合成ベクトルOcとの角度を自車影Scが延びる方向と推定する。
また、自車影Scが延びる方向と移動物体影Stが延びる方向とは同じであるため、移動体影方向θcは、Xm軸とこの合成ベクトルOcとの角度で表され、以下関係式(9)に示すように、右側影長さLxおよび前側影長さLyに基づいて表される。よって、処理部40は、右側影長さLxおよび前側影長さLyに基づいてXm軸とこの合成ベクトルOcとの角度を演算することにより、移動体影方向θcを推定する。
Figure 0007310527000008
続いて、図13に示すように、ステップS430において、処理部40は、移動物体影Stが物体の識別に対して影響があるか否かを判定する。このために、処理部40は、TTCの変化を演算する。なお、TTCとは、Time To Collisionの略であって、衝突余裕時間である。この衝突余裕時間は、現在の相対速度が維持された場合に車両90が物体と衝突するまでの時間である。
具体的には、処理部40は、ステップS160にて演算した3次元空間座標系の物体の代表位置Prに基づいて、車両90から物体までの距離を演算する。そして、処理部40は、この車両90から物体までの距離と、自車速度Vcと、代表速度ベクトルVrとに基づいて、TTCを演算する。例えば、処理部40は、車両90から物体までの距離のXm方向成分およびYm方向成分を演算する。また、処理部40は、自車速度Vcと、代表速度ベクトルVrとに基づいて、車両90に対する物体の相対速度のXm方向成分およびYm方向成分を演算する。そして、処理部40は、車両90から物体までの距離のXm方向成分を、車両90に対する物体の相対速度のXm方向成分で除算することにより、Xm方向のTTCを演算する。また、処理部40は、車両90から物体までの距離のYm方向成分を、車両90に対する物体の相対速度のYm方向成分で除算することにより、Ym方向のTTCを演算する。そして、処理部40は、今回処理周期τ(n)に演算したTTCから前回処理周期τ(n-1)に演算したTTCを減算することにより、Xm方向およびYm方向のTTCの変化を演算する。
また、処理部40は、ステップS160にて演算した3次元空間座標系における物体の代表速度ベクトルVrに基づいて、鳥瞰座標系における代表速度ベクトルVrのXm方向成分を演算する。また、処理部40は、ステップS160にて演算した3次元空間座標系における物体の代表速度ベクトルVrに基づいて、鳥瞰座標系における代表速度ベクトルVrのYm方向成分を演算する。さらに、処理部40は、この演算した代表速度ベクトルVrのXm方向成分およびYm方向成分に基づいて、以下関係式(10)に示すように、Xm軸に対する代表速度ベクトルVrの角度である物体移動方向θrを演算する。なお、関係式(10)において、Vxは、代表速度ベクトルVrのXm方向成分である。Vyは、代表速度ベクトルVrのYm方向成分である。
Figure 0007310527000009
そして、処理部40は、上記にて演算した物体移動方向θrと、ステップS420にて推定した移動体影方向θcとの差の絶対値を演算することにより、影響角度Δθcを演算する。ここでは、影響角度Δθcは、合成ベクトルOcと代表速度ベクトルVrとでなす角度のうち小さいほうの角度である。
そして、処理部40は、上記にて演算したTTCの変化と、影響角度Δθcとに基づいて、移動物体影Stが物体の識別に対して影響があるか否かを判定する。
ここで、図16に示す事例において、前回処理周期τ(n-1)に対して今回処理周期τ(n)におけるXm方向成分およびYm方向成分のTTCが短くなる、例えば、図17に示すように、車両90が後退しており、物体が車両90に近づくとする。この場合、影響角度Δθcが比較的小さいとき、物体とともに移動物体影Stが車両90に近づくことになる。このため、移動物体影Stが障害物と誤検知される可能性が高い。したがって、この場合、処理部40は、影響角度Δθcが影響角度閾値Δθc_th以下であるか否かを判定する。そして、処理部40は、影響角度Δθcが影響角度閾値Δθc_th以下であるとき、移動物体影Stが物体の識別に対して影響があると判定する。その後、処理は、ステップS440に移行する。また、処理部40は、影響角度Δθcが影響角度閾値Δθc_thより大きいとき、移動物体影Stが物体の識別に対して影響がないと判定する。その後、移動物体影Stの推定および除去の処理が終了し、処理部40の処理は、ステップS110に戻る。なお、影響角度閾値Δθc_thは、例えば、90度に設定される。
また、ここで、図16に示す事例において、前回処理周期τ(n-1)に対して今回処理周期τ(n)におけるYm方向成分のTTCが長くなる、例えば、図18に示すように、車両90が後退しており、物体が車両90から離れるとする。この場合、影響角度Δθcが比較的大きいとき、物体が車両90に離れるが、移動物体影Stは、物体から車両90に向かう方向に延びていることがある。このとき、移動物体影Stが障害物と誤検知される可能性が高い。したがって、この場合、処理部40は、影響角度Δθcが影響角度閾値Δθc_thより大きいか否かを判定する。そして、処理部40は、影響角度Δθcが影響角度閾値Δθc_thより大きいとき、移動物体影Stが物体の識別に対して影響があると判定する。その後、処理は、ステップS440に移行する。また、処理部40は、影響角度Δθcが影響角度閾値Δθc_th以下であるとき、移動物体影Stが物体の識別に対して影響がないと判定する。その後、移動物体影Stの推定および除去の処理が終了し、処理部40の処理は、ステップS110に戻る。
ステップS430に続くステップS440において、処理部40は、ステップS430にて影響があると判定した移動物体影Stを除去する。図17の事例では、処理部40は、図17の紙面左側の移動物体影Stが物体の識別に対して影響があると判定するため、図19に示すように、その移動物体影Stを除去する。また、処理部40は、例えば、除去した移動物体影Stをその画像に映る路面の輝度値の平均に置き換える。図18の事例では、処理部40は、図18の紙面左側の移動物体影Stが物体の識別に対して影響があると判定するため、図20に示すように、その移動物体影Stを除去する。また、処理部40は、例えば、除去した移動物体影Stをその画像に映る路面の輝度値の平均に置き換える。これにより、移動物体影Stを含む移動物体から移動物体のみが識別され、移動物体影Stが障害物であると誤検知されることが抑制される。その後、移動物体影Stの推定および除去の処理が終了し、処理部40の処理は、ステップS110に戻る。
このようにして、処理部40によりフロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14によって撮像された画像に映る物体が、自車影Sc、静止物体、および、移動物体のいずれであるかが識別される。また、移動物体影Stを含む移動物体から、移動物体影Stが除去されることにより、移動物体のみが識別される。
以上のように、障害物識別装置30の処理部40は、上記のステップS320にて、IuおよびIvに基づいて、影境界Bsを推定する。具体的には、処理部40は、輝度勾配Mcに基づいて、影境界Bsを推定する。これにより、処理部40は、比較的容易に影境界Bsを推定できる。そして、処理部40は、上記のステップS330にて、この推定した影境界Bsに基づいて、自車影Scを推定する。また、処理部40は、この推定した自車影Scの輝度値に基づいて、移動物体影Stを推定する。これにより、処理部40は、移動物体影Stを推定できる。
また、この障害物識別装置30では、以下[1]-[4]に説明するような効果も奏する。
[1]処理部40は、ステップS410にて、自車影Scに対する移動物体の相対位置に基づいて、移動物体影Stを推定する。具体的には、図14に示すように、処理部40は、自車影Scが映る画像と同じ画像に移動物体影Stが映っているとき、自車影Scの輝度値に基づいて、移動物体影Stを推定する。また、図15に示すように、処理部40は、自車影Scが映る画像とは異なる画像に移動物体影Stが映っているとき、自車影Scの輝度値と、以下のパラメータとに基づいて、移動物体影Stを推定する。このパラメータは、自車影Scが映る画像の自車影Scとは異なる領域の輝度値と、移動物体影Stが映る画像の移動物体影Stとは異なる領域の輝度値と、自車影Scおよび移動物体影Stが映っていない画像の一領域の輝度値と、である。これにより、フロントカメラ11、リアカメラ12、左側カメラ13および右側カメラ14のそれぞれの画像間の輝度値のバラつきが考慮されているため、移動物体影Stの推定精度が向上する。
[2]処理部40は、ステップS420において、自車影Scの形状、例えば、右側影長さLxおよび前側影長さLyに基づいて、自車影Scが延びる方向を推定する。また、処理部40は、自車影Scが延びる方向に基づいて、移動物体影Stが延びる方向を推定する。さらに、処理部40は、移動物体の移動方向と、移動物体影Stが延びる方向とに基づいて、画像に映る移動物体影Stを除去する。これにより、移動物体影Stが障害物であると誤検知することが抑制される。また、処理部40は、TTCの変化に基づいて、画像に映る移動物体影Stを除去する。これにより、移動物体が車両90に接近するまたは離れる場合のいずれにおいても、移動物体影Stが障害物であると誤検知することが抑制される。
[3]処理部40は、解像度σi、トラッキング回数Nt、フロー長さLf、エゴキャンセルフロー長Lc、フロー方向差分Δθfおよびコーナー度Rfに基づいて、ステップS130にて生成したオプティカルフローOPを選定する。これにより、物体が移動物体であるという信頼性が比較的高いオプティカルフローOPが選定される。
[4]処理部40は、輝度勾配Mcに基づいて、特徴点を抽出する。これにより、特徴点の抽出が容易になるとともに、必要な特徴点が比較的多く抽出される。
(他の実施形態)
本開示は、上記実施形態に限定されるものではなく、上記実施形態に対して、適宜変更が可能である。また、上記各実施形態において、実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
本開示に記載の処理部等およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部等およびその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部等およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
(1)上記実施形態では、処理部40は、SADを演算することにより、前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定する。これに対して、処理部40は、SADを演算することに限定されない。処理部40は、この画素ブロック内の差分二乗和、すなわち、SSDを演算することによって前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定してもよい。また、処理部40は、この画素ブロック内の正規化相互相関、すなわち、NCCを演算することによって、前回処理周期τ(n-1)の特徴点と今回処理周期τ(n)の特徴点との類似度を推定してもよい。なお、SSDは、Sum of Squared Differenceの略である。NCCは、Normalized Cross Correlationの略である。
(2)上記実施形態では、フィルタ33は、Sobelフィルタを用いて、画像のU方向への勾配および画像のV方向への勾配を演算する。これに対して、フィルタ33は、Sobelフィルタを用いることに限定されないで、微分フィルタ、PrewittフィルタおよびRobertsフィルタ等を用いて、画像のU方向への勾配および画像のV方向への勾配を演算してもよい。
(3)上記実施形態では、処理部40は、移動物体の移動方向と、移動物体影Stが延びる方向と、TTCの変化とに基づいて、画像に映る移動物体影Stを除去する。これに対して、処理部40は、移動物体の移動方向と、移動物体影Stが延びる方向と、TTCの変化とに基づいて、画像に映る移動物体影Stを除去することに限定されない。例えば、処理部40は、ステップS410にて推定した移動物体影Stの回数に基づいて、画像に映る移動物体影Stを除去してもよい。具体的には、処理部40は、処理周期τ毎に連続して複数回以上、ステップS410にて移動物体影Stを推定したとき、その移動物体影Stを除去する。これにより、上記と同様に、移動物体影Stが障害物であると誤検知することが抑制される。
10 障害物識別システム
11 フロントカメラ
12 リアカメラ
13 左側カメラ
14 右側カメラ
30 障害物識別装置
40 処理部
90 車両
91 地平線

Claims (8)

  1. 車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)と、
    前記画像における画素の輝度値の一方向の勾配である第1勾配(Iu)と、前記第1勾配の方向に対して直交する方向の輝度値の勾配である第2勾配(Iv)とを演算するフィルタ(33)と、
    前記第1勾配と前記第2勾配とに基づいて、前記車両の影である自車影(Sc)と前記車両の外側の物体との境界である影境界(Bs)を推定する境界推定部(S320)と、
    前記境界推定部によって推定された前記影境界に基づいて、前記自車影を推定する自車影推定部(S330)と、
    前記自車影推定部によって推定された前記自車影の輝度値に基づいて、前記自車影とは異なる物体の影である物体影(St)を推定する物体影推定部(S410)と、
    を備え
    前記物体影推定部は、前記自車影に対する前記物体の相対位置に基づいて、前記物体の影を推定し、
    前記自車影が映る前記画像と同じ画像に前記物体影が映っているとき、前記自車影の輝度値に基づいて、前記物体影を推定し、
    前記自車影が映る前記画像とは異なる画像に前記物体影が映っているとき、前記自車影の輝度値と、前記自車影が映る前記画像において前記自車影とは異なる領域(Sf、Sr)の輝度値と、前記物体影が映る前記画像において前記物体影とは異なる領域(Sb)の輝度値と、に基づいて、前記物体影を推定する障害物識別装置。
  2. 前記自車影推定部によって推定される前記自車影の形状(Lx、Ly)に基づいて前記自車影が延びる方向を推定する自車影方向推定部(S420)と、
    前記自車影が延びる方向に基づいて、前記物体影が延びる方向を推定する影方向推定部(S420)と、
    前記物体の移動方向と、前記物体影が延びる方向とに基づいて、前記画像に映る前記物体影を除去する影除去部(S430,S440)と、
    をさらに備える請求項に記載の障害物識別装置。
  3. 前記影除去部は、前記車両と前記物体との衝突余裕時間(TTC)の変化に基づいて、前記画像に映る前記物体影を除去する請求項に記載の障害物識別装置。
  4. 前記境界推定部は、前記第1勾配の自乗と前記第2勾配の自乗との和の平方根(Mc)に基づいて、前記影境界を推定する請求項1ないしのいずれか1に記載の障害物識別装置。
  5. 前記フィルタは、Sobelフィルタを用いて、前記第1勾配と前記第2勾配とを演算する請求項1ないしのいずれか1つに記載の障害物識別装置。
  6. 前記画像の特徴点を抽出する抽出部(S120)と、
    現時点よりも前に前記取得部が取得した前記画像の前記特徴点から、現時点で前記取得部が取得した前記画像の前記特徴点への移動ベクトルであるオプティカルフロー(OP)を生成する生成部(S130)と、
    前記オプティカルフローの長さ(Lf)と、前記オプティカルフローの角度(θf)の変化である方向差分(Δθf)と、前記画像の解像度(σi)と、互いに対応する前記オプティカルフローが生成される毎に計上される回数であるトラッキング回数(Nt)と、前記第1勾配および前記第2勾配に基づく前記特徴点のコーナー度(Rf)と、前記生成部によって生成された前記オプティカルフローの長さ(Lf)から前記車両の移動距離に対応する前記オプティカルフローの長さを除去した長さであるエゴキャンセルフロー長(Lc)と、に基づいて、前記オプティカルフローを選定する選定部(S140)と、
    を備える請求項1ないしのいずれか1つに記載の障害物識別装置。
  7. 前記抽出部は、前記第1勾配の自乗と前記第2勾配の自乗との和の平方根(Mc)に基づいて、前記特徴点を抽出する請求項に記載の障害物識別装置。
  8. 障害物識別装置を、
    車両(90)に搭載されるカメラ(11、12、13、14)によって撮像された画像を取得する取得部(S110)、
    前記画像における画素の輝度値の一方向の勾配である第1勾配(Iu)と、前記第1勾配の方向に対して直交する方向の輝度値の勾配である第2勾配(Iv)とを演算するフィルタ(33)、
    前記第1勾配と前記第2勾配とに基づいて、前記車両の影である自車影(Sc)と前記車両の外側の物体との境界である影境界(Bs)を推定する境界推定部(S320)、
    前記境界推定部によって推定された前記影境界に基づいて、前記自車影を推定する自車影推定部(S330)、および、
    前記自車影推定部によって推定された前記自車影の輝度値に基づいて、前記自車影とは異なる物体の影である物体影(St)を推定する物体影推定部(S410)として機能させ
    前記物体影推定部は、前記自車影に対する前記物体の相対位置に基づいて、前記物体の影を推定し、
    前記自車影が映る前記画像と同じ画像に前記物体影が映っているとき、前記自車影の輝度値に基づいて、前記物体影を推定し、
    前記自車影が映る前記画像とは異なる画像に前記物体影が映っているとき、前記自車影の輝度値と、前記自車影が映る前記画像において前記自車影とは異なる領域(Sf、Sr)の輝度値と、前記物体影が映る前記画像において前記物体影とは異なる領域(Sb)の輝度値と、に基づいて、前記物体影を推定する障害物識別プログラム。
JP2019188274A 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム Active JP7310527B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019188274A JP7310527B2 (ja) 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム
US17/068,244 US20210109543A1 (en) 2019-10-14 2020-10-12 Obstacle identification apparatus and obstacle identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188274A JP7310527B2 (ja) 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム

Publications (2)

Publication Number Publication Date
JP2021064156A JP2021064156A (ja) 2021-04-22
JP7310527B2 true JP7310527B2 (ja) 2023-07-19

Family

ID=75382817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188274A Active JP7310527B2 (ja) 2019-10-14 2019-10-14 障害物識別装置および障害物識別プログラム

Country Status (2)

Country Link
US (1) US20210109543A1 (ja)
JP (1) JP7310527B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD961601S1 (en) * 2019-04-23 2022-08-23 Figure Eight Technologies, Inc. Display screen or portion thereof with animated graphical user interface
JP7495178B2 (ja) * 2020-04-14 2024-06-04 株式会社Subaru 車両の走行支援装置
JP7256835B2 (ja) * 2021-03-24 2023-04-12 本田技研工業株式会社 画像処理装置
JP7563292B2 (ja) * 2021-05-06 2024-10-08 トヨタ自動車株式会社 車載ドライブレコーダシステム
US20230032998A1 (en) * 2021-07-30 2023-02-02 Magna Electronics Inc. Vehicular object detection and door opening warning system
US12030513B2 (en) 2021-10-04 2024-07-09 Magna Electronics Inc. Vehicular door opening warning system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272292A (ja) 2006-03-30 2007-10-18 Denso It Laboratory Inc 影認識方法及び影境界抽出方法
JP2013182562A (ja) 2012-03-05 2013-09-12 Nissan Motor Co Ltd 影検出装置
JP2019020956A (ja) 2017-07-14 2019-02-07 株式会社デンソー 車両周囲認識装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101030256B (zh) * 2006-02-28 2010-05-12 东软集团股份有限公司 车辆图像分割方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272292A (ja) 2006-03-30 2007-10-18 Denso It Laboratory Inc 影認識方法及び影境界抽出方法
JP2013182562A (ja) 2012-03-05 2013-09-12 Nissan Motor Co Ltd 影検出装置
JP2019020956A (ja) 2017-07-14 2019-02-07 株式会社デンソー 車両周囲認識装置

Also Published As

Publication number Publication date
JP2021064156A (ja) 2021-04-22
US20210109543A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
JP7310527B2 (ja) 障害物識別装置および障害物識別プログラム
EP3179445B1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
US9811742B2 (en) Vehicle-surroundings recognition device
US8102427B2 (en) Camera egomotion estimation from an infra-red image sequence for night vision
US7660436B2 (en) Stereo-vision based imminent collision detection
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
KR101176693B1 (ko) 거리센서를 이용한 차선인식 방법 및 그 시스템
JP6569280B2 (ja) 路面標示検出装置及び路面標示検出方法
CN112611360B (zh) 物体检测装置、车辆及物体检测处理方法
WO2016059643A1 (en) System and method for pedestrian detection
JP7310526B2 (ja) 障害物識別装置および障害物識別プログラム
JP6069938B2 (ja) 飛び出し検出装置
JP7298436B2 (ja) 障害物識別装置および障害物識別プログラム
Nedevschi et al. Driving environment perception using stereovision
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
JP6171608B2 (ja) 物体検出装置
JP6677141B2 (ja) 駐車枠認識装置
JP2001116545A (ja) 距離画像算出装置
JP6677142B2 (ja) 駐車枠認識装置
JP2006078261A (ja) 物体検出装置
KR20140076043A (ko) 보행자 후보 검출장치 및 검출방법
JP7493433B2 (ja) 移動量算出装置
JP7180521B2 (ja) 物標検出装置、物標検出方法、及び運転支援システム
JP5614100B2 (ja) 画像処理装置及び移動体位置推定方法
Gouiffes et al. Robust obstacles detection and tracking using disparity for car driving assistance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7310527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150