JP7327992B2 - 立体物検出装置、及び立体物検出方法 - Google Patents
立体物検出装置、及び立体物検出方法 Download PDFInfo
- Publication number
- JP7327992B2 JP7327992B2 JP2019090116A JP2019090116A JP7327992B2 JP 7327992 B2 JP7327992 B2 JP 7327992B2 JP 2019090116 A JP2019090116 A JP 2019090116A JP 2019090116 A JP2019090116 A JP 2019090116A JP 7327992 B2 JP7327992 B2 JP 7327992B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional object
- difference
- vehicle
- difference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/88—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
図1は、本実施形態に係る車載システム1の構成を示す図である。
車載システム1は、車両2に搭載されたシステムであり、カメラ4と、カメラECU6と、車両制御ユニット8と、カメラECU6と車両制御ユニット8を接続する車載ネットワークの一種であるCAN10と、を備える。
カメラ4は、車両2のリア部に設けられ、車両2の後方DBを撮影するリアカメラであり、撮影によって得られたカメラ映像5をカメラECU6に出力する。本実施形態のカメラECU6は、カメラ映像5に基づいて、立体物の一例である他車両A(図3)の位置を検出し、CAN10を通じて他車両Aの位置情報を車両制御ユニット8に送信する他車両検出装置(立体物検出装置)として機能する装置であり、カメラ4の撮影動作を制御する機能と、カメラ映像5に適宜の信号処理を施す機能を備える。
車両制御ユニット8は、車両2の走行に係る各種の制御を実行するユニットであり、係る制御のために、操舵機構や駆動機構などの車両2の各部を制御する機能を有する。
本実施形態のカメラECU6は、異なるタイミングで撮影された第1撮影画像、及び第2撮影画像をカメラ映像5から取得し、それらを俯瞰変換した第1俯瞰画像F1、及び第2俯瞰画像F2の差分である差分画像Gに基づいて、他車両Aの位置を検出する。係る検出動作のために、カメラECU6は、図2に示すように、車両情報取得部20と、前処理部22と、立体物位置特定部24と、を備えている。
輝度変換処理部32は、カメラ映像5を構成する各フレーム(撮影画像)を輝度画像に変換する。各フレームは静止画像である撮影画像に相当し、輝度画像は、この撮影画像のそれぞれの画素値を、その画素の輝度値に変換した画像である。
俯瞰変換処理部34は、各輝度画像を俯瞰画像に変換する。俯瞰画像は、車両2の上方に設定された仮想視点から直下方向を視た画像であり、輝度画像を射影変換(視点変換とも呼ばれる)することで生成される。
差分画像生成部36は、俯瞰変換処理部34によって順次に生成される俯瞰画像の中から、撮影タイミングが異なる2つの第1撮影画像、及び第2撮影画像から得られた第1俯瞰画像F1、及び第2俯瞰画像F2(図5参照)を抽出し、両者の差分画像Gを生成する。差分画像Gは、第1撮影画像E1の各画素の画素値(輝度値)を、その画素に対応する第2撮影画像E2の画素の画素値(輝度値)との差に変換し、所定の閾値で各画素の画素値を2値化した画像である。差分画像Gの生成時には、差分画像生成部36は、第1俯瞰画像F1と第2俯瞰画像F2の撮影位置Oを、第1俯瞰画像F1を基準に揃えた状態で、両者の各画素の画素値の差分量を算出することで、差分画像Gを生成する。
マスク差分画像生成部50は、差分画像Gにおいて他車両Aが映っている候補の領域(以下、「他車両候補領域60」と言う)以外の領域がマスキングされたマスク差分画像Gm(図13参照)を生成する。
接地線は、車両2が走行している車線に隣接する他の車線に存在する他車両Aが地面に接する線であり、平面視における他車両Aの輪郭線63(図3参照)に相当する。本実施形態において、近傍接地線L1は、図3に示すように、他車両Aの左右両側の輪郭線63のうちの車両2に近い側の線を指し、遠方接地線L2は車両2から遠い側の線を指す。差分画像Gに近傍接地線L1、及び遠方接地線L2が設定されることで、走行方向Bに垂直な横方向Cにおける他車両領域Hの位置が特定されることとなる。
なお、以下の説明では、図3に示すように、車両2が走行している車線70の両側のそれぞれに隣接する他の車線70R、70Lが存在し、各車線70R、70Lを他車両Aが車両2と同一方向に走行している場合における検出動作を例示する。この場合において、いずれの他車両Aも車両2より後方DBに位置し、かつ、カメラ4の画角αの範囲内に位置するものとする。また、図3において、矩形線で示した領域は、車両制御ユニット8による自動運転制御や運転支援において他車両Aの存在を検出する検出領域72を示す。
この立体物検出処理は、少なくとも車両2が走行している間、周囲の他車両Aの存在を検知するために、カメラECU6によって継続的に繰り返し実行される。
なお、以下では、直近に撮影された撮影画像を第1撮影画像とし、それよりも前に撮影された撮影画像を第2撮影画像として説明する。
その一方で、移動物体である他車両Aが第1俯瞰画像F1、及び第2俯瞰画像F2の各々に映っている場合、両者の撮影位置Oが揃えられることで、図5に示すように、それぞれに映った他車両Aの位置にずれが生じる。
このため、両者の差分を示す差分画像Gにおいては、路面標示(白線74等)の静止物体が映っている領域の画素値(差分量)は小さくなり、他車両Aが映っている領域の画素値(差分量)は比較的大きくなる。したがって、差分画像Gの2値化に用いる輝度値の閾値を適切に設定することで、静止物体を除いた画像を得ることができ、その差分画像Gにおける画素値の分布に基づいて、他車両領域Hを抽出し、他車両Aの位置(特に、近傍接地線L1)が特定可能となる。
マスク画像生成処理では、先ず、マスク差分画像生成部50がマスキング領域62をマスクするためのマスク画像90を生成する(ステップSb1)。上述の通り、マスキング領域62は、差分画像Gにおける他車両候補領域60以外の領域であり、他車両候補領域60は、差分画像Gに映った他車両Aの鉛直方向輪郭線Pに基づいて特定される。
鉛直方向輪郭線Pは、図7に示すように、撮影画像M(カメラ映像5のフレーム)に映った他車両Aの輪郭線63や、当該他車両Aの車体パーツ(ドアなど)の輪郭線、他車両Aに描かれた模様の輪郭線などのうち、鉛直方向(地面に対して垂直方向)に延びる各々の線である。これらの鉛直方向輪郭線Pは、撮影画像Mの射影変換(視点変換)によって、いわゆる倒れ込みが生じ、俯瞰画像Fにおいてカメラ4の撮影位置Oから延びる放射線Q上の線分に変換される。つまり、俯瞰画像Fにおいて、鉛直方向輪郭線Pを含む放射線Qの領域(図7のハッチングで示す領域)は他車両Aが存在する領域を示すので、かかる領域が他車両候補領域60となる。
なお、鉛直方向輪郭線Pを含む放射線Qの方向は、射影変換(視点変換)によって立体物が倒れ込む方向とも呼ばれる。
ラベル画像91は、撮影位置Oから等間隔に放射状に延び、それぞれがラベル番号によって識別された複数の放射線Qの画像であり、それぞれの放射線Qが、差分画像Gにおける鉛直方向輪郭線Pを含んだ放射線Qの候補となる。本実施形態では、ラベル画像91には、ラベル番号が「1」から「100」までの100本の放射線Qが含まれる。
かかるラベル画像91は、差分画像Gに相当する画素数を有し、図8に示すように、同じ放射線Qを構成する各画素に、その放射線Qのラベル番号(「1」から「100」のいずれか)が対応付けられている。
ルックアップテーブル92は、ラベル画像91の各画素に、非マスキング(白色)に対応する「255」、及びマスキング(黒色)に対応する「0」のいずれかの画素値を指定するものである。ラベル画像91の各画素の画素値が、ルックアップテーブル92の指定に基づいて設定されることで、各画素が非マスキング状態(白色)、又はマスキング状態(黒色)となったマスク画像90が得られる。
差分ヒストグラムRaは、図10に示すように、ラベル番号を横軸とし、差分画像Gにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向差分量累積値」と言う)を縦軸としたグラフである。放射線方向差分量累積値は、放射線Qが鉛直方向輪郭線Pを含んでいると大きくなるので、この差分ヒストグラムRaにおいて、放射線方向差分量累積値が所定の第1閾値Th1を越えている各放射線Qを特定することで、他車両候補領域60となる放射線Qの範囲Uaを特定できる。
また放射線Qごとの放射線方向差分量累積値に基づいて、鉛直方向輪郭線Pを含む放射線Qを特定するので、例えば差分画像Gに対して輪郭抽出処理などの画像処理を施して鉛直方向輪郭線Pを検出する場合に比べ、高速かつ高精度に放射線Qを特定できる。
エッジ強度ヒストグラムRbは、図11に示すように、ラベル番号を横軸とし、エッジ画像Eにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向エッジ強度累積値」と言う)を縦軸としたグラフである。
エッジ画像Eは、第1俯瞰画像F1、及び第2俯瞰画像F2のうち、撮影タイミングが遅い方(すなわち直近の方)の俯瞰画像(本実施形態では第1俯瞰画像F1)において、その俯瞰画像に映った物体(当該物体の模様等を含む)の輪郭成分を抽出した画像である。かかるエッジ画像Eは、俯瞰画像において、周辺の画素との間の輝度差が大きな(所定値以上)の各画素の画素値を、その輝度差に応じた値(強度値)とすることで生成される。
すなわち、エッジ強度ヒストグラムRbは、放射線Qに含まれる立体物のエッジ成分の大小を、放射線Qのラベルごとに示したグラフとなる。
これにより、図12に示すように、他車両候補領域60が非マスキング状態となり、他車両候補領域60以外の領域がマスキング領域62となったマスク画像90が得られる。
接地線特定処理では、接地線特定部52によって、マスク差分画像Gmに基づいて、差分画像Gにおける近傍接地線L1、及び遠方接地線L2が他車両Aの位置として特定される。
具体的には、接地線特定部52は、近傍接地線L1を求めるために、マスク差分ヒストグラムRcを生成する(ステップSc1)。
マスク差分ヒストグラムRcは、図15に示すように、車両2の走行方向Bに対して垂直な横方向Cの位置(以下、「横方向位置」と言う)を横軸とし、マスク差分画像Gmの横方向を所定間隔で短冊状の小領域に区切り、その領域ごとに走行方向Bに沿って画素値の有無を累積した値(以下、「走行方向差分量累積値」と言う)を縦軸としたグラフである。マスク差分画像Gmでは、他車両候補領域60以外はマスキングされているため、横方向Cにおける走行方向差分量累積値の分布によって、他車両Aの近傍接地線L1を特定することができる。
具体的には、接地線特定部52は、図16に示すように、マスク差分ヒストグラムRcの横軸上のi(iは1以上の整数)箇所に判定点Xを等間隔に設定する。各判定点Xは、マスク差分ヒストグラムRcの横軸における区間(グラフの柱)に対応させてもよい。
そして、接地線特定部52は、前掲図14に示すように、撮影位置Oに近い判定点Xから順に、所定の接地線判定条件を満足するか否かを判定し(ステップSc3)、満足してない場合には(ステップSc3:No)、次の判定点Xを判定する(ステップSc4)。また、接地線判定条件が満足されている場合は(ステップSc3:Yes)、接地線特定部52は、その判定点Xを近傍接地線L1の位置であると特定する(ステップSc5)。
撮影位置Oに近い判定点Xから順に接地線判定条件を判定することで、図16に示すように、所定個数分の判定点Xの全ての走行方向差分量累積値が第3閾値Th3を越える範囲Ucに対し、撮影位置Oからみて直前の判定点Xが求められ、この判定点Xが近傍接地線L1として特定されることとなる。これにより、近傍接地線L1が他車両Aに入り込んだ位置(第3閾値Th3を越えている範囲)に設定されることがなく、より正確な位置に近傍接地線L1が設定される。
上述の通り、差分画像Gにおける近傍接地線L1の位置は、当該差分画像Gではなく、影76などのノイズがマスキングされたマスク差分画像Gmに基づいて特定されるので、特定された位置は非常に正確なものとなる。
近傍接地線L1を用いて他車両Aの先端VF、及び後端VBを求める手法としては、次のような手法がある。すなわち、図17に示すように、俯瞰画像Fにおいて、他車両Aの鉛直方向輪郭線Pのうち、後端近傍側鉛直方向輪郭線P1、及び先端近傍側鉛直方向輪郭線P2と、近傍接地線L1との交点を求めるという手法である。これらの交点によって、近傍接地線L1における後端近傍側位置L1VBと、先端近傍側位置L1VFとが求められる。
なお、後端近傍側鉛直方向輪郭線P1は、他車両Aの後端側であり撮影位置Oに近い側の鉛直方向輪郭線Pを指し、先端近傍側鉛直方向輪郭線P2は、他車両Aの先端側であって撮影位置Oに近い側の鉛直方向輪郭線Pを指す。
すなわち、図18に示すように、立体物領域特定部54は、近傍接地線L1、及び遠方接地線L2のそれぞれごとに、他車両Aの鉛直方向輪郭線Pを含む放射線Qとの交点LVを求める。次いで、立体物領域特定部54は、近傍接地線L1における交点LVから他車両領域H1を特定し、また遠方接地線L2における交点LVから他車両領域H2を特定する。そして、立体物領域特定部54は、これら他車両領域H1と他車両領域H2とが重複するエリアに基づいて他車両Aの先端VF、及び後端VBを特定する。これにより、他車両Aについて、近傍接地線L1、遠方接地線L2、先端VF、及び後端VBによって区画される他車両領域Hが特定されることとなる。
立体物領域特定部54は、近傍接地線L1、及び遠方接地線L2ごとの他車両領域H1、H2を特定するために、先ず、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnと、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfと、をそれぞれ生成する(ステップSd1)。
差分近傍ヒストグラムRanは、図20に示すように、差分画像Gにおける近傍領域Jnについて上述した差分ヒストグラムRaを求めたものであり、またエッジ強度近傍ヒストグラムRbnは、図21に示すように、エッジ画像Eにおける近傍領域Jnについて、上述したエッジ強度ヒストグラムRbを求めたものである。
近傍領域Jnは、差分画像Gにおいて、近傍接地線L1と遠方接地線L2とで挟まれた領域である。
差分遠方ヒストグラムRafは、図22に示すように、差分画像Gにおける遠方領域Jfについて上述した差分ヒストグラムRaを求めたものであり、またエッジ強度遠方ヒストグラムRbfは、図23に示すように、エッジ画像Eにおける遠方領域Jfについて、上述したエッジ強度ヒストグラムRbを求めたものである。
遠方領域Jfは、差分画像Gにおいて、撮影位置Oからみて近傍接地線L1よりも遠方の領域である。
近傍用マスクラベル画像91nは、差分画像Gにおいて近傍領域Jn以外の画素値を無効とし、累積値のカウントから除外されるようにする画像である。かかる近傍用マスクラベル画像91nは、図24に示すように、差分画像Gにおける近傍領域Jn以外をマスキングする近傍領域用マスク画像90nを、上述したラベル画像91に重畳することで得られる。
立体物領域特定部54が、近傍用マスクラベル画像91nを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、近傍領域Jnの画素値だけが累積値の加算対象となり、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnが求められることとなる。
体物領域特定部54が、遠方用マスクラベル画像91fを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、遠方領域Jfの画素値だけが累積値の加算対象となり、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfが求められる。
具体的には、立体物領域特定部54は、差分近傍ヒストグラムRanにおいて放射線方向差分量累積値が第4閾値Th4(図20)以上であり、なおかつエッジ強度近傍ヒストグラムRbnにおいて放射線方向エッジ強度累積値が第5閾値Th5(図21)以上となるラベル番号の放射線Qを特定する。
そして、図25に示すように、立体物領域特定部54は、差分画像Gにおいて、特定された放射線Qの各々と近傍接地線L1との交点LVを特定する。これらの交点LVの特定は、差分画像Gの中に設定された所定の検出領域についてのみ行われる。この検出領域は、例えば上記検出領域72(図3、図5)などである。
これらの交点LVによって、近傍領域Jnに限定して立体物検出を行った場合の他車両領域H1が特定される。なお、他車両領域H1の横方向Cの幅(すなわち他車両Aの車幅)については、近傍接地線L1と遠方接地線L2の位置に基づいて特定される。
そこで、立体物領域特定部54は、近傍接地線L1における各交点LV、及び遠方接地線L2における各交点LVのそれぞれを、次のようにして1台の他車両Aごとにグループ化する(ステップSd4、Sd5)。
そして、立体物領域特定部54は、グループ97ごとに、そのグループ97に属する交点LVによって単一他車両領域K1を特定することで、他車両領域H1が、単一の他車両Aごとに分けられることとなる。
すなわち、図27に示すように、単一他車両領域K1、及び単一他車両領域K2の各々の他車両Aの先端VF、及び後端VBのうち、単一他車両領域K1、及び単一他車両領域K2の両者が重複している範囲にあるものを、最終的な単一他車両領域Kの先端VF、及び後端VBとして特定する。
そして、これら先端VF、及び後端VBと、近傍接地線L1及び遠方接地線L2とによって、射影変換による倒れ込みに起因する誤差を排除し、矩形状の単一他車両領域Kの正確な位置が特定されることとなる。
これにより、走行中の車両2と、その周囲の他車両Aとの間に影76が存在する場合でも、他車両Aの位置を精度よく特定ができる。
したがって、車両制御ユニット8にあっては、他車両Aの正確な位置に基づいて、車線変更や合流、分流時の他車両と接近するようなシーンで、より正確な自動運転制御を実現できる。
これにより、射影変換による倒れ込みの影響を排除して、正確に他車両領域Hを特定することができる。
これにより、2つの他車両領域H1、H2が正確に求められる。
4 カメラ
6 カメラECU(立体物検出装置)
24 立体物位置特定部
32 輝度変換処理部
34 俯瞰変換処理部
36 差分画像生成部
50 マスク差分画像生成部
52 接地線特定部
54 立体物領域特定部
62 マスキング領域
90 マスク画像
90f 遠方領域用マスク画像
90n 近傍領域用マスク画像
A 他車両
B 走行方向
C 横方向
E エッジ画像
F、F1、F2 俯瞰画像
G 差分画像
Gm マスク差分画像
H、H1、H2 他車両領域
Jf 遠方領域
Jn 近傍領域
K、K1、K2 単一他車両領域
L1 近傍接地線
L2 遠方接地線
LV 交点
M 撮影画像
O 撮影位置
P 鉛直方向輪郭線
Q 放射線
Ra 差分ヒストグラム
Raf 差分遠方ヒストグラム
Ran 差分近傍ヒストグラム
Rb エッジ強度ヒストグラム
Rbf エッジ強度遠方ヒストグラム
Rbn エッジ強度近傍ヒストグラム
Rc マスク差分ヒストグラム
VB 後端
VF 先端
Claims (10)
- 車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する俯瞰変換処理部と、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する差分画像生成部と、
前記差分画像に基づいて、前記車両の周囲に存在する立体物の位置を特定する立体物位置特定部と、
前記差分画像において前記立体物が映っている候補となる立体物候補領域以外をマスキングしたマスク差分画像を生成するマスク差分画像生成部と、を備え、
前記立体物位置特定部は、
前記マスク差分画像に基づいて前記差分画像における前記立体物の位置を特定し、
前記車両の走行方向に垂直な横方向を横軸とし、前記マスク差分画像の各画素の画素値を前記走行方向に沿って累積した走行方向差分量累積値を縦軸としたマスク差分ヒストグラムにおいて前記走行方向差分量累積値が第3閾値を越える横軸の位置に基づいて、前記差分画像における前記立体物の近傍接地線を特定する接地線特定部を備え、
前記接地線特定部によって特定された前記近傍接地線に基づいて、前記差分画像における前記立体物の位置を特定する
ことを特徴とする立体物検出装置。 - 前記接地線特定部は、
前記マスク差分ヒストグラムの横軸において連続して前記第3閾値を越えた範囲の中で前記撮影位置に最も近い範囲を特定し、前記撮影位置からみて当該範囲の直前の地点を前記近傍接地線の位置に特定する、
ことを特徴とする請求項1に記載の立体物検出装置。 - 前記接地線特定部は、
前記立体物の幅と前記近傍接地線とに基づいて、前記差分画像における前記立体物の遠方接地線を特定する
ことを特徴とする請求項2に記載の立体物検出装置。 - 前記立体物位置特定部は、
前記差分画像において前記撮影位置から延び、前記立体物の鉛直方向輪郭線を含む放射線と、前記近傍接地線、及び前記遠方接地線のそれぞれとの交点に基づいて、前記近傍接地線において前記立体物が位置する第1領域、及び前記遠方接地線において前記立体物が位置する第2領域を特定し、これら第1領域、及び第2領域が重複する範囲に基づいて、前記差分画像において前記立体物が映った立体物領域を特定する立体物領域特定部を備える
ことを特徴とする請求項3に記載の立体物検出装置。 - 前記立体物領域特定部は、
前記差分画像において前記撮影位置から延びた複数の放射線のそれぞれを横軸とし、前記差分画像の各画素値を前記放射線に沿って累積した放射線方向差分量累積値を縦軸とした差分ヒストグラムにおいて当該放射線方向差分量累積値が第4閾値以上の放射線を、前記立体物の鉛直方向輪郭線を含む放射線と特定する
ことを特徴とする請求項4に記載の立体物検出装置。 - 前記立体物領域特定部は、
前記第1俯瞰画像、及び前記第2俯瞰画像のうち、直近に撮影された撮影画像に対応する方の画像から前記立体物の輪郭成分を抽出したエッジ画像において前記撮影位置から延びた複数の放射線のそれぞれを横軸とし、当該エッジ画像の各画素値を前記放射線に沿って累積した放射線方向エッジ強度累積値を縦軸としたエッジ強度ヒストグラムにおいて当該放射線方向エッジ強度累積値が第5閾値以上の放射線を、前記立体物の鉛直方向輪郭線を含む放射線と特定する
ことを特徴とする請求項4または5に記載の立体物検出装置。 - 前記立体物領域特定部は、
前記近傍接地線、及び前記遠方接地線によって挟まれた領域以外がマスキングされた前記差分画像に基づいて前記放射線を求め、当該放射線と前記近傍接地線と交点に基づいて前記第1領域を特定し、
前記撮影位置からみて前記近傍接地線よりも遠い遠方領域以外がマスキングされた前記差分画像に基づいて前記放射線を求め、当該放射線と前記遠方接地線と交点に基づいて前記第2領域を特定する、
ことを特徴とする請求項4から6のいずれかに記載の立体物検出装置。 - 車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する俯瞰変換処理部と、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する差分画像生成部と、
前記差分画像に基づいて、前記車両の周囲に存在する立体物の位置を特定する立体物位置特定部と、
前記差分画像において前記立体物が映っている候補となる立体物候補領域以外をマスキングしたマスク差分画像を生成するマスク差分画像生成部と、を備え、
前記立体物位置特定部は、
前記マスク差分画像に基づいて前記差分画像における前記立体物の位置を特定し、
前記マスク差分画像生成部は、
前記差分画像において前記撮影位置から延びた複数の放射線のそれぞれを横軸とし、前記差分画像の各画素値を前記放射線に沿って累積した放射線方向差分量累積値を縦軸とした差分ヒストグラムにおいて当該放射線方向差分量累積値が第1閾値以下の放射線を特定し、前記差分画像において当該放射線に対応する領域をマスキングする
ことを特徴とする立体物検出装置。 - 車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する俯瞰変換処理部と、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する差分画像生成部と、
前記差分画像に基づいて、前記車両の周囲に存在する立体物の位置を特定する立体物位置特定部と、
前記差分画像において前記立体物が映っている候補となる立体物候補領域以外をマスキングしたマスク差分画像を生成するマスク差分画像生成部と、を備え、
前記立体物位置特定部は、
前記マスク差分画像に基づいて前記差分画像における前記立体物の位置を特定し、
前記マスク差分画像生成部は、
前記第1俯瞰画像、及び前記第2俯瞰画像のうち、直近に撮影された撮影画像に対応する方の画像から前記立体物の輪郭成分を抽出したエッジ画像において前記撮影位置から延びた複数の放射線のそれぞれを横軸とし、当該エッジ画像の各画素値を前記放射線に沿って累積した放射線方向エッジ強度累積値を縦軸としたエッジ強度ヒストグラムにおいて当該放射線方向エッジ強度累積値が第2閾値以下の放射線を特定し、前記差分画像において当該放射線に対応する領域をマスキングする
ことを特徴とする立体物検出装置。 - 車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する第1ステップと、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する第2ステップと、
前記差分画像において立体物が映っている候補となる立体物候補領域以外をマスキングしたマスク差分画像を生成する第3ステップと、
前記マスク差分画像に基づいて前記差分画像における前記立体物の位置を特定する第4ステップと、
を備え、
前記第4ステップは、
前記車両の走行方向に垂直な横方向を横軸とし、前記マスク差分画像の各画素の画素値を前記走行方向に沿って累積した走行方向差分量累積値を縦軸としたマスク差分ヒストグラムにおいて前記走行方向差分量累積値が第3閾値を越える横軸の位置に基づいて、前記差分画像における前記立体物の近傍接地線を特定し、特定した前記近傍接地線に基づいて、前記差分画像における前記立体物の位置を特定する
ことを特徴とする立体物検出方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019090116A JP7327992B2 (ja) | 2019-05-10 | 2019-05-10 | 立体物検出装置、及び立体物検出方法 |
US16/862,639 US11315347B2 (en) | 2019-05-10 | 2020-04-30 | Solid object detection device and solid object detection method |
EP20173751.7A EP3736736A1 (en) | 2019-05-10 | 2020-05-08 | Solid object detection device and solid object detection method |
CN202010382642.8A CN111914610B (zh) | 2019-05-10 | 2020-05-08 | 立体物检测装置、以及立体物检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019090116A JP7327992B2 (ja) | 2019-05-10 | 2019-05-10 | 立体物検出装置、及び立体物検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020187434A JP2020187434A (ja) | 2020-11-19 |
JP7327992B2 true JP7327992B2 (ja) | 2023-08-16 |
Family
ID=70680312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019090116A Active JP7327992B2 (ja) | 2019-05-10 | 2019-05-10 | 立体物検出装置、及び立体物検出方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11315347B2 (ja) |
EP (1) | EP3736736A1 (ja) |
JP (1) | JP7327992B2 (ja) |
CN (1) | CN111914610B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240010242A1 (en) * | 2020-11-11 | 2024-01-11 | Sony Semiconductor Solutions Corporation | Signal processing device and signal processing method |
JP7643428B2 (ja) * | 2022-09-30 | 2025-03-11 | トヨタ自動車株式会社 | 位置推定システム、位置推定方法、及びプログラム |
CN116363631B (zh) * | 2023-05-19 | 2023-09-05 | 小米汽车科技有限公司 | 三维目标检测方法、装置及车辆 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003662A (ja) | 2010-06-21 | 2012-01-05 | Nissan Motor Co Ltd | 移動距離検出装置及び移動距離検出方法 |
WO2014017521A1 (ja) | 2012-07-27 | 2014-01-30 | 日産自動車株式会社 | 立体物検出装置 |
US20140368656A1 (en) | 2011-12-19 | 2014-12-18 | Nissan Motor Co., Ltd. | Three-dimensional object detection device |
US20150071490A1 (en) | 2012-04-16 | 2015-03-12 | Nissan Motor Co., Ltd. | Three-dimensional object detection device and three-dimensional object detection method |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4157620B2 (ja) * | 1998-06-19 | 2008-10-01 | 株式会社東芝 | 移動物体検出装置及びその方法 |
JP2008227646A (ja) | 2007-03-09 | 2008-09-25 | Clarion Co Ltd | 障害物検知装置 |
JP2010109452A (ja) * | 2008-10-28 | 2010-05-13 | Panasonic Corp | 車両周囲監視装置及び車両周囲監視方法 |
JP2010256995A (ja) * | 2009-04-21 | 2010-11-11 | Daihatsu Motor Co Ltd | 物体認識装置 |
JP5787649B2 (ja) * | 2010-10-26 | 2015-09-30 | 株式会社小糸製作所 | 車両用灯具の制御装置および車両用灯具システム |
MX349873B (es) * | 2012-03-01 | 2017-08-17 | Nissan Motor | Dispositivo de deteccion de objetos tridimensionales. |
US20150116494A1 (en) * | 2012-05-08 | 2015-04-30 | Toyota Jidosha Kabushiki Kaisha | Overhead view image display device |
US9129188B2 (en) * | 2012-06-22 | 2015-09-08 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
JP6003987B2 (ja) * | 2012-07-27 | 2016-10-05 | 日産自動車株式会社 | 立体物検出装置及び立体物検出方法 |
US9558409B2 (en) * | 2012-09-26 | 2017-01-31 | Magna Electronics Inc. | Vehicle vision system with trailer angle detection |
WO2016083002A1 (en) * | 2014-11-28 | 2016-06-02 | Fotonation Limited | A method for producing a histogram of oriented gradients |
JP6557973B2 (ja) * | 2015-01-07 | 2019-08-14 | 株式会社リコー | 地図生成装置、地図生成方法およびプログラム |
-
2019
- 2019-05-10 JP JP2019090116A patent/JP7327992B2/ja active Active
-
2020
- 2020-04-30 US US16/862,639 patent/US11315347B2/en active Active
- 2020-05-08 CN CN202010382642.8A patent/CN111914610B/zh active Active
- 2020-05-08 EP EP20173751.7A patent/EP3736736A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003662A (ja) | 2010-06-21 | 2012-01-05 | Nissan Motor Co Ltd | 移動距離検出装置及び移動距離検出方法 |
US20140368656A1 (en) | 2011-12-19 | 2014-12-18 | Nissan Motor Co., Ltd. | Three-dimensional object detection device |
US20150071490A1 (en) | 2012-04-16 | 2015-03-12 | Nissan Motor Co., Ltd. | Three-dimensional object detection device and three-dimensional object detection method |
WO2014017521A1 (ja) | 2012-07-27 | 2014-01-30 | 日産自動車株式会社 | 立体物検出装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111914610B (zh) | 2024-05-14 |
US11315347B2 (en) | 2022-04-26 |
EP3736736A1 (en) | 2020-11-11 |
JP2020187434A (ja) | 2020-11-19 |
US20200356792A1 (en) | 2020-11-12 |
CN111914610A (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10690770B2 (en) | Navigation based on radar-cued visual imaging | |
JP6344638B2 (ja) | 物体検出装置、移動体機器制御システム及び物体検出用プログラム | |
JP6511283B2 (ja) | 物体検知装置 | |
CN111971682B (zh) | 路面检测装置、图像显示装置、障碍物检测装置、路面检测方法、图像显示方法以及障碍物检测方法 | |
EP3545464B1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP6340850B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6597792B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
EP3413267B1 (en) | Object detection device, device control system, objection detection method, and program | |
JP7327992B2 (ja) | 立体物検出装置、及び立体物検出方法 | |
JP2007193445A (ja) | 車両の周辺監視装置 | |
JP2008304344A (ja) | 物標検出装置 | |
US10748014B2 (en) | Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium | |
JP6743882B2 (ja) | 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム | |
KR20210062672A (ko) | 차량의 주변 환경에 있는 물체와 관련된 정보를 결정하기 위한 방법 및 처리 유닛 | |
EP3115966A1 (en) | Object detection device, object detection method, and computer program | |
JP2008262333A (ja) | 路面判別装置および路面判別方法 | |
EP3428876A1 (en) | Image processing device, apparatus control system, imaging device, image processing method, and program | |
JP6763198B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
KR101478072B1 (ko) | 차량 검출 방법 | |
JP2010071942A (ja) | 物体検出装置 | |
JP7356372B2 (ja) | 立体物検出装置、車載システム、及び立体物検出方法 | |
JP7356371B2 (ja) | 立体物検出装置、車載システム、及び立体物検出方法 | |
WO2021166576A1 (ja) | 立体物検出装置、車載システム、及び立体物検出方法 | |
JP7524034B2 (ja) | 立体物検出装置、及び立体物検出方法 | |
JP2712809B2 (ja) | 車両用障害物検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7327992 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |