[go: up one dir, main page]

JP6417886B2 - 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム - Google Patents

視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム Download PDF

Info

Publication number
JP6417886B2
JP6417886B2 JP2014234777A JP2014234777A JP6417886B2 JP 6417886 B2 JP6417886 B2 JP 6417886B2 JP 2014234777 A JP2014234777 A JP 2014234777A JP 2014234777 A JP2014234777 A JP 2014234777A JP 6417886 B2 JP6417886 B2 JP 6417886B2
Authority
JP
Japan
Prior art keywords
value
cost
parallax
threshold value
changing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014234777A
Other languages
English (en)
Other versions
JP2015143677A (ja
Inventor
樹一郎 齊藤
樹一郎 齊藤
渡邊 義一
義一 渡邊
横田 聡一郎
聡一郎 横田
亮輔 田村
亮輔 田村
維 仲
維 仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014234777A priority Critical patent/JP6417886B2/ja
Priority to EP14869791.5A priority patent/EP3080549B1/en
Priority to PCT/JP2014/083626 priority patent/WO2015088044A1/en
Priority to US15/100,895 priority patent/US10104359B2/en
Priority to KR1020167015408A priority patent/KR101820259B1/ko
Priority to CN201480067342.3A priority patent/CN105814403B/zh
Publication of JP2015143677A publication Critical patent/JP2015143677A/ja
Application granted granted Critical
Publication of JP6417886B2 publication Critical patent/JP6417886B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラムに関するものである。
従来から、ステレオ画像法によって、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、三角測量の原理に基づき、ステレオカメラから物体までの距離を測定する測距方法が知られている。この測距方法により、例えば、自動車間の距離や、自動車と障害物間の距離が測定され、自動車の衝突防止に役立てられている。
また、視差値の求め方としては、ステレオマッチング処理が用いられている。このステレオマッチング処理は、ステレオカメラの2つのカメラのうち、一方のカメラによって得られた基準画像内の注目する基準画素に対して、他方のカメラによって得られた比較画像内の複数の対応画素の候補を順次シフトしながら、画像信号が最も類似する画素である対応画素の位置を求めることで、基準画像と比較画像の間の視差値を算出する。一般的には、2つのカメラによって得られた画像信号の輝度値を比較することで、シフト量毎に比較する輝度値のコスト値(Cost:ここでは「非類似度」)が最も低い画素の位置が求められる(特許文献1参照)。
ところが、物体の輝度変化の大きさを示すテクスチャが弱く、抽出すべき特徴そのものが乏しい領域では、エッジ検出を行っても、十分な効果を得ることができない。
そこで、テクスチャが弱い物体でも、より正確な視差を導き出す方法が提案されている(例えば、特許文献2参照)。この方法によって、基準画像上の注目する基準画素のコスト値だけでなく、この基準画素の周囲の画素のコスト値を集約することで、テクスチャが弱い物体に対する視差を導き出すことができる。
しかしながら、特許文献2に記載された方法を用いて自動車間の距離等を測距する場合、テクスチャの弱い路面等におけるコスト値が、テクスチャの強い周囲の先行車両等におけるコスト値の影響を受けてしまう。これにより、正確なコスト値を導き出すことができないという課題が生じる。
上述の課題を解決するため、請求項1に係る発明は、物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出する視差値導出装置であって、前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、前記算出手段によって算出された前記各コスト値のうち、閾値を越えたコスト値を、当該閾値よりも高い所定値に変更する変更手段と、前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、を有することを特徴とする視差値導出装置である。
以上説明したように本発明によれば、コスト値を合成するにあたって、算出手段によって算出されたコスト値が閾値を超える場合には、閾値を超えたコスト値を、閾値よりも高い所定値に変更する。これにより、所定値よりも大きいコスト値Cが、所定値まで下がるため、テクスチャの弱い物体におけるコスト値が、テクスチャの強い周囲の物体におけるコスト値の影響を受けにくくすることができる。よって、より正確なコスト値を導き出すことができるという効果を奏する。
撮像装置から物体までの距離を導き出す原理の説明図である。 (a)は基準画像、(b)は(a)に対する高密度視差画像、(c)は(a)に対するエッジ視差画像を示す概念図である。 (a)は基準画像における基準画素を示す概念図、(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながらシフト量を算出する際の概念図である。 シフト量毎のコスト値を示すグラフである。 合成コスト値を導き出すための概念図である。 視差値毎の合成コスト値を示すグラフである。 (a)は本発明の一実施形態に係る視差値導出装置を搭載した自動車の側面を表す概略図、(b)は自動車の正面を示す概略図である。 視差値導出装置の概観図である。 視差値導出装置の全体のハードウェア構成図である。 視差値導出装置の主要部のハードウェア構成図である。 第1の本実施形態の処理を示したフローチャートである。 (a)は基準画像、(b)は基準画像の一部、(c)はコスト変更しない場合の(b)に対する高密度視差画像、(d)は閾値Th=40でコスト変更した場合の(b)に対する高密度視差画像、(e)は閾値Th=20でコスト変更した場合の(b)に対する高密度視差画像を示す概念図である。 (a)はコスト変更しない場合のコスト値を示すグラフ、(b)はコスト変更した場合のコスト値を示すグラフ、(c)はコスト変更しない場合の合成コスト値を示すグラフ、(d)はコスト変更した場合の合成コスト値である。 物体認識装置が認識する物体認識結果の大きさを示す枠を含む基準画像の概念図である。 第2の本実施形態の処理を示したフローチャートである。 (a)は基準画像、(b)は基準画像の一部、(c)はコスト変更しない場合の(b)に対する高密度視差画像、(d)、(e)はコスト変更した場合の(b)に対する高密度視差画像を示す概念図である。 (a)はコスト変更しない場合のコスト値を示すグラフ、(b)はコスト変更した場合のコスト値を示すグラフ、(c)はコスト変更しない場合の合成コスト値を示すグラフ、(d)はコスト変更した場合の合成コスト値を示すグラフである。 (a)は図16(b)と同じグラフ、(b)はコスト変更した場合のコスト値を示すグラフ、(c)は図16(d)と同じグラフ、(d)はコスト変更した場合の合成コスト値を示すグラフである。
以下、図面を用いて、本発明の一実施形態について説明する。
〔SGM法を用いた測距方法の概略〕
まず、図1乃至図6を用いて、SGM(Semi-Global Matching)法を用いた測距方法の概略について説明する。なお、SGM法に関しては、非特許文献(Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information)に開示されているため、以下では概略を説明する。
<測距の原理>
図1を用いて、ステレオ画像法により、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、図1は、撮像装置から物体までの距離を導き出す原理の説明図である。また、以下では、説明を簡略化するため、複数の画素からなる所定領域ではなく、一画素単位で説明する。
なお、一画素単位ではなく、複数の画素からなる所定領域単位で処理される場合、基準画素を含む所定領域は基準領域として示され、対応画素を含む所定領域は対応領域として示される。また、この基準領域には基準画素のみの場合も含まれ、対応領域には対応画素のみの場合も含まれる。
(視差値算出)
まず、図1で示される撮像装置10aおよび撮像装置10bによって撮像された各画像を、それぞれ基準画像Iaおよび比較画像Ibとする。なお、図1では、撮像装置10aおよび撮像装置10bが平行等位に設置されているものとする。図1において、3次元空間内の物体E上のS点は、撮像装置10aおよび撮像装置10bの同一水平線上の位置に写像される。すなわち、各画像中のS点は、基準画像Ia中の点Sa(x,y)および比較画像Ib中の点Sb(X,y)において撮像される。このとき、視差値Δは、撮像装置10a上の座標におけるSa(x,y)と撮像装置10b上の座標におけるSb(X,y)とを用いて、(式1)のように表される。
Δ=X−x (式1)
ここで、図1のような場合には、基準画像Ia中の点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaにし、比較画像Ib中の点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。
(距離算出)
また、視差値Δを用いることで、撮像装置10a,10bと物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。図1に示されるように、撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、及び視差値Δを用いて、(式2)により、距離Zを算出することができる。
Z=(B×f)/Δ (式2)
この(式2)により、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
<SGM法>
続いて、図2乃至図6を用いて、SGM法を用いた測距方法について説明する。なお、図2(a)は基準画像、図2(b)は(a)に対する高密度視差画像、図2(c)は(a)に対するエッジ視差画像を示す概念図である。ここで、基準画像は、物体が輝度によって示された画像である。高密度視差画像は、SGM法によって、基準画像から導き出された画像であり、基準画像の各座標における視差値を示した画像である。エッジ視差画像は、従来から用いられているブロックマッチング法によって導き出された画像であり、基準画像のエッジ部のような比較的テクスチャの強い部分のみの視差値を示した画像である。
SGM法は、テクスチャが弱い物体に対しても適切に上記視差値を導き出す方法であり、図2(a)に示されている基準画像に基づいて、図2(b)に示されている高密度視差画像を導き出す方法である。なお、ブロックマッチング法を用いた場合には、図2(a)に示されている基準画像に基づいて、図2(c)に示されているエッジ視差画像が導き出される。図2(b)及び図2(c)における破線の楕円内を比べると分かるように、高密度視差画像は、エッジ視差画像に比べてテクスチャが弱い道路等の詳細な情報を表すことができるため、より詳細な測距を行うことができる。
このSGM法は、非類似度であるコスト値を算出して直ちに視差値を導出せず、コスト値を算出後、更に、合成非類似度である合成コスト値 (Synthesis Cost)を算出することで視差値を導出し、最終的にほぼ全ての画素における視差値を示す視差画像(ここでは、高密度視差画像)を導き出す方法である。
なお、ブロックマッチング法の場合は、コスト値を算出する点はSGM法と同じであるが、SGM法のように、合成コスト値を算出せずに、エッジ部のような比較的テクスチャの強い部分の視差値のみを導出する。
(コスト値の算出)
まず、図3及び図4を用いて、コスト値C(p,d)の算出方法について説明する。図3(a)は基準画像における基準画素を示す概念図、図3(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)シフト量(ずれ量)を算出する際の概念図である。図4は、シフト量毎のコスト値を示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
図3(a)に示されているように、基準画像内の所定の基準画素p(x,y)と、この基準画素p(x,y)に対する比較画像内におけるエピポーラ線(Epipolar Line)上の複数の対応画素の候補q(x+d,y)との各輝度値に基づいて、基準画素p(x,y)に対する各対応画素の候補q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pと対応画素の候補qのシフト量(ずれ量)であり、本実施形態では、画素単位のシフト量が表されている。即ち、図3では、対応画素の候補q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、対応画素の候補q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるコスト値C(p,d)が算出される。コスト値Cの算出方法としては、コスト値Cが非類似度を示す場合、SAD(Sum of Absolute Difference)等の公知の方法が適用される。
このようにして算出されたコスト値C(p,d)は、図4に示されているように、シフト量d毎のコスト値Cの集まりであるコスト曲線のグラフによって表すことができる。図4では、コスト値Cは、シフト量d=5,12,19の場合が0(ゼロ)となるため、最小値を求めることができない。このように、テクスチャが弱い物体の場合には、コスト値Cの最小値を求めることは困難になる。
(合成コスト値の算出)
次に、図5及び図6を用いて、合成コスト値Ls(p,d)の算出方法について説明する。図5は、合成コスト値を導き出すための概念図である。図6は、視差値毎の合成コスト値を示す合成コスト曲線のグラフである。本実施形態における合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、所定の基準画素p(x,y)の周辺の画素を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出する。
次に、合成コスト値の算出方法について、より詳細に説明する。合成コスト値Ls(p,d)を算出するためには、まず、経路コスト値Lr(p,d)を算出する必要がある。(式3)は、経路コスト値Lr(p,d)を算出するための式であり、(式4)は、合成コスト値Lsを算出するための式である。
Lr(p,d)=C(p,d)+min{(Lr(p−r,d),Lr(p−r,d−1)+P1,Lr(p−r,d+1)+P1,Lrmin(p−r)+p2} (式3)
ここで、(式3)において、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。なお、Lrは、(式3)に示されているように再帰的に適用される。また、P1及びP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。
また、(式3)に示されているように、Lr(p,d)は、基準画素p(x,y)におけるコスト値Cに、図5に示されているr方向の各画素における各画素の経路コスト値Lrの最小値を加算することで求められる。このように、r方向の各画素におけるLrを求めるため、最初は、基準画像p(x,y)のr方向の一番端の画素からLrが求められ、r方向に沿ってLrが求められる。
そして、図5に示されているように、8方向のLr,Lr45,Lr90,Lr135,Lr180,Lr225,Lr270,Lr315求められ、最終的に(式4)に基づいて、合成コスト値Lsが求められる。
Figure 0006417886
このようにして算出された合成コスト値Ls(p,d)は、図6に示されているように、シフト量d毎に合成コスト値Ls(p,d)が示される合成コスト曲線のグラフによって表すことができる。図6では、合成コスト値Lsは、シフト量d=3の場合が最小値となるため、視差値Δ=3として算出される。
なお、上記説明ではrの数を8として説明しているが、これに限られることはない。例えば、8方向を更に2つに分割して16方向、3つに分割して24方向等にしてもよい。
また、コスト値Cは「非類似度」として示されているが、非類似度の逆数としての「類似度」として表されてもよい。この場合、コスト値Cの算出方法としては、NCC(Normalized Cross Correlation)等の公知の方法が適用される。また、この場合、合成コスト値Lsが最小ではなく「最大」となる視差値Δが導出される。なお、非類似度と類似度の両者を含めて、「一致度」として表してもよい。
〔本実施形態の具体的な説明〕
以下、図面を用いて、本実施形態の具体的な説明を行う。ここでは、自動車に搭載される物体認識システム1について説明する。
なお、物体認識システム1は、車両の一例としての自動車だけでなく、車両の他の例として、バイク、自転車、車椅子、農業用の耕運機等に搭載されることができてもよい。また、移動体の一例としての車両だけでなく、移動体の他の例として、ロボット等に搭載されることができてもよい。更に、ロボットは、移動体だけでなく、FA(Factory Automation)において固定設置される工業用ロボット等の装置であってもよい。また、固定設置される装置としては、ロボットだけでなく、防犯用の監視カメラであってもよい。
<実施形態の構成>
まず、図7乃至図9用いて、本実施形態の全体構成について説明する。
(外観構成)
図7及び図8を用いて、本実施形態の物体認識システム1の外観構成を説明する。なお、図7(a)は本発明の一実施形態に係る物体認識システムを搭載した自動車の側面を表す概略図、図7(b)は自動車の正面を示す概略図である。図8は、物体認識システムの概観図である。
図7(a),(b)に示されているように、本実施形態の物体認識システム1は、撮像装置10a及び撮像装置10bを備えており、撮像装置10a及び撮像装置10bは自動車の進行方向前方の光景を撮像することができるように設置される。
また、図8に示されているように、物体認識システム1は、本体部2と、本体部2に対して設けられた一対の円筒状の撮像装置10a及び撮像装置10bとによって構成されている。
(全体のハードウェア構成)
次に、図9を用いて、物体認識システム1の全体のハードウェア構成について説明する。なお、図9は、物体認識システムの全体のハードウェア構成図である。
図9に示されているように、物体認識システム1は、本体部2において、視差値導出装置3及び物体認識装置5を備えている。このうち、視差値導出装置3は、物体Eを撮像して得られた複数の画像から、物体Eに対する視差を示す視差値Δを導出し、各画素における視差値Δを示す高密度視差画像を出力する。物体認識装置5は、視差値導出装置3から出力された高密度視差画像に基づいて、撮像装置10a,10bから物体Eまでの距離を測定する等の処理を行なう。
ここで、まずは、視差値導出装置3のハードウェア構成について説明する。図9に示されているように、視差値導出装置3は、撮像装置10a、撮像装置10b、信号変換装置20a、信号変換装置20b、及び画像処理装置30を備えている。
撮像装置10aは、前方の光景を撮像して画像を表すアナログ信号を生成するものであり、撮像レンズ11a、絞り12a、画像センサ13aを備えている。撮像レンズ11aは、撮像レンズ11aを通過する光を屈折させて物体の像を結像させるための光学素子である。絞り12aは、撮像レンズ11aを通過した光の一部を遮ることによって、後述する画像センサ13aに入力される光の量を調整する。画像センサ13aは、撮像レンズ11a及び絞り12aから入力された光を電気的なアナログの画像信号に変換する半導体の素子であり、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現される。なお、撮像装置10bは撮像装置10aと同じ構成を備えているため、撮像装置10bについての説明は省略する。また、撮像レンズ11aと撮像レンズ11bは、それぞれのレンズ面が互いに同一平面内になるように設置されている。
また、信号変換装置20aは、撮像された画像を表すアナログ信号をデジタル形式の画像データに変換するものであり、CDS(Correlated Double Sampling)21a、AGC(Auto Gain Control)22a、ADC(Analog Digital Converter)23a、及びフレームメモリ24aを備えている。CDS21aは、画像センサ13aによって変換されたアナログの画像信号から相関二重サンプリングによってノイズを除去する。AGC22aは、CDS21aによってノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う。ADC23aは、AGC22aによって利得制御されたアナログの画像信号をデジタル形式の画像データに変換する。フレームメモリ24aは、ADC23aによって変換された画像データを記憶する。
同様に、信号変換装置20bは、撮像装置10bによって変換されたアナログの画像信号から画像データを取得するものであり、CDS21b、AGC22b、ADC23b、及びフレームメモリ24bを有している。なお、CDS21b、AGC22b、ADC23b、及びフレームメモリ24bはそれぞれCDS21a、AGC22a、ADC23a、及びフレームメモリ24aと同じ構成であるため、それらについての説明は省略する。
更に、画像処理装置30は、信号変換装置20a及び信号変換装置20bによって変換された画像データを処理するための装置である。この画像処理装置30は、FPGA(Field Programmable Gate Array)31、CPU(Central Processing Unit)32、ROM(Read Only Memory)33、RAM(Random Access Memory)34、I/F(Interface)35及び上記各構成要素31〜35を図9に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン39を備えている。
このうち、FPGA31は、集積回路であり、ここでは、CPU32の命令に従って、画像データが表す画像における視差値Δを算出する処理を行う。CPU32は、視差値導出装置3の各機能を制御する。ROM33は、CPU32が視差値導出装置3の各機能を制御するために実行される画像処理用プログラムを記憶している。RAM34はCPU32のワークエリアとして使用される。
I/F35は、物体認識装置5における後述I/F55とアドレスバスやデータバス等のバスライン4を介して通信するためのインターフェイスである。
続いて、物体認識装置5のハードウェア構成について説明する。図9に示されているように、物体認識装置5は、FPGA51、CPU52、ROM53、RAM54、I/F55、CAD I/F58及び上記各構成要素51〜55,58を図9に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン59を備えている。
このうち、FPGA51、CPU52、ROM53、RAM54、I/F55、及びバスライン59は、それぞれ画像処理装置30におけるFPGA31、CPU32、ROM33、RAM34、I/F35、及びバスライン39と同様の構成であるため、説明を省略する。なお、I/F55は、画像処理装置30におけるI/F35とバスライン4を介して通信するためのインターフェイスである。また、ROM53は、CPU52が物体認識装置5の各機能を制御するために実行される物体認識用プログラムを記憶している。
CAN I/F58は、外部コントローラ等と通信するためのインターフェイスであり、例えば、自動車のCAN(Controller Area Network)等に接続されることができる。
このような構成により、画像処理装置30のI/F35からバスライン4を介して物体認識装置5に高密度視差画像が送信されると、物体認識装置5におけるCPU52の命令によって、FPGA51が、撮像装置10a,10bと物体Eとの間の距離Zを算出する。なお、物体認識装置5におけるCPU52の命令によってFPGA51が距離Zを算出せずに、画像処理装置30のCPU32の命令によってFPGA31が距離Zを算出してもよい。
また、上記各プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。この記録媒体は、CD−ROM(Compact Disc Read Only Memory)やSDメモリカード(Secure Digital memory card)等である。
〔各本実施形態の具体的な説明〕
以下、図面を用いて、各実施形態の具体的な説明を行う。
<<第1の実施形態>>
まずは、本発明の第1の実施形態について説明する。
<主要部のハードウェア構成>
図3、図9及び図10を用いて、第1の実施形態に係る視差値導出装置3の主要部のハードウェア構成について説明する。なお、図10は、第1の実施形態に係る視差値導出装置の主要部のハードウェア構成図である。
図9におけるFPGA31は、図10に示されているように、コスト算出部310、コスト合成部320、視差値導出部330を備えている。これらは、FPGA31の回路の一部であるが、上記画像処理用プログラムが実行されることにより、同じ処理を行うことができるようにしてもよい。
このうち、コスト算出部310は、図3に示されているように、基準画像(図3(a)参照)内の基準画素p(x,y)の輝度値と、比較画像(図3(b)参照)内において基準画素p(x,y)に基づくエピポーラ線EL上でシフトさせることでシフト量d毎に特定される対応画素の候補q(x+d,y)の各輝度値とに基づいて、基準画素p(x,y)に対する対応画素の候補q(x+d,y)の各コスト値Cを算出する。また、コスト算出部310は、コスト変更部としての役割も果たし、上記算出した各コスト値Cのうち、閾値Thを超えたコスト値を、この閾値Thよりも高い所定値Hに変更する。
また、コスト合成部320は、コスト算出部310(コスト変更部)による変更後の一の基準画素p(x,y)に対する対応画素の候補q(x+d,y)の各コスト値Cと、コスト算出部310(コスト変更部)による変更後の他の基準画素p’(x’,y’)に対する対応画素の候補q’(x’+d,y’)の各コスト値Cと、シフト量d毎に合成し、合成コスト値Lsを出力する。なお、この合成の処理は、(式3)に基づいてコスト値Cから経路コスト値Lrを算出した後、更に、(式4)に基づいて各方向における経路コスト値Lrを加算して、最終的に合成コスト値Lsを算出する処理である。
更に、視差値導出部330は、一の基準画素p(x,y)の基準画像おける位置(x,y)と、コスト合成部320による合成後の合成コスト値Lsが最小となる対応画素q(x+Δ,y)の比較画像における位置(x+Δ,y)とに基づいて視差値Δを導出し、各画素における視差値を示す視差画像を出力する。
<実施形態の処理または動作>
次に、図9乃至図14を用いて、本実施形態の処理または動作を説明する。なお、本実施形態では、図12(a)に示されている基準画像から合成コスト値Lsが導き出される場合について説明する。また、図面を分かり易く説明するため、図12(a)の一部の画像を、図12(b)に示す。
図11は、本実施形態の処理を示したフローチャートである。図12(a)は基準画像、図12(b)は基準画像の一部、図12(c)はコスト変更しない場合の(b)に対する高密度視差画像、図12(d)は閾値Th=40でコスト変更した場合の(b)に対する高密度視差画像、図12(e)は閾値Th=20でコスト変更した場合の(b)に対する高密度視差画像を示す概念図である。図13(a)はコスト変更しない場合のコスト値を示すグラフ、図13(b)はコスト変更した場合のコスト値を示すグラフ、図13(c)はコスト変更しない場合の合成コスト値を示すグラフ、図13(d)はコスト変更した場合の合成コスト値である。なお、図13(a),(b)のグラフの縦軸はコスト値C、横軸はシフト量dである。また、図13(c),(d)のグラフの縦軸は合成コスト値Ls、横軸はシフト量dである。
まず、図9に示されている撮像装置10aは、物体Eを撮像してアナログの画像データを生成する(ステップS1−1)。同じく、撮像装置10aは、物体を撮像してアナログの画像データを生成する(ステップS1−2)。
次に、信号変換装置20aは、アナログの画像データを、デジタルの画像データに変換する(ステップS2−1)。同じく、信号変換装置20bは、アナログの画像データを、デジタルの画像データに変換する(ステップS2−2)。
次に、信号変換装置20aは、画像処理装置30のFPGA31に、変換後のデジタルの画像データを基準画像のデータとして出力する(ステップS3−1)。この基準画像の概念図は、図12(a)に示されている。同じく、信号変換装置20bは、画像処理装置30のFPGA31に、変換後のデジタルの画像データを比較画像のデータとして出力する(ステップS3−2)。この比較画像は、撮像装置10bによって撮像された画像であるが、図12(a)に示されている基準画像と極端な違いはないため、比較画像の概念図は図示しないで省略する。
次に、図10に示されているコスト算出部310は、基準画像のデータ及び比較画像のデータに基づき、図13(a)のグラフで示されているように、シフト量d毎のコスト値Cを算出する(ステップS4)。ここで、仮に、コスト算出部310が、コスト変更部としてコスト変更しない場合、コスト合成部320は、図13(c)のグラフで示されているように、シフト量d毎に合成コスト値Lsを生成して出力する。この場合、合成コスト値Lsが最小(Ls1)となるシフト量はd=13であるため、視差値導出部330は、視差値Δ=13を出力する。また、この場合の高密度視差画像は、図12(c)に示されているような画像となる。
これに対して本実施形態では、コスト算出部310が、コスト変更部としてコスト変更することで、図13(b)のグラフで示されているように、閾値Th(例えば、C=40)を越えるコスト値Cを所定値(例えば、C=80)に変更する(ステップS5)。更に、コスト算出部310は、コスト変更部として、図13(b)のグラフで示されているように、閾値Th(例えば、C=40)以下のコスト値Cを所定値(例えば、C=0)に変更する(ステップS6)。なお、ステップS5とステップS6は逆の順序によって処理されてもよいし、同時に処理されてもよい。
次に、図10に示されているコスト合成部320は、図13(d)のグラフで示されているように、シフト量d毎に合成コスト値Lsを出力する(ステップS7)。この場合、合成コスト値Lsが最小(Ls2)となるシフト量はd=4であるため、視差値導出部330は、視差値Δ=4を出力する。また、この場合の高密度視差画像は、図12(d)に示されているようなシルエット画像となる。このシルエット画像は、物体認識装置5が認識する基準画像中の物体の概略画像であって、閾値Thが低いほど、大きさが小さくなる。但し、閾値Thが0に近づくと、上記合成コスト値Ls(p,d)の精度が上がるというメリットがあるが、合成コスト値Ls(p,d)を算出するためのFPGA31の回路規模が大きくなるというデメリットがある。
このように、コスト算出部310が、コスト変更しない場合とコスト変更する場合とで、視差値Δが異なる。また、コスト変更する場合の高密度視差画像(図12(d)参照)は、コスト変更しない場合の高密度視差画像(図12(c)参照)に比べて、物体により忠実な画像となる。
その後、CPU32は、視差値Δによって示される高密度視差画像を、図9に示されているI/F35からバスライン4を介して物体認識装置5のI/F55に送信する。これにより、物体認識装置5におけるCPU52の命令によって、FPGA51が、撮像装置10a,10bと物体Eとの間の距離Zを算出する。
更に、物体認識装置5は、図14に示されているように、基準画像内において、物体Eの大きさを示す枠を認識する。なお、図14は、物体認識装置が認識する物体認識結果の大きさを示す枠を含む基準画像の概念図である。この場合、図12(d)に示されているように閾値Th=40の場合には、上記シルエット画像が大きいため、図14では、枠1001(ここでは波線で示されている)が基準画像内で示される。一方、図12(e)に示されているように、閾値Th=20の場合には、上記シルエット画像が小さいため、図14では、枠1002(ここでは実線で示されている)が基準画像内で示される。なお、物体認識結果の大きさを枠で示さず、枠内をマスキングした長方向や楕円等の形態によって示してもよい。
<実施形態の主な効果>
以上説明したように本実施形態によれば、コスト算出部310によって算出されたコスト値Cが閾値Thを超える場合には、コスト算出部310は、閾値Thを超えたコスト値Cを、閾値Thよりも高い第1の所定値Hに変更する。これにより、第1の所定値Hよりも大きいコスト値Cが、第1の所定値Hまで下がるため、テクスチャの弱い物体におけるコスト値が、テクスチャの強い周囲の物体におけるコスト値の影響を受けにくくすることができる。よって、より正確なコスト値を導き出すことができるという効果を奏する。
また、様々なコスト値Cを第1の所定値Hに変更することで、シフト量dを導き出すためのRAM等の回路規模を小型化することができるという効果を奏する。
更に、コスト算出部310は、閾値Th以下のコスト値を、閾値Thよりも低い第2の所定値0に変更する。このように、第1の所定値Hに絞り込んでいないコスト値Cを、第2の所定値0(ゼロ)に変更することで、第1の所定値Hと第2の所定値0の2つだけの値による計算によって、シフト量dを導き出すことができるため、更に、回路規模を小型化することができるという効果を奏する。また、第1の所定値Hと第2の所定値0の2つだけの値による計算によって、合成コスト値Lsを算出する際のコスト値Cの大小が過剰に及ぼす影響を軽減でき、実際の物体にさらに忠実な視差値を導出することができる。
<<第2の実施形態>>
続いて、本発明の第2の実施形態について説明する。なお、本実施形態の主要部のハードウェア構成は、第1の実施形態の主要部のハードウェア構成と同じであるため、その説明を省略する。
<実施形態の処理または動作>
次に、図15乃至図18を用いて、本実施形態の処理または動作を説明する。なお、本実施形態では、図16(a)に示されている基準画像から合成コスト値Lsが導き出される場合について説明する。また、図面を分かり易く説明するため、図16(a)の一部の画像を、図16(b)に示す。
図15は、本実施形態の処理を示したフローチャートである。図16(a)は基準画像、図16(b)は基準画像の一部、図16(c)はコスト変更しない場合の(b)に対する高密度視差画像、図16(d)はコスト変更した場合の(b)に対する高密度視差画像を示す概念図である。図17(a)はコスト変更しない場合のコスト値を示すグラフ、図17(b)はコスト変更した場合のコスト値を示すグラフ、図17(c)はコスト変更しない場合の合成コスト値を示すグラフ、図17(d)はコスト変更した場合の合成コスト値である。また、図17(a)はコスト変更しない場合のコスト値を示すグラフ、図17(b)はコスト変更した場合のコスト値を示すグラフ、図17(c)はコスト変更しない場合の合成コスト値を示すグラフ、図17(d)はコスト変更した場合の合成コスト値を示すグラフである。また、図18(a),(c)は、ぞれぞれ図17(b),(d)と同じグラフであり、図18(b),(d)と対比し易くするために、図18(a),(c)を記載している。図18(b)は更なるコスト変更した場合のコスト値を示すグラフであり、図18(d)は更なるコスト変更した場合の合成コスト値を示すグラフである。
なお、図17(a),(b)及び図18(a),(b)のグラフの縦軸はコスト値C、横軸はシフト量dである。また、図17(c),(d)及び図18(c),(d)のグラフの縦軸は合成コスト値Ls、横軸はシフト量dである。また、図11に示されているステップS11−1〜S14は、図11に示されているステップS1〜S4と同じであるため、その説明を省略し、以下、ステップS15から説明する、
ステップS14の処理後、コスト算出部310が、コスト変更部としてコスト変更することで、図17(b)のグラフで示されているように、閾値Th1(例えば、C=80)を越えるコスト値Cを閾値Th1に変更する(ステップS15)。なお、この状態で、コスト合成部320が、シフト量d毎に合成コスト値Lsを生成して出力すると、図17(d)のようなグラフで表される。この場合、合成コスト値Lsが最小(Ls3)となるシフト量はd=3であるため、視差値導出部330は、視差値Δ=3を出力する。また、この場合の高密度視差画像は、図16(d)に示されているような画像となる。
次に、コスト算出部310が、コスト変更部としてコスト変更することで、図18(b)のグラフで示されているように、閾値Th1未満で閾値Th2(例えば、C=40)以上のコスト値Cを閾値Th1に変更する(ステップS16)。更に、コスト算出部310が、コスト変更部としてコスト変更することで、図18(b)のグラフで示されているように、閾値Th2未満のコスト値Cを0(ゼロ)に変更する(ステップS17)。この状態で、コスト合成部320が、シフト量d毎に合成コスト値Lsを生成して出力すると、図18(d)のようなグラフで表される。この場合、合成コスト値Lsが最小(Ls3)となるシフト量はd=3であるため、視差値導出部330は、視差値Δ=3を出力する。但し、この場合、合成コスト値Lsが最小(Ls3)以外で極小(Ls4)となるシフト量はd=13であるが、極小(Ls4)は図18(c)に比べて合成コスト値が高いため、シフト量d=3付近の合成コスト値Lsの低さが際立つ結果となる。なお、ステップS15〜S17の処理は、どのような順番であってもよいし、同時に処理されてもよい。
次に、図10に示されているコスト合成部320は、図18(d)のグラフで示されているように、シフト量d毎に合成コスト値Lsを出力する(ステップS18)。この場合、合成コスト値Lsが最小(Ls3)となるシフト量はd=3であるため、視差値導出部330は、視差値Δ=3を出力する。また、この場合の高密度視差画像は、図16(e)に示されているような画像となる。このように、コスト算出部310が、コスト変更しない場合とコスト変更する場合とで、視差値Δが異なる。また、コスト変更する場合の高密度視差画像(図16(d)参照)は、コスト変更しない場合の高密度視差画像(図16(c)参照)に比べて、物体により忠実な画像となる。また、コスト値Cを2値化した場合の高密度視差画像(図16(e)参照)は、2値化しない場合の高密度視差画像(図16(d)参照)に比べて、更に物体により忠実な画像となる。
その後、CPU32は、視差値Δによって示される高密度視差画像を、図9に示されているI/F35からバスライン4を介して物体認識装置5のI/F55に送信する。これにより、物体認識装置5におけるCPU52の命令によって、FPGA51が、撮像装置10a,10bと物体Eとの間の距離Zを算出する。
なお、第1の実施形態と同様に、閾値Th2=40の場合には、上記シルエット画像が大きいため、図14に示されているように、枠1001が基準画像内で示される。一方、閾値Th2=20の場合には、上記シルエット画像が小さいため、図14に示されているように、枠1002が基準画像内で示される。
<実施形態の主な効果>
以上説明したように本実施形態によれば、コスト算出部310によって算出されたコスト値Cが閾値Th1(例えば、C=80)を超える場合には、コスト算出部310(コスト変更部)は、閾値Th1を超えたコスト値Cを、閾値Th1以下に変更する。これにより、閾値Th1よりも大きいコスト値Cが、閾値Th1以下まで下がるため、テクスチャの弱い物体におけるコスト値が、テクスチャの強い周囲の物体におけるコスト値の影響を受けにくくすることができる。よって、より正確なコスト値を導き出すことができるという効果を奏する。
更に、コスト算出部310(コスト変更部)は、閾値Th1未満のコスト値Cであって閾値Th2(例えば、C=40)以上のコスト値Cを、閾値Th1に変更する。また、コスト算出部310(コスト変更部)は、閾値Th2未満のコスト値を、閾値未満の所定値(例えば、C=0)に変更する。このように、コスト値Cをできるだけ絞り込み、図18(b)に示されているように、最終的に2つの値(C=0,80)で管理するため、シフト量dを導き出すためのRAM等の回路規模を小型化することができるという効果を奏する。
<実施形態の補足>
上記各実施形態では、コスト算出部310が、コスト変更部の役割も果たしているが、これに限らず、コスト合成部320が、コスト変更部の役割を果たしてもよい。この場合、コスト合成部320は、コスト変更後に、コスト合成を行なう。
また、上記第2の実施形態では、第2の所定値が0(ゼロ)の場合について説明したが、これに限るものではなく、閾値Thよりも小さければ、第2の所定値が10、20、30等、どのような値であってもよい。
1 物体認識システム
2 本体部
3 視差値導出装置
5 物体認識装置
10a 撮像装置
10b 撮像装置
20a 信号変換装置
20b 信号変換装置
30 画像処理装置
310 コスト算出部〔算出手段の一例〕、(コスト変更部)〔変更手段の一例〕
320 コスト合成部〔合成手段の一例〕
330 視差値導出部〔導出手段の一例〕
特開2006−090896号公報 特開2012−181142号公報

Claims (16)

  1. 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出する視差値導出装置であって、
    前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
    前記算出手段によって算出された前記各コスト値のうち、閾値を越えたコスト値を、当該閾値よりも高い所定値に変更する変更手段と、
    前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
    前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、
    を有することを特徴とする視差値導出装置。
  2. 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出し、前記視差値に基づき前記物体を認識する物体認識装置に対して、前記視差値を出力する視差値導出装置であって、
    前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
    前記算出手段によって算出された前記各コスト値のうち、閾値を越えたコスト値を、当該閾値よりも高い所定値に変更する変更手段と、
    前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
    前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、
    を有し、
    前記閾値が低くなった場合に、前記物体認識装置が認識する物体認識結果の大きさが小さくなることを特徴とする視差値導出装置。
  3. 前記所定値は第1の所定値であり、前記算出手段は、前記閾値以下のコスト値を、前記閾値よりも低い第2の所定値に変更することを特徴とする請求項1又は2に記載の視差値導出装置。
  4. 前記第2の所定値は0であることを特徴とする請求項3に記載の視差値導出装置。
  5. 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出する視差値導出装置であって、
    前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
    前記算出手段によって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更手段と、
    前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
    前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、を有し、
    前記変更手段は、前記閾値を超えたコスト値を、当該閾値に変更し、
    前記閾値は第1の閾値であり、前記変更手段は、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更することを特徴とする視差値導出装置。
  6. 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出する視差値導出装置であって、
    前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
    前記算出手段によって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更手段と、
    前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
    前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、を有し、
    前記変更手段は、前記閾値を超えたコスト値を、当該閾値に変更し、
    前記視差値を導出した後、前記視差値に基づき前記物体を認識する物体認識装置に対して前記視差値を出力し、
    前記閾値は第1の閾値であり、前記変更手段は、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更し、前記第2の閾値が低くなった場合に、前記物体認識装置が認識する物体認識結果の大きさが小さくなることを特徴とする視差値導出装置。
  7. 前記変更手段は、前記第2の閾値未満のコスト値を、前記第2の閾値未満の所定値に変更することを特徴とする請求項又はに記載の視差値導出装置。
  8. 前記第2の閾値未満の所定値は0であることを特徴とする請求項に記載の視差値導出装置。
  9. 請求項1乃至のいずれか一項に記載の視差値導出装置を備えたことを特徴とする移動体。
  10. 前記移動体は、車両又はロボットであることを特徴とする請求項に記載の移動体。
  11. 請求項1乃至のいずれか一項に記載の視差値導出装置を備えたことを特徴とするロボット。
  12. 前記ロボットは、固定設置される工業用ロボットであることを特徴とする請求項11に記載のロボット。
  13. 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を生産する視差値生産方法であって、
    前記基準画像内の基準領域の輝度値と、当該基準領域に対する前記比較画像内におけるエピポーラ線上の複数の対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記各対応領域の候補のコスト値を算出する算出ステップと、
    前記算出ステップによって算出された前記コスト値が閾値を超える場合には、当該閾値を超えたコスト値を、前記閾値よりも高い所定値に変更する変更ステップと、
    前記変更ステップによる変更後の一の基準領域に対する各対応領域の候補のコスト値と、前記変更ステップによる変更後の他の基準領域に対する各対応領域の候補のコスト値とを合成する合成ステップと、
    前記一の基準領域の前記基準画像における位置と、前記合成ステップによる合成後の合成コスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出ステップと、
    を含むことを特徴とする視差値生産方法。
  14. 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を生産する視差値生産方法であって、
    前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出ステップと、
    前記算出ステップによって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更ステップと、
    前記変更ステップによる変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更ステップによる変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成ステップと、
    前記一の基準領域の前記基準画像における位置と、前記合成ステップによる合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出ステップと、を含み、
    前記変更ステップでは、前記閾値を超えたコスト値を、当該閾値に変更し、
    前記閾値は第1の閾値であり、前記変更ステップでは、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更することを特徴とする視差値生産方法。
  15. 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を生産する視差値生産方法であって、
    前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出ステップと、
    前記算出ステップによって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更ステップと、
    前記変更ステップによる変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更ステップによる変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成ステップと、
    前記一の基準領域の前記基準画像における位置と、前記合成ステップによる合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出ステップと、を含み、
    前記変更ステップでは、前記閾値を超えたコスト値を、当該閾値に変更し、
    前記視差値を導出した後、前記視差値に基づき前記物体を認識する物体認識装置に対して前記視差値を出力し、
    前記閾値は第1の閾値であり、前記変更ステップでは、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更し、前記第2の閾値が低くなった場合に、前記物体認識装置が認識する物体認識結果の大きさが小さくなることを特徴とする視差値生産方法。
  16. コンピュータに、請求項13乃至15のいずれか一項に記載の方法を実行させることを特徴とするプログラム。
JP2014234777A 2013-12-12 2014-11-19 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム Active JP6417886B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014234777A JP6417886B2 (ja) 2013-12-12 2014-11-19 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
EP14869791.5A EP3080549B1 (en) 2013-12-12 2014-12-12 Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program
PCT/JP2014/083626 WO2015088044A1 (en) 2013-12-12 2014-12-12 Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program
US15/100,895 US10104359B2 (en) 2013-12-12 2014-12-12 Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program
KR1020167015408A KR101820259B1 (ko) 2013-12-12 2014-12-12 시차값 도출 장치, 이동 장치, 로봇, 시차값 생성 방법 및 컴퓨터 프로그램
CN201480067342.3A CN105814403B (zh) 2013-12-12 2014-12-12 视差值导出装置、可移动设备和视差值产生方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2013257217 2013-12-12
JP2013257217 2013-12-12
JP2013268468 2013-12-26
JP2013268468 2013-12-26
JP2014234777A JP6417886B2 (ja) 2013-12-12 2014-11-19 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015143677A JP2015143677A (ja) 2015-08-06
JP6417886B2 true JP6417886B2 (ja) 2018-11-07

Family

ID=53371338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014234777A Active JP6417886B2 (ja) 2013-12-12 2014-11-19 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム

Country Status (6)

Country Link
US (1) US10104359B2 (ja)
EP (1) EP3080549B1 (ja)
JP (1) JP6417886B2 (ja)
KR (1) KR101820259B1 (ja)
CN (1) CN105814403B (ja)
WO (1) WO2015088044A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6417886B2 (ja) 2013-12-12 2018-11-07 株式会社リコー 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6565188B2 (ja) 2014-02-28 2019-08-28 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
US10616578B2 (en) * 2015-01-30 2020-04-07 Texas Instruments Incorporated Semi-global matching (SGM) cost compression
JP6601506B2 (ja) 2015-12-28 2019-11-06 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
JP6587000B2 (ja) 2016-01-28 2019-10-09 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6687039B2 (ja) 2016-02-05 2020-04-22 株式会社リコー 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
EP3428876A4 (en) 2016-03-10 2019-01-23 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGING DEVICE AND PROGRAM
WO2017158958A1 (ja) 2016-03-15 2017-09-21 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2017158982A1 (ja) 2016-03-18 2017-09-21 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム
WO2018006296A1 (en) * 2016-07-06 2018-01-11 SZ DJI Technology Co., Ltd. Systems and methods for stereoscopic imaging
JP7206583B2 (ja) * 2016-11-25 2023-01-18 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP7180074B2 (ja) 2017-01-31 2022-11-30 株式会社リコー 撮像装置
JP6969121B2 (ja) 2017-03-17 2021-11-24 株式会社リコー 撮像システム、画像処理装置および画像処理プログラム
WO2020017089A1 (ja) * 2018-07-20 2020-01-23 オリンパス株式会社 撮像ユニット、内視鏡および内視鏡システム
JP7408337B2 (ja) 2019-10-10 2024-01-05 キヤノン株式会社 画像処理方法、および画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5602653A (en) * 1994-11-08 1997-02-11 Xerox Corporation Pixel pair grid halftoning for a hyperacuity printer
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP4554316B2 (ja) 2004-09-24 2010-09-29 富士重工業株式会社 ステレオ画像処理装置
US7697749B2 (en) 2004-08-09 2010-04-13 Fuji Jukogyo Kabushiki Kaisha Stereo image processing device
WO2008044911A1 (en) 2006-10-09 2008-04-17 Tele Atlas B.V. Method and apparatus for generating an orthorectified tile
JP5371725B2 (ja) 2009-12-16 2013-12-18 富士重工業株式会社 物体検出装置
JP2011163900A (ja) 2010-02-09 2011-08-25 Casio Computer Co Ltd 画像処理装置、画像処理プログラム、及び画像処理方法
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
KR101694292B1 (ko) * 2010-12-17 2017-01-09 한국전자통신연구원 스테레오 영상 정합 장치 및 그 방법
JP2012177676A (ja) 2011-01-31 2012-09-13 Sony Corp 画像処理装置および方法、並びにプログラム
JP5682065B2 (ja) * 2011-03-02 2015-03-11 独立行政法人産業技術総合研究所 ステレオ画像処理装置及びステレオ画像処理方法
EP2511875A1 (en) 2011-04-14 2012-10-17 Thomson Licensing Apparatus and method for refining a value of a similarity measure
JP2014096062A (ja) 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
JP2014115978A (ja) 2012-11-19 2014-06-26 Ricoh Co Ltd 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
CN103198314B (zh) 2013-02-20 2015-11-25 北京农业信息技术研究中心 遥感图像辐射校正方法
CN103247033A (zh) 2013-04-26 2013-08-14 中国科学院东北地理与农业生态研究所 一种基于影像选取控制点的矢量数据纠正方法
JP6202367B2 (ja) 2013-05-14 2017-09-27 株式会社リコー 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム
JP6417886B2 (ja) 2013-12-12 2018-11-07 株式会社リコー 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム

Also Published As

Publication number Publication date
JP2015143677A (ja) 2015-08-06
EP3080549B1 (en) 2019-03-06
US20160301912A1 (en) 2016-10-13
CN105814403B (zh) 2018-11-09
WO2015088044A1 (en) 2015-06-18
KR20160086875A (ko) 2016-07-20
US10104359B2 (en) 2018-10-16
KR101820259B1 (ko) 2018-01-18
EP3080549A4 (en) 2016-12-21
EP3080549A1 (en) 2016-10-19
CN105814403A (zh) 2016-07-27

Similar Documents

Publication Publication Date Title
JP6417886B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6337504B2 (ja) 画像処理装置、移動体、ロボット、機器制御方法およびプログラム
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6561511B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6519138B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6515547B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム
JP6442911B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、及びプログラム
JP2016095229A (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP2015195019A (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム
JP6701738B2 (ja) 視差値導出装置、視差値導出方法及びプログラム
JP6459482B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R151 Written notification of patent or utility model registration

Ref document number: 6417886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151