JP6417886B2 - 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム - Google Patents
視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム Download PDFInfo
- Publication number
- JP6417886B2 JP6417886B2 JP2014234777A JP2014234777A JP6417886B2 JP 6417886 B2 JP6417886 B2 JP 6417886B2 JP 2014234777 A JP2014234777 A JP 2014234777A JP 2014234777 A JP2014234777 A JP 2014234777A JP 6417886 B2 JP6417886 B2 JP 6417886B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- cost
- parallax
- threshold value
- changing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Description
まず、図1乃至図6を用いて、SGM(Semi-Global Matching)法を用いた測距方法の概略について説明する。なお、SGM法に関しては、非特許文献(Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information)に開示されているため、以下では概略を説明する。
図1を用いて、ステレオ画像法により、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、図1は、撮像装置から物体までの距離を導き出す原理の説明図である。また、以下では、説明を簡略化するため、複数の画素からなる所定領域ではなく、一画素単位で説明する。
まず、図1で示される撮像装置10aおよび撮像装置10bによって撮像された各画像を、それぞれ基準画像Iaおよび比較画像Ibとする。なお、図1では、撮像装置10aおよび撮像装置10bが平行等位に設置されているものとする。図1において、3次元空間内の物体E上のS点は、撮像装置10aおよび撮像装置10bの同一水平線上の位置に写像される。すなわち、各画像中のS点は、基準画像Ia中の点Sa(x,y)および比較画像Ib中の点Sb(X,y)において撮像される。このとき、視差値Δは、撮像装置10a上の座標におけるSa(x,y)と撮像装置10b上の座標におけるSb(X,y)とを用いて、(式1)のように表される。
ここで、図1のような場合には、基準画像Ia中の点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaにし、比較画像Ib中の点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。
また、視差値Δを用いることで、撮像装置10a,10bと物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。図1に示されるように、撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、及び視差値Δを用いて、(式2)により、距離Zを算出することができる。
この(式2)により、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
続いて、図2乃至図6を用いて、SGM法を用いた測距方法について説明する。なお、図2(a)は基準画像、図2(b)は(a)に対する高密度視差画像、図2(c)は(a)に対するエッジ視差画像を示す概念図である。ここで、基準画像は、物体が輝度によって示された画像である。高密度視差画像は、SGM法によって、基準画像から導き出された画像であり、基準画像の各座標における視差値を示した画像である。エッジ視差画像は、従来から用いられているブロックマッチング法によって導き出された画像であり、基準画像のエッジ部のような比較的テクスチャの強い部分のみの視差値を示した画像である。
まず、図3及び図4を用いて、コスト値C(p,d)の算出方法について説明する。図3(a)は基準画像における基準画素を示す概念図、図3(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)シフト量(ずれ量)を算出する際の概念図である。図4は、シフト量毎のコスト値を示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
次に、図5及び図6を用いて、合成コスト値Ls(p,d)の算出方法について説明する。図5は、合成コスト値を導き出すための概念図である。図6は、視差値毎の合成コスト値を示す合成コスト曲線のグラフである。本実施形態における合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、所定の基準画素p(x,y)の周辺の画素を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出する。
ここで、(式3)において、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。なお、Lrは、(式3)に示されているように再帰的に適用される。また、P1及びP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。
以下、図面を用いて、本実施形態の具体的な説明を行う。ここでは、自動車に搭載される物体認識システム1について説明する。
まず、図7乃至図9用いて、本実施形態の全体構成について説明する。
図7及び図8を用いて、本実施形態の物体認識システム1の外観構成を説明する。なお、図7(a)は本発明の一実施形態に係る物体認識システムを搭載した自動車の側面を表す概略図、図7(b)は自動車の正面を示す概略図である。図8は、物体認識システムの概観図である。
次に、図9を用いて、物体認識システム1の全体のハードウェア構成について説明する。なお、図9は、物体認識システムの全体のハードウェア構成図である。
以下、図面を用いて、各実施形態の具体的な説明を行う。
まずは、本発明の第1の実施形態について説明する。
図3、図9及び図10を用いて、第1の実施形態に係る視差値導出装置3の主要部のハードウェア構成について説明する。なお、図10は、第1の実施形態に係る視差値導出装置の主要部のハードウェア構成図である。
次に、図9乃至図14を用いて、本実施形態の処理または動作を説明する。なお、本実施形態では、図12(a)に示されている基準画像から合成コスト値Lsが導き出される場合について説明する。また、図面を分かり易く説明するため、図12(a)の一部の画像を、図12(b)に示す。
以上説明したように本実施形態によれば、コスト算出部310によって算出されたコスト値Cが閾値Thを超える場合には、コスト算出部310は、閾値Thを超えたコスト値Cを、閾値Thよりも高い第1の所定値Hに変更する。これにより、第1の所定値Hよりも大きいコスト値Cが、第1の所定値Hまで下がるため、テクスチャの弱い物体におけるコスト値が、テクスチャの強い周囲の物体におけるコスト値の影響を受けにくくすることができる。よって、より正確なコスト値を導き出すことができるという効果を奏する。
続いて、本発明の第2の実施形態について説明する。なお、本実施形態の主要部のハードウェア構成は、第1の実施形態の主要部のハードウェア構成と同じであるため、その説明を省略する。
次に、図15乃至図18を用いて、本実施形態の処理または動作を説明する。なお、本実施形態では、図16(a)に示されている基準画像から合成コスト値Lsが導き出される場合について説明する。また、図面を分かり易く説明するため、図16(a)の一部の画像を、図16(b)に示す。
ステップS14の処理後、コスト算出部310が、コスト変更部としてコスト変更することで、図17(b)のグラフで示されているように、閾値Th1(例えば、C=80)を越えるコスト値Cを閾値Th1に変更する(ステップS15)。なお、この状態で、コスト合成部320が、シフト量d毎に合成コスト値Lsを生成して出力すると、図17(d)のようなグラフで表される。この場合、合成コスト値Lsが最小(Ls3)となるシフト量はd=3であるため、視差値導出部330は、視差値Δ=3を出力する。また、この場合の高密度視差画像は、図16(d)に示されているような画像となる。
以上説明したように本実施形態によれば、コスト算出部310によって算出されたコスト値Cが閾値Th1(例えば、C=80)を超える場合には、コスト算出部310(コスト変更部)は、閾値Th1を超えたコスト値Cを、閾値Th1以下に変更する。これにより、閾値Th1よりも大きいコスト値Cが、閾値Th1以下まで下がるため、テクスチャの弱い物体におけるコスト値が、テクスチャの強い周囲の物体におけるコスト値の影響を受けにくくすることができる。よって、より正確なコスト値を導き出すことができるという効果を奏する。
上記各実施形態では、コスト算出部310が、コスト変更部の役割も果たしているが、これに限らず、コスト合成部320が、コスト変更部の役割を果たしてもよい。この場合、コスト合成部320は、コスト変更後に、コスト合成を行なう。
2 本体部
3 視差値導出装置
5 物体認識装置
10a 撮像装置
10b 撮像装置
20a 信号変換装置
20b 信号変換装置
30 画像処理装置
310 コスト算出部〔算出手段の一例〕、(コスト変更部)〔変更手段の一例〕
320 コスト合成部〔合成手段の一例〕
330 視差値導出部〔導出手段の一例〕
Claims (16)
- 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出する視差値導出装置であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
前記算出手段によって算出された前記各コスト値のうち、閾値を越えたコスト値を、当該閾値よりも高い所定値に変更する変更手段と、
前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、
を有することを特徴とする視差値導出装置。 - 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出し、前記視差値に基づき前記物体を認識する物体認識装置に対して、前記視差値を出力する視差値導出装置であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
前記算出手段によって算出された前記各コスト値のうち、閾値を越えたコスト値を、当該閾値よりも高い所定値に変更する変更手段と、
前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、
を有し、
前記閾値が低くなった場合に、前記物体認識装置が認識する物体認識結果の大きさが小さくなることを特徴とする視差値導出装置。 - 前記所定値は第1の所定値であり、前記算出手段は、前記閾値以下のコスト値を、前記閾値よりも低い第2の所定値に変更することを特徴とする請求項1又は2に記載の視差値導出装置。
- 前記第2の所定値は0であることを特徴とする請求項3に記載の視差値導出装置。
- 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出する視差値導出装置であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
前記算出手段によって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更手段と、
前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、を有し、
前記変更手段は、前記閾値を超えたコスト値を、当該閾値に変更し、
前記閾値は第1の閾値であり、前記変更手段は、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更することを特徴とする視差値導出装置。 - 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を導出する視差値導出装置であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出手段と、
前記算出手段によって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更手段と、
前記変更手段による変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更手段による変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成手段と、
前記一の基準領域の前記基準画像における位置と、前記合成手段による合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出手段と、を有し、
前記変更手段は、前記閾値を超えたコスト値を、当該閾値に変更し、
前記視差値を導出した後、前記視差値に基づき前記物体を認識する物体認識装置に対して前記視差値を出力し、
前記閾値は第1の閾値であり、前記変更手段は、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更し、前記第2の閾値が低くなった場合に、前記物体認識装置が認識する物体認識結果の大きさが小さくなることを特徴とする視差値導出装置。 - 前記変更手段は、前記第2の閾値未満のコスト値を、前記第2の閾値未満の所定値に変更することを特徴とする請求項5又は6に記載の視差値導出装置。
- 前記第2の閾値未満の所定値は0であることを特徴とする請求項7に記載の視差値導出装置。
- 請求項1乃至8のいずれか一項に記載の視差値導出装置を備えたことを特徴とする移動体。
- 前記移動体は、車両又はロボットであることを特徴とする請求項9に記載の移動体。
- 請求項1乃至8のいずれか一項に記載の視差値導出装置を備えたことを特徴とするロボット。
- 前記ロボットは、固定設置される工業用ロボットであることを特徴とする請求項11に記載のロボット。
- 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を生産する視差値生産方法であって、
前記基準画像内の基準領域の輝度値と、当該基準領域に対する前記比較画像内におけるエピポーラ線上の複数の対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記各対応領域の候補のコスト値を算出する算出ステップと、
前記算出ステップによって算出された前記コスト値が閾値を超える場合には、当該閾値を超えたコスト値を、前記閾値よりも高い所定値に変更する変更ステップと、
前記変更ステップによる変更後の一の基準領域に対する各対応領域の候補のコスト値と、前記変更ステップによる変更後の他の基準領域に対する各対応領域の候補のコスト値とを合成する合成ステップと、
前記一の基準領域の前記基準画像における位置と、前記合成ステップによる合成後の合成コスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出ステップと、
を含むことを特徴とする視差値生産方法。 - 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を生産する視差値生産方法であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出ステップと、
前記算出ステップによって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更ステップと、
前記変更ステップによる変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更ステップによる変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成ステップと、
前記一の基準領域の前記基準画像における位置と、前記合成ステップによる合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出ステップと、を含み、
前記変更ステップでは、前記閾値を超えたコスト値を、当該閾値に変更し、
前記閾値は第1の閾値であり、前記変更ステップでは、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更することを特徴とする視差値生産方法。 - 物体を撮像した第1の撮像手段によって得られた基準画像及び前記物体を撮像した第2の撮像手段によって得られた比較画像から前記物体に対する視差を示す視差値を生産する視差値生産方法であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値とに基づいて、前記基準領域に対する前記対応領域の候補の各コスト値を算出する算出ステップと、
前記算出ステップによって算出された前記各コスト値のうち、閾値を超えたコスト値を、当該閾値以下に変更する変更ステップと、
前記変更ステップによる変更後の一の基準領域に対する対応領域の候補の各コスト値と、前記変更ステップによる変更後の他の基準領域に対する対応領域の候補の各コスト値とを、前記シフト量毎に合成する合成ステップと、
前記一の基準領域の前記基準画像における位置と、前記合成ステップによる合成後のコスト値が最小となる対応領域の前記比較画像における位置とに基づいて、前記視差値を導出する導出ステップと、を含み、
前記変更ステップでは、前記閾値を超えたコスト値を、当該閾値に変更し、
前記視差値を導出した後、前記視差値に基づき前記物体を認識する物体認識装置に対して前記視差値を出力し、
前記閾値は第1の閾値であり、前記変更ステップでは、前記第1の閾値未満のコスト値であって前記第1の閾値よりも低い値である第2の閾値以上のコスト値を、前記第1の閾値に変更し、前記第2の閾値が低くなった場合に、前記物体認識装置が認識する物体認識結果の大きさが小さくなることを特徴とする視差値生産方法。 - コンピュータに、請求項13乃至15のいずれか一項に記載の方法を実行させることを特徴とするプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014234777A JP6417886B2 (ja) | 2013-12-12 | 2014-11-19 | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
EP14869791.5A EP3080549B1 (en) | 2013-12-12 | 2014-12-12 | Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program |
PCT/JP2014/083626 WO2015088044A1 (en) | 2013-12-12 | 2014-12-12 | Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program |
US15/100,895 US10104359B2 (en) | 2013-12-12 | 2014-12-12 | Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program |
KR1020167015408A KR101820259B1 (ko) | 2013-12-12 | 2014-12-12 | 시차값 도출 장치, 이동 장치, 로봇, 시차값 생성 방법 및 컴퓨터 프로그램 |
CN201480067342.3A CN105814403B (zh) | 2013-12-12 | 2014-12-12 | 视差值导出装置、可移动设备和视差值产生方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013257217 | 2013-12-12 | ||
JP2013257217 | 2013-12-12 | ||
JP2013268468 | 2013-12-26 | ||
JP2013268468 | 2013-12-26 | ||
JP2014234777A JP6417886B2 (ja) | 2013-12-12 | 2014-11-19 | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015143677A JP2015143677A (ja) | 2015-08-06 |
JP6417886B2 true JP6417886B2 (ja) | 2018-11-07 |
Family
ID=53371338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014234777A Active JP6417886B2 (ja) | 2013-12-12 | 2014-11-19 | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10104359B2 (ja) |
EP (1) | EP3080549B1 (ja) |
JP (1) | JP6417886B2 (ja) |
KR (1) | KR101820259B1 (ja) |
CN (1) | CN105814403B (ja) |
WO (1) | WO2015088044A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6417886B2 (ja) | 2013-12-12 | 2018-11-07 | 株式会社リコー | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
JP6565188B2 (ja) | 2014-02-28 | 2019-08-28 | 株式会社リコー | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム |
US10616578B2 (en) * | 2015-01-30 | 2020-04-07 | Texas Instruments Incorporated | Semi-global matching (SGM) cost compression |
JP6601506B2 (ja) | 2015-12-28 | 2019-11-06 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両 |
JP6587000B2 (ja) | 2016-01-28 | 2019-10-09 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
JP6687039B2 (ja) | 2016-02-05 | 2020-04-22 | 株式会社リコー | 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム |
EP3428876A4 (en) | 2016-03-10 | 2019-01-23 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGING DEVICE AND PROGRAM |
WO2017158958A1 (ja) | 2016-03-15 | 2017-09-21 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
WO2017158982A1 (ja) | 2016-03-18 | 2017-09-21 | 株式会社リコー | 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム |
WO2018006296A1 (en) * | 2016-07-06 | 2018-01-11 | SZ DJI Technology Co., Ltd. | Systems and methods for stereoscopic imaging |
JP7206583B2 (ja) * | 2016-11-25 | 2023-01-18 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
JP7180074B2 (ja) | 2017-01-31 | 2022-11-30 | 株式会社リコー | 撮像装置 |
JP6969121B2 (ja) | 2017-03-17 | 2021-11-24 | 株式会社リコー | 撮像システム、画像処理装置および画像処理プログラム |
WO2020017089A1 (ja) * | 2018-07-20 | 2020-01-23 | オリンパス株式会社 | 撮像ユニット、内視鏡および内視鏡システム |
JP7408337B2 (ja) | 2019-10-10 | 2024-01-05 | キヤノン株式会社 | 画像処理方法、および画像処理装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5602653A (en) * | 1994-11-08 | 1997-02-11 | Xerox Corporation | Pixel pair grid halftoning for a hyperacuity printer |
US6215898B1 (en) * | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP4554316B2 (ja) | 2004-09-24 | 2010-09-29 | 富士重工業株式会社 | ステレオ画像処理装置 |
US7697749B2 (en) | 2004-08-09 | 2010-04-13 | Fuji Jukogyo Kabushiki Kaisha | Stereo image processing device |
WO2008044911A1 (en) | 2006-10-09 | 2008-04-17 | Tele Atlas B.V. | Method and apparatus for generating an orthorectified tile |
JP5371725B2 (ja) | 2009-12-16 | 2013-12-18 | 富士重工業株式会社 | 物体検出装置 |
JP2011163900A (ja) | 2010-02-09 | 2011-08-25 | Casio Computer Co Ltd | 画像処理装置、画像処理プログラム、及び画像処理方法 |
US8488870B2 (en) * | 2010-06-25 | 2013-07-16 | Qualcomm Incorporated | Multi-resolution, multi-window disparity estimation in 3D video processing |
KR101694292B1 (ko) * | 2010-12-17 | 2017-01-09 | 한국전자통신연구원 | 스테레오 영상 정합 장치 및 그 방법 |
JP2012177676A (ja) | 2011-01-31 | 2012-09-13 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP5682065B2 (ja) * | 2011-03-02 | 2015-03-11 | 独立行政法人産業技術総合研究所 | ステレオ画像処理装置及びステレオ画像処理方法 |
EP2511875A1 (en) | 2011-04-14 | 2012-10-17 | Thomson Licensing | Apparatus and method for refining a value of a similarity measure |
JP2014096062A (ja) | 2012-11-09 | 2014-05-22 | Yamaguchi Univ | 画像処理方法及び画像処理装置 |
JP2014115978A (ja) | 2012-11-19 | 2014-06-26 | Ricoh Co Ltd | 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体 |
CN103198314B (zh) | 2013-02-20 | 2015-11-25 | 北京农业信息技术研究中心 | 遥感图像辐射校正方法 |
CN103247033A (zh) | 2013-04-26 | 2013-08-14 | 中国科学院东北地理与农业生态研究所 | 一种基于影像选取控制点的矢量数据纠正方法 |
JP6202367B2 (ja) | 2013-05-14 | 2017-09-27 | 株式会社リコー | 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム |
JP6417886B2 (ja) | 2013-12-12 | 2018-11-07 | 株式会社リコー | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
-
2014
- 2014-11-19 JP JP2014234777A patent/JP6417886B2/ja active Active
- 2014-12-12 US US15/100,895 patent/US10104359B2/en active Active
- 2014-12-12 CN CN201480067342.3A patent/CN105814403B/zh active Active
- 2014-12-12 EP EP14869791.5A patent/EP3080549B1/en active Active
- 2014-12-12 KR KR1020167015408A patent/KR101820259B1/ko active IP Right Grant
- 2014-12-12 WO PCT/JP2014/083626 patent/WO2015088044A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2015143677A (ja) | 2015-08-06 |
EP3080549B1 (en) | 2019-03-06 |
US20160301912A1 (en) | 2016-10-13 |
CN105814403B (zh) | 2018-11-09 |
WO2015088044A1 (en) | 2015-06-18 |
KR20160086875A (ko) | 2016-07-20 |
US10104359B2 (en) | 2018-10-16 |
KR101820259B1 (ko) | 2018-01-18 |
EP3080549A4 (en) | 2016-12-21 |
EP3080549A1 (en) | 2016-10-19 |
CN105814403A (zh) | 2016-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6417886B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP6561512B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム | |
JP6565188B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6337504B2 (ja) | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム | |
JP6589313B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6306735B2 (ja) | ステレオカメラ装置及びステレオカメラ装置を備える車両 | |
JP6455164B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6561511B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム | |
JP6543935B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6519138B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP6515547B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム | |
JP6442911B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、及びプログラム | |
JP2016095229A (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP2015195019A (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム | |
JP6701738B2 (ja) | 視差値導出装置、視差値導出方法及びプログラム | |
JP6459482B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180924 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6417886 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |