JP6614247B2 - 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム - Google Patents
画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP6614247B2 JP6614247B2 JP2017566537A JP2017566537A JP6614247B2 JP 6614247 B2 JP6614247 B2 JP 6614247B2 JP 2017566537 A JP2017566537 A JP 2017566537A JP 2017566537 A JP2017566537 A JP 2017566537A JP 6614247 B2 JP6614247 B2 JP 6614247B2
- Authority
- JP
- Japan
- Prior art keywords
- template
- matching
- unit
- image
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 332
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims description 184
- 238000001514 detection method Methods 0.000 claims description 135
- 238000003384 imaging method Methods 0.000 claims description 74
- 238000010586 diagram Methods 0.000 description 42
- 230000000875 corresponding effect Effects 0.000 description 33
- 238000012937 correction Methods 0.000 description 30
- 238000004364 calculation method Methods 0.000 description 29
- 238000006243 chemical reaction Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 230000007704 transition Effects 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 8
- 230000000052 comparative effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
Description
図1は、実施の形態に係る機器制御システムを車両に搭載した例を示す図である。図1を参照しながら、本実施の形態の機器制御システム60が車両70に搭載される場合を例に説明する。
図2は、実施の形態に係る物体認識装置の外観の一例を示す図である。図2に示すように、物体認識装置1は、上述のように、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、本体部2に対して平行等位に配置された一対の円筒形状のカメラで構成されている。また、説明の便宜上、図2に示す撮像部10aを右のカメラと称し、撮像部10bを左のカメラと称する場合がある。
図3は、実施の形態に係る物体認識装置のハードウェア構成の一例を示す図である。図3を参照しながら、物体認識装置1のハードウェア構成について説明する。
図4は、実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。まず、図4を参照しながら、物体認識装置1の要部の機能ブロックの構成および動作について説明する。
図5は、実施の形態に係る物体認識装置の視差値演算処理部の機能ブロック構成の一例を示す図である。図6は、撮像部から物体までの距離を導き出す原理を説明する図である。図7は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。図8は、ブロックマッチング処理の結果のグラフの一例を示す図である。
図6を参照しながら、ステレオマッチング処理により、ステレオカメラから物体に対する視差を導出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。
次に、図7および8を用いて、ブロックマッチング処理による測距方法について説明する。
図5を参照しながら、視差値演算処理部300の機能ブロックの具体的な構成および動作について説明する。
図9は、実施の形態に係る物体認識装置の認識処理部の機能ブロック構成の一例を示す図である。図10は、視差画像から生成されるVマップの例を示す図である。図11は、視差画像から生成されるUマップの例を示す図である。図12は、Uマップから生成されるリアルUマップの例を示す図である。図13は、検出枠を作成する処理を説明する図である。図9〜13を参照しながら、認識処理部5の機能ブロックの構成および動作について説明する。
図14は、実施の形態に係る物体認識装置の認識処理部のトラッキング処理部の機能ブロック構成の一例を示す図である。図14を参照しながら、認識処理部5のトラッキング処理部520の機能ブロックの構成および動作について説明する。
次に、図15〜28を参照しながら、物体認識装置1の具体的な動作について説明する。
図15は、実施の形態に係る視差値導出部のブロックマッチング処理の動作の一例を示すフローチャートである。図15を参照しながら、物体認識装置1の視差値導出部3のブロックマッチング処理の動作の流れについて説明する。
視差値導出部3の画像取得部100bは、左のカメラ(撮像部10b)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−1へ移行する。
視差値導出部3の画像取得部100aは、右のカメラ(撮像部10a)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−2へ移行する。
視差値導出部3の変換部200bは、撮像部10bにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−1へ移行する。
視差値導出部3の変換部200aは、撮像部10aにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−2へ移行する。
変換部200bは、ステップS2−1において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における比較画像Ibとして出力する。これによって、ブロックマッチング処理において視差値を求めるための比較対象となる画像を得る。そして、ステップS4へ移行する。
変換部200aは、ステップS2−2において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における基準画像Iaとして出力する。これによって、ブロックマッチング処理において視差値を求めるための基準となる画像を得る。そして、ステップS4へ移行する。
視差値導出部3の視差値演算処理部300のコスト算出部301は、基準画像Iaにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線EL上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補画素q(x+d,y)の各輝度値に基づいて、各候補画素q(x+d,y)のコスト値C(p,d)を算出することにより取得する。具体的には、コスト算出部301は、ブロックマッチング処理により、基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、比較画像Ibの候補画素qを中心とする候補領域qb(大きさは基準領域pbと同一)との非類似度をコスト値Cとして算出する。そして、ステップS5へ進む。
視差値導出部3の視差値演算処理部300の決定部302は、コスト算出部301により算出されたコスト値Cの最小値に対応するシフト量dを、コスト値Cの算出の対象となった基準画像Iaの画素についての視差値dpとして決定する。そして、視差値導出部3の視差値演算処理部300の第1生成部303は、決定部302により決定された視差値dpに基づいて、基準画像Iaの各画素の輝度値を、その画素に対応する視差値dpで表した画像である視差画像を生成する。生成部303は、生成した視差画像を、認識処理部5に出力する。
図16は、実施の形態に係る認識処理部のトラッキング処理部のトラッキング処理の動作の一例を示すフローチャートである。図17は、移動予測の動作を説明する図である。図16および17を参照しながら、認識処理部5のトラッキング処理部520のトラッキング処理の動作の流れについて説明する。
トラッキング処理部520の移動予測部600は、前段のクラスタリング処理部510により新規検出された物体のこれまでの移動および動作状態の履歴、ならびに車両情報を含む認識領域情報を用いて、これまで追従(トラッキング)してきた物体ごとに、図17に示すように、現在フレーム(基準画像Ia)上で物体が存在する確率が高い予測領域800を特定する。そして、ステップS12へ移行する。
トラッキング処理部520のマッチング部610は、予測領域800内における前フレームで求めた特徴量(テンプレート)との類似度に基づくテンプレートマッチングを行い、現在フレーム上で物体を検出する。マッチング部610によるマッチング処理の詳細は、図18、21および27で後述する。そして、ステップS13へ移行する。
トラッキング処理部520のチェック部620は、マッチング部610により検出された物体の検出領域の大きさに基づいて、トラッキングの目的とする物体(例えば、車両)の大きさに対応するか否かをチェックする。そして、ステップS14へ移行する。
トラッキング処理部520の特徴更新部630は、現在フレームで検出された物体の検出領域の画像から、次のフレームにおいて第1テンプレートマッチング部613、または第2テンプレートマッチング部616および第3テンプレートマッチング部617のテンプレートマッチングで用いる特徴量(テンプレート)を作成して更新する。特徴更新部630による特徴更新処理の詳細は、図19および24で後述する。そして、ステップS15へ移行する。
トラッキング処理部520の状態遷移部640は、補正処理部614または第3テンプレートマッチング部617により最終的に定まった物体の検出領域の状態に応じて、物体の状態を遷移させる機能部である。状態遷移部640は、遷移させた物体の状態を反映させた認識領域情報を、車両制御装置6に出力する。
図18は、実施の形態のトラッキング処理部のトラッキング処理のうちのマッチング処理の動作の一例を示すフローチャートである。図18を参照しながら、トラッキング処理部520のマッチング部610のマッチング処理の動作の流れについて説明する。
マッチング部610の判定部611は、前フレームまでの認識領域情報に基づいて、その認識領域情報に対応する物体の距離を推測し、推測した距離が所定距離以上であるか否かを判定する。推測した距離が所定距離未満の近距離である場合(ステップS121:近距離)、ステップS122へ移行し、所定距離以上の遠距離である場合(ステップS121:遠距離)、ステップS123へ移行する。
マッチング部610の第1間引き処理部612、第1テンプレートマッチング部613、および補正処理部614は、前フレームで検出された検出領域に基づくテンプレートを用いたラフマッチング処理を行う。ラフマッチング処理の詳細は、図21〜23で後述する。そして、マッチング処理を終了する。
マッチング部610の第3間引き処理部615、第2テンプレートマッチング部616、および第3テンプレートマッチング部617は、前フレームで検出された検出領域に基づくテンプレートを用いたパーツマッチング処理を行う。パーツマッチング処理の詳細は、図27および28で後述する。そして、マッチング処理を終了する。
図19は、実施の形態のトラッキング処理部のトラッキング処理のうちラフマッチングを行う場合の特徴更新処理の動作の一例を示すフローチャートである。図20は、実施の形態のトラッキング処理部のラフマッチングを行う場合の特徴更新処理における検出領域の画像に対する間引き処理を説明する図である。図19および20を参照しながら、マッチング部610においてラフマッチング処理を行う場合の特徴更新部630の特徴更新処理の動作の流れについて説明する。図19に示す特徴更新処理は、図16におけるステップS12でラフマッチング処理を行う場合に、ステップS14で実行される特徴更新処理である。
特徴更新部630の第2間引き処理部631は、現在フレームにおいて、マッチング部610によるラフマッチング処理で検出された物体の検出領域から間引きテンプレートを作成するための間引き量を決定する。例えば、図20(a)に示す検出領域810が、ラフマッチング処理で検出された物体(車両)の検出領域であるものとし、かつ、横方向に幅Wd[ピクセル]、縦方向に高さHd[ピクセル]の大きさの領域であるものとする。そして、図20(b)に示す間引きテンプレート811が、第2間引き処理部631による間引き処理後の画像であり、かつ、横方向に幅Wd_s[ピクセル]、縦方向に高さHd_s[ピクセル]の大きさのテンプレートであるものとする。この場合、第2間引き処理部631は、間引きテンプレート811の高さHd_sが固定値c[ピクセル](<Hd)となるように、かつ、間引きテンプレート811の幅と高さとの割合が、検出領域810の幅と高さとの割合と一致するように、検出領域810に対して間引き処理を行う。すなわち、第2間引き処理部631による間引き処理の間引き量、すなわち、間引きテンプレート811の高さHd_sおよび幅Wd_sは、以下の(式3)で算出される。
Wd_s=(Wd/Hd)×Hd_s
FH=Hd_s/Hd
FW=Wd_s/Wd (式3)
第2間引き処理部631は、上述の(式3)で決定(算出)した間引き量に基づいて、検出領域810に対して間引き処理を行い、間引きテンプレート811を作成する。そして、ステップS143へ移行する。
特徴更新部630の第1更新部632は、第2間引き処理部631により作成された間引きテンプレート811を、前回ラフマッチング処理に使用された間引きテンプレートに代えて更新(例えば、RAM54に記憶)する。作成された間引きテンプレート811は、次のフレームでのラフマッチング処理で使用される。また、第1更新部632は、ステップS141で算出された上述の(式3)の割合FHおよびFWを、RAM54等に記憶させる。この割合FHおよびFWは、次のフレームでの予測領域の画像の間引き処理(後述)で使用される。そして、特徴更新処理を終了する。
図21は、実施の形態のトラッキング処理部のトラッキング処理におけるラフマッチング処理の動作の一例を示すフローチャートである。図22は、実施の形態のトラッキング処理部のトラッキング処理におけるラフマッチング処理での予測領域の画像に対する間引き処理を説明する図である。図23は、実施の形態のトラッキング処理部のトラッキング処理におけるラフマッチング処理での枠補正処理を説明する図である。図21〜23を参照しながら、トラッキング処理のうち、マッチング部610のラフマッチング処理の動作の流れについて説明する。図21に示すラフマッチング処理は、図18においてステップS122で実行されるラフマッチング処理である。
マッチング部610の第1間引き処理部612は、移動予測部600により予測された現在フレームでの予測領域800(図22(a)参照)の画像を所定の間引き量に基づいて間引き処理を行い、図22(b)に示す間引き予測領域801を得る。具体的には、第1間引き処理部612は、前フレームについて、第1更新部632によりRAM54等に記憶された上述の(式3)に示す割合FHおよびFWを用いて、高さHpおよび幅Wpの予測領域800に対し、下記の(式4)により算出した高さHp_sおよび幅Wp_sの大きさの間引き予測領域801となるように間引き処理を行う。
Wp_s=FW×Hp_s (式4)
マッチング部610の第1テンプレートマッチング部613は、現在フレームにおいて、第1間引き処理部612により間引き処理が行われた間引き予測領域801内で、前フレームについて第1更新部632により更新された間引きテンプレート811に基づくテンプレートマッチングを行う。すなわち、第1テンプレートマッチング部613は、間引き予測領域801内で、間引きテンプレート811と一致する、または、一致するとみなせる画像を検出する。ここで、間引き予測領域801内で、間引きテンプレート811との類似度を示す評価値としては、SAD等を用いることができる。第1テンプレートマッチング部613は、間引き予測領域801内をラスタスキャンしながら、間引きテンプレート811に基づくSADを算出し、SADが最も小さい画像の位置を求める。間引き予測領域801内で最もSADが小さい画像の位置としては、例えば、間引き予測領域801におけるその画像の左上端の位置(px_thin,py_thin)を求める。
py=py_thin×FH (式5)
マッチング部610の補正処理部614は、現在フレームにおいて、第1テンプレートマッチング部613によるテンプレートマッチングにより検出された物体の画像(検出領域)の枠(図23に示す検出枠820)について補正処理を行う。具体的には、補正処理部614は、まず、図23に示すように、第1テンプレートマッチング部613により検出された検出枠820に対応する視差画像(現在フレームに対応る視差画像)上の画像について、X方向で視差値を含む画素の頻度を示すヒストグラム900、および、Y方向で視差値を含む画素の頻度を示すヒストグラム901を作成する。そして、補正処理部614は、図23に示すように、ヒストグラム900において閾値Thを超えるX方向の位置を、それぞれ、補正後の検出枠821の左端および右端の位置とし、ヒストグラム901において閾値Thを超えるY方向の位置を、それぞれ、補正後の検出枠821の上端および下端の位置とする。閾値Thは、例えば、ヒストグラムの最大値に対して10〜20[%]の値とすればよい。この場合、図23ではX方向およびY方向の閾値を、閾値Thとしているが、同一の閾値である必要はない。このようにして、補正処理部614により補正処理が行われた検出枠821の画像が、マッチング部610によるラフマッチング処理によって最終的に検出された検出領域となる。そして、補正処理部614は、検出した物体の検出領域の情報(フレームに対する位置、および大きさ等)を、その物体の認識領域情報に含める。
図24は、実施の形態のトラッキング処理部のトラッキング処理のうちパーツマッチングを行う場合の特徴更新処理の動作の一例を示すフローチャートである。図25は、実施の形態のトラッキング処理部のパーツマッチングを行う場合の特徴更新処理におけるパーツテンプレートの選択処理の動作の一例を示すフローチャートである。図26は、パーツテンプレートの選択処理を説明する図である。図24〜26を参照しながら、マッチング部610においてパーツマッチング処理を行う場合の特徴更新部630の特徴更新処理の動作の流れについて説明する。図24に示す特徴更新処理は、図16においてステップS12でパーツマッチング処理を行う場合に、ステップS14で実行される特徴更新処理である。
特徴更新部630の第4間引き処理部633は、現在フレームにおいて、マッチング部610によるパーツマッチング処理で検出された物体の検出領域から間引きテンプレートを作成するための間引き量を決定する。第4間引き処理部633による間引き量の決定方法は、上述の図19のステップS141の第2間引き処理部631による間引き量の決定方法と同様である。ただし、図24に示す特徴更新処理は、判定部611により物体が遠距離にある場合に実行されるものであり、フレームに写っている物体は近距離に比べて小さいので、第2間引き処理部631による間引き量よりも小さい間引き量とする。例えば、間引きテンプレートの高さHd_sを、固定値cよりも値が小さい固定値とする。そして、ステップS146へ移行する。
第4間引き処理部633は、ステップS145で決定(算出)した間引き量に基づいて、現在フレームで検出された検出領域に対して間引き処理を行い、間引きテンプレートを作成する。そして、ステップS147へ移行する。
特徴更新部630の第2更新部634は、第4間引き処理部633により作成された間引きテンプレートを、前回パーツマッチング処理に使用された間引きテンプレートに代えて更新(例えば、RAM54に記憶)する。作成された間引きテンプレートは、次のフレームでのパーツマッチング処理で使用される。また、第2更新部634は、ステップS145で算出された、上述の図19のステップS141の(式3)の割合FHおよびFWにそれぞれ対応する割合を、RAM54等に記憶させる。この割合は、次のフレームでの予測領域の画像の間引き処理(後述)で使用される。そして、ステップS148へ移行する。
特徴更新部630のパーツテンプレート選択部635は、現在フレームにおいて、第3テンプレートマッチング部617により最終的に定まった物体の検出領域の画像から、所定の条件を満たす部分画像(パーツテンプレート)を選択する。このパーツテンプレート選択部635による選択処理を、図25のステップS1481〜S1488の処理、および図26を参照しながら、詳述する。
パーツテンプレート選択部635は、現在フレームにおいて、パーツマッチング処理により検出された図26(a)に示す検出領域830内の左上端および右下端に、それぞれ仮枠840、841を作成する。そして、ステップS1482へ移行する。
パーツテンプレート選択部635は、検出領域830の左上端の仮枠840内に対応する視差画像(現在フレームに対応する視差画像)上の画像において、有効な視差値を有する画素の数(以下、「視差点数」という場合がある)をカウントする。ここで、有効な視差値を有する画素とは、例えば、視差値を有さない画素、または、非常に遠方の距離を視差値、すなわち非常に値が小さい視差値を有する画素ではない画像を示す。そして、ステップS1483へ移行する。
パーツテンプレート選択部635は、仮枠840内の面積に対する、カウントした視差点数の画素が占める面積の割合が所定の閾値以上であるか否かを判定する。割合が所定の閾値以上(ステップS1483:Yes)である場合、ステップS1485へ移行し、割合が所定の閾値未満(ステップS1483:No)である場合、ステップS1484へ移行する。例えば、図26(a)に示した状態の仮枠840内の画像である仮枠内画像850には、有効な視差値が少ない、すなわち、仮枠内画像850に含まれる物体(車両)の部分が少ないため、後述するパーツマッチング処理での効果的なテンプレートマッチングができない。そのため、後述のステップS1484の処理を行う必要がある。
パーツテンプレート選択部635は、検出領域830上で、仮枠840の位置を現在の位置から検出領域830の内側に向かって所定量ずらす。例えば、パーツテンプレート選択部635は、仮枠840の位置を現在の位置から、N画素分(Nは所定値)右にずらし、かつN画素分下にずらすものとしてもよく、または検出領域830の中心に向かって所定量だけずらすものとしてもよい。そして、ステップS1482へ戻る。
パーツテンプレート選択部635は、検出領域830の右下端の仮枠841内に対応する視差画像(現在フレームに対応する視差画像)上の画像において、有効な視差値を有する画素の数(視差点数)をカウントする。そして、ステップS1486へ移行する。
パーツテンプレート選択部635は、仮枠841内の面積に対する、カウントした視差点数の画素が占める面積の割合が所定の閾値以上であるか否かを判定する。割合が所定の閾値以上(ステップS1486:Yes)である場合、ステップS1488へ移行し、割合が所定の閾値未満(ステップS1486:No)である場合、ステップS1487へ移行する。例えば、図26(a)に示した状態の仮枠841内の画像である仮枠内画像851には、有効な視差値が多く、すなわち、仮枠内画像851に含まれる物体(車両)の部分が多いため、後述するパーツマッチング処理での効果的なテンプレートマッチングができる。
パーツテンプレート選択部635は、検出領域830上で、仮枠841の位置を現在の位置から検出領域830の内側に向かって所定量ずらす。例えば、パーツテンプレート選択部635は、仮枠841の位置を現在の位置から、N画素分(Nは所定値)左にずらし、かつN画素分上にずらすものとしてもよく、または検出領域830の中心に向かって所定量だけずらすものとしてもよい。そして、ステップS1485へ戻る。
パーツテンプレート選択部635は、上述のステップS1481〜S1487の処理の結果、検出領域830における現在の位置の2つの仮枠の画像をパーツテンプレートとして選択する。図26の例では、検出領域830上で最初に作成した左上端の仮枠840内の画像において視差点数の画素が占める面積の割合が所定の閾値未満であるので、ステップS1484の処理により、図26(b)に示すように検出領域830の内側にずらして所定の閾値以上となるようにした仮枠840aの画像である仮枠内画像850aをパーツテンプレートとして選択している。また、検出領域830上で最初に作成した右下端の仮枠841内の画像において視差点数の画素が占める面積の割合が所定の閾値以上であるので、仮枠841の画像である仮枠内画像851をパーツテンプレートとして選択している。
特徴更新部630の第3更新部636は、パーツテンプレート選択部635により選択された2つのパーツテンプレートを、前回パーツマッチング処理に使用された2つのパーツテンプレートに代えて更新(例えば、RAM54に記憶)する。選択されたパーツテンプレートは、次のフレームでのパーツマッチング処理で使用される。そして、特徴更新処理を終了する。
図27は、実施の形態のトラッキング処理部のトラッキング処理におけるパーツマッチング処理の動作の一例を示すフローチャートである。図28は、パーツマッチング処理を説明する図である。図27および28を参照しながら、トラッキング処理のうち、マッチング部610のパーツマッチング処理の動作の流れについて説明する。図27に示すパーツマッチング処理は、図18においてステップS123で実行されるパーツマッチング処理である。
マッチング部610の第3間引き処理部615は、移動予測部600により予測された現在フレーム(図28(a)に示す基準画像Ia)での予測領域800(図28(b)参照)の画像を所定の間引き量(例えば、第1間引き処理部612の間引き量よりも小さい量とする)に基づいて間引き処理を行い、間引き予測領域を得る。具体的には、第3間引き処理部615は、前フレームについて、第2更新部634によりRAM54等に記憶された割合(図24のステップS147参照)を用いて、予測領域に対し、上述の図21のステップS1221と同様の間引き処理を行う。
マッチング部610の第2テンプレートマッチング部616は、現在フレームにおいて、第3間引き処理部615により間引き処理が行われた間引き予測領域内で、前フレームについて第2更新部634により更新された間引きテンプレートに基づくテンプレートマッチングを行う。すなわち、第2テンプレートマッチング部616は、間引き予測領域内で、間引きテンプレートと一致する、または、一致するとみなせる画像を検出する。ここで、間引き予測領域内で、間引きテンプレートとの類似度を示す評価値としては、SAD等を用いることができる。第2テンプレートマッチング部616は、間引き予測領域内をラスタスキャンしながら、間引きテンプレートに基づくSADを算出し、SADが最も小さい画像の位置を求める。間引き予測領域内で最もSADが小さい画像の位置としては、例えば、間引き予測領域におけるその画像の左上端の位置を求める。
マッチング部610の第3テンプレートマッチング部617は、現在フレームにおいて、第2テンプレートマッチング部616によるテンプレートマッチングにより検出された検出領域860内で、前フレームについて第3更新部636により更新された2つのパーツテンプレート(図28(d)に示すパーツテンプレート870、871)に基づくテンプレートマッチングを行う。すなわち、第3テンプレートマッチング部617は、検出領域860内で、パーツテンプレート870、871とそれぞれ一致する、または、一致するとみなせる(以下、単に「一致する」という)画像を検出する。ここで、パーツテンプレート870、871は、上述の図26(b)に示す仮枠内画像850a、851にそれぞれ対応する。検出領域860内で、パーツテンプレート870、871との類似度を示す評価値としては、SAD等を用いることができる。第3テンプレートマッチング部617は、検出領域860内をラスタスキャンしながら、パーツテンプレート870、871に基づくSADをそれぞれ算出し、SADが最も小さい画像の位置をそれぞれ求める。
2 本体部
3 視差値導出部
4 通信線
5 認識処理部
6 車両制御装置
7 ステアリングホイール
8 ブレーキペダル
10a、10b 撮像部
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換部
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 画像処理部
31 FPGA
32 CPU
33 ROM
34 RAM
35 I/F
39 バスライン
51 FPGA
52 CPU
53 ROM
54 RAM
55 I/F
58 CANI/F
59 バスライン
60 機器制御システム
70 車両
100a、100b 画像取得部
200a、200b 変換部
300 視差値演算処理部
301 コスト算出部
302 決定部
303 第1生成部
500 第2生成部
510 クラスタリング処理部
520 トラッキング処理部
600 移動予測部
610 マッチング部
611 判定部
612 第1間引き処理部
613 第1テンプレートマッチング部
614 補正処理部
615 第3間引き処理部
616 第2テンプレートマッチング部
617 第3テンプレートマッチング部
620 チェック部
630 特徴更新部
631 第2間引き処理部
632 第1更新部
633 第4間引き処理部
634 第2更新部
635 パーツテンプレート選択部
636 第3更新部
640 状態遷移部
700 路面
700a 路面部
701 電柱
701a 電柱部
702 車
702a 車部
711 左ガードレール
711a、711b 左ガードレール部
712 右ガードレール
712a、712b 右ガードレール部
713 車
713a、713b 車部
714 車
714a、714b 車部
721〜724 検出領域
721a〜724a 検出枠
800 予測領域
801 間引き予測領域
810 検出領域
811 間引きテンプレート
820、821 検出枠
830 検出領域
840、840a、841 仮枠
850、850a、851 仮枠内画像
860 検出領域
870、871 パーツテンプレート
900、901 ヒストグラム
B 基線長
C コスト値
d シフト量
dp 視差値
E 物体
EL エピポーラ線
f 焦点距離
Ia 基準画像
Ib 比較画像
Ip 視差画像
p 基準画素
pb 基準領域
q 候補画素
qb 候補領域
RM リアルUマップ
S、Sa、Sb 点
Th 閾値
UM Uマップ
VM Vマップ
Z 距離
Claims (16)
- 現在のフレームに対する前のフレームにおける物体の位置から、前記現在のフレームにおける前記物体の位置を予測して予測領域を特定する予測手段と、
前記前のフレームにおける前記物体の距離に基づいて、該物体が第1距離域に存在するか、前記第1距離域よりも遠い第2距離域に存在するかを判定する判定手段と、
前記判定手段により前記物体が前記第1距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての第1テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第1マッチング処理手段と、
前記判定手段により前記物体が前記第2距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての、前記第1テンプレートとは異なる第2テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第2マッチング処理手段と、
を備え、
前記第1マッチング処理手段は、
前記予測領域内における画素を間引いた間引き予測領域に対してテンプレートマッチングを行い、
該テンプレートマッチングを行った後、前記画素の間引きによる検出誤差を補正することにより前記物体を検出する
ことを特徴とする画像処理装置。 - 現在のフレームに対する前のフレームにおける物体の位置から、前記現在のフレームにおける前記物体の位置を予測して予測領域を特定する予測手段と、
前記前のフレームにおける前記物体の距離に基づいて、該物体が第1距離域に存在するか、前記第1距離域よりも遠い第2距離域に存在するかを判定する判定手段と、
前記判定手段により前記物体が前記第1距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての第1テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第1マッチング処理手段と、
前記判定手段により前記物体が前記第2距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての、前記第1テンプレートとは異なる第2テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第2マッチング処理手段と、
を備え、
前記第1マッチング処理手段は、前記前のフレームにおける前記物体についての該物体の部分的でないテンプレートを用いたテンプレートマッチングによって該物体を検出し、
前記第2マッチング処理手段は、前記前のフレームにおける前記物体についての該物体の隅の部分のテンプレートを用いたテンプレートマッチングによって該物体を検出する
ことを特徴とする画像処理装置。 - 前記第2マッチング処理手段は、前記予測領域内における画素を間引いた間引き予測領域に対してテンプレートマッチングを行い、前記画素の間引きによる検出誤差を前記物体の部分的なテンプレートを用いて補正することにより前記物体を検出する
ことを特徴とする請求項1または2に記載の画像処理装置。 - 現在のフレームに対する前のフレームにおける物体の位置から、前記現在のフレームにおける前記物体の位置を予測して予測領域を特定する予測手段と、
前記前のフレームにおける前記物体の距離に基づいて、該物体が第1距離域に存在するか、前記第1距離域よりも遠い第2距離域に存在するかを判定する判定手段と、
前記判定手段により前記物体が前記第1距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての第1テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第1マッチング処理手段と、
前記判定手段により前記物体が前記第2距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての、前記第1テンプレートとは異なる第2テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第2マッチング処理手段と、
を備え、
前記判定手段は、距離情報に基づく物体の距離に基づいて、前記物体が前記第1距離域に存在するか、前記第2距離域に存在するかを判定し、
前記第1マッチング処理手段は、前記判定手段により前記物体が前記第1距離域に存在すると判定された場合、前記現在のフレームに対する、前記前のフレームでの該物体の第1検出領域についての前記第1テンプレートを用いたテンプレートマッチングにより該物体を検出し、検出した該物体の第2検出領域の距離情報に基づいて前記第2検出領域を補正し、
前記第2マッチング処理手段は、前記判定手段により前記物体が前記第2距離域に存在すると判定された場合、前記現在のフレームに対する、前記前のフレームでの該物体の第3検出領域についての前記第2テンプレートを用いたテンプレートマッチングにより該物体を検出し、検出した該物体の第4検出領域の大きさを前記第3検出領域の部分画像に基づいて補正する
ことを特徴とする画像処理装置。 - 前記第1マッチング処理手段は、前記第2検出領域に対応する距離情報の頻度に基づいて該第2検出領域の大きさを補正する請求項4に記載の画像処理装置。
- 前記第2マッチング処理手段は、前記第4検出領域内の前記部分画像に一致する部分の位置に基づいて、該第4検出領域の大きさを補正する請求項4または5に記載の画像処理装置。
- 前記第1マッチング処理手段は、前記予測領域内で前記第1テンプレートを用いたテンプレートマッチングを行い、
前記第2マッチング処理手段は、前記予測領域内で前記第2テンプレートを用いたテンプレートマッチングを行う請求項4〜6のいずれか一項に記載の画像処理装置。 - 前記第1マッチング処理手段は、前記予測領域を第1間引き量で間引き、間引いた前記予測領域内で、前記第1検出領域が前記第1間引き量で間引かれた前記第1テンプレートを用いたテンプレートマッチングを行い、
前記第2マッチング処理手段は、前記予測領域を第2間引き量で間引き、間引いた前記予測領域内で、前記第3検出領域が前記第2間引き量で間引かれた前記第2テンプレートを用いたテンプレートマッチングを行う請求項7に記載の画像処理装置。 - 前記第1マッチング処理手段は、前記第2間引き量よりも大きい前記第1間引き量で前記予測領域を間引く請求項8に記載の画像処理装置。
- 矩形状の前記第1検出領域を、高さ方向の長さまたは幅方向の長さのいずれかが固定長となるように前記第1間引き量で間引いて前記第1テンプレートを作成する第1間引き手段と、
矩形状の前記第3検出領域を、高さ方向の長さまたは幅方向の長さのいずれかが固定長となるように前記第2間引き量で間引いて前記第2テンプレートを作成する第2間引き手段と、
をさらに備えた請求項8または9に記載の画像処理装置。 - 前のフレームでの前記物体の前記第3検出領域において、該第3検出領域の端に仮枠を配置し、前記仮枠を該第3検出領域の内側にずらしながら、該仮枠に含まれる視差値が所定割合以上となった場合に、該仮枠を前記部分画像として選択する選択手段を、さらに備えた請求項4〜10のいずれか一項に記載の画像処理装置。
- 被写体を撮像することにより第1撮像画像を得る第1撮像手段と、
前記第1撮像手段の位置とは異なる位置に配置され、前記被写体を撮像することにより第2撮像画像を得る第2撮像手段と、
前記第1撮像画像および前記第2撮像画像から前記被写体に対して求めた視差値に基づいて、距離情報を生成する生成手段と、
前記第1撮像画像または前記第2撮像画像、および前記距離情報に基づいて、新規に物体を検出する検出手段と、
請求項1〜11のいずれか一項に記載の画像処理装置と、
を備えた物体認識装置。 - 請求項12に記載の物体認識装置と、
前記物体認識装置により検出された前記物体の情報に基づいて、制御対象を制御する制御装置と、
を備えた機器制御システム。 - 請求項13に記載の機器制御システムを備え、
前記制御装置により制御される移動体。 - 現在のフレームに対する前のフレームにおける物体の位置から、前記現在のフレームにおける前記物体の位置を予測して予測領域を特定する予測ステップと、
前記前のフレームにおける前記物体の距離に基づいて、該物体が第1距離域に存在するか、前記第1距離域よりも遠い第2距離域に存在するかを判定する判定ステップと、
前記物体が前記第1距離域に存在すると判定した場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての第1テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第1マッチング処理ステップと、
前記物体が前記第2距離域に存在すると判定した場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての、前記第1テンプレートとは異なる第2テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第2マッチング処理ステップと、
を有し、
前記第1マッチング処理ステップでは、
前記予測領域内における画素を間引いた間引き予測領域に対してテンプレートマッチングを行い、
該テンプレートマッチングを行った後、前記画素の間引きによる検出誤差を補正することにより前記物体を検出する
ことを特徴とする画像処理方法。 - コンピュータを、
現在のフレームに対する前のフレームにおける物体の位置から、前記現在のフレームにおける前記物体の位置を予測して予測領域を特定する予測手段と、
前記前のフレームにおける前記物体の距離に基づいて、該物体が第1距離域に存在するか、前記第1距離域よりも遠い第2距離域に存在するかを判定する判定手段と、
前記判定手段により前記物体が前記第1距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての第1テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第1マッチング処理手段と、
前記判定手段により前記物体が前記第2距離域に存在すると判定された場合、前記現在のフレームの前記予測領域において、前記前のフレームの該物体についての、前記第1テンプレートとは異なる第2テンプレートを用いたテンプレートマッチングを行い、該物体を検出する第2マッチング処理手段と、
して機能させ、
前記第1マッチング処理手段は、
前記予測領域内における画素を間引いた間引き予測領域に対してテンプレートマッチングを行い、
該テンプレートマッチングを行った後、前記画素の間引きによる検出誤差を補正することにより前記物体を検出する
ことを特徴とするプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016021953 | 2016-02-08 | ||
JP2016021953 | 2016-02-08 | ||
PCT/JP2016/087158 WO2017138245A1 (ja) | 2016-02-08 | 2016-12-14 | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017138245A1 JPWO2017138245A1 (ja) | 2018-09-27 |
JP6614247B2 true JP6614247B2 (ja) | 2019-12-04 |
Family
ID=59563277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017566537A Active JP6614247B2 (ja) | 2016-02-08 | 2016-12-14 | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10776946B2 (ja) |
EP (1) | EP3416132B1 (ja) |
JP (1) | JP6614247B2 (ja) |
WO (1) | WO2017138245A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3352134B1 (en) * | 2015-09-15 | 2023-10-11 | Ricoh Company, Ltd. | Image processing device, object recognition device, device control system, image processing method, and program |
JP6601506B2 (ja) * | 2015-12-28 | 2019-11-06 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両 |
WO2017167387A1 (en) * | 2016-03-31 | 2017-10-05 | Nec Europe Ltd. | Method for predicting a motion of an object |
JP6810009B2 (ja) * | 2017-09-29 | 2021-01-06 | トヨタ自動車株式会社 | 視差算出装置 |
US20210217191A1 (en) * | 2017-12-12 | 2021-07-15 | Sony Corporation | Image processing device, image processing method, program, and information processing system |
JP6983309B2 (ja) * | 2018-04-16 | 2021-12-17 | 三菱電機株式会社 | 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法 |
JP7115180B2 (ja) * | 2018-09-21 | 2022-08-09 | トヨタ自動車株式会社 | 画像処理システムおよび画像処理方法 |
CN111127508B (zh) * | 2018-10-31 | 2023-05-02 | 杭州海康威视数字技术股份有限公司 | 一种基于视频的目标跟踪方法及装置 |
JP6978454B2 (ja) * | 2019-02-22 | 2021-12-08 | ファナック株式会社 | 物体検出装置、制御装置及び物体検出用コンピュータプログラム |
JP2020190438A (ja) | 2019-05-20 | 2020-11-26 | 株式会社リコー | 計測装置および計測システム |
JP7206172B2 (ja) * | 2019-09-19 | 2023-01-17 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7333546B2 (ja) * | 2020-07-06 | 2023-08-25 | 株式会社ハイシンク創研 | 物体認識装置及びこれを用いた物体搬送システム |
CN112257542B (zh) * | 2020-10-15 | 2024-03-15 | 东风汽车有限公司 | 障碍物感知方法、存储介质及电子设备 |
US20240005520A1 (en) * | 2022-06-30 | 2024-01-04 | Lenovo Global Technology (United States) Inc. | Systems and Methods for Predicting Object Location Within Images and for Analyzing the Images in the Predicted Location for Object Tracking |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005214914A (ja) | 2004-02-02 | 2005-08-11 | Fuji Heavy Ind Ltd | 移動速度検出装置および移動速度検出方法 |
JP2006012013A (ja) * | 2004-06-29 | 2006-01-12 | Seiwa Electric Mfg Co Ltd | 移動物体追跡装置 |
JP2008158640A (ja) | 2006-12-21 | 2008-07-10 | Fuji Heavy Ind Ltd | 移動物体検出装置 |
JP2008176504A (ja) * | 2007-01-17 | 2008-07-31 | Toshiba Corp | 物体検出装置及びその方法 |
JP2009122859A (ja) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | 物体検出装置 |
JP5664152B2 (ja) | 2009-12-25 | 2015-02-04 | 株式会社リコー | 撮像装置、車載用撮像システム及び物体識別装置 |
JP5675229B2 (ja) * | 2010-09-02 | 2015-02-25 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP5493108B2 (ja) | 2010-09-09 | 2014-05-14 | オプテックス株式会社 | 距離画像カメラを用いた人体識別方法および人体識別装置 |
JP2012164275A (ja) | 2011-02-09 | 2012-08-30 | Toyota Motor Corp | 画像認識装置 |
JP5895734B2 (ja) * | 2011-09-05 | 2016-03-30 | コニカミノルタ株式会社 | 画像処理装置及び画像処理方法 |
JP5829980B2 (ja) | 2012-06-19 | 2015-12-09 | トヨタ自動車株式会社 | 路側物検出装置 |
JP6398347B2 (ja) | 2013-08-15 | 2018-10-03 | 株式会社リコー | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム |
JP6519262B2 (ja) | 2014-04-10 | 2019-05-29 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
JP2016001464A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム、及び、処理方法 |
JP2016001170A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理プログラム、及び、処理方法 |
JP6550881B2 (ja) | 2014-07-14 | 2019-07-31 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
US20160019429A1 (en) | 2014-07-17 | 2016-01-21 | Tomoko Ishigaki | Image processing apparatus, solid object detection method, solid object detection program, and moving object control system |
US10007998B2 (en) * | 2015-03-20 | 2018-06-26 | Ricoh Company, Ltd. | Image processor, apparatus, and control system for correction of stereo images |
JP6753134B2 (ja) | 2015-07-07 | 2020-09-09 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム |
US9760791B2 (en) * | 2015-09-01 | 2017-09-12 | Sony Corporation | Method and system for object tracking |
EP3385904A4 (en) | 2015-11-30 | 2018-12-19 | Ricoh Company, Ltd. | Image processing device, object recognition device, device conrol system, image processing method, and program |
-
2016
- 2016-12-14 JP JP2017566537A patent/JP6614247B2/ja active Active
- 2016-12-14 WO PCT/JP2016/087158 patent/WO2017138245A1/ja active Application Filing
- 2016-12-14 EP EP16889946.6A patent/EP3416132B1/en active Active
-
2018
- 2018-07-26 US US16/046,162 patent/US10776946B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017138245A1 (ja) | 2017-08-17 |
US20180336701A1 (en) | 2018-11-22 |
EP3416132B1 (en) | 2021-06-16 |
JPWO2017138245A1 (ja) | 2018-09-27 |
EP3416132A4 (en) | 2019-01-09 |
EP3416132A1 (en) | 2018-12-19 |
US10776946B2 (en) | 2020-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6614247B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6597792B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6795027B2 (ja) | 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム | |
JP6597795B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP7206583B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム | |
JP6565188B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6516012B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2017151535A (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6572696B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2016152027A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6547841B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6992356B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム | |
JP6543935B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP2017167970A (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6701905B2 (ja) | 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム | |
JP2019160251A (ja) | 画像処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム | |
WO2018097269A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
EP2919191B1 (en) | Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method | |
JP6828332B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6701738B2 (ja) | 視差値導出装置、視差値導出方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20180606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191021 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6614247 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |